Nel 2026, il mondo dell’intelligenza artificiale vive una svolta importante, guidata dalla visione audace di Eric Zelikman. Ex pilastro di OpenAI, ha scelto una partenza discreta ma determinata, rifiutando i riflettori e gli annunci pomposi per dedicarsi a un’ambizione senza precedenti. Non cerca semplicemente di migliorare l’IA come la conosciamo, ma di reinventarla intorno a un’idea centrale: l’IA può raggiungere il suo pieno potenziale solo se riesce a facilitare la collaborazione umana, comprendendo meglio le dinamiche sociali e decisionali che regolano il lavoro collettivo.
In un contesto in cui i giganti del settore come OpenAI, Google o Meta puntano su modelli di IA sempre più potenti e performanti su compiti individuali, Zelikman si pone in controtendenza. Ha raccolto in tempi record 480 milioni di dollari, senza nemmeno presentare un prototipo pubblico, convincendo investitori ed esperti grazie alla sua visione umanista e pragmatica. La sua startup, Humans&, mira ora a un finanziamento di un miliardo di dollari per sviluppare un sistema in grado non solo di rispondere o programmare, ma di « orchestrare » veramente le interazioni umane. Questa audace ricerca solleva una questione fondamentale: come può un’intelligenza artificiale rivoluzionare davvero il nostro modo di lavorare insieme, senza replicare o amplificare le difficoltà attuali del lavoro di gruppo?
- 1 Una partenza strategica da OpenAI per rimescolare le carte dell’intelligenza artificiale collaborativa
- 2 La visione rivoluzionaria di Humans& : un’IA che accompagna la collaborazione umana
- 3 Un round di finanziamento record che illustra la fiducia nel progetto
- 4 Humans& contro i giganti: una disruption annunciata negli strumenti di collaborazione
- 5 Le implicazioni etiche e il potere invisibile di un’IA di coordinamento
- 6 La tecnicità dietro Humans& : un’IA pensata per durare e adattarsi
- 7 Un miliardo di dollari per rivoluzionare la collaborazione umana grazie all’IA
- 8 Prospettive sul futuro dell’intelligenza artificiale sociale e collaborativa
Una partenza strategica da OpenAI per rimescolare le carte dell’intelligenza artificiale collaborativa
La partenza di Eric Zelikman da OpenAI non si è svolta nel tumulto mediatico abituale che spesso accompagna i cambiamenti importanti nella tech. Ha lasciato uno dei laboratori di IA più quotati con una discrezione calcolata, in un momento in cui l’azienda dominava il mercato e suscitava tutte le invidie. Questa decisione non è stata un colpo di testa, ma la conseguenza di una profonda divergenza sulla traiettoria stessa che l’IA doveva prendere. Mentre molti orientavano i loro sforzi verso la creazione di IA solitarie capaci di prestazioni cognitive estreme, Zelikman ha tirato il campanello d’allarme: l’IA attuale, per quanto brillante sia, fatica a cogliere l’essenza del lavoro collettivo umano.
Il riscontro è semplice ma grave di conseguenze. Riassume così il suo pensiero: « L’IA non manca di intelligenza tecnica, sa programmare, rispondere, analizzare. Ciò che ancora ignora è come gestire la complessità delle interazioni umane, arbitrare i conflitti, far progredire una decisione nel tempo con attori multipli. » Questa incapacità di comprendere il coordinamento e la dinamica di gruppo limita il suo impatto reale nelle aziende o nelle organizzazioni. Questo divario spiega in parte perché le soluzioni attuali di IA, nonostante il loro successo tecnico, faticano a integrare profondamente la vita professionale quotidiana.
Lasciando OpenAI, Eric Zelikman ha preso un rischio calcolato, scommettendo su un futuro in cui l’intelligenza artificiale non sarebbe più una forza individuale top-performante, ma un catalizzatore di collaborazione. Questo cambio di paradigma lascia intravedere una direzione nettamente diversa per il futuro del settore, riconciliando potenza cognitiva e intelligenza sociale.
La visione rivoluzionaria di Humans& : un’IA che accompagna la collaborazione umana
Dopo questa partenza, Zelikman ha fondato Humans&, una startup atipica che non ha l’obiettivo di lanciare una « super IA » capace di fare tutto, ma di costruire un sistema che comprenda la complessità delle interazioni umane all’interno dei gruppi. Piuttosto che un’IA isolata, Humans& mira a un’intelligenza collettiva, un « tessuto connettivo » tra macchine e umani. Questa IA deve servire non solo come produttrice di risposte, ma come un’interfaccia dinamica capace di seguire e accompagnare processi collaborativi nel tempo.
In questo spirito, l’IA sviluppata da Humans& integra diverse innovazioni chiave. In primo luogo, applica un apprendimento per rinforzo a lungo termine, dove la macchina osserva, pianifica e adatta i suoi interventi in funzione dell’evoluzione delle dinamiche umane. Questo modo di allenamento è fondamentale per costruire un’IA che non si limiti a un’interazione puntuale, ma possa guidare un progetto o una decisione su più settimane.
In secondo luogo, Humans& ha scelto un’architettura multi-agente, il che significa che diverse intelligenze artificiali interagiscono non solo tra loro, ma anche costantemente con utenti umani. Ciò riflette maggiormente la realtà degli ambienti professionali, dove decisioni e arbitrati emergono spesso da negoziazioni complesse tra varie parti con interessi divergenti.
Infine, un elemento cruciale è la memoria persistente di questa IA. Contrariamente ai modelli classici, Humans& permette alla macchina di ricordare gli episodi precedenti, gli accordi passati, così come le tensioni o cambiamenti di stato d’animo all’interno dei team. Questa memoria « vivente » consente all’IA di evitare la ripetizione di errori e di contestualizzare i suoi consigli, creando una vera continuità nel lavoro collettivo.
Un sistema simile inaugura una nuova era in cui l’intelligenza artificiale diventa un vero alleato del lavoro di squadra e della presa di decisioni coordinate, andando oltre i semplici assistenti virtuali.
I benefici concreti di un’IA orientata alla collaborazione
L’impatto atteso di Humans& supera la dimensione tecnica per toccare direttamente i modi di organizzazione delle aziende. Per esempio:
- Riduzione dei conflitti irrisolti : L’IA può identificare in anticipo le fonti di tensioni o blocchi in un team, proponendo arbitrati illuminati o facilitando la comunicazione.
- Miglioramento del monitoraggio delle decisioni : Grazie alla memoria persistente, ogni fase di un processo è conservata, permettendo una migliore tracciabilità e responsabilizzazione.
- Aumento della produttività collettiva : Ottimizzando gli scambi e evitando sforzi ridondanti, il team può avanzare più efficacemente verso obiettivi comuni.
Con queste innovazioni, Humans& non si limita ad automatizzare o assistere, ma ridefinisce la collaborazione, aprendo la strada a un’intelligenza artificiale realmente sociale.
Un round di finanziamento record che illustra la fiducia nel progetto
Appena fondata, Humans& si è distinta per un round di finanziamento eccezionale da 480 milioni di dollari, proponendo una valutazione impressionante di 4,48 miliardi di dollari. Questo finanziamento proviene da investitori prestigiosi come Ron Conway di SV Angel, Nvidia, Jeff Bezos, nonché GV di Alphabet. Questo record illustra sia la fiducia nella pertinenza del progetto sia l’appetito del mercato per un’IA che supera il semplice calcolo o la generazione di testo.
È notevole constatare che questo entusiasmo finanziario si è manifestato senza che Humans& abbia ancora rivelato alcun prodotto o prototipo. Questa situazione mette in luce una nuova tendenza nell’ecosistema startup: gli investitori puntano ora sulle idee, sulle visioni strategiche e sulla qualità dei team più che sui prodotti finiti. Cercano di appropriarsi di un ruolo centrale in quella che Zelikman chiama la « couche conjonctive » del futuro digitale.
La presenza di Nvidia, leader nell’hardware specializzato per l’IA, non è casuale. Indica che Humans& richiederà capacità di calcolo massicce e si inserisce in una competizione tecnologica intensa per costruire architetture adatte alle sue ambizioni.
Humans& contro i giganti: una disruption annunciata negli strumenti di collaborazione
Humans& non mira a competere direttamente con gli strumenti collaborativi classici come Slack, Notion o Google Docs, ma a stravolgere il modo in cui queste piattaforme funzionano. Tutti questi strumenti si basano su un approccio frammentato: conversazioni separate, documenti indipendenti, una gestione spesso scollegata dai processi umani reali.
La strategia di Humans& è più profonda: ridefinire in profondità la collaborazione introducendo uno strato di intelligenza sociale capace di armonizzare le divergenze, partecipare alla governance informale dei team e seguire l’evoluzione delle decisioni nel tempo. Questa ambizione rappresenta una minaccia significativa per i fornitori tradizionali e i grandi laboratori che, loro, sviluppano proprie IA senza necessariamente ripensare la struttura stessa della cooperazione umana.
Anthropic, Google o OpenAI lavorano certamente su IA capaci di compiti collaborativi, ma restano legati a modelli concepiti inizialmente per interazioni individuali. Humans& prende la posizione opposta: ripartire da un’intelligenza sociale come base, una scommessa audace che potrebbe sconvolgere i paradigmi del settore.
Le implicazioni etiche e il potere invisibile di un’IA di coordinamento
La promessa di un’intelligenza artificiale capace di arbitrare le relazioni umane, memorizzare le tensioni passate e influenzare le decisioni collettive solleva questioni fondamentali. Chi definisce i criteri di ciò che è « buono » per il gruppo? Dove si ferma l’assistenza per diventare manipolazione? Queste questioni non sono soltanto teoriche, ma essenziali per la fiducia che gli utenti concederanno a una tale tecnologia.
Eric Zelikman afferma che Humans& mira ad « aumentare » e non a spogliare l’umano del suo potere. Tuttavia, impiantare uno strato invisibile di coordinamento può rapidamente diventare una fonte di controllo opaco, dove decisioni strategiche sono influenzate da un algoritmo che nessuno comprende pienamente. È un equilibrio delicato tra utilità e influenza, tra trasparenza e funzionamento terzo.
La startup dovrà quindi impegnarsi anche in approcci di etica tecnologica rigorosa, garantire la responsabilità algoritmica e offrire agli utenti un controllo reale sul funzionamento e le raccomandazioni dell’IA. Questa doppia missione tecnica ed etica è certamente una delle sfide maggiori di questa corsa al miliardo di dollari.
Alcuni essenziali temi etici :
- Trasparenza delle decisioni algoritmiche : Gli utenti devono capire come e perché l’IA influenza certi processi
- Rispetto della privacy : La memoria persistente solleva questioni su dati personali e riservatezza
- Limiti dell’influenza : Chiarezza sui confini tra aiuto alla decisione e presa di controllo
- Responsabilità condivisa : Attribuzione chiara delle responsabilità umane e algoritmiche in caso di errore o conflitto
La tecnicità dietro Humans& : un’IA pensata per durare e adattarsi
Il cuore del progetto si basa non solo su un nuovo approccio concettuale, ma su rotture tecniche importanti. L’apprendimento per rinforzo a lungo termine permette di sviluppare modelli che vanno oltre la semplice risposta statica per evolvere con l’ambiente degli utenti. Questo modo di apprendere dà all’IA la capacità di integrare feedback in continuazione, di adattare le sue strategie e correggere le sue azioni in tempo reale.
Il multi-agent reinforcement learning introduce un’interazione complessa tra diversi agenti digitali, ciascuno dei quali può rappresentare differenti aspetti o partecipanti di un progetto. Queste interazioni crescenti simulano il funzionamento reale di un’organizzazione umana, dove interessi divergenti devono trovare un terreno comune. Questa complessità è necessaria affinché l’IA comprenda le negoziazioni, i compromessi e gli arbitrati sottili che costituiscono la ricchezza ma anche la complicazione del lavoro di gruppo.
Infine, la memoria persistente, ovvero la capacità di conservare una cronologia dettagliata e utilizzabile, evita che l’IA riproduca l’amnesia funzionale che penalizza gli strumenti attuali. Rende possibile la continuità e la coerenza delle decisioni, anche dopo diverse settimane o mesi, un apporto importante per le aziende confrontate con scadenze e sfide complesse.
| Tecnologia | Obiettivo | Beneficio chiave |
|---|---|---|
| Apprendimento per rinforzo a lungo termine | Monitoraggio e adattamento continuo | Accompagnamento duraturo dei progetti |
| Multi-agent reinforcement learning | Interazione tra più IA e umani | Gestione realistica di negoziazioni e conflitti |
| Memoria persistente | Conservazione della cronologia decisionale | Continuità e coerenza delle decisioni |
Un miliardo di dollari per rivoluzionare la collaborazione umana grazie all’IA
Mentre Humans& ha già superato una tappa impressionante con quasi mezzo miliardo di dollari di finanziamento, si profila una nuova fase: raccogliere un miliardo di dollari per concretizzare la sua visione globale. Questa cifra straordinaria traduce l’ambizione di costruire un’infrastruttura tecnologica e organizzativa capace di operare a scala mondiale, riunendo team umani e intelligenze artificiali in un dialogo permanente ed efficace.
Questa somma servirà non solo a rafforzare le capacità tecniche, soprattutto in calcolo ad alte prestazioni, ma anche ad attrarre talenti provenienti dai migliori laboratori come Google, Meta, Anthropic, OpenAI o DeepMind. Il team attuale, già composto da figure prestigiose come Georges Harik (ex-Google) e Noah Goodman (Stanford), verrà ampliato per accelerare la ricerca e sviluppo.
Questo finanziamento massiccio risponde anche a una necessità strategica: anticipare la guerra del calcolo imminente tra i grandi attori mondiali dell’IA, dove la capacità di trattare dati complessi in tempo reale determinerà il futuro dell’industria. Per Zelikman, la sfida non è avere un’IA isolata con un’intelligenza sovrumana, ma un’intelligenza sociale infallibile al servizio degli esseri umani.
Mentre l’intelligenza artificiale continua a progredire al ritmo frenetico atteso nel 2026, la visione portata da Humans& offre una direzione rinnovata, più umana e pragmatica. Piuttosto che puntare a una superintelligenza solitaria e scollegata dalle realtà sul campo, si tratta di creare un’IA integrata alla vita collettiva, capace di gestire le tensioni, facilitare le decisioni e far convergere gli sforzi verso obiettivi comuni.
Questa evoluzione tecnologica si accompagna a una profonda mutazione culturale nel modo di concepire l’IA. Il futuro non sarà quello in cui la macchina sostituisce l’uomo, ma quello in cui diventa un mediatore intelligente, rafforzando la competenza collettiva e aiutando a superare le debolezze insite nelle interazioni umane.
Rimane da vedere se Humans& riuscirà a conquistare questo mercato ambizioso e a imporre una nuova norma, ma il modello proposto segna già una chiara rottura nella rivoluzione in corso. Il coordinamento tra uomini – finora il tallone d’Achille dei progetti tecnologici – diventa ora la principale sfida da affrontare per costruire l’IA rivoluzionaria promessa.
{“@context”:”https://schema.org”,”@type”:”FAQPage”,”mainEntity”:[{“@type”:”Question”,”name”:”Perché Eric Zelikman ha lasciato OpenAI?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Ha lasciato OpenAI perché riteneva che l’IA attuale non eccellesse nella comprensione delle dinamiche umane e della collaborazione, che sono cruciali per risolvere i veri problemi collettivi.”}},{“@type”:”Question”,”name”:”Qual è la particolarità dell’IA sviluppata da Humans& ?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Questa IA si basa sull’apprendimento a lungo termine, il multi-agent reinforcement learning e una memoria persistente, per accompagnare duraturamente la collaborazione umana nella presa di decisione collettiva.”}},{“@type”:”Question”,”name”:”Perché Humans& ha raccolto così tanti soldi senza prodotto?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Gli investitori scommettono sulla visione di una nuova forma di IA capace di costruire lo strato di coordinamento chiave tra umani e macchine, una posizione strategica centrale per il futuro.”}},{“@type”:”Question”,”name”:”Quali sono le principali sfide etiche legate a questa IA?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Le questioni riguardano la trasparenza, il rispetto della privacy, il confine tra aiuto e influenza, e la responsabilità in caso di controversie o errori.”}},{“@type”:”Question”,”name”:”Come potrebbe questo progetto cambiare la collaborazione in azienda?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Potrebbe trasformare i processi di lavoro migliorando la gestione dei conflitti, il monitoraggio delle decisioni e la produttività collettiva grazie a un’IA che comprende e coordina le interazioni umane.”}}]}Perché Eric Zelikman ha lasciato OpenAI?
Ha lasciato OpenAI perché riteneva che l’IA attuale non eccellesse nella comprensione delle dinamiche umane e della collaborazione, che sono cruciali per risolvere i veri problemi collettivi.
Qual è la particolarità dell’IA sviluppata da Humans& ?
Questa IA si basa sull’apprendimento a lungo termine, il multi-agent reinforcement learning e una memoria persistente, per accompagnare duraturamente la collaborazione umana nella presa di decisione collettiva.
Perché Humans& ha raccolto così tanti soldi senza prodotto?
Gli investitori scommettono sulla visione di una nuova forma di IA capace di costruire lo strato di coordinamento chiave tra umani e macchine, una posizione strategica centrale per il futuro.
Quali sono le principali sfide etiche legate a questa IA?
Le questioni riguardano la trasparenza, il rispetto della privacy, il confine tra aiuto e influenza, e la responsabilità in caso di controversie o errori.
Come potrebbe questo progetto cambiare la collaborazione in azienda?
Potrebbe trasformare i processi di lavoro migliorando la gestione dei conflitti, il monitoraggio delle decisioni e la produttività collettiva grazie a un’IA che comprende e coordina le interazioni umane.