W 2026 roku świat sztucznej inteligencji przeżywa przełomowy moment, napędzany odważną wizją Erica Zelikmana. Były filar OpenAI, zdecydował się na ciche, ale stanowcze odejście, odmawiając reflektorów i pompatycznych zapowiedzi, aby poświęcić się niewyobrażalnej ambicji. Nie chce po prostu ulepszać AI tak, jak ją znamy, lecz ją całkowicie przekształcić wokół centralnej idei: AI może osiągnąć pełny potencjał tylko wtedy, gdy uda się jej ułatwić współpracę ludzi, lepiej rozumiejąc społeczne i decyzyjne dynamiki rządzące pracą zespołową.
W kontekście, gdzie giganci branży jak OpenAI, Google czy Meta stawiają na modele AI coraz bardziej potężne i wydajne w zadaniach indywidualnych, Zelikman idzie pod prąd. Zebrał w rekordowym czasie 480 milionów dolarów, nie przedstawiając nawet publicznego prototypu, przekonując inwestorów i ekspertów swoją humanistyczną i pragmatyczną wizją. Jego startup, Humans&, celuje teraz w finansowanie na poziomie miliarda dolarów, aby opracować system zdolny nie tylko do odpowiadania czy kodowania, ale do prawdziwego „orchestracji” interakcji międzyludzkich. Ta śmiała misja stawia fundamentalne pytanie: jak sztuczna inteligencja może naprawdę zrewolucjonizować nasz sposób wspólnej pracy, nie powielając lub wzmacniając obecnych trudności współpracy grupowej?
- 1 Strategiczne odejście z OpenAI, aby przetasować karty współpracy w sztucznej inteligencji
- 2 Rewolucyjna wizja Humans&: AI wspierająca współpracę ludzi
- 3 Rekordowa zbiórka funduszy ukazująca skalę zaufania do projektu
- 4 Humans& przeciwko gigantom: zapowiedziana rewolucja w narzędziach współpracy
- 5 Implikacje etyczne i niewidzialna siła AI koordynującej
- 6 Techniczna strona Humans&: AI zaprojektowana, aby trwać i adaptować się
- 7 Miliard dolarów na rewolucję w ludzkiej współpracy dzięki AI
- 8 Perspektywy na przyszłość społecznej i współpracującej sztucznej inteligencji
Strategiczne odejście z OpenAI, aby przetasować karty współpracy w sztucznej inteligencji
Odejście Erica Zelikmana z OpenAI nie odbyło się w zwykłym medialnym tumultcie, który często towarzyszy ważnym zmianom w branży technologicznej. Opuszczał jeden z najbardziej pożądanych laboratoriów AI z wyważoną dyskrecją, w czasie, gdy firma dominowała na rynku i przyciągała wszelkie zainteresowanie. Decyzja ta nie była impulsywna, lecz wynikiem głębokiej różnicy wizji co do kierunku, jaki AI powinna obrać. Podczas gdy wielu skupiało się na tworzeniu samotnych AI z ekstremalnymi zdolnościami poznawczymi, Zelikman dał alarm: obecna AI, choć błyskotliwa, ma trudności z uchwyceniem istoty pracy zespołowej ludzi.
Wniosek jest prosty, lecz o poważnych konsekwencjach. Swoją myśl podsumowuje tak: „AI nie brakuje inteligencji technicznej, potrafi kodować, odpowiadać, analizować. To, czego jeszcze nie potrafi, to zarządzać złożonością interakcji ludzkich, rozstrzygać konflikty, prowadzić decyzje w czasie z udziałem wielu aktorów.” Ta niezdolność do zrozumienia koordynacji i dynamiki grupowej ogranicza jej rzeczywisty wpływ w firmach i organizacjach. Ta luka tłumaczy częściowo, dlaczego obecne rozwiązania AI, mimo technicznych sukcesów, nie potrafią głęboko integrować się z codziennym życiem zawodowym.
Odejście z OpenAI było dla Erica Zelikmana ryzykiem kalkulowanym, stawiającym na przyszłość, w której sztuczna inteligencja nie będzie już wyjątkowo wydajną siłą indywidualną, lecz katalizatorem współpracy. Ta zmiana paradygmatu otwiera zupełnie nowy kierunek dla rozwoju sektora, łącząc moc poznawczą z inteligencją społeczną.
Rewolucyjna wizja Humans&: AI wspierająca współpracę ludzi
Po odejściu Zelikman założył Humans&, nietypowy startup, którego celem nie jest stworzenie „super AI” zdolnej do wszystkiego, lecz budowa systemu rozumiejącego złożoność interakcji międzyludzkich w grupach. Zamiast odizolowanego AI, Humans& dąży do inteligencji zbiorowej – „tkanki łączącej” maszyny i ludzi. Ta AI ma służyć nie tylko jako producent odpowiedzi, ale dynamiczny interfejs, który śledzi i wspiera procesy współpracy w czasie.
W tym duchu AI stworzona przez Humans& wprowadza kilka kluczowych innowacji. Po pierwsze, stosuje długoterminowe uczenie przez wzmacnianie, gdzie maszyna obserwuje, planuje i dostosowuje swoje interwencje w oparciu o ewolucję ludzkich dynamik. Ten tryb szkolenia jest zasadniczy dla zbudowania AI, która nie ogranicza się do pojedynczej interakcji, lecz może prowadzić projekt lub decyzję przez wiele tygodni.
Po drugie, Humans& zastosowało architekturę wieloagentową, co oznacza, że wiele inteligencji sztucznych wchodzi w interakcje nie tylko między sobą, ale także stale z użytkownikami ludzkimi. Odzwierciedla to bardziej rzeczywistość środowisk zawodowych, gdzie decyzje i rozstrzygnięcia często wynikają z złożonych negocjacji między różnymi stronami o sprzecznych interesach.
Na końcu, kluczowym elementem jest trwała pamięć tej AI. W przeciwieństwie do klasycznych modeli, Humans& pozwala maszynie zapamiętywać poprzednie epizody, zawarte umowy oraz napięcia lub zmiany nastrojów w zespołach. Ta „żywa” pamięć umożliwia AI unikanie powtarzania błędów i kontekstualizację rad, tworząc prawdziwą ciągłość w pracy zbiorowej.
Taki system zapoczątkowuje nową erę, w której sztuczna inteligencja staje się prawdziwym sprzymierzeńcem pracy zespołowej i skoordynowanego podejmowania decyzji, wykraczając poza proste wirtualne asystenty.
Konkretnie korzyści z AI ukierunkowanej na współpracę
Oczekiwany wpływ Humans& wykracza poza ramy techniczne, bezpośrednio oddziałując na sposoby organizacji przedsiębiorstw. Na przykład:
- Redukcja nierozwiązanych konfliktów : AI może wcześniej rozpoznawać źródła napięć lub blokad w zespole, proponując trafne rozstrzygnięcia bądź ułatwiając komunikację.
- Poprawa monitoringu decyzji : Dzięki trwałej pamięci każdy etap procesu jest zachowany, co umożliwia lepszą śledzalność i odpowiedzialność.
- Zwiększenie produktywności zespołowej : Optymalizując wymianę informacji i eliminując powtarzalne wysiłki, zespół może skuteczniej dążyć do wspólnych celów.
Dzięki tym innowacjom Humans& nie ogranicza się do automatyzacji lub wsparcia, ale na nowo definiuje współpracę, torując drogę do prawdziwie społecznej sztucznej inteligencji.
Rekordowa zbiórka funduszy ukazująca skalę zaufania do projektu
Ledwie założony Humans& zaprezentował niezwykłą rundę finansowania na 480 milionów dolarów, oferując imponującą wycenę na poziomie 4,48 miliarda dolarów. Finansowanie pochodzi od prestiżowych inwestorów, takich jak Ron Conway z SV Angel, Nvidia, Jeff Bezos oraz GV z Alphabet. To rekord odzwierciedla zarówno zaufanie do zasadności projektu, jak i apetyt rynku na AI wykraczającą poza proste obliczenia czy generowanie tekstów.
Warto zauważyć, że to zainteresowanie finansowe pojawiło się, zanim Humans& ujawnił jakikolwiek produkt czy prototyp. Ta sytuacja uwypukla nowy trend w ekosystemie startupów: inwestorzy stawiają teraz na idee, strategiczne wizje i jakość zespołów bardziej niż na gotowe produkty. Szukają, by zająć centralną rolę w tym, co Zelikman nazywa „warstwą łączącą” przyszłości cyfrowej.
Obecność Nvidii, lidera sprzętu specjalistycznego dla AI, nie jest przypadkowa. Sugeruje, że Humans& będzie wymagać ogromnych mocy obliczeniowych i wpisuje się w intensywną rywalizację technologiczną o budowę architektur dostosowanych do swoich ambicji.
Humans& przeciwko gigantom: zapowiedziana rewolucja w narzędziach współpracy
Humans& nie zamierza bezpośrednio konkurować z klasycznymi narzędziami współpracy takimi jak Slack, Notion czy Google Docs, lecz zrewolucjonizować sposób, w jaki te platformy działają. Wszystkie oparte są na fragmentarycznym podejściu: oddzielnych rozmowach, niezależnych dokumentach, często rozłącznym zarządzaniu rzeczywistymi procesami ludzkimi.
Strategia Humans& jest głębsza: zasadniczo redefiniować współpracę, wprowadzając warstwę inteligencji społecznej zdolnej do harmonizacji rozbieżności, uczestnictwa w nieformalnym zarządzaniu zespołami oraz śledzenia ewolucji decyzji w czasie. Ta ambicja stanowi poważne zagrożenie dla tradycyjnych dostawców i dużych laboratoriów, które rozwijają własne AI, niekoniecznie przemyślając na nowo samą strukturę ludzkiej kooperacji.
Anthropic, Google czy OpenAI pracują co prawda nad AI zdolnymi do zadań zespołowych, ale pozostają przy modelach początkowo stworzonych do interakcji indywidualnych. Humans& wybiera przeciwną drogę: zaczyna od inteligencji społecznej jako fundamentu, co jest śmiałym zakładem, który może przeobrazić paradygmaty sektora.
Implikacje etyczne i niewidzialna siła AI koordynującej
Obietnica sztucznej inteligencji zdolnej do rozstrzygania relacji międzyludzkich, zapamiętywania przeszłych napięć i wpływania na decyzje zbiorowe budzi fundamentalne pytania. Kto definiuje kryteria tego, co jest „dobre” dla grupy? Gdzie kończy się wsparcie, a zaczyna manipulacja? Te pytania są nie tylko teoretyczne, ale kluczowe dla zaufania, jakie użytkownicy okażą takiej technologii.
Eric Zelikman podkreśla, że Humans& dąży do „wzmocnienia”, a nie pozbawienia człowieka jego siły. Jednak wdrożenie niewidzialnej warstwy koordynacji może szybko stać się źródłem nieprzejrzystej kontroli, gdzie strategiczne decyzje są pod wpływem algorytmu, którego nikt nie rozumie w pełni. To delikatna równowaga między użytecznością a wpływem, między przejrzystością a działaniem osoby trzeciej.
Startup będzie musiał także zaangażować się w rygorystyczne działania z zakresu etyki technologicznej, zapewnić odpowiedzialność algorytmiczną oraz zaoferować użytkownikom realną kontrolę nad funkcjonowaniem i rekomendacjami AI. Ta podwójna misja techniczna i etyczna bez wątpienia należy do największych wyzwań w tej miliardowej wyprawie.
Kluczowe kwestie etyczne:
- Przejrzystość decyzji algorytmicznych : Użytkownicy muszą rozumieć, jak i dlaczego AI wpływa na pewne działania
- Poszanowanie prywatności : Trwała pamięć rodzi pytania o dane osobowe i poufność
- Granice wpływu : Jasność co do granic między wsparciem a przejęciem kontroli
- Wspólna odpowiedzialność : Wyraźne przydzielenie odpowiedzialności ludzi i algorytmów w przypadku błędu lub konfliktu
Techniczna strona Humans&: AI zaprojektowana, aby trwać i adaptować się
Rdzeń projektu opiera się nie tylko na nowej koncepcji, ale na istotnych przełomach technicznych. Długoterminowe uczenie przez wzmacnianie umożliwia rozwój modeli wykraczających poza prostą statyczną odpowiedź, ewoluujących wraz ze środowiskiem użytkowników. Ten sposób uczenia daje AI zdolność do ciągłego integrowania informacji zwrotnej, dostosowywania strategii i korygowania działań w czasie rzeczywistym.
Multi-agent reinforcement learning wprowadza złożoną interakcję między różnymi agentami cyfrowymi, z których każdy może reprezentować różne aspekty lub uczestników projektu. Te rosnące interakcje symulują rzeczywiste funkcjonowanie organizacji ludzkiej, gdzie sprzeczne interesy muszą znaleźć wspólny grunt. Ta złożoność jest niezbędna, by AI rozumiała negocjacje, kompromisy i subtelne rozstrzygnięcia, które stanowią bogactwo, ale też komplikacje pracy zespołowej.
Na koniec trwała pamięć, czyli zdolność do zachowania szczegółowej i użytecznej historii, zapobiega amnezji funkcjonalnej, która szkodzi obecnym narzędziom. Umożliwia ciągłość i spójność decyzji nawet po wielu tygodniach lub miesiącach, co stanowi ogromną korzyść dla firm zmagających się z długimi terminami i złożonymi wyzwaniami.
| Technologia | Cel | Kluczowa korzyść |
|---|---|---|
| Długoterminowe uczenie przez wzmacnianie | Ciągłe monitorowanie i adaptacja | Trwałe wsparcie projektów |
| Multi-agent reinforcement learning | Interakcja między wieloma AI i ludźmi | Realistyczne zarządzanie negocjacjami i konfliktami |
| Trwała pamięć | Zachowanie historii decyzji | Ciągłość i spójność decyzji |
Miliard dolarów na rewolucję w ludzkiej współpracy dzięki AI
Podczas gdy Humans& już przekroczył imponujący próg z prawie pół miliarda dolarów finansowania, na horyzoncie pojawia się nowy etap: pozyskanie miliarda dolarów, by zrealizować swoją globalną wizję. Ta niezwykła kwota odzwierciedla ambicję budowy infrastruktury technologicznej i organizacyjnej zdolnej działać na skalę światową, łącząc zespoły ludzkie i sztuczne inteligencje w stałym i efektywnym dialogu.
Środki te posłużą nie tylko wzmocnieniu zdolności technicznych, zwłaszcza w zakresie obliczeń wysokowydajnych, ale także przyciągnięciu talentów z najlepszych laboratoriów takich jak Google, Meta, Anthropic, OpenAI czy DeepMind. Obecny zespół, już składający się z prestiżowych postaci jak Georges Harik (były Google) i Noah Goodman (Stanford), zostanie powiększony, by przyspieszyć badania i rozwój.
To ogromne finansowanie odpowiada również strategicznej konieczności: przewidzieć nadchodzącą wojnę o moce obliczeniowe między światowymi gigantami AI, gdzie zdolność przetwarzania złożonych danych w czasie rzeczywistym zadecyduje o przyszłości przemysłu. Dla Zelikmana wyzwaniem nie jest posiadanie samotnej AI o nadludzkiej inteligencji, lecz niezawodnej inteligencji społecznej służącej ludziom.
Perspektywy na przyszłość społecznej i współpracującej sztucznej inteligencji
W miarę jak sztuczna inteligencja nadal rozwija się w zawrotnym tempie oczekiwanym w 2026 roku, wizja przedstawiona przez Humans& daje odnowiony, bardziej ludzki i pragmatyczny kierunek. Zamiast dążyć do samotnej superinteligencji oderwanej od realiów, chodzi o stworzenie AI wkomponowanej w życie zbiorowe, zdolnej zarządzać napięciami, ułatwiać podejmowanie decyzji i zbierać wysiłki wokół wspólnych celów.
Ta ewolucja technologiczna idzie w parze z głęboką przemianą kulturową w sposobie postrzegania AI. Przyszłość nie będzie polegać na zastąpieniu człowieka przez maszynę, lecz na jej roli inteligentnego mediatora, wzmacniającego kompetencje zbiorowe i pomagającego przezwyciężać słabości inherentne w ludzkich interakcjach.
Pozostaje pytanie, czy Humans& zdoła podbić ten ambitny rynek i przeforsować nową normę, ale proponowany model już dziś wyraźnie przełamuje obecny porządek rewolucji. Koordynacja ludzi – dotychczas pięta achillesowa projektów technologicznych – staje się teraz głównym wyzwaniem na drodze ku obiecanej rewolucyjnej AI.
{„@context”:”https://schema.org”,”@type”:”FAQPage”,”mainEntity”:[{„@type”:”Question”,”name”:”Dlaczego Eric Zelikman odszedł z OpenAI?”,”acceptedAnswer”:{„@type”:”Answer”,”text”:”Odszedł z OpenAI, ponieważ uważał, że obecna AI nie radzi sobie dobrze ze zrozumieniem dynamik ludzkich i współpracy, które są kluczowe do rozwiązania prawdziwych problemów zbiorowych.”}},{„@type”:”Question”,”name”:”Jaką szczególną cechę ma AI rozwijana przez Humans&?”,”acceptedAnswer”:{„@type”:”Answer”,”text”:”Ta AI opiera się na długoterminowym uczeniu przez wzmacnianie, multi-agent reinforcement learning oraz trwałej pamięci, aby trwale wspierać współpracę ludzką w podejmowaniu decyzji zbiorowych.”}},{„@type”:”Question”,”name”:”Dlaczego Humans& zebrało tak dużo pieniędzy bez produktu?”,”acceptedAnswer”:{„@type”:”Answer”,”text”:”Inwestorzy stawiają na wizję nowej formy AI zdolnej zbudować kluczową warstwę koordynacji między ludźmi i maszynami, strategiczne centrum przyszłości.”}},{„@type”:”Question”,”name”:”Jakie są główne wyzwania etyczne związane z tą AI?”,”acceptedAnswer”:{„@type”:”Answer”,”text”:”Pytania dotyczą przejrzystości, poszanowania prywatności, granic między pomocą a wpływem oraz odpowiedzialności w przypadku sporu lub błędu.”}},{„@type”:”Question”,”name”:”Jak ten projekt może zmienić współpracę w firmie?”,”acceptedAnswer”:{„@type”:”Answer”,”text”:”Może przekształcić procesy pracy, poprawiając zarządzanie konfliktami, monitorowanie decyzji i produktywność zespołową dzięki AI, która rozumie i koordynuje interakcje ludzkie.”}}]}Dlaczego Eric Zelikman odszedł z OpenAI?
Odszedł z OpenAI, ponieważ uważał, że obecna AI nie radzi sobie dobrze ze zrozumieniem dynamik ludzkich i współpracy, które są kluczowe do rozwiązania prawdziwych problemów zbiorowych.
Jaką szczególną cechę ma AI rozwijana przez Humans&?
Ta AI opiera się na długoterminowym uczeniu przez wzmacnianie, multi-agent reinforcement learning oraz trwałej pamięci, aby trwale wspierać współpracę ludzką w podejmowaniu decyzji zbiorowych.
Dlaczego Humans& zebrało tak dużo pieniędzy bez produktu?
Inwestorzy stawiają na wizję nowej formy AI zdolnej zbudować kluczową warstwę koordynacji między ludźmi i maszynami, strategiczne centrum przyszłości.
Jakie są główne wyzwania etyczne związane z tą AI?
Pytania dotyczą przejrzystości, poszanowania prywatności, granic między pomocą a wpływem oraz odpowiedzialności w przypadku sporu lub błędu.
Jak ten projekt może zmienić współpracę w firmie?
Może przekształcić procesy pracy, poprawiając zarządzanie konfliktami, monitorowanie decyzji i produktywność zespołową dzięki AI, która rozumie i koordynuje interakcje ludzkie.