2026 में, कृत्रिम बुद्धिमत्ता की दुनिया एक महत्वपूर्ण मोड़ पर है, जिसे एरिक ज़ेलिकमैन के साहसिक दृष्टिकोण द्वारा आगे बढ़ाया जा रहा है। ओपनएआई के पूर्व स्तंभ, उन्होंने एक शांत लेकिन दृढ़ प्रस्थान चुना, जो पब्लिसिटी और भव्य घोषणाओं से दूर था, ताकि एक अभूतपूर्व महत्वाकांक्षा को समर्पित हो सकें। वे केवल ज्ञात आईए को बेहतर बनाने की कोशिश नहीं कर रहे हैं, बल्कि इसे एक केंद्रीय विचार के इर्द-गिर्द पुनः आविष्कृत कर रहे हैं: आईए तभी अपनी पूरी क्षमता तक पहुंच सकती है जब यह मानव सहयोग को सहज बनाए, सामाजिक और निर्णय लेने की गतिशीलताओं को बेहतर समझते हुए जो सामूहिक कार्य को नियंत्रित करती हैं।
ऐसे संदर्भ में जहां उद्योग के दिग्गज जैसे ओपनएआई, गूगल या मेटा व्यक्तिगत कार्यों पर अधिक शक्तिशाली और सक्षम आईए मॉडल्स पर दांव लगा रहे हैं, ज़ेलिकमैन इसका विरोध करते हैं। उन्होंने रिकॉर्ड समय में 480 मिलियन डॉलर जुटाए, बिना कोई सार्वजनिक प्रोटोटाइप पेश किए, निवेशकों और विशेषज्ञों को अपनी मानवीय और व्यावहारिक दृष्टि से प्रभावित करते हुए। उनकी स्टार्टअप, Humans&, अब एक बिलियन डॉलर के वित्त पोषण का लक्ष्य रखती है ताकि ऐसा सिस्टम विकसित किया जा सके जो सिर्फ प्रतिक्रिया देने या कोडिंग करने में सक्षम न हो, बल्कि मानव बातचीत को वास्तविक रूप से “संगठित” कर सके। यह साहसिक प्रयास एक गहन प्रश्न उठाता है: एक कृत्रिम बुद्धिमत्ता वास्तव में हमारे एक साथ काम करने के तरीके को कैसे क्रांतिकारी बना सकती है, बिना वर्तमान समूह कार्य की कठिनाइयों को दोहराए या बढ़ाए?
- 1 ओपनएआई से रणनीतिक प्रस्थान ताकि सहयोगी कृत्रिम बुद्धिमत्ता के खेल को बदला जा सके
- 2 Humans& की क्रांतिकारी दृष्टि: एक आईए जो मानव सहयोग का समर्थन करती है
- 3 रिकॉर्ड ब्रेक फंडिंग जो इस परियोजना में विश्वास की गहराई को दर्शाती है
- 4 Humans& और दिग्गज: सहयोगी उपकरणों में एक आने वाली क्रांति
- 5 नैतिक पहलुओं और समन्वय आईए की अदृश्य शक्ति
- 6 Humans& के पीछे की तकनीकीता: एक ऐसी आईए जो टिकाऊ और अनुकूल है
- 7 मानव सहयोग को आईए के जरिए क्रांतिकारी बनाने के लिए एक बिलियन डॉलर
- 8 सामाजिक और सहयोगी कृत्रिम बुद्धिमत्ता के भविष्य पर दृष्टिकोण
- 8.1 Pourquoi Eric Zelikman a-t-il quitté OpenAI ?
- 8.2 Quelle est la particularité de l’IA développée par Humans& ?
- 8.3 Pourquoi Humans& a-t-elle levé autant d’argent sans produit ?
- 8.4 Quels sont les principaux défis éthiques liés à cette IA ?
- 8.5 Comment ce projet pourrait-il changer la collaboration en entreprise ?
ओपनएआई से रणनीतिक प्रस्थान ताकि सहयोगी कृत्रिम बुद्धिमत्ता के खेल को बदला जा सके
एरिक ज़ेलिकमैन का ओपनएआई से प्रस्थान तकनीकी क्षेत्र में अक्सर बड़े परिवर्तनों के साथ आने वाली मीडिया हलचल में नहीं हुआ। उन्होंने सबसे प्रतिष्ठित आईए लैब में से एक को सूझ-बूझ से शांति के साथ छोड़ा, उस समय जब कंपनी बाजार पर हावी थी और सबकी इच्छाओं को आकर्षित कर रही थी। यह फैसला अचानक नहीं था, बल्कि आईए की दिशा पर गहरी असहमति का परिणाम था। जबकि अधिकांश लोग अत्यधिक संज्ञानात्मक प्रदर्शन करने वाली अकेली आईए बनाने की ओर काम कर रहे थे, ज़ेलिकमैन ने चेतावनी दी: वर्तमान आईए, चाहे जितनी भी प्रभावशाली हो, मानव सामूहिक कार्य की प्रकृति को पकड़ने में कमजोर है।
परिणाम सरल लेकिन गंभीर हैं। उनकी सोच का सारांश है: “आईए के पास तकनीकी बुद्धिमत्ता की कमी नहीं है, यह कोडिंग, प्रतिक्रिया और विश्लेषण कर सकती है। लेकिन जो अभी भी पता नहीं है, वह है मानव इंटरैक्शन की जटिलता का प्रबंधन कैसे करें, विवादों का समाधान कैसे करें, और कैसे समय के साथ विभिन्न प्रतिभागियों के साथ एक निर्णय को आगे बढ़ाएं।” इस असमर्थता के कारण वास्तविक प्रभाव सीमित रहता है, खासकर व्यवसायों और संगठनों में। यही कारण है कि वर्तमान आईए समाधान, तकनीकी सफलता के बावजूद, दैनिक व्यावसायिक जीवन में गहराई से पूरी तरह से समाहित नहीं हो पाते।
ओपनएआई छोड़कर, एरिक ज़ेलिकमैन ने एक सूझ-बूझ भरा जोखिम लिया, एक भविष्य पर दांव लगाते हुए जहाँ कृत्रिम बुद्धिमत्ता कोई अकेली उच्च प्रदर्शन करने वाली ताकत नहीं होगी, बल्कि सहयोग का उत्प्रेरक होगी। यह धारणा बदलाव क्षेत्र के भविष्य के लिए एक स्पष्ट अलग दिशा प्रस्तुत करता है, संज्ञानात्मक शक्ति और सामाजिक बुद्धिमत्ता को जोड़ते हुए।
Humans& की क्रांतिकारी दृष्टि: एक आईए जो मानव सहयोग का समर्थन करती है
इस प्रस्थान के बाद, ज़ेलिकमैन ने Humans& की स्थापना की, एक असामान्य स्टार्टअप जिसका उद्देश्य “सुपर आईए” लॉन्च करना नहीं है जो सब कुछ कर सके, बल्कि ऐसी प्रणाली बनाना है जो समूहों के भीतर मानव इंटरैक्शन की जटिलता को समझे। एक पृथक आईए के बजाय, Humans& सामूहिक बुद्धिमत्ता, मशीनों और इंसानों के बीच एक “संयोजी तंतु” बनाना चाहता है। यह आईए केवल जवाब देने वाली नहीं, बल्कि समय के साथ सहयोगात्मक प्रक्रियाओं को ट्रैक करने और समर्थन करने वाली एक गतिशील इंटरफ़ेस होनी चाहिए।
इस भावना में, Humans& द्वारा विकसित आईए कई महत्वपूर्ण नवाचारों को सम्मिलित करती है। पहला, यह दीर्घकालिक सुदृढ़ीकरण शिक्षण लागू करती है, जहाँ मशीन मानवीय गतिशीलताओं के विकास के अनुसार अवलोकन, योजना और समायोजन करती है। यह प्रशिक्षण विधि यह सुनिश्चित करती है कि आईए केवल एक अल्पकालिक इंटरैक्शन तक सीमित नहीं रहती, बल्कि कई सप्ताहों तक एक परियोजना या निर्णय का मार्गदर्शन कर सकती है।
दूसरा, Humans& ने बहु-एजेंट वास्तुकला चुनी है, अर्थात कई कृत्रिम बुद्धिमत्ताएँ न केवल आपस में, बल्कि मानव उपयोगकर्ताओं के साथ निरंतर संवाद करती हैं। यह उन पेशेवर परिवेशों की वास्तविकता को बेहतर प्रतिबिंबित करता है, जहां निर्णय और मध्यस्थता अक्सर विभिन्न हितधारकों के बीच जटिल बातचीत से उत्पन्न होते हैं।
अंत में, इस आईए की एक महत्वपूर्ण विशेषता है इसकी स्थायी स्मृति। पारंपरिक मॉडलों के विपरीत, Humans& मशीन को पिछली घटनाओं, बीते समझौतों, और टीमों के मनोवृत्तियों या तनावों को याद रखने की अनुमति देता है। यह “जीवित” स्मृति आईए को त्रुटियों को दोहराने से बचाती है और उसके सुझावों को संदर्भित करती है, जिससे सामूहिक कार्य में एक सच्ची निरंतरता बनती है।
ऐसी प्रणाली एक नई युग की शुरुआत करती है जहां कृत्रिम बुद्धिमत्ता टीम की सहयोगिता और सामंजस्यपूर्ण निर्णय में एक वास्तविक साथी बन जाती है, जो साधारण वर्चुअल सहायकों से कहीं आगे है।
सहयोग पर केंद्रित आईए के ठोस लाभ
Humans& के अपेक्षित प्रभाव तकनीकी सीमा से बढ़कर सीधे व्यवसायों के संगठनात्मक तरीकों को प्रभावित करता है। उदाहरण के लिए:
- अपूर्ण समाधान वाले विवादों में कमी : आईए टीम में तनाव या अवरोधों के स्रोतों का पूर्वानुमान लगाकर समझदारी से मध्यस्थता या संचार आसान कर सकती है।
- निर्णयों की निगरानी में सुधार : स्थायी स्मृति के कारण, किसी प्रक्रिया का हर चरण सुरक्षित रहता है, जिससे बेहतर ट्रैकिंग और जवाबदेही संभव होती है।
- सामूहिक उत्पादकता में वृद्धि : आदान-प्रदान को अनुकूलित कर और दुहराए जाने वाले प्रयासों को बचा कर टीम अपनी संयुक्त लक्ष्यों की ओर अधिक प्रभावशाली ढंग से बढ़ सकती है।
इन नवाचारों के माध्यम से, Humans& केवल स्वचालित या सहायक नहीं है, बल्कि सहयोग को पुनर्परिभाषित करता है, एक वास्तविक सामाजिक कृत्रिम बुद्धिमत्ता की ओर रास्ता खोलता है।
रिकॉर्ड ब्रेक फंडिंग जो इस परियोजना में विश्वास की गहराई को दर्शाती है
थोड़ी ही अवधि में स्थापित, Humans& ने 480 मिलियन डॉलर की असाधारण फंडिंग राउंड हासिल की, 4.48 बिलियन डॉलर की प्रभावशाली वैल्यूएशन के साथ। यह फंडिंग प्रसिद्ध निवेशकों जैसे रॉन कॉनवे (SV Angel), एनविडिया, जेफ बेजोस, और अल्फाबेट के GV से आई है। यह रिकॉर्ड न केवल परियोजना की प्रासंगिकता पर विश्वास दर्शाता है, बल्कि एक ऐसी आईए के लिए बाजार की भूख को भी दिखाता है जो केवल गणना या टेक्स्ट जनरेशन से आगे बढ़ती है।
ध्यान देने योग्य है कि यह वित्तीय उत्साह तब सामने आया जब Humans& ने अभी तक कोई उत्पाद या प्रोटोटाइप सामने नहीं रखा था। यह स्थिति स्टार्टअप इकोसिस्टम में एक नई प्रवृत्ति को उजागर करती है: निवेशक अब उत्पादों की तुलना में विचारों, रणनीतिक दृष्टिकोणों, और टीम की गुणवत्ता पर भरोसा करते हैं। वे उस “संयोजी परत” में केंद्रीय भूमिका निभाना चाहते हैं जिसका ज़ेलिकमैन भविष्य के लिए उल्लेख करते हैं।
एनविडिया की उपस्थिति, जो आईए में विशिष्ट हार्डवेयर की अग्रणी है, आकस्मिक नहीं है। यह संकेत देता है कि Humans& को विशाल कंप्यूटिंग क्षमता की आवश्यकता होगी और यह अपनी महत्वाकांक्षाओं के लिए उपयुक्त आर्किटेक्चर बनाने के लिए एक तीव्र तकनीकी प्रतिस्पर्धा में शामिल है।
Humans& और दिग्गज: सहयोगी उपकरणों में एक आने वाली क्रांति
Humans& सीधे पारंपरिक सहयोगी उपकरणों जैसे स्लैक, नोटियन या गूगल डॉक को प्रतिस्पर्धा में नहीं लाता, बल्कि उनके काम करने के तरीके को बदलना चाहता है। ये सभी उपकरण एक खंडित दृष्टिकोण पर आधारित हैं: अलग-अलग बातचीत, स्वतंत्र दस्तावेज़, और अक्सर मानवीय प्रक्रियाओं से कटे प्रबंधन।
Humans& की रणनीति गहरी है: सहयोग को मौलिक रूप से पुनर्परिभाषित करना, एक सामाजिक बुद्धिमत्ता की परत को शामिल करना जो मतभेदों को सामंजस्य करता है, टीमों के अनौपचारिक शासन में भाग लेता है, और निर्णयों के विकास को समय के साथ ट्रैक करता है। यह महत्वाकांक्षा पारंपरिक प्रदाताओं और बड़े लैबों के लिए एक बड़ी चुनौती है, जो अपनी आईए बना रहे हैं लेकिन मानव सहयोग की संरचना को मूल रूप से नहीं बदल रहे।
एन्थ्रोपिक, गूगल या ओपनएआई निश्चित रूप से सहयोगी कार्यों वाली आईए पर काम कर रहे हैं, लेकिन वे ऐसे मॉडल पर टिके हुए हैं जो शुरू में व्यक्तिगत इंटरैक्शन के लिए डिज़ाइन किए गए थे। Humans& इसके विपरीत है: यह सामाजिक बुद्धिमत्ता को आधार बनाता है, एक साहसिक प्रयास जो क्षेत्र के मानदंडों को बदल सकता है।
नैतिक पहलुओं और समन्वय आईए की अदृश्य शक्ति
एक ऐसी कृत्रिम बुद्धिमत्ता की प्रतिज्ञा जो मानवीय संबंधों का मध्यस्थता करती है, पिछले तनावों को याद रखती है, और सामूहिक निर्णयों को प्रभावित करती है, मूलभूत प्रश्न उठाती है। समूह के लिए “अच्छा” क्या है, इसे कौन निर्धारित करता है? सहायता कहाँ समाप्त होती है और मनिपुलेशन शुरू होता है? ये प्रश्न केवल सैद्धांतिक नहीं बल्कि उस तकनीक पर उपयोगकर्ताओं के विश्वास के लिए महत्वपूर्ण हैं।
एरिक ज़ेलिकमैन का कहना है कि Humans& “मानव को अस्वीकार नहीं कर बढ़ावा देना” चाहता है। हालांकि, समन्वय की एक अदृश्य परत स्थापित करना जल्दी से एक अस्पष्ट नियंत्रण स्रोत बन सकता है, जहाँ रणनीतिक निर्णय किसी ऐसे एल्गोरिथ्म द्वारा प्रभावित होते हैं जिसे कोई पूरी तरह नहीं समझता। यह उपयोगिता और प्रभाव के बीच, पारदर्शिता और तीसरे पक्ष के संचालन के बीच एक नाजुक संतुलन है।
इसलिए स्टार्टअप को तकनीकी नैतिकता में सख्त प्रयास करने होंगे, एल्गोरिथमिक जिम्मेदारी की गारंटी देनी होगी, और उपयोगकर्ताओं को आईए के संचालन और सुझावों पर वास्तविक नियंत्रण प्रदान करना होगा। यह दोहरी तकनीकी और नैतिक मिशन इस एक बिलियन डॉलर की खोज के सबसे बड़े चुनौतियों में से एक है।
कुछ महत्वपूर्ण नैतिक मुद्दे:
- एल्गोरिथमिक निर्णयों की पारदर्शिता : उपयोगकर्ताओं को समझना चाहिए कि आईए कैसे और क्यों कुछ प्रक्रियाओं को प्रभावित करती है
- गोपनीयता का सम्मान : स्थायी स्मृति डेटा सुरक्षा और निजता के सवाल उठाती है
- प्रभाव की सीमाएं : निर्णय सहायता और नियंत्रण के बीच की सीमाएँ स्पष्ट होनी चाहिए
- साझा जिम्मेदारी : त्रुटि या विवाद की स्थिति में मानव और एल्गोरिथमिक जिम्मेदारियों का स्पष्ट वितरण
Humans& के पीछे की तकनीकीता: एक ऐसी आईए जो टिकाऊ और अनुकूल है
परियोजना का केंद्र न केवल एक नई अवधारणा है, बल्कि महत्वपूर्ण तकनीकी तोड़फोड़ भी है। दीर्घकालिक सुदृढ़ीकरण शिक्षण ऐसे मॉडल विकसित करने की अनुमति देता है जो स्थिर प्रतिक्रिया से आगे बढ़ते हैं और उपयोगकर्ता के वातावरण के अनुसार विकसित होते हैं। यह सीखने का तरीका आईए को नियमित प्रतिक्रिया देने से हटकर लगातार फीडबैक लेना, रणनीतियों को अनुकूलित करना और वास्तविक समय में अपने कार्यों को सुधारना सिखाता है।
मल्टी-एजेंट सुदृढ़ीकरण शिक्षण कई डिजिटल एजेंट्स के बीच जटिल इंटरैक्शन शामिल करता है, जो परियोजना के विभिन्न पहलुओं या प्रतिभागियों का प्रतिनिधित्व कर सकते हैं। ये बढ़ती इंटरैक्शन एक मानवीय संगठन के वास्तविक कामकाज का अनुकरण करती है, जहां भिन्न हितों को समझौता करना चाहिए। यह जटिलता आईए को बातचीत, समझौते, और सूक्ष्म मध्यस्थताओं को समझने के लिए आवश्यक है, जो समूह कार्य की समृद्धि और जटिलता दोनों को बनाते हैं।
अंत में, स्थायी स्मृति, यानि कि विस्तृत और उपयोगी इतिहास को संरक्षित करने की क्षमता, आईए को वर्तमान उपकरणों की तुलना में भूलने की समस्या से बचाती है। यह निरंतरता और निर्णयों की संगति संभव बनाती है, कई सप्ताहों या महीनों के बाद भी, जो जटिल समय-सीमाओं और मुद्दों का सामना करने वाली कंपनियों के लिए एक महत्वपूर्ण योगदान है।
| प्रौद्योगिकी | लक्ष्य | मुख्य लाभ |
|---|---|---|
| दीर्घकालिक सुदृढ़ीकरण शिक्षण | लगातार निगरानी और समायोजन | परियोजनाओं का टिकाऊ समर्थन |
| मल्टी-एजेंट सुदृढ़ीकरण शिक्षण | कई आईए और मानवों के बीच इंटरैक्शन | वास्तविकवादी बातचीत और विवाद प्रबंधन |
| स्थायी स्मृति | निर्णय इतिहास का संरक्षण | निर्णयों की निरंतरता और संगति |
मानव सहयोग को आईए के जरिए क्रांतिकारी बनाने के लिए एक बिलियन डॉलर
जैसे ही Humans& ने लगभग आधे बिलियन डॉलर के वित्त पोषण के साथ एक महत्वपूर्ण मील का पत्थर पार किया है, अगला चरण दिखाई दे रहा है: अपनी व्यापक दृष्टि को साकार करने के लिए एक बिलियन डॉलर जुटाना। यह असाधारण राशि वैश्विक स्तर पर काम करने में सक्षम तकनीकी और संगठनात्मक आधारभूत संरचना बनाने की महत्वाकांक्षा को दर्शाती है, जो मानव टीमें और कृत्रिम बुद्धिमत्ताएँ एक निरंतर और प्रभावी संवाद में जोड़ती है।
यह राशि न केवल तकनीकी क्षमता, विशेषकर उच्च प्रदर्शन कंप्यूटिंग, को मजबूत करने के लिए काम आएगी, बल्कि गूगल, मेटा, एन्थ्रोपिक, ओपनएआई या डीपमाइंड जैसे उत्कृष्ट लैबों से प्रतिभाओं को आकर्षित करने में भी। वर्तमान टीम में पहले से ही गॉर्ज हारिक (पूर्व गूगल) और नोआ गुडमैन (स्टैनफोर्ड) जैसे प्रतिष्ठित नाम शामिल हैं, जिन्हें अनुसंधान और विकास को तेज करने के लिए बढाया जाएगा।
यह विशाल वित्त पोषण एक रणनीतिक आवश्यकता को भी दर्शाता है: आने वाली कम्प्यूटेशन युद्ध के लिए तैयारी, जहां आईए के प्रमुख विश्व खिलाड़ी जटिल डेटा को वास्तविक समय में संसाधित करने की क्षमता के लिए प्रतिस्पर्धा करेंगे। ज़ेलिकमैन के लिए, चुनौती एक ऐसी आईए बनाने की नहीं है जो असाधारण बुद्धिमत्ता वाली हो, बल्कि एक दोषरहित सामाजिक बुद्धिमत्ता हो जो मानवों की सेवा करे।
सामाजिक और सहयोगी कृत्रिम बुद्धिमत्ता के भविष्य पर दृष्टिकोण
जैसे-जैसे कृत्रिम बुद्धिमत्ता 2026 की अपेक्षित तीव्र गति से बढ़ती है, Humans& द्वारा लाई गई दृष्टि एक नया रास्ता प्रस्तुत करती है, जो अधिक मानवीय और व्यावहारिक है। अकेले काम करने वाली सुपर-इंटेलिजेंस की बजाय, यह एक ऐसी आईए बनाना है जो सामूहिक जीवन के साथ एकीकृत हो, तनावों को संभाले, निर्णयों को सहज बनाए, और संयुक्त प्रयासों को साझा लक्ष्यों की ओर ले जाए।
यह तकनीकी विकास एक गहरी सांस्कृतिक परिवर्तन के साथ आता है कि आईए को कैसे देखा जाता है। भविष्य ऐसा नहीं होगा जहाँ मशीन मानव की जगह लेगी, बल्कि ऐसा होगा जहाँ मशीन एक बुद्धिमान मध्यस्थ बनेगी, सामूहिक कौशल को मजबूत करेगी, और मानवीय इंटरैक्शन की कमजोरियों को पार करने में मदद करेगी।
देखना बाकी है कि Humans& इस व्यापक बाजार को जीत पाएगा या नहीं और एक नया मानक स्थापित करेगा, लेकिन प्रस्तावित मॉडल पहले ही चल रही क्रांति में एक स्पष्ट विराम की निशानी है। मानवों का समन्वय – जो अब तक तकनीकी परियोजनाओं की कमजोरी रहा है – अब उस चुनौती के रूप में सामने है जिसे पार करके क्रांतिकारी आईए का निर्माण संभव होगा।
{“@context”:”https://schema.org”,”@type”:”FAQPage”,”mainEntity”:[{“@type”:”Question”,”name”:”Pourquoi Eric Zelikman a-t-il quittu00e9 OpenAI ?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Il a quittu00e9 OpenAI car il estimait que lu2019IA actuelle nu2019excellait pas dans la compru00e9hension des dynamiques humaines et de la collaboration, ce qui est crucial pour ru00e9soudre les vrais problu00e8mes collectifs.”}},{“@type”:”Question”,”name”:”Quelle est la particularitu00e9 de lu2019IA du00e9veloppu00e9e par Humans& ?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Cette IA mise sur lu2019apprentissage u00e0 long terme, le multi-agent reinforcement learning et une mu00e9moire persistante, pour accompagner durablement la collaboration humaine dans la prise de du00e9cision collective.”}},{“@type”:”Question”,”name”:”Pourquoi Humans& a-t-elle levu00e9 autant du2019argent sans produit ?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Les investisseurs misent sur la vision du2019une nouvelle forme du2019IA capable de construire la couche de coordination clu00e9 entre humains et machines, position stratu00e9gique centrale pour lu2019avenir.”}},{“@type”:”Question”,”name”:”Quels sont les principaux du00e9fis u00e9thiques liu00e9s u00e0 cette IA ?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Les questions portent sur la transparence, le respect de la vie privu00e9e, la limite entre aide et influence, et la responsabilitu00e9 en cas de litige ou erreur.”}},{“@type”:”Question”,”name”:”Comment ce projet pourrait-il changer la collaboration en entreprise ?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Il pourrait transformer les processus de travail en amu00e9liorant la gestion des conflits, le suivi des du00e9cisions et la productivitu00e9 collective gru00e2ce u00e0 une IA qui comprend et coordonne les interactions humaines.”}}]}Pourquoi Eric Zelikman a-t-il quitté OpenAI ?
Il a quitté OpenAI car il estimait que l’IA actuelle n’excellait pas dans la compréhension des dynamiques humaines et de la collaboration, ce qui est crucial pour résoudre les vrais problèmes collectifs.
Quelle est la particularité de l’IA développée par Humans& ?
Cette IA mise sur l’apprentissage à long terme, le multi-agent reinforcement learning et une mémoire persistante, pour accompagner durablement la collaboration humaine dans la prise de décision collective.
Pourquoi Humans& a-t-elle levé autant d’argent sans produit ?
Les investisseurs misent sur la vision d’une nouvelle forme d’IA capable de construire la couche de coordination clé entre humains et machines, position stratégique centrale pour l’avenir.
Quels sont les principaux défis éthiques liés à cette IA ?
Les questions portent sur la transparence, le respect de la vie privée, la limite entre aide et influence, et la responsabilité en cas de litige ou erreur.
Comment ce projet pourrait-il changer la collaboration en entreprise ?
Il pourrait transformer les processus de travail en améliorant la gestion des conflits, le suivi des décisions et la productivité collective grâce à une IA qui comprend et coordonne les interactions humaines.