Inferact 150 मिलियन डॉलर्स जुटाता है vLLM को संदर्भ अनुमान इंजन के रूप में बढ़ावा देने के लिए

Laetitia

जनवरी 26, 2026

inferact lève 150 millions de dollars pour développer vllm, son moteur d'inférence innovant destiné à devenir la référence du secteur.

2026 में, आर्टिफिशियल इंटेलिजेंस के परिदृश्य में एक नया बड़ा पड़ाव उभरा है, जब अमेरिकी स्टार्टअप Inferact, जिसकी स्थापना नवंबर 2025 में हुई थी, ने एक प्रभावशाली फंडिंग राउंड की घोषणा की। यह युवा कंपनी, जो ओपन सोर्स समुदाय से निकली है, वैश्विक स्तर पर पहले ही भारी अपनाए जा चुके vLLM के साथ AI इन्फरेंस के बाजार में क्रांति लाने का लक्ष्य रखती है। 150 मिलियन डॉलर के निवेश को सुरक्षित कर, जिसमें Andreessen Horowitz (a16z), Lightspeed Venture Partners, Sequoia Capital जैसे प्रतिष्ठित निवेशक शामिल हैं, Inferact इस ओपन सोर्स तकनीक को एक वाणिज्यिक उत्पाद में बदलने का इरादा रखती है जो AI के क्षेत्र में बढ़ती मांगों को पूरा कर सके।

vLLM, जो मूल रूप से कैलिफोर्निया विश्वविद्यालय बर्कले में विकसित एक विश्वविद्यालयी परियोजना थी, अब एक अनिवार्य उपकरण के रूप में स्थापित हो चुका है। इसे आज अमेज़न जैसे दिग्गज अपने आंतरिक सिस्टम में उपयोग करते हैं, जो इसकी दक्षता और प्रभाव को साबित करता है। यह रिकॉर्ड फंडिंग राउंड स्टार्टअप पर सेक्टर का भरोसा और एआई इन्फरेंस के अनुकूलन को रणनीतिक महत्ता दोनों दर्शाता है, जहां दक्षता और विस्तारशीलता निर्णायक मुद्दे हैं।

जब Inferact अपनी उद्यम यात्रा शुरू कर रहा है, इस सीड फंडिंग से एक अनूठी गतिशीलता का भी पता चलता है: व्यावसायिक विकास और स्वतंत्र ओपन सोर्स परियोजना के लिए प्रतिबद्धता के बीच संतुलन। स्टार्टअप समुदाय को समृद्ध बनाने के साथ-साथ हार्डवेयर और सॉफ्टवेयर उन्नत अनुकूलनों को शामिल करने में सक्षम एक व्यावसायिक प्रस्ताव भी तैयार करता है। यह नवाचार और औद्योगिकीकरण के बीच रचनात्मक तनाव Inferact की रणनीति का केंद्र है, जिससे वह मशीन लर्निंग और उन्नत AI प्रौद्योगिकी में एक प्रमुख किरदार बनना चाहता है।

vLLM का उद्भव और विकास: एक विश्वविद्यालयी परियोजना से अनिवार्य इन्फरेंस इंजन तक

Inferact द्वारा प्राप्त 150 मिलियन डॉलर की फंडिंग की सीमा को समझने के लिए, पहले vLLM के इतिहास में जाना आवश्यक है। यह ओपन सोर्स इन्फरेंस इंजन 2023 में कैलिफोर्निया विश्वविद्यालय बर्कले में अस्तित्व में आया, जहां बड़े भाषा मॉडल (LLM) के अनुकूलन की चुनौतियां पहले से ही बढ़ रही थीं। मूल विचार सरल था: एक उच्च प्रदर्शन और सुलभ उपकरण प्रदान करना जो मौजूदा अवसंरचनाओं, विशेष रूप से उद्यम डेटा केंद्रों, पर परिष्कृत AI मॉडल तेजी से चला सके।

सालों में, डेवलपर्स की सामुदायिक ने vLLM को अपनाने और विकसित करने में भारी रूप से भाग लिया है। PyTorch फाउंडेशन की देखरेख में, vLLM आज हजारों ऐसे विशेषज्ञों का समूह है जो AI क्षेत्र से आते हैं और इसकी क्षमताओं को निरंतर बढ़ा रहे हैं। इस विशेषज्ञों के समूह ने इंजन को 2026 में बड़े भाषा मॉडल की इन्फरेंस के लिए सबसे अधिक उपयोग की जाने वाली समाधान बनाने में सफलता दिलाई है।

एक निर्णायक मोड़ तब आया जब अमेज़न जैसे प्रमुख कंपनियों ने vLLM को अपने आंतरिक AI सिस्टमों में, विशेषकर अपने ऑनलाइन शॉपिंग एप्लिकेशन में शामिल किया। इस अपनाने ने इंजन की मजबूती और इन्फरेंस अनुकूलन से जुड़े आर्थिक मूल्य को दर्शाया, जो डिजिटल ऑपरेशंस के केंद्र में है। इन सफलताओं ने निवेशकों और रणनीतिक खिलाड़ियों की रुचि जगाई, जिससे इस ओपन सोर्स परियोजना को एक व्यावसायिक संगठन Inferact में बदलने का रास्ता खुला।

अंत में, vLLM की यात्रा ओपन सोर्स की सबसे बड़ी सफलताओं में से एक का प्रतीक है, जो AI और मशीन लर्निंग की क्रांतिकारी तकनीक में शैक्षणिक खोज, सामुदायिक सहयोग और औद्योगिक महत्वाकांक्षाओं को मिलाती है। यह इन्फरेंस इंजन अब लगातार बढ़ती मांग वाले AI सिस्टम विकास के केंद्र में है।

inferact lève 150 millions de dollars pour développer vllm, visant à devenir le moteur d'inférence de référence dans le domaine de l'intelligence artificielle.

Inferact की महत्वाकांक्षा: vLLM का औद्योगिकीकरण कर AI की बढ़ती आवश्यकताओं को पूरा करना

Inferact का जन्म एक स्पष्ट इच्छा पर आधारित है: vLLM को एक उद्योग स्तर पर इन्फरेंस इंजन बनाना, जो बढ़ती AI एप्लिकेशन की भार त्वरण को संभाल सके, बिना अपने ओपन सोर्स चरित्र को खोए। 150 मिलियन डॉलर की फंडिंग इस पड़ाव को पार करने के लिए लगाए गए संसाधनों की पुष्टि करती है। Andreessen Horowitz (a16z) और Lightspeed Venture Partners जैसे प्रसिद्ध फंडों के समर्थन के अलावा, Sequoia Capital, Altimeter Capital, Redpoint Ventures और ZhenFund जैसे अन्य रणनीतिक निवेशक इस तेजी से बढ़ रही कंपनी की वृद्धि का समर्थन करने के लिए विशेषज्ञता और नेटवर्क प्रदान करते हैं।

इसके संस्थापक, Simon Mo, जो vLLM के प्रारंभिक डेवलपर्स में से हैं, इस महत्वाकांक्षा के उत्तम रूप हैं। वे अक्सर Inferact के विकास की तुलना Berkeley से निकले अन्य प्रमुख प्रोजेक्ट्स जैसे Apache Spark या Ray से करते हैं, जिन्होंने भी अकादमिक शोध से उद्योग में व्यापक अपनापन हासिल किया है, ओपन सोर्स मॉडल को एक व्यावसायिक कंपनी में कुशलतापूर्वक परिवर्तित करते हुए। यह समानता Inferact की रणनीति को दिखाती है, जो समुदाय और बाजार के बीच सहजीवन पर आधारित है।

Inferact की रणनीति के दो प्रमुख धुर हैं:

  • vLLM को एक स्वतंत्र ओपन सोर्स परियोजना के रूप में बनाए रखना और नियमित योगदानों के माध्यम से इसकी कार्यक्षमताओं को बढ़ाना, जिस से सतत और साझा नवाचार सुनिश्चित हो।
  • एक अलग व्यावसायिक उत्पाद विकसित करना जो उन्नत अनुकूलन प्रदान करता है, विशेष रूप से AI मॉडल को विभिन्न हार्डवेयर पर अधिक प्रभावी ढंग से चलाने की सुविधा, जिससे लागत में भारी कमी और प्रदर्शन सुधार हो।

यह दोहरा संकल्प आर एंड डी, सॉफ्टवेयर इंजीनियरिंग और ग्राहक प्रतिक्रिया के बीच घनिष्ठ सहयोग को दर्शाता है, जो एक लचीला और कुशल इन्फरेंस इंजन बनाने में सक्षम बनाता है। Inferact का उद्देश्य न तो ओपन सोर्स परियोजना को प्रतिस्थापित करना है, न ही एकाधिकार बनाना, बल्कि इसके वैश्विक औद्योगिक अपनापन के लिए एक स्थायी उत्प्रेरक बनना है।

150 मिलियन डॉलर की फंडिंग के पीछे वित्तीय और रणनीतिक मुद्दे

यह रिकॉर्ड सीड फंडिंग, 800 मिलियन डॉलर के प्रारंभिक मूल्यांकन के साथ, Inferact को एक दुर्लभ और रणनीतिक स्थिति में रखती है, जो तकनीक की क्षमता में बाज़ार का भरोसा दर्शाती है। Simon Mo बताते हैं कि इन्फरेंस की दक्षता में यहाँ तक कि छोटे सुधार भी बड़ी कंपनियों द्वारा दैनिक आधार पर उपयोग किए जाने वाले विशाल वॉल्यूम के कारण भारी बचत उत्पन्न कर सकते हैं।

इस प्रकार, लगातार AI मॉडल के निरंतर प्रोसेसिंग को अनुकूलित करने की वित्तीय दबाव संगठनों को अधिक प्रभावी समाधानों की ओर ले जा रही है। अकादमिक चरण से व्यावसायिकरण के चरण में प्रवेश भारी निवेश की मांग करता है, जिनमें शामिल हैं:

  1. तकनीक को विभिन्न हार्डवेयर वातावरणों के अनुकूल बनाना, एज से लेकर हाइपरस्केलर डेटा सेंटर्स तक।
  2. मजबूत परिचालन उपकरण और उपयोगकर्ता इंटरफेस बनाना।
  3. रखरखाव, ग्राहक सहायता और स्थायी सुविधाओं में सुधार करना।
  4. औद्योगिक साझेदारियों का विकास, उपयोगकर्ता आधार को बढ़ाना और vLLM के बड़े पैमाने पर एकीकरण को सरल बनाना।

यह विशाल पूंजी नई आर्किटेक्चर और एल्गोरिद्म पर प्रयोग को भी सहज बनाती है ताकि भविष्य की मांगों का पूर्वानुमान लगाया जा सके। 2025 में किए गए एक अध्ययन ने दिखाया कि इन्फरेंस अब AI इंफ्रास्ट्रक्चर की प्रमुख चुनौती बन चुका है, जबकि मॉडल प्रशिक्षण लागत और समय दोनों में दूसरे स्थान पर आ गया है।

मापदंड Inferact के लक्ष्य अपेक्षित प्रभाव
प्रदर्शन अनुकूलन इन्फरेंस समय और ऊर्जा खपत को कम करना कंपनियों के लिए परिचालन लागत में कमी
व्यापक अपनापन vLLM को विविध हार्डवेयर के साथ संगत बनाना बाजार का विस्तार और उपयोग के मामलों में विविधता
ओपन सोर्स प्रोन्नति एक स्वतंत्र और सक्रिय परियोजना बनाए रखना दीर्घकालिक नवाचार और सहयोग सुनिश्चित करना
वाणिज्यिक प्रस्ताव एक पूरक शुल्क आधारित उत्पाद विकसित करना समुदाय को बाधित किए बिना तकनीक का मुद्रीकरण

150 मिलियन डॉलर की इस फंडिंग के माध्यम से, Inferact तकनीकी नवाचार और मजबूत आर्थिक मॉडल को मिलाने का प्रयास करता है, जहाँ इन्फरेंस की दक्षता प्रतिस्पर्धात्मक लाभ का प्रमुख कारक है।

vLLM के इर्द-गिर्द निर्मित एक वैश्विक समुदाय और साझा नवाचार का भविष्य

vLLM की सफलता उस अंतरराष्ट्रीय समुदाय के बिना अधूरी रहेगी जो इसके साथ है। तकनीकी और भौगोलिक रूप से विविध योगदानकर्ताओं, शोधकर्ताओं और इंजीनियरों का यह मजबूत आधार नई सुविधाओं के विकास, बग सुधार और इंजन के निरंतर सुधार में महत्वपूर्ण भूमिका निभाता है।

Inferact के संस्थापक सदस्यों में Woosuk Kwon और Kaichao You जैसे महत्वपूर्ण व्यक्ति शामिल हैं, जिन्होंने शुरुआती कोडिंग से ही vLLM की मजबूती में योगदान दिया। उनकी प्रतिबद्धता अनुसंधान और उद्यमशीलता के बीच निरंतरता सुनिश्चित करती है।

PyTorch फाउंडेशन की देखरेख, जो AI ओपन सोर्स पारिस्थितिकी तंत्र का प्रमुख खिलाड़ी है, परियोजना की स्थिरता की गारंटी देती है। इसके अतिरिक्त, वित्तीय सहायता की पहल और सामुदायिक बैठकों का आयोजन नियमित रूप से किया जाता है, जिनका संचालन a16z जैसे निवेशकों द्वारा भी किया जाता है, जिन्होंने 2023 में AI Open Source Grant कार्यक्रम शुरू किया था, जो vLLM पर काम करने वाले डेवलपर्स को महत्वपूर्ण समर्थन प्रदान करता है।

यह मजबूत सामुदायिक संरचना एक खुले नवाचार मॉडल को बढ़ावा देती है, जहाँ औद्योगिक साझेदारी और स्वतंत्र योगदान मिलकर इंजन को तकनीकी अग्रिमाओं की सीमा पर बनाए रखते हैं। उपयोगकर्ता और डेवलपर्स के बीच निरंतर संवाद vLLM के विकास को तेज करता है, साथ ही Inferact की व्यावसायिक दृष्टि को भी पोषित करता है।

inferact lève 150 millions de dollars pour développer vllm, visant à devenir le moteur d'inférence de référence dans l'industrie de l'intelligence artificielle.

आर्टिफिशियल इंटेलिजेंस की वर्तमान चुनौतियों के सामने vLLM की बढ़ती ताकत

AI इन्फ्रास्ट्रक्चर को आज बड़े भाषा मॉडलों के उपयोग में तेज़ी से हो रही वृद्धि के साथ तालमेल बिठाना पड़ रहा है, जिनमें तेज़, सटीक और आर्थिक रूप से व्यावहारिक इन्फरेंस की मांग है। जबकि मॉडल आर्किटेक्चर में प्रगति उल्लेखनीय रही है, लेकिन असली चुनौती अब इन्फरेंस के स्तर पर केंद्रित है।

औद्योगिक, व्यावसायिक या उपभोक्ता अनुप्रयोगों में AI के व्यापक उपयोग से भारी गणनात्मक भार उत्पन्न होता है। ऐसी स्थिति में, vLLM इन प्रणालियों के लिए उत्प्रेरक के रूप में कार्य करता है, संसाधनों का बेहतर उपयोग करता है, विलंबता को घटाता है और ऊर्जा खपत कम करता है।

उदाहरण के लिए, एक ई-कॉमर्स कंपनी vLLM का उपयोग करते हुए एक साथ लाखों उपयोगकर्ता अनुरोधों को संसाधित कर सकती है, साथ ही सर्वर से जुड़े खर्चों को कम कर सकती है। इस तरह की अनुकूलन उपयोगकर्ताओं के लिए एक सहज अनुभव सुनिश्चित करती है और एक ऐसे बाजार में प्रतिस्पर्धात्मक बढ़त देती है जहाँ हर मिलीसेकंड मायने रखती है।

Simon Mo यह भी बताते हैं कि इन्फरेंस आज AI पारिस्थितिकी तंत्र में वास्तविक बोतleneck है। जबकि मॉडल उपयोग के लिए तैयार हैं, उन्हें तैनात करने और उनसे संवाद करने वाले सिस्टम पीछे छूट रहे हैं, जिससे अतिरिक्त लागत और धीमापन हो रहे हैं, जिनमें vLLM भारी कटौती लाना चाहता है।

vLLM में शामिल प्रमुख तकनीकों और नवाचारों से इन्फरेंस में तेजी

vLLM एक चुस्त और मॉड्यूलर आर्किटेक्चर पर आधारित है, जो इन्फरेंस गति को अधिकतम करने के साथ-साथ विभिन्न हार्डवेयर कॉन्फ़िगरेशन के अनुकूल होता है। इसके बढ़ते सफलताओं के पीछे कई महत्वपूर्ण नवाचार हैं:

  • उन्नत मेमोरी अनुकूलन : बुद्धिमान मेमोरी प्रबंधन GPU उपयोग को अधिकतम करता है और संसाधनों के डायनामिक आवंटन से संबंधित बाधाओं को कम करता है।
  • समानांतर निष्पादन और बैच प्रोसेसिंग : vLLM समानांतर तकनीकों का उपयोग करके कई अनुरोधों को एक साथ संसाधित करता है, जिससे क्षमता बढ़ती है और विलंब कम होता है।
  • मल्टी-हार्डवेयर संगतता : इंजन विभिन्न आर्किटेक्चर जैसे उच्च प्रदर्शन GPUs से लेकर एज उपकरणों तक पर काम करता है, जो उद्यम में आवश्यक लचीलापन प्रदान करता है।
  • समुदाय के माध्यम से निरंतर अपडेट : अपने ओपन सोर्स मॉडल के कारण, vLLM को नियमित रूप से विशेषज्ञों द्वारा किए गए एल्गोरिदमिक और तकनीकी सुधार प्राप्त होते हैं।

इन प्रौद्योगिकियों के संयोजन से vLLM उन कंपनियों के लिए एक पसंदीदा उपकरण बन जाता है जो तेजी से और प्रभावी ढंग से अपने प्रक्रियाओं में AI मॉडल को शामिल करना चाहते हैं, जबकि लागत और समय दोनों पर नियंत्रण रखते हैं।

inferact lève 150 millions de dollars pour développer vllm, visant à devenir le moteur d'inférence de référence dans le domaine de l'intelligence artificielle.

Inferact और vLLM के कारण AI इन्फरेंस बाजार की आर्थिक प्रभाव और संभावनाएं

Inferact के उदय और vLLM के औद्योगिकीकरण से यह स्पष्ट है कि कंपनियां अपने AI प्रोसेसिंग का प्रबंधन करने के तरीके में गहरा बदलाव आने वाला है। इन्फरेंस इंजन के अनुकूलन का परिणाम सीधे ऊर्जा और परिचालन खर्चों में कमी के रूप में सामने आता है, जो आर्थिक और पर्यावरणीय संदर्भ में प्रमुख कारक हैं।

क्षेत्रीय प्रक्षेपणों के अनुसार, AI इन्फरेंस का बाजार 2030 तक 20 अरब डॉलर से अधिक पहुंच जाएगा, जो दोहरे अंकों की वार्षिक वृद्धि को दर्शाता है। Inferact इस बाजार का एक महत्वपूर्ण हिस्सा प्राप्त करने के लिए स्थिति में है क्योंकि:

  • यह तकनीक विश्वसनीय है और कई बड़ी कंपनियों द्वारा उपयोग की जा रही है।
  • यह एक प्रतिस्पर्धी वाणिज्यिक उत्पाद प्रदान करता है, जबकि एक सक्रिय ओपन सोर्स आधार भी बनाए रखता है।
  • इसके निवेशकों और रणनीतिक भागीदारों का नेटवर्क विकास और वितरण को तेज करता है।
  • कंपनियां लगातार प्रदर्शनकारी AI समाधानों को अपनाने की ओर बढ़ रही हैं।

यह प्रवृत्ति स्पष्ट उदाहरणों से परिलक्षित होती है, जैसे कि अमेजन जो अपने संचालन को vLLM के साथ अनुकूलित करता है, या क्लाउड कंप्यूटिंग और AI सेवा प्रदाता जो उच्च प्रदर्शन वाले इन्फरेंस इंजन को धीरे-धीरे अपना रहे हैं। इस तरह की प्रगति vLLM को एक आवश्यक मानक बनने में मदद करेगी।

Inferact की भविष्य की योजनाएं और रणनीतियाँ, एक तकनीकी नेतृत्वकर्ता के रूप में अपनी स्थिति बनाए रखने के लिए

AI क्षेत्र की बढ़ती चुनौतियों का सामना करते हुए, Inferact अनुसंधान में भारी निवेश, साझेदारियाँ विकसित करने और वैश्विक विस्तार में लगे रहने का इरादा रखता है। इसके रणनीतिक पहलू निम्नलिखित हैं:

  1. ओपन सोर्स पारिस्थितिकी तंत्र को मजबूत करना : vLLM के आसपास सक्रिय समुदाय को समर्थन कार्यक्रम, हैकाथॉन और उन्नत दस्तावेज़ीकरण के माध्यम से प्रेरित करना जारी रखना।
  2. उत्पाद नवाचार : मशीन लर्निंग में नवीनतम प्रगति को शामिल करना ताकि इन्फरेंस को और अधिक अनुकूलित किया जा सके, विशेष रूप से विशेषीकृत हार्डवेयर (ASICs, TPU) के क्षेत्र में।
  3. अंतर्राष्ट्रीय विस्तार : यूरोप और एशिया में विभिन्न बाजारों की जरूरतों को पूरा करने के लिए स्थान और सहयोग स्थापित करना।
  4. व्यक्तिगत समाधान : वाणिज्य, स्वास्थ्य, वित्त या औद्योगिक संसाधनों जैसे क्षेत्रों की विशिष्टताओं के अनुरूप मॉड्यूलर समाधान बनाना।

Simon Mo और उनकी टीम इस दोहरे उद्देश्य को प्रेरक शक्ति के रूप में रखते हैं – तकनीकी नवाचार और सामुदायिक प्रतिबद्धता को एक साथ जोड़ना ताकि vLLM AI की प्रतिस्पर्धात्मक दुनिया में एक अपरिहार्य संदर्भ बना रहे। यह रणनीति न केवल निवेशकों को बल्कि उन ग्राहकों को भी आश्वस्त करती है जो तकनीकी और एथिकल ओपन सोर्स गठजोड़ में रुचि रखते हैं।

Nos partenaires (2)

  • digrazia.fr

    Digrazia est un magazine en ligne dédié à l’art de vivre. Voyages inspirants, gastronomie authentique, décoration élégante, maison chaleureuse et jardin naturel : chaque article célèbre le beau, le bon et le durable pour enrichir le quotidien.

  • maxilots-brest.fr

    maxilots-brest est un magazine d’actualité en ligne qui couvre l’information essentielle, les faits marquants, les tendances et les sujets qui comptent. Notre objectif est de proposer une information claire, accessible et réactive, avec un regard indépendant sur l’actualité.