सरवम एआई ने 24 बिलियन मापदंडों के साथ फ्लैगशिप ओपन-सोर्स एलएलएम डेब्यू किया प्रौद्योगिकी समाचार

भारतीय एआई स्टार्टअप सरवम ने अपने प्रमुख बड़े भाषा मॉडल (एलएलएम), सर्वाम-एम का अनावरण किया है। एलएलएम एक 24 बिलियन-पैरामीटर ओपन-वेट हाइब्रिड लैंग्वेज मॉडल है जो मिस्ट्रल स्मॉल के शीर्ष पर बनाया गया है। सर्वाम-एम ने कथित तौर पर गणित, प्रोग्रामिंग कार्यों और यहां तक ​​कि भारतीय भाषा की समझ में नए मानक हासिल किए हैं। कंपनी के अनुसार, मॉडल को अनुप्रयोगों की एक विस्तृत श्रृंखला के लिए डिज़ाइन किया गया है।

संवादी एआई, मशीन अनुवाद और शैक्षिक उपकरण सर्वाम-एम के उल्लेखनीय उपयोग के कुछ मामलों में से कुछ हैं। ओपन-सोर्स मॉडल गणित और प्रोग्रामिंग जैसे तर्क कार्यों को करने में सक्षम है। आधिकारिक ब्लॉग पोस्ट के अनुसार, मॉडल को तीन-चरणीय प्रक्रिया के माध्यम से बढ़ाया गया है-पर्यवेक्षित फाइन-ट्यूनिंग (एसएफटी), सत्यापन योग्य पुरस्कार (आरएलवीआर) के साथ सुदृढीकरण सीखने, और अनुमान ऑप्टिमाइजेशन।

जब यह SFT की बात आती है, तो सर्वाम की टीम ने गुणवत्ता और कठिनाई पर केंद्रित संकेतों के एक विस्तृत सेट पर क्यूरेट किया। उन्होंने अनुमेय मॉडल का उपयोग करके पूर्णताएं उत्पन्न कीं, उन्हें कस्टम स्कोरिंग के माध्यम से फ़िल्टर किया, और पूर्वाग्रह और सांस्कृतिक प्रासंगिकता को कम करने के लिए समायोजित आउटपुट। SFT प्रक्रिया ने Sarvam-M को ‘थिंक’ दोनों में कार्य करने के लिए प्रशिक्षित किया, जो जटिल तर्क है, और ‘गैर-विचार’ या सामान्य वार्तालाप मोड।

कहानी इस विज्ञापन के नीचे जारी है

दूसरी ओर, RLVR के साथ, Sarvam-M को आगे एक पाठ्यक्रम का उपयोग करके प्रशिक्षित किया गया था, जिसमें निर्देश से युक्त, प्रोग्रामिंग डेटासेट और गणित शामिल थे। टीम ने कार्यों में मॉडल के प्रदर्शन को बढ़ाने के लिए कस्टम रिवार्ड इंजीनियरिंग और शीघ्र नमूनाकरण रणनीतियों जैसी तकनीकों का उपयोग किया। अनुमान अनुकूलन के लिए, मॉडल ने FP8 परिशुद्धता के लिए पोस्ट-ट्रेनिंग क्वांटाइजेशन को कम किया, सटीकता में नगण्य हानि प्राप्त की। लुकहेड डिकोडिंग जैसी तकनीकों को थ्रूपुट को बढ़ावा देने के लिए लागू किया गया था; हालांकि, उच्च संगति का समर्थन करने में चुनौतियों का उल्लेख किया गया था।

विशेष रूप से, भारतीय भाषाओं और गणित के साथ संयुक्त कार्यों में, जैसे कि रोमनकृत भारतीय भाषा GSM-8K बेंचमार्क, मॉडल ने एक प्रभावशाली +86% सुधार हासिल किया। अधिकांश बेंचमार्क में, सर्वाम-एम ने लामा -4 स्काउट को बेहतर बनाया, और यह लामा -3.3 70 बी और जेम्मा 3 27 बी जैसे बड़े मॉडलों के बराबर है। हालांकि, यह MMLU जैसे अंग्रेजी ज्ञान बेंचमार्क में एक मामूली गिरावट (~ 1%) दिखाता है।

SARVAM-M मॉडल वर्तमान में Sarvam के API के माध्यम से सुलभ है और इसे प्रयोग और एकीकरण के लिए चेहरे को गले लगाने से डाउनलोड किया जा सकता है।

© IE ऑनलाइन मीडिया सर्विसेज प्राइवेट लिमिटेड

24 बी पैरामीटर एलएलएमGSM-8K भारतीयएआईएलएलएमओपन सोर्स लैंग्वेज मॉडलओपनसरसकयकुपोषणगणित एलएलएम बेंचमार्कडबयपरदयगकफलगशपबड़ी भाषा मॉडल 2025बलयनभारतीय एआई स्टार्टअपमपदडसथसमचरसरवमसर्वाम ऐसर्वाम-एम।हगिंग फेस llm