वैज्ञानिक नए एआई मॉडल विकसित करते हैं जो कुंजी AGI बेंचमार्क परीक्षणों में CHATGPT को बेहतर बनाता है | प्रौद्योगिकी समाचार

Author name

28/08/2025

ऐसा लगता है कि वैज्ञानिक तेजी से कृत्रिम बुद्धिमत्ता मॉडल बनाने की दिशा में काम कर रहे हैं जो तर्क के मामले में मानव दिमाग से मिलते जुलते हैं। कथित तौर पर, एक नया एआई मॉडल लोकप्रिय बड़े भाषा मॉडल (एलएलएम) जैसे कि चटप्ट के विपरीत उन्नत तर्क करने में सक्षम है। वैज्ञानिकों का दावा है कि वे प्रमुख बेंचमार्क में बेहतर प्रदर्शन देख रहे हैं।

सिंगापुर स्थित एआई कंपनी Sapient के वैज्ञानिकों ने नए रीज़निंग AI को एक पदानुक्रमित तर्क मॉडल (HRM) का नाम दिया है, और यह कथित तौर पर मानव मस्तिष्क में पदानुक्रमित और बहु-टाइमस्केल प्रसंस्करण से प्रेरित है। यह अनिवार्य रूप से मस्तिष्क के विभिन्न क्षेत्र अलग -अलग अवधि के लिए जानकारी को एकीकृत करते हैं, जो मिलीसेकंड से लेकर मिनट तक होते हैं।

वैज्ञानिकों के अनुसार, नए तर्क मॉडल ने मौजूदा एलएलएम की तुलना में बेहतर प्रदर्शन का प्रदर्शन किया है और अधिक कुशलता से काम करने में सक्षम है। यह सब कथित तौर पर कम मापदंडों और प्रशिक्षण उदाहरणों की आवश्यकता वाले मॉडल के कारण संभव है। वैज्ञानिकों ने दावा किया कि एचआरएम मॉडल में 27 मिलियन पैरामीटर हैं, जबकि यह 1,000 प्रशिक्षण नमूनों का उपयोग करता है। एआई मॉडल में पैरामीटर प्रशिक्षण के दौरान सीखे गए चर हैं, जैसे कि वजन और पूर्वाग्रह। इसके विपरीत, अधिकांश उन्नत एलएलएम अरबों या खरबों के मापदंडों के साथ आते हैं।

यह कैसे प्रदर्शन करता है?

कहानी इस विज्ञापन के नीचे जारी है

जब एचआरएम को आर्क-एजीआई बेंचमार्क में परीक्षण किया गया था, जो कि सबसे कठिन परीक्षणों में से एक के लिए जाना जाता है, यह पता लगाने के लिए कि कृत्रिम सामान्य बुद्धि प्राप्त करने के लिए कितने करीबी मॉडल हैं, तो नए मॉडल ने उल्लेखनीय परिणाम दिखाए, अध्ययन के अनुसार। मॉडल ने आर्क-एजीआई -1 में 40.3 प्रतिशत स्कोर किया, जबकि ओपनई के 03-मिनी-हाई ने 34.5 प्रतिशत, एन्थ्रोपिक क्लाउड 3.7 पर 21.2 प्रतिशत और दीपसेक आर 1 ने 15.8 प्रतिशत स्कोर किया। इसी तरह, अधिक कठिन एआरसी-एजीआई -2 परीक्षण में, एचआरएम ने 5 प्रतिशत स्कोर किया, अन्य मॉडलों को काफी आगे बढ़ाया।

जबकि अधिकांश उन्नत एलएलएम चेन-ऑफ-थॉट (COT) तर्क का उपयोग करते हैं, Sapient के वैज्ञानिकों ने तर्क दिया कि इस पद्धति में कुछ महत्वपूर्ण कमियां हैं, जैसे ‘भंगुर कार्य अपघटन, व्यापक डेटा आवश्यकताओं और उच्च विलंबता।’ दूसरी ओर, एचआरएम एक ही फॉरवर्ड पास में अनुक्रमिक तर्क कार्यों का उपयोग करता है और कदम से कदम नहीं। इसमें दो मॉड्यूल हैं: एक उच्च-स्तरीय मॉड्यूल जो धीमी और अमूर्त नियोजन और एक निम्न-स्तरीय मॉड्यूल करता है जो तेज और विस्तृत गणना को संभालता है। यह इस बात से प्रेरित है कि मानव मस्तिष्क के विभिन्न क्षेत्र कैसे त्वरित प्रतिक्रियाओं की योजना बना रहे हैं।

इसके अलावा, HRM एक विधि को नियोजित करता है जिसे पुनरावृत्ति शोधन के रूप में जाना जाता है, जिसका अर्थ है कि यह एक मोटे उत्तर के साथ शुरू होता है और इसे कई छोटी सोच फटने पर सुधारता है। कथित तौर पर, प्रत्येक फटने के बाद, यह जांचता है कि क्या उसे रिफाइनिंग रखने की आवश्यकता है या यदि परिणाम अंतिम उत्तर के रूप में काफी अच्छे हैं। वैज्ञानिकों के अनुसार, एचआरएम ने सुडोकू पहेली को हल किया जो आमतौर पर सामान्य एलएलएम करने में विफल रहते हैं। मॉडल ने Mazes में सबसे अच्छे रास्तों को खोजने में भी उत्कृष्ट प्रदर्शन किया, यह प्रदर्शित करते हुए कि यह LLMS की तुलना में संरचित और तार्किक समस्याओं को बहुत बेहतर कर सकता है।

जबकि परिणाम उल्लेखनीय हैं, यह ध्यान देने की आवश्यकता है कि पेपर, जो कि ARXIV डेटाबेस में प्रकाशित किया गया है, अभी तक सहकर्मी की समीक्षा की जानी है। हालांकि, एआरसी-एजीआई बेंचमार्क टीम ने मॉडल को ओपन-सोर्स बनाने के बाद परिणामों को फिर से बनाने का प्रयास किया। टीम ने संख्याओं की पुष्टि की; हालांकि, उन्होंने यह भी पाया कि पदानुक्रमित वास्तुकला ने प्रदर्शन के अनुसार प्रदर्शन में ज्यादा सुधार नहीं किया। उन्होंने पाया कि प्रशिक्षण के दौरान एक कम प्रलेखित शोधन प्रक्रिया मजबूत संख्या का कारण था।

© IE ऑनलाइन मीडिया सर्विसेज प्राइवेट लिमिटेड