ETH Zurich और EPFL का ओपन-वेट LLM ग्रीन कम्प्यूट पर निर्मित ब्लैक-बॉक्स AI के लिए एक पारदर्शी विकल्प प्रदान करता है और सार्वजनिक रिलीज के लिए सेट करता है।
बड़े भाषा मॉडल (एलएलएम)जो तंत्रिका नेटवर्क हैं जो एक वाक्य में अगले शब्द की भविष्यवाणी करते हैं, आज की शक्ति कर रहे हैं उदार एआई। अधिकांश बंद रहते हैं, जनता द्वारा उपयोग करने योग्य हैं, फिर भी निरीक्षण या सुधार के लिए दुर्गम हैं। वेब 3 के खुलेपन और अनुमतिहीन नवाचार के सिद्धांतों के साथ पारदर्शिता की कमी।
इसलिए सभी ने नोटिस लिया जब एथ ज्यूरिख और स्विस फेडरल इंस्टीट्यूट ऑफ टेक्नोलॉजी इन लॉज़ेन (ईपीएफएल) की घोषणा की एक पूरी तरह से सार्वजनिक मॉडल, जिसे स्विट्जरलैंड के कार्बन ral न्यूट्रल “आल्प्स” सुपर कंप्यूटर पर प्रशिक्षित किया गया है और इस साल के अंत में अपाचे 2.0 के तहत रिलीज के लिए स्लेट किया गया है।
इसे आम तौर पर “स्विट्जरलैंड के ओपन एलएलएम” के रूप में जाना जाता है, “जनता के अच्छे के लिए बनाया गया एक भाषा मॉडल,” या “स्विस लार्ज लैंग्वेज मॉडल”, लेकिन अब तक सार्वजनिक विवरणों में कोई विशिष्ट ब्रांड या परियोजना का नाम साझा नहीं किया गया है।
ओपन ‘वेट एलएलएम एक ऐसा मॉडल है, जिसके पैरामीटर को डाउनलोड किया जा सकता है, ऑडिट किया जा सकता है और स्थानीय रूप से अच्छी तरह से ऑडिट किया जा सकता है, केवल एपीआई” ब्लैक – बॉक्स “सिस्टम के विपरीत।
स्विट्जरलैंड का एलएलएम एक मौलिक रूप से पारदर्शी एलएलएम की पेशकश करने के लिए खुलेपन, बहुभाषी पैमाने और हरे रंग के बुनियादी ढांचे का मिश्रण करता है।
पूर्ण मॉडल पारदर्शिता onchain निष्कर्ष, टोकन डेटा प्रवाह और Oracle-safe defi एकीकरण के साथ कोई ब्लैक बॉक्स आवश्यक नहीं है।
ये डिज़ाइन लक्ष्य उच्च of इंटेंट एसईओ वाक्यांशों पर साफ -सफाई से नक्शे हैं, जिनमें शामिल हैं विकेन्द्रीकृत एआईब्लॉकचेन एआई एकीकरण और onchain अनुमान, कीवर्ड स्टफिंग के बिना लेख की खोज को बढ़ावा देना।
क्या आप जानते हैं? ओपन-वेट एलएलएम रोलअप के अंदर चल सकते हैं, स्मार्ट कॉन्ट्रैक्ट्स को वास्तविक समय में कानूनी डॉक्स या ध्वज संदिग्ध लेनदेन को संक्षेप में प्रस्तुत करने में मदद करते हैं।
स्विट्जरलैंड के आगामी मॉडल की तरह सार्वजनिक LLMs, यूरोपीय संघ एआई अधिनियम का पालन करने के लिए डिज़ाइन किए गए हैं, जो पारदर्शिता और नियामक संरेखण में एक स्पष्ट लाभ प्रदान करते हैं।
18 जुलाई, 2025 को, यूरोपीय आयोग जारी किए गए प्रणालीगत stound रिस्क फाउंडेशन मॉडल के लिए मार्गदर्शन। आवश्यकताओं में प्रतिकूल परीक्षण, विस्तृत प्रशिक्षण, डेटा सारांश और साइबर सुरक्षा ऑडिट, सभी प्रभावी अगस्त 2, 2025 शामिल हैं। ओपन is सोर्स परियोजनाएं जो अपने वजन और डेटा सेट प्रकाशित करती हैं, इनमें से कई पारदर्शिता जनादेश को बॉक्स से बाहर संतुष्ट कर सकती हैं, जिससे सार्वजनिक मॉडल अनुपालन बढ़त मिलते हैं।

GPT and 4 अभी भी पैमाने और मालिकाना शोधन के कारण कच्चे प्रदर्शन में बढ़त रखता है। लेकिन स्विस मॉडल अंतर को बंद कर देता है, खासकर के लिए बहुभाषी कार्य और गैर-वाणिज्यिक अनुसंधान, जबकि ऑडिटबिलिटी प्रदान करते हुए जो मालिकाना मॉडल मौलिक रूप से नहीं कर सकते।
क्या आप जानते हैं? 2 अगस्त, 2025 से, यूरोपीय संघ में फाउंडेशन मॉडल को डेटा सारांश, ऑडिट लॉग, और प्रतिकूल परीक्षण परिणाम प्रकाशित करना होगा, आवश्यकताएं जो आगामी स्विस ओपन-सोर्स एलएलएम पहले से ही संतुष्ट हैं।
जबकि क्यूवेन मॉडल विविधता और तैनाती के प्रदर्शन पर जोर देता है, स्विट्जरलैंड का सार्वजनिक एलएलएम पूर्ण-स्टैक पारदर्शिता और बहुभाषी गहराई पर केंद्रित है।
स्विट्जरलैंड का सार्वजनिक एलएलएम ओपन-वेट एलएलएम रेस में एकमात्र गंभीर दावेदार नहीं है। अलीबाबा की Qwen श्रृंखला, Qwen3 और Qwen3, Coder, तेजी से एक उच्च प्रदर्शन, पूरी तरह से खुले-स्रोत विकल्प के रूप में उभरा है।
जबकि स्विट्जरलैंड का सार्वजनिक एलएलएम पूर्ण-स्टैक पारदर्शिता के साथ चमकता है, इसके वजन, प्रशिक्षण कोड और डेटा सेट कार्यप्रणाली को जारी करते हुए, क्यूवेन का खुलापन वजन और कोड पर केंद्रित है, जिसमें प्रशिक्षण डेटा स्रोतों के आसपास कम स्पष्टता है।
जब मॉडल विविधता की बात आती है, तो क्यूवेन एक विस्तारक सीमा प्रदान करता है, जिसमें घने मॉडल और एक परिष्कृत शामिल हैं मिश्रण-के-विशेषज्ञ (एमओई) वास्तुकला अधिक संदर्भ-जागरूक प्रसंस्करण के लिए हाइब्रिड रीजनिंग मोड के साथ 235 बिलियन मापदंडों (22 बिलियन सक्रिय) तक घमंड। इसके विपरीत, स्विट्जरलैंड का सार्वजनिक एलएलएम दो स्वच्छ, अनुसंधान-उन्मुख आकार: 8 बिलियन और 70 बिलियन की पेशकश करते हुए एक अधिक शैक्षणिक फोकस रखता है।
प्रदर्शन पर, अलीबाबा के QWEN3‑ Coder को स्वतंत्र रूप से REUTERS, Elets CIO और विकिपीडिया सहित स्रोतों द्वारा कोडिंग और गणित-गहन कार्यों में GPT-4 प्रतिद्वंद्वी करने के लिए बेंचमार्क किया गया है। स्विट्जरलैंड के सार्वजनिक एलएलएम का प्रदर्शन डेटा अभी भी सार्वजनिक रिलीज पर लंबित है।
बहुभाषी क्षमता पर, स्विट्जरलैंड का सार्वजनिक एलएलएम 1,500 से अधिक भाषाओं के लिए समर्थन के साथ बढ़त लेता है, जबकि क्यूवेन के कवरेज में 119, अभी भी पर्याप्त लेकिन अधिक चयनात्मक शामिल हैं। अंत में, इन्फ्रास्ट्रक्चर फ़ुटप्रिंट डायवर्जेंट दर्शन को दर्शाता है: स्विट्जरलैंड का पब्लिक एलएलएम सीएससीएस के कार्बन-न्यूट्रल पर चलता है आल्प्स सुपरकंप्यूटरएक संप्रभु, हरी सुविधा, जबकि Qwen मॉडल को प्रशिक्षित किया जाता है और अलीबाबा क्लाउड के माध्यम से परोसा जाता है, ऊर्जा पारदर्शिता पर गति और पैमाने को प्राथमिकता देता है।
नीचे एक साइड-बाय-साइड लुक दिया गया है कि कैसे दो ओपन-सोर्स एलएलएम पहल प्रमुख आयामों में मापते हैं:

क्या आप जानते हैं? QWEN3 – CODER 235B कुल मापदंडों के साथ MOE सेटअप का उपयोग करता है, लेकिन केवल 22 बिलियन एक ही बार में सक्रिय हैं, पूर्ण गणना लागत के बिना गति का अनुकूलन करते हैं।
ओपन-सोर्स एलएलएम पारदर्शिता प्रदान करते हैं, लेकिन अस्थिरता, उच्च गणना मांगों और कानूनी अनिश्चितता जैसी बाधाओं का सामना करते हैं।
ओपन-सोर्स एलएलएम द्वारा सामना की जाने वाली प्रमुख चुनौतियों में शामिल हैं: