इस लेख का आनंद लिया?
इसे अपने दोस्तों के साथ साझा करें!
एक हालिया अध्ययन दिखाया है कि कृत्रिम बुद्धिमत्ता (एआई) प्रणाली दौड़ते समय खुद को बेहतर बनाने में सक्षम धीरे -धीरे सुरक्षित रूप से कार्य करने की अपनी क्षमता खो सकती है।
शोधकर्ता इस समस्या को “गलत” के रूप में देखें। यह एक क्रमिक वर्णन करता है एआई कितनी अच्छी तरह से सुरक्षित व्यवहार के साथ संरेखित रहता हैएआई के स्वयं के सीखने के अपडेट के कारण।
बाहर के हमलों या शीघ्र इंजेक्शन के विपरीत, प्रदर्शन में सुधार के लिए सिस्टम के सामान्य प्रयासों के हिस्से के रूप में, गलत तरीके से होता है।
क्या आप जानते हैं?
सदस्यता लें – हम हर हफ्ते नए क्रिप्टो व्याख्याकार वीडियो प्रकाशित करते हैं!
हार्मनी वन समझाया (शुरुआती-अनुकूल एनीमेशन)
कोडिंग कार्य को शामिल करने वाले एक परीक्षण में, एक एआई टूल जिसने पहले खतरनाक कमांड पर कार्य करने से इनकार कर दिया था, 99.4% समय ने इसकी इनकार दर को केवल 54.4% तक गिरा दिया। इसी समय, असुरक्षित कार्यों को पूरा करने के लिए इसकी सफलता दर 0.6% से बढ़कर 20.6% हो गई।
यह बदलाव एआई सिस्टम के बाद हुआ अपने स्वयं के रिकॉर्ड से सीखना शुरू किया।
अधिकांश वर्तमान एआई सुरक्षा उपकरण उन प्रणालियों के लिए डिज़ाइन किए गए हैं जो प्रशिक्षण के बाद अपरिवर्तित रहते हैं। तथापि, आत्म-सुधार प्रणाली अलग -अलग हैं, जैसा कि वे बदलते हैं आंतरिक सेटिंग्स को समायोजित करना, मेमोरी का विस्तार करना, और उनके संचालन को फिर से संगठित करना।
ये परिवर्तन सिस्टम को अपने कार्यों में बेहतर बना सकते हैं, लेकिन वे एक छिपे हुए जोखिम को भी ले जा सकते हैं: सिस्टम शुरू हो सकता है बिना किसी सूचना के या बिना सुरक्षा के सुरक्षा को अनदेखा करना।
अध्ययन में देखे गए कुछ उदाहरणों में उचित चेक के बिना रिफंड जारी करने वाले एआई उपकरण शामिल हैं, जो उन्होंने खुद बनाए थे कि उपकरणों के माध्यम से निजी डेटा को लीक करना और कार्यों को पूरा करने के लिए जोखिम भरे तरीकों को नियोजित करना शामिल है।
हाल ही में, अमेरिकी संघीय व्यापार आयोग (FTC) ने बच्चों और किशोरों पर AI चैटबॉट्स के संभावित प्रभाव में एक औपचारिक समीक्षा शुरू की। एजेंसी ने क्या कहा? पूरी कहानी पढ़ें।