इस लेख का आनंद लिया?
इसे अपने दोस्तों के साथ साझा करें!
एक प्रस्ताव कैलिफोर्निया में जो कि व्यक्तिगत बातचीत के लिए डिज़ाइन किए गए आर्टिफिशियल इंटेलिजेंस (एआई) चैटबॉट्स को विनियमित करेगा राज्य विधानमंडल पारित किया और गवर्नर गेविन न्यूज़ॉम से अनुमोदन का इंतजार किया।
के रूप में जाना जाता है सीनेट बिल 243कानून को लोकतांत्रिक और रिपब्लिकन सांसदों दोनों से समर्थन प्राप्त हुआ। Newsom को यह तय करना होगा कि 12 अक्टूबर तक इसे मंजूरी या अस्वीकार करना है या नहीं।
यदि अधिनियमित किया जाता है, कानून 1 जनवरी, 2026 को प्रभावी होगा। यह एक अमेरिकी राज्य के पहले उदाहरण को चिह्नित करेगा जिसमें विशिष्ट सुरक्षा प्रथाओं का पालन करने के लिए एआई साथियों को विकसित करने या चलाने वाली कंपनियों की आवश्यकता होती है।
क्या आप जानते हैं?
सदस्यता लें – हम हर हफ्ते नए क्रिप्टो व्याख्याकार वीडियो प्रकाशित करते हैं!
क्रिप्टो टोकन बनाम सिक्का (एनिमेटेड व्याख्यार और उदाहरण)
बिल एआई साथियों की पेशकश करने वाली कंपनियों के लिए कई नई जिम्मेदारियों की रूपरेखाऐसे कार्यक्रम जो उपयोगकर्ताओं की सामाजिक या भावनात्मक जरूरतों को पूरा करने के लिए मानव जैसी प्रतिक्रियाओं का अनुकरण करते हैं।
एक प्रमुख आवश्यकता यह है कि ये सिस्टम अक्सर उपयोगकर्ताओं, विशेष रूप से नाबालिगों को सूचित करना चाहिए, कि वे एक मशीन के साथ संवाद कर रहे हैं। 18 वर्ष से कम उम्र के उपयोगकर्ताओं के लिए, ये रिमाइंडर हर तीन घंटे में दिखाई देंगे, साथ ही ब्रेक लेने के संकेत भी।
इसके अतिरिक्त, कंपनियां सालाना रिपोर्ट करने की आवश्यकता है कि उनके सिस्टम का उपयोग कैसे किया जा रहा है। जुलाई 2027 में शुरू होने वाली इन रिपोर्टों को आवश्यक जानकारी को शामिल करने की आवश्यकता होगी कि उपयोगकर्ताओं को मानसिक स्वास्थ्य या आपातकालीन सेवाओं के लिए कितनी बार निर्देशित किया जाता है।
प्रस्तावित कानून के तहत, ऐसे व्यक्तियों को लगता है कि उन्हें नियमों का पालन करने में कंपनी की विफलता के कारण उन्हें नुकसान पहुंचा दिया गया है, उन्हें मुकदमा करने की अनुमति दी जाएगी। वे अदालत-आदेशित परिवर्तन, मुआवजा (प्रति उल्लंघन $ 1,000 तक), और कानूनी लागतों की तलाश कर सकते थे।
हाल ही में, अमेरिकी संघीय व्यापार आयोग (FTC) ने बच्चों और किशोरों पर AI चैटबॉट्स के संभावित प्रभाव में एक औपचारिक समीक्षा शुरू की। एजेंसी ने क्या कहा? पूरी कहानी पढ़ें।