Connect with us

AI

एआई को विनियमन की आवश्यकता है, लेकिन किस प्रकार का, और कितना? – news247online

Published

on

शायद सबसे प्रसिद्ध जोखिम “टर्मिनेटर” फिल्मों में हत्यारे रोबोटों द्वारा सन्निहित है – यह विचार कि एआई अपने मानव रचनाकारों के खिलाफ हो जाएगा। अपने स्वयं के निर्माण पर नियंत्रण खोने वाले अभिमानी आविष्कारक की कहानी सदियों पुरानी है। और आधुनिक युग में लोग, एक उद्यम पूंजीपति क्रिस डिक्सन के अनुसार, “बचपन से हॉलीवुड द्वारा कृत्रिम बुद्धिमत्ता से डरने के लिए प्रशिक्षित किए जाते हैं”। इस थीसिस का एक संस्करण, जो मानवता के लिए अस्तित्वगत जोखिमों (या “एक्स-जोखिम”) पर केंद्रित है, जो किसी दिन एआई द्वारा उत्पन्न हो सकता है, 2002 में शुरू होने वाली पुस्तकों और पत्रों की एक श्रृंखला में स्वीडिश दार्शनिक निक बोस्ट्रोम द्वारा विस्तार से बताया गया था। उनके तर्कों को टेस्ला, स्पेसएक्स और, अफसोस की बात है, एक्स के बॉस एलोन मस्क सहित अन्य लोगों द्वारा अपनाया और विस्तारित किया गया है।

इस “एआई सुरक्षा” शिविर में शामिल लोग, जिन्हें “एआई डूमर्स” के नाम से भी जाना जाता है, चिंता करते हैं कि यह कई तरह से नुकसान पहुंचा सकता है। उदाहरण के लिए, अगर एआई सिस्टम खुद को बेहतर बनाने में सक्षम हैं, तो अचानक “उड़ान” या “विस्फोट” हो सकता है, जहां एआई जल्दी-जल्दी अधिक शक्तिशाली एआई को जन्म दे सकता है। डूमर्स को डर है कि इसके परिणामस्वरूप “सुपर इंटेलिजेंस” इंसानों को बहुत पीछे छोड़ देगा, और इसके मानव रचनाकारों से बहुत अलग प्रेरणाएँ हो सकती हैं। अन्य डूमर्स परिदृश्यों में एआई द्वारा साइबर हमले करना, बम और जैविक हथियार बनाने में मदद करना और इंसानों को आतंकवादी कार्य करने या परमाणु हथियार तैनात करने के लिए राजी करना शामिल है।

Advertisement

नवंबर 2022 में चैटजीपीटी के रिलीज़ होने के बाद एआई की बढ़ती ताकत पर प्रकाश डाला गया, सार्वजनिक बहस एआई-सुरक्षा चिंताओं पर हावी रही। मार्च 2023 में श्री मस्क सहित प्रौद्योगिकी दिग्गजों के एक समूह ने एआई विकास पर कम से कम छह महीने की रोक लगाने का आह्वान किया। अगले नवंबर में इंग्लैंड के ब्लेचली पार्क में एआई-सुरक्षा शिखर सम्मेलन में 100 विश्व नेताओं और तकनीकी अधिकारियों के एक समूह ने घोषणा की कि सबसे उन्नत (“सीमांत”) एआई मॉडल में “गंभीर, यहां तक ​​कि विनाशकारी, नुकसान की क्षमता” है।

इस फोकस ने तब से कुछ हद तक प्रतिक्रिया को उकसाया है। आलोचकों का कहना है कि एक्स-रिस्क अभी भी काफी हद तक सट्टा है, और जो बुरे लोग जैव हथियार बनाना चाहते हैं, वे पहले से ही इंटरनेट पर सलाह ले सकते हैं। उनका तर्क है कि एआई द्वारा उत्पन्न सैद्धांतिक, दीर्घकालिक जोखिमों के बारे में चिंता करने के बजाय, ध्यान एआई द्वारा उत्पन्न वास्तविक जोखिमों पर होना चाहिए जो आज मौजूद हैं, जैसे कि पूर्वाग्रह, भेदभाव, एआई द्वारा उत्पन्न गलत सूचना और बौद्धिक संपदा अधिकारों का उल्लंघन। इस स्थिति के प्रमुख अधिवक्ताओं, जिन्हें “एआई नैतिकता” शिविर के रूप में जाना जाता है, में वाशिंगटन विश्वविद्यालय की एमिली बेंडर और टिमनिट गेबरू शामिल हैं, जिन्हें ऐसे खतरों के बारे में एक पेपर लिखने के बाद Google से निकाल दिया गया था।

संपूर्ण छवि देखें

Advertisement
(द इकोनॉमिस्ट)

AI सिस्टम के गलत होने से वास्तविक दुनिया में होने वाले जोखिमों के कई उदाहरण हैं। Google फ़ोटो में एक इमेज-लेबलिंग सुविधा ने काले लोगों को गोरिल्ला के रूप में टैग किया; ज़्यादातर गोरे लोगों के चेहरों पर प्रशिक्षित चेहरे की पहचान करने वाली प्रणाली रंग के लोगों की गलत पहचान करती है; होनहार नौकरी के उम्मीदवारों की पहचान करने के लिए बनाया गया एक AI रिज्यूमे-स्कैनिंग सिस्टम लगातार पुरुषों को तरजीह देता है, तब भी जब आवेदकों के नाम और लिंग छिपे होते हैं; दोबारा अपराध करने की दरों का अनुमान लगाने, बच्चों को लाभ देने या बैंक ऋण के लिए कौन पात्र है, यह निर्धारित करने के लिए इस्तेमाल किए जाने वाले एल्गोरिदम ने नस्लीय पूर्वाग्रह प्रदर्शित किया है। AI टूल का इस्तेमाल लोगों को ऑनलाइन परेशान करने या राजनेताओं के विचारों को गलत तरीके से पेश करने के लिए पोर्नोग्राफ़िक वीडियो सहित “डीपफेक” वीडियो बनाने के लिए किया जा सकता है। और AI फ़र्म को लेखकों, कलाकारों और संगीतकारों की ओर से मुकदमों की बढ़ती संख्या का सामना करना पड़ रहा है, जो दावा करते हैं कि AI मॉडल को प्रशिक्षित करने के लिए उनकी बौद्धिक संपदा का उपयोग अवैध है।

जब मई 2024 में सियोल में विश्व के नेता और तकनीकी अधिकारी एक और एआई सम्मेलन के लिए मिले, तो चर्चा दूर के एक्स-जोखिमों के बारे में कम और ऐसी तात्कालिक समस्याओं के बारे में अधिक थी – एक प्रवृत्ति जो 2025 में फ्रांस में अगले एआई-सुरक्षा शिखर सम्मेलन में जारी रहने की संभावना है, अगर इसे अभी भी यही कहा जाता है। संक्षेप में, एआई-नैतिकता शिविर अब नीति निर्माताओं के कान में है। यह आश्चर्यजनक नहीं है, क्योंकि जब एआई को विनियमित करने के लिए कानून बनाने की बात आती है, जो कि दुनिया के अधिकांश हिस्सों में चल रही एक प्रक्रिया है, तो मौजूदा नुकसानों पर ध्यान केंद्रित करना समझ में आता है – उदाहरण के लिए डीपफेक को अपराधी बनाना – या सरकारी एजेंसियों द्वारा उपयोग किए जाने वाले एआई सिस्टम के ऑडिट की आवश्यकता।

फिर भी, राजनेताओं के पास जवाब देने के लिए कुछ सवाल हैं। नियम कितने व्यापक होने चाहिए? क्या स्व-नियमन पर्याप्त है, या कानून की आवश्यकता है? क्या प्रौद्योगिकी को स्वयं नियमों की आवश्यकता है, या केवल इसके अनुप्रयोगों को? और उन नियमों की अवसर लागत क्या है जो नवाचार की गुंजाइश को कम करते हैं? सरकारों ने इन सवालों के जवाब देने शुरू कर दिए हैं, प्रत्येक अपने तरीके से।

Advertisement

स्पेक्ट्रम के एक छोर पर वे देश हैं जो अधिकतर स्व-नियमन पर निर्भर हैं, जिनमें खाड़ी देश और ब्रिटेन शामिल हैं (हालाँकि नई लेबर सरकार इसे बदल सकती है)। इस समूह का नेता अमेरिका है। कांग्रेस के सदस्य एआई जोखिमों के बारे में बात करते हैं लेकिन कोई कानून नहीं बन रहा है। यह अक्टूबर 2023 में हस्ताक्षरित राष्ट्रपति जो बिडेन के एआई पर कार्यकारी आदेश को प्रौद्योगिकी के लिए देश का सबसे महत्वपूर्ण कानूनी निर्देश बनाता है।

आदेश के अनुसार, जो फर्म एआई मॉडल को प्रशिक्षित करने के लिए 1026 से अधिक कम्प्यूटेशनल ऑपरेशन का उपयोग करती हैं, वह सीमा जिस पर मॉडल को राष्ट्रीय सुरक्षा और सार्वजनिक सुरक्षा के लिए संभावित जोखिम माना जाता है, उन्हें अधिकारियों को सूचित करना होगा और सुरक्षा परीक्षणों के परिणाम साझा करने होंगे। यह सीमा केवल सबसे बड़े मॉडलों को प्रभावित करेगी। बाकी के लिए, स्वैच्छिक प्रतिबद्धताएं और स्व-नियमन सर्वोच्च हैं। कानून निर्माताओं को चिंता है कि अत्यधिक सख्त विनियमन उस क्षेत्र में नवाचार को रोक सकता है जहां अमेरिका विश्व में अग्रणी है; उन्हें यह भी डर है कि विनियमन चीन को एआई अनुसंधान में आगे बढ़ने की अनुमति दे सकता है।

चीन की सरकार बहुत सख्त रुख अपना रही है। इसने AI नियमों के कई सेट प्रस्तावित किए हैं। इसका उद्देश्य मानवता की रक्षा करना या चीनी नागरिकों और कंपनियों को बचाना कम है, बल्कि सूचना के प्रवाह को नियंत्रित करना है। AI मॉडल का प्रशिक्षण डेटा और आउटपुट “सत्य और सटीक” होना चाहिए, और “समाजवाद के मूल मूल्यों” को प्रतिबिंबित करना चाहिए। AI मॉडल की चीजों को बनाने की प्रवृत्ति को देखते हुए, इन मानकों को पूरा करना मुश्किल हो सकता है। लेकिन शायद चीन यही चाहता है: जब हर कोई नियमों का उल्लंघन करता है, तो सरकार उन्हें अपनी इच्छानुसार लागू कर सकती है।

Advertisement

यूरोप कहीं बीच में है। मई में, यूरोपीय संघ ने दुनिया का पहला व्यापक कानून, एआई अधिनियम पारित किया, जो 1 अगस्त को लागू हुआ और जिसने वैश्विक डिजिटल मानकों के निर्धारक के रूप में ब्लॉक की भूमिका को मजबूत किया। लेकिन कानून ज्यादातर एक उत्पाद-सुरक्षा दस्तावेज है जो प्रौद्योगिकी के अनुप्रयोगों को उनके जोखिम के अनुसार नियंत्रित करता है। उदाहरण के लिए, एक एआई-संचालित लेखन सहायक को किसी विनियमन की आवश्यकता नहीं है, जबकि रेडियोलॉजिस्ट की सहायता करने वाली सेवा को इसकी आवश्यकता है। कुछ उपयोग, जैसे कि सार्वजनिक स्थानों पर वास्तविक समय में चेहरे की पहचान, पूरी तरह से प्रतिबंधित हैं। केवल सबसे शक्तिशाली मॉडलों को सख्त नियमों का पालन करना होता है, जैसे कि जोखिमों का आकलन करने और उन्हें कम करने के उपाय करने के लिए अनिवार्यताएँ।

एक नई विश्व व्यवस्था?

इसलिए एक भव्य वैश्विक प्रयोग चल रहा है, क्योंकि विभिन्न सरकारें AI को विनियमित करने के लिए अलग-अलग दृष्टिकोण अपना रही हैं। नए नियम लागू करने के साथ-साथ इसमें कुछ नए संस्थान स्थापित करना भी शामिल है। यूरोपीय संघ ने यह सुनिश्चित करने के लिए एक AI कार्यालय बनाया है कि बड़े मॉडल निर्माता उसके नए कानून का अनुपालन करें। इसके विपरीत, अमेरिका और ब्रिटेन उन क्षेत्रों में मौजूदा एजेंसियों पर निर्भर रहेंगे जहाँ AI का उपयोग किया जाता है, जैसे कि स्वास्थ्य सेवा या कानूनी पेशे में। लेकिन दोनों देशों ने AI-सुरक्षा संस्थान बनाए हैं। जापान और सिंगापुर सहित अन्य देश भी इसी तरह के निकाय स्थापित करने का इरादा रखते हैं।

इस बीच, वैश्विक नियम और उनकी निगरानी के लिए एक निकाय तैयार करने के लिए तीन अलग-अलग प्रयास चल रहे हैं। एक है एआई-सुरक्षा शिखर सम्मेलन और विभिन्न राष्ट्रीय एआई-सुरक्षा संस्थान, जो सहयोग करने के लिए हैं। दूसरा है “हिरोशिमा प्रक्रिया”, जिसे मई 2023 में जापानी शहर में अमीर लोकतंत्रों के G7 समूह द्वारा शुरू किया गया और धीरे-धीरे OECD द्वारा संभाला जा रहा है, जो कि ज़्यादातर अमीर देशों का एक बड़ा क्लब है। तीसरा प्रयास संयुक्त राष्ट्र द्वारा संचालित किया जा रहा है, जिसने एक सलाहकार निकाय बनाया है जो सितंबर में होने वाले शिखर सम्मेलन से पहले एक रिपोर्ट तैयार कर रहा है।

Advertisement

ये तीनों पहल संभवतः एक साथ मिलकर एक नए अंतरराष्ट्रीय संगठन को जन्म देंगी। इसे किस रूप में लेना चाहिए, इस पर कई विचार हैं। ChatGPT के पीछे स्टार्टअप OpenAI का कहना है कि वह x-जोखिमों की निगरानी के लिए दुनिया की परमाणु निगरानी संस्था, अंतर्राष्ट्रीय परमाणु ऊर्जा एजेंसी जैसा कुछ चाहता है। Microsoft, एक तकनीकी दिग्गज और OpenAI का सबसे बड़ा शेयरधारक, अंतर्राष्ट्रीय नागरिक उड्डयन संगठन की तर्ज पर एक कम प्रभावशाली निकाय को प्राथमिकता देता है, जो विमानन के लिए नियम निर्धारित करता है। अकादमिक शोधकर्ता यूरोपीय परमाणु अनुसंधान संगठन या CERN के समकक्ष AI के लिए तर्क देते हैं। यूरोपीय संघ द्वारा समर्थित एक समझौता जलवायु परिवर्तन पर अंतर-सरकारी पैनल जैसा कुछ बनाएगा, जो दुनिया को ग्लोबल वार्मिंग और इसके प्रभाव पर शोध से अवगत कराता है।

इस बीच, तस्वीर गड़बड़ है। इस बात से चिंतित कि डोनाल्ड ट्रम्प फिर से चुने जाने के बाद एआई पर कार्यकारी आदेश को खत्म कर देंगे, अमेरिका के राज्यों ने प्रौद्योगिकी को विनियमित करने के लिए कदम उठाए हैं – विशेष रूप से कैलिफोर्निया, जहां 30 से अधिक एआई-संबंधित बिल तैयार किए जा रहे हैं। अगस्त के अंत में मतदान होने वाले एक विशेष बिल ने तकनीकी उद्योग को नाराज कर दिया है। अन्य बातों के अलावा, यह एआई फर्मों को अपने सिस्टम में “किल स्विच” बनाने के लिए मजबूर करेगा। हॉलीवुड के गृह राज्य में, “टर्मिनेटर” का भूत एआई की चर्चा पर हावी रहता है।

© 2024, द इकोनॉमिस्ट न्यूज़पेपर लिमिटेड। सभी अधिकार सुरक्षित। द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर देखी जा सकती है।

Advertisement

आदित्य वर्मा एक प्रौद्योगिकी विशेषज्ञ और लेखक हैं। वे नवीनतम गैजेट्स, सॉफ्टवेयर, और तकनीकी विकास पर लेख लिखते हैं। उन्होंने 10 वर्षों से टेक्नोलॉजी के क्षेत्र में काम किया है और उनकी लेखन शैली सरल और प्रभावशाली है।

Continue Reading
Advertisement
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Exit mobile version