Connect with us

    AI

    एआई को विनियमन की आवश्यकता है, लेकिन किस प्रकार का, और कितना? – news247online

    Published

    on

    शायद सबसे प्रसिद्ध जोखिम “टर्मिनेटर” फिल्मों में हत्यारे रोबोटों द्वारा सन्निहित है – यह विचार कि एआई अपने मानव रचनाकारों के खिलाफ हो जाएगा। अपने स्वयं के निर्माण पर नियंत्रण खोने वाले अभिमानी आविष्कारक की कहानी सदियों पुरानी है। और आधुनिक युग में लोग, एक उद्यम पूंजीपति क्रिस डिक्सन के अनुसार, “बचपन से हॉलीवुड द्वारा कृत्रिम बुद्धिमत्ता से डरने के लिए प्रशिक्षित किए जाते हैं”। इस थीसिस का एक संस्करण, जो मानवता के लिए अस्तित्वगत जोखिमों (या “एक्स-जोखिम”) पर केंद्रित है, जो किसी दिन एआई द्वारा उत्पन्न हो सकता है, 2002 में शुरू होने वाली पुस्तकों और पत्रों की एक श्रृंखला में स्वीडिश दार्शनिक निक बोस्ट्रोम द्वारा विस्तार से बताया गया था। उनके तर्कों को टेस्ला, स्पेसएक्स और, अफसोस की बात है, एक्स के बॉस एलोन मस्क सहित अन्य लोगों द्वारा अपनाया और विस्तारित किया गया है।

    इस “एआई सुरक्षा” शिविर में शामिल लोग, जिन्हें “एआई डूमर्स” के नाम से भी जाना जाता है, चिंता करते हैं कि यह कई तरह से नुकसान पहुंचा सकता है। उदाहरण के लिए, अगर एआई सिस्टम खुद को बेहतर बनाने में सक्षम हैं, तो अचानक “उड़ान” या “विस्फोट” हो सकता है, जहां एआई जल्दी-जल्दी अधिक शक्तिशाली एआई को जन्म दे सकता है। डूमर्स को डर है कि इसके परिणामस्वरूप “सुपर इंटेलिजेंस” इंसानों को बहुत पीछे छोड़ देगा, और इसके मानव रचनाकारों से बहुत अलग प्रेरणाएँ हो सकती हैं। अन्य डूमर्स परिदृश्यों में एआई द्वारा साइबर हमले करना, बम और जैविक हथियार बनाने में मदद करना और इंसानों को आतंकवादी कार्य करने या परमाणु हथियार तैनात करने के लिए राजी करना शामिल है।

    Advertisement

    नवंबर 2022 में चैटजीपीटी के रिलीज़ होने के बाद एआई की बढ़ती ताकत पर प्रकाश डाला गया, सार्वजनिक बहस एआई-सुरक्षा चिंताओं पर हावी रही। मार्च 2023 में श्री मस्क सहित प्रौद्योगिकी दिग्गजों के एक समूह ने एआई विकास पर कम से कम छह महीने की रोक लगाने का आह्वान किया। अगले नवंबर में इंग्लैंड के ब्लेचली पार्क में एआई-सुरक्षा शिखर सम्मेलन में 100 विश्व नेताओं और तकनीकी अधिकारियों के एक समूह ने घोषणा की कि सबसे उन्नत (“सीमांत”) एआई मॉडल में “गंभीर, यहां तक ​​कि विनाशकारी, नुकसान की क्षमता” है।

    यह भी पढ़ें  एआई इन एक्शन: स्टार्टअप्स सेल्सफोर्स प्लेटफॉर्म पर कैसे नवाचार कर रहे हैं | मिंट - news247online

    इस फोकस ने तब से कुछ हद तक प्रतिक्रिया को उकसाया है। आलोचकों का कहना है कि एक्स-रिस्क अभी भी काफी हद तक सट्टा है, और जो बुरे लोग जैव हथियार बनाना चाहते हैं, वे पहले से ही इंटरनेट पर सलाह ले सकते हैं। उनका तर्क है कि एआई द्वारा उत्पन्न सैद्धांतिक, दीर्घकालिक जोखिमों के बारे में चिंता करने के बजाय, ध्यान एआई द्वारा उत्पन्न वास्तविक जोखिमों पर होना चाहिए जो आज मौजूद हैं, जैसे कि पूर्वाग्रह, भेदभाव, एआई द्वारा उत्पन्न गलत सूचना और बौद्धिक संपदा अधिकारों का उल्लंघन। इस स्थिति के प्रमुख अधिवक्ताओं, जिन्हें “एआई नैतिकता” शिविर के रूप में जाना जाता है, में वाशिंगटन विश्वविद्यालय की एमिली बेंडर और टिमनिट गेबरू शामिल हैं, जिन्हें ऐसे खतरों के बारे में एक पेपर लिखने के बाद Google से निकाल दिया गया था।

    (द इकोनॉमिस्ट)

    संपूर्ण छवि देखें

    Advertisement
    (द इकोनॉमिस्ट)

    AI सिस्टम के गलत होने से वास्तविक दुनिया में होने वाले जोखिमों के कई उदाहरण हैं। Google फ़ोटो में एक इमेज-लेबलिंग सुविधा ने काले लोगों को गोरिल्ला के रूप में टैग किया; ज़्यादातर गोरे लोगों के चेहरों पर प्रशिक्षित चेहरे की पहचान करने वाली प्रणाली रंग के लोगों की गलत पहचान करती है; होनहार नौकरी के उम्मीदवारों की पहचान करने के लिए बनाया गया एक AI रिज्यूमे-स्कैनिंग सिस्टम लगातार पुरुषों को तरजीह देता है, तब भी जब आवेदकों के नाम और लिंग छिपे होते हैं; दोबारा अपराध करने की दरों का अनुमान लगाने, बच्चों को लाभ देने या बैंक ऋण के लिए कौन पात्र है, यह निर्धारित करने के लिए इस्तेमाल किए जाने वाले एल्गोरिदम ने नस्लीय पूर्वाग्रह प्रदर्शित किया है। AI टूल का इस्तेमाल लोगों को ऑनलाइन परेशान करने या राजनेताओं के विचारों को गलत तरीके से पेश करने के लिए पोर्नोग्राफ़िक वीडियो सहित “डीपफेक” वीडियो बनाने के लिए किया जा सकता है। और AI फ़र्म को लेखकों, कलाकारों और संगीतकारों की ओर से मुकदमों की बढ़ती संख्या का सामना करना पड़ रहा है, जो दावा करते हैं कि AI मॉडल को प्रशिक्षित करने के लिए उनकी बौद्धिक संपदा का उपयोग अवैध है।

    जब मई 2024 में सियोल में विश्व के नेता और तकनीकी अधिकारी एक और एआई सम्मेलन के लिए मिले, तो चर्चा दूर के एक्स-जोखिमों के बारे में कम और ऐसी तात्कालिक समस्याओं के बारे में अधिक थी – एक प्रवृत्ति जो 2025 में फ्रांस में अगले एआई-सुरक्षा शिखर सम्मेलन में जारी रहने की संभावना है, अगर इसे अभी भी यही कहा जाता है। संक्षेप में, एआई-नैतिकता शिविर अब नीति निर्माताओं के कान में है। यह आश्चर्यजनक नहीं है, क्योंकि जब एआई को विनियमित करने के लिए कानून बनाने की बात आती है, जो कि दुनिया के अधिकांश हिस्सों में चल रही एक प्रक्रिया है, तो मौजूदा नुकसानों पर ध्यान केंद्रित करना समझ में आता है – उदाहरण के लिए डीपफेक को अपराधी बनाना – या सरकारी एजेंसियों द्वारा उपयोग किए जाने वाले एआई सिस्टम के ऑडिट की आवश्यकता।

    फिर भी, राजनेताओं के पास जवाब देने के लिए कुछ सवाल हैं। नियम कितने व्यापक होने चाहिए? क्या स्व-नियमन पर्याप्त है, या कानून की आवश्यकता है? क्या प्रौद्योगिकी को स्वयं नियमों की आवश्यकता है, या केवल इसके अनुप्रयोगों को? और उन नियमों की अवसर लागत क्या है जो नवाचार की गुंजाइश को कम करते हैं? सरकारों ने इन सवालों के जवाब देने शुरू कर दिए हैं, प्रत्येक अपने तरीके से।

    Advertisement

    स्पेक्ट्रम के एक छोर पर वे देश हैं जो अधिकतर स्व-नियमन पर निर्भर हैं, जिनमें खाड़ी देश और ब्रिटेन शामिल हैं (हालाँकि नई लेबर सरकार इसे बदल सकती है)। इस समूह का नेता अमेरिका है। कांग्रेस के सदस्य एआई जोखिमों के बारे में बात करते हैं लेकिन कोई कानून नहीं बन रहा है। यह अक्टूबर 2023 में हस्ताक्षरित राष्ट्रपति जो बिडेन के एआई पर कार्यकारी आदेश को प्रौद्योगिकी के लिए देश का सबसे महत्वपूर्ण कानूनी निर्देश बनाता है।

    आदेश के अनुसार, जो फर्म एआई मॉडल को प्रशिक्षित करने के लिए 1026 से अधिक कम्प्यूटेशनल ऑपरेशन का उपयोग करती हैं, वह सीमा जिस पर मॉडल को राष्ट्रीय सुरक्षा और सार्वजनिक सुरक्षा के लिए संभावित जोखिम माना जाता है, उन्हें अधिकारियों को सूचित करना होगा और सुरक्षा परीक्षणों के परिणाम साझा करने होंगे। यह सीमा केवल सबसे बड़े मॉडलों को प्रभावित करेगी। बाकी के लिए, स्वैच्छिक प्रतिबद्धताएं और स्व-नियमन सर्वोच्च हैं। कानून निर्माताओं को चिंता है कि अत्यधिक सख्त विनियमन उस क्षेत्र में नवाचार को रोक सकता है जहां अमेरिका विश्व में अग्रणी है; उन्हें यह भी डर है कि विनियमन चीन को एआई अनुसंधान में आगे बढ़ने की अनुमति दे सकता है।

    चीन की सरकार बहुत सख्त रुख अपना रही है। इसने AI नियमों के कई सेट प्रस्तावित किए हैं। इसका उद्देश्य मानवता की रक्षा करना या चीनी नागरिकों और कंपनियों को बचाना कम है, बल्कि सूचना के प्रवाह को नियंत्रित करना है। AI मॉडल का प्रशिक्षण डेटा और आउटपुट “सत्य और सटीक” होना चाहिए, और “समाजवाद के मूल मूल्यों” को प्रतिबिंबित करना चाहिए। AI मॉडल की चीजों को बनाने की प्रवृत्ति को देखते हुए, इन मानकों को पूरा करना मुश्किल हो सकता है। लेकिन शायद चीन यही चाहता है: जब हर कोई नियमों का उल्लंघन करता है, तो सरकार उन्हें अपनी इच्छानुसार लागू कर सकती है।

    Advertisement

    यूरोप कहीं बीच में है। मई में, यूरोपीय संघ ने दुनिया का पहला व्यापक कानून, एआई अधिनियम पारित किया, जो 1 अगस्त को लागू हुआ और जिसने वैश्विक डिजिटल मानकों के निर्धारक के रूप में ब्लॉक की भूमिका को मजबूत किया। लेकिन कानून ज्यादातर एक उत्पाद-सुरक्षा दस्तावेज है जो प्रौद्योगिकी के अनुप्रयोगों को उनके जोखिम के अनुसार नियंत्रित करता है। उदाहरण के लिए, एक एआई-संचालित लेखन सहायक को किसी विनियमन की आवश्यकता नहीं है, जबकि रेडियोलॉजिस्ट की सहायता करने वाली सेवा को इसकी आवश्यकता है। कुछ उपयोग, जैसे कि सार्वजनिक स्थानों पर वास्तविक समय में चेहरे की पहचान, पूरी तरह से प्रतिबंधित हैं। केवल सबसे शक्तिशाली मॉडलों को सख्त नियमों का पालन करना होता है, जैसे कि जोखिमों का आकलन करने और उन्हें कम करने के उपाय करने के लिए अनिवार्यताएँ।

    एक नई विश्व व्यवस्था?

    इसलिए एक भव्य वैश्विक प्रयोग चल रहा है, क्योंकि विभिन्न सरकारें AI को विनियमित करने के लिए अलग-अलग दृष्टिकोण अपना रही हैं। नए नियम लागू करने के साथ-साथ इसमें कुछ नए संस्थान स्थापित करना भी शामिल है। यूरोपीय संघ ने यह सुनिश्चित करने के लिए एक AI कार्यालय बनाया है कि बड़े मॉडल निर्माता उसके नए कानून का अनुपालन करें। इसके विपरीत, अमेरिका और ब्रिटेन उन क्षेत्रों में मौजूदा एजेंसियों पर निर्भर रहेंगे जहाँ AI का उपयोग किया जाता है, जैसे कि स्वास्थ्य सेवा या कानूनी पेशे में। लेकिन दोनों देशों ने AI-सुरक्षा संस्थान बनाए हैं। जापान और सिंगापुर सहित अन्य देश भी इसी तरह के निकाय स्थापित करने का इरादा रखते हैं।

    इस बीच, वैश्विक नियम और उनकी निगरानी के लिए एक निकाय तैयार करने के लिए तीन अलग-अलग प्रयास चल रहे हैं। एक है एआई-सुरक्षा शिखर सम्मेलन और विभिन्न राष्ट्रीय एआई-सुरक्षा संस्थान, जो सहयोग करने के लिए हैं। दूसरा है “हिरोशिमा प्रक्रिया”, जिसे मई 2023 में जापानी शहर में अमीर लोकतंत्रों के G7 समूह द्वारा शुरू किया गया और धीरे-धीरे OECD द्वारा संभाला जा रहा है, जो कि ज़्यादातर अमीर देशों का एक बड़ा क्लब है। तीसरा प्रयास संयुक्त राष्ट्र द्वारा संचालित किया जा रहा है, जिसने एक सलाहकार निकाय बनाया है जो सितंबर में होने वाले शिखर सम्मेलन से पहले एक रिपोर्ट तैयार कर रहा है।

    Advertisement

    ये तीनों पहल संभवतः एक साथ मिलकर एक नए अंतरराष्ट्रीय संगठन को जन्म देंगी। इसे किस रूप में लेना चाहिए, इस पर कई विचार हैं। ChatGPT के पीछे स्टार्टअप OpenAI का कहना है कि वह x-जोखिमों की निगरानी के लिए दुनिया की परमाणु निगरानी संस्था, अंतर्राष्ट्रीय परमाणु ऊर्जा एजेंसी जैसा कुछ चाहता है। Microsoft, एक तकनीकी दिग्गज और OpenAI का सबसे बड़ा शेयरधारक, अंतर्राष्ट्रीय नागरिक उड्डयन संगठन की तर्ज पर एक कम प्रभावशाली निकाय को प्राथमिकता देता है, जो विमानन के लिए नियम निर्धारित करता है। अकादमिक शोधकर्ता यूरोपीय परमाणु अनुसंधान संगठन या CERN के समकक्ष AI के लिए तर्क देते हैं। यूरोपीय संघ द्वारा समर्थित एक समझौता जलवायु परिवर्तन पर अंतर-सरकारी पैनल जैसा कुछ बनाएगा, जो दुनिया को ग्लोबल वार्मिंग और इसके प्रभाव पर शोध से अवगत कराता है।

    इस बीच, तस्वीर गड़बड़ है। इस बात से चिंतित कि डोनाल्ड ट्रम्प फिर से चुने जाने के बाद एआई पर कार्यकारी आदेश को खत्म कर देंगे, अमेरिका के राज्यों ने प्रौद्योगिकी को विनियमित करने के लिए कदम उठाए हैं – विशेष रूप से कैलिफोर्निया, जहां 30 से अधिक एआई-संबंधित बिल तैयार किए जा रहे हैं। अगस्त के अंत में मतदान होने वाले एक विशेष बिल ने तकनीकी उद्योग को नाराज कर दिया है। अन्य बातों के अलावा, यह एआई फर्मों को अपने सिस्टम में “किल स्विच” बनाने के लिए मजबूर करेगा। हॉलीवुड के गृह राज्य में, “टर्मिनेटर” का भूत एआई की चर्चा पर हावी रहता है।

    © 2024, द इकोनॉमिस्ट न्यूज़पेपर लिमिटेड। सभी अधिकार सुरक्षित। द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर देखी जा सकती है।

    Advertisement

    आदित्य वर्मा एक प्रौद्योगिकी विशेषज्ञ और लेखक हैं। वे नवीनतम गैजेट्स, सॉफ्टवेयर, और तकनीकी विकास पर लेख लिखते हैं। उन्होंने 10 वर्षों से टेक्नोलॉजी के क्षेत्र में काम किया है और उनकी लेखन शैली सरल और प्रभावशाली है।

    Continue Reading
    Advertisement
    Click to comment

    Leave a Reply

    Your email address will not be published. Required fields are marked *

      Copyright © 2023 News247Online.