Connect with us

AI

विनियामक सैद्धांतिक जोखिमों के बजाय वास्तविक एआई जोखिमों पर ध्यान केंद्रित कर रहे हैं। – news247online

Published

on

मुझे खेद है डेव, मुझे डर है कि मैं ऐसा नहीं कर सकता।” “2001: ए स्पेस ओडिसी” में जानलेवा कंप्यूटर HAL 9000, कृत्रिम बुद्धिमत्ता (AI) के विज्ञान कथाओं में कई उदाहरणों में से एक है जो अपने मानव रचनाकारों को घातक परिणामों के साथ मात देता है। AI में हालिया प्रगति, विशेष रूप से ChatGPT की रिलीज़ ने “अस्तित्वगत जोखिम” के सवाल को अंतर्राष्ट्रीय एजेंडे में ऊपर धकेल दिया है। मार्च 2023 में एलन मस्क सहित कई तकनीकी दिग्गजों ने सुरक्षा चिंताओं के कारण AI के विकास में कम से कम छह महीने का विराम लगाने का आह्वान किया। पिछले शरद ऋतु में ब्रिटेन में AI-सुरक्षा शिखर सम्मेलन में, राजनेताओं और वैज्ञानिकों ने इस संभावित खतरनाक तकनीक को विनियमित करने के सर्वोत्तम तरीके पर चर्चा की।

Advertisement

हालाँकि, आज की बात करें तो मूड बदल गया है। इस बात की आशंका कि तकनीक बहुत तेज़ी से आगे बढ़ रही है, की जगह इस बात की चिंता ने ले ली है कि AI अपने मौजूदा स्वरूप में उम्मीद से कम उपयोगी हो सकता है – और हो सकता है कि टेक फ़र्म ने इसे बहुत बढ़ा-चढ़ाकर पेश किया हो। साथ ही, नियम बनाने की प्रक्रिया ने नीति निर्माताओं को AI से जुड़ी मौजूदा समस्याओं, जैसे कि पूर्वाग्रह, भेदभाव और बौद्धिक संपदा अधिकारों के उल्लंघन से निपटने की ज़रूरत को पहचानने के लिए प्रेरित किया है। जैसा कि हमारे स्कूलों में AI पर संक्षिप्त विवरण के अंतिम अध्याय में बताया गया है, विनियमन का फ़ोकस अस्पष्ट, काल्पनिक जोखिमों से हटकर विशिष्ट और तत्काल जोखिमों पर स्थानांतरित हो गया है। यह एक अच्छी बात है।

उदाहरण के लिए, AI-आधारित सिस्टम जो लोगों को ऋण या बंधक के लिए मूल्यांकन करते हैं और लाभ आवंटित करते हैं, नस्लीय पूर्वाग्रह प्रदर्शित करते पाए गए हैं। AI भर्ती प्रणाली जो रिज्यूमे की जांच करती है, पुरुषों का पक्ष लेती दिखाई देती है। कानून प्रवर्तन एजेंसियों द्वारा उपयोग की जाने वाली चेहरे की पहचान करने वाली प्रणाली रंग के लोगों की गलत पहचान करने की अधिक संभावना है। AI टूल का उपयोग लोगों को परेशान करने या राजनेताओं के विचारों को गलत तरीके से प्रस्तुत करने के लिए पोर्नोग्राफ़िक वीडियो सहित “डीपफेक” वीडियो बनाने के लिए किया जा सकता है। कलाकारों, संगीतकारों और समाचार संगठनों का कहना है कि उनके काम का उपयोग, बिना अनुमति के, AI मॉडल को प्रशिक्षित करने के लिए किया गया है। और स्पष्ट सहमति के बिना प्रशिक्षण उद्देश्यों के लिए व्यक्तिगत डेटा का उपयोग करने की वैधता पर अनिश्चितता है।

इसका नतीजा यह हुआ है कि नए कानूनों की झड़ी लग गई है। यूरोपीय संघ के एआई अधिनियम के तहत कानून प्रवर्तन एजेंसियों द्वारा लाइव फेशियल-रिकग्निशन सिस्टम के इस्तेमाल पर प्रतिबंध लगा दिया जाएगा, उदाहरण के लिए, साथ ही साथ भविष्यसूचक पुलिसिंग, भावना पहचान और अवचेतन विज्ञापन के लिए एआई के इस्तेमाल पर भी प्रतिबंध लगा दिया जाएगा। कई देशों ने एआई द्वारा बनाए गए वीडियो को लेबल करने के लिए नियम बनाए हैं। दक्षिण कोरिया ने चुनाव से पहले 90 दिनों में राजनेताओं के डीपफेक वीडियो पर प्रतिबंध लगा दिया है; सिंगापुर भी ऐसा ही कर सकता है।

Advertisement

कुछ मामलों में मौजूदा नियमों को स्पष्ट करने की आवश्यकता होगी। Apple और Meta दोनों ने कहा है कि वे व्यक्तिगत डेटा के उपयोग पर नियमों में अस्पष्टता के कारण EU में अपने कुछ AI उत्पादों को जारी नहीं करेंगे। (द इकोनॉमिस्ट के लिए एक ऑनलाइन निबंध में, मेटा के मुख्य कार्यकारी अधिकारी मार्क जुकरबर्ग और Spotify के बॉस डैनियल एक ने तर्क दिया कि इस अनिश्चितता का मतलब है कि यूरोपीय उपभोक्ताओं को नवीनतम तकनीक तक पहुँच से वंचित किया जा रहा है।) और कुछ चीजें – जैसे कि प्रशिक्षण उद्देश्यों के लिए कॉपीराइट सामग्री का उपयोग “उचित उपयोग” नियमों के तहत अनुमत है या नहीं – अदालतों में तय की जा सकती हैं।

AI से जुड़ी मौजूदा समस्याओं से निपटने के लिए इनमें से कुछ प्रयास दूसरों की तुलना में बेहतर काम करेंगे। लेकिन वे इस बात को दर्शाते हैं कि विधायक मौजूदा AI सिस्टम से जुड़े वास्तविक जीवन के जोखिमों पर ध्यान केंद्रित करने का चुनाव कैसे कर रहे हैं। इसका मतलब यह नहीं है कि सुरक्षा जोखिमों को नज़रअंदाज़ किया जाना चाहिए; समय के साथ, विशिष्ट सुरक्षा विनियमों की आवश्यकता हो सकती है। लेकिन भविष्य के अस्तित्वगत जोखिम की प्रकृति और सीमा को मापना मुश्किल है, जिसका अर्थ है कि अभी इसके खिलाफ़ कानून बनाना मुश्किल है। इसे देखने के लिए, SB 1047 से आगे न देखें, जो कैलिफ़ोर्निया के राज्य विधानमंडल के माध्यम से काम करने वाला एक विवादास्पद कानून है।

अधिवक्ताओं का कहना है कि यह विधेयक किसी दुष्ट एआई द्वारा रासायनिक, जैविक, रेडियोलॉजिकल या परमाणु हथियारों के उपयोग या महत्वपूर्ण बुनियादी ढांचे पर साइबर हमलों के माध्यम से किसी आपदा – जिसे “बड़े पैमाने पर हताहत” या $500 मिलियन से अधिक की क्षति के रूप में परिभाषित किया गया है – के कारण होने वाली तबाही की संभावना को कम करेगा। इसके लिए बड़े एआई मॉडल के निर्माताओं को सुरक्षा प्रोटोकॉल का पालन करना होगा और “किल स्विच” बनाना होगा। आलोचकों का कहना है कि इसकी रूपरेखा वास्तविकता से अधिक विज्ञान कथा पर आधारित है, और इसके अस्पष्ट शब्द कंपनियों को बाधित करेंगे और शैक्षणिक स्वतंत्रता को बाधित करेंगे। एआई शोधकर्ता एंड्रयू एनजी ने चेतावनी दी है कि यह शोधकर्ताओं को “पंगु” कर देगा, क्योंकि उन्हें यकीन नहीं होगा कि कानून तोड़ने से कैसे बचें।

Advertisement

अपने विरोधियों की उग्र पैरवी के बाद, इस महीने की शुरुआत में बिल के कुछ पहलुओं को कमज़ोर कर दिया गया था। इसके कुछ हिस्से समझ में आते हैं, जैसे कि AI कंपनियों में मुखबिरों के लिए सुरक्षा। लेकिन ज़्यादातर यह एक अर्ध-धार्मिक विश्वास पर आधारित है कि AI बड़े पैमाने पर विनाशकारी नुकसान का जोखिम पैदा करता है – भले ही परमाणु या जैविक हथियार बनाने के लिए ऐसे उपकरणों और सामग्रियों तक पहुँच की आवश्यकता होती है जिन पर कड़ा नियंत्रण हो। अगर यह बिल कैलिफ़ोर्निया के गवर्नर गैविन न्यूज़ॉम के डेस्क पर पहुँचता है, तो उन्हें इसे वीटो कर देना चाहिए। जैसी स्थिति है, यह देखना मुश्किल है कि एक बड़ा AI मॉडल कैसे मौत या शारीरिक विनाश का कारण बन सकता है। लेकिन ऐसे कई तरीके हैं जिनसे AI सिस्टम पहले से ही गैर-भौतिक रूप से नुकसान पहुँचा सकते हैं और पहुँचाते भी हैं – इसलिए, अभी के लिए, विधायकों को उन पर ध्यान केंद्रित करना चाहिए।

© 2024, द इकोनॉमिस्ट न्यूज़पेपर लिमिटेड। सभी अधिकार सुरक्षित। द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर देखी जा सकती है।

Advertisement

आदित्य वर्मा एक प्रौद्योगिकी विशेषज्ञ और लेखक हैं। वे नवीनतम गैजेट्स, सॉफ्टवेयर, और तकनीकी विकास पर लेख लिखते हैं। उन्होंने 10 वर्षों से टेक्नोलॉजी के क्षेत्र में काम किया है और उनकी लेखन शैली सरल और प्रभावशाली है।

Continue Reading
Advertisement
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Exit mobile version