AI
विनियामक सैद्धांतिक जोखिमों के बजाय वास्तविक एआई जोखिमों पर ध्यान केंद्रित कर रहे हैं। – news247online
मुझे खेद है डेव, मुझे डर है कि मैं ऐसा नहीं कर सकता।” “2001: ए स्पेस ओडिसी” में जानलेवा कंप्यूटर HAL 9000, कृत्रिम बुद्धिमत्ता (AI) के विज्ञान कथाओं में कई उदाहरणों में से एक है जो अपने मानव रचनाकारों को घातक परिणामों के साथ मात देता है। AI में हालिया प्रगति, विशेष रूप से ChatGPT की रिलीज़ ने “अस्तित्वगत जोखिम” के सवाल को अंतर्राष्ट्रीय एजेंडे में ऊपर धकेल दिया है। मार्च 2023 में एलन मस्क सहित कई तकनीकी दिग्गजों ने सुरक्षा चिंताओं के कारण AI के विकास में कम से कम छह महीने का विराम लगाने का आह्वान किया। पिछले शरद ऋतु में ब्रिटेन में AI-सुरक्षा शिखर सम्मेलन में, राजनेताओं और वैज्ञानिकों ने इस संभावित खतरनाक तकनीक को विनियमित करने के सर्वोत्तम तरीके पर चर्चा की।
हालाँकि, आज की बात करें तो मूड बदल गया है। इस बात की आशंका कि तकनीक बहुत तेज़ी से आगे बढ़ रही है, की जगह इस बात की चिंता ने ले ली है कि AI अपने मौजूदा स्वरूप में उम्मीद से कम उपयोगी हो सकता है – और हो सकता है कि टेक फ़र्म ने इसे बहुत बढ़ा-चढ़ाकर पेश किया हो। साथ ही, नियम बनाने की प्रक्रिया ने नीति निर्माताओं को AI से जुड़ी मौजूदा समस्याओं, जैसे कि पूर्वाग्रह, भेदभाव और बौद्धिक संपदा अधिकारों के उल्लंघन से निपटने की ज़रूरत को पहचानने के लिए प्रेरित किया है। जैसा कि हमारे स्कूलों में AI पर संक्षिप्त विवरण के अंतिम अध्याय में बताया गया है, विनियमन का फ़ोकस अस्पष्ट, काल्पनिक जोखिमों से हटकर विशिष्ट और तत्काल जोखिमों पर स्थानांतरित हो गया है। यह एक अच्छी बात है।
उदाहरण के लिए, AI-आधारित सिस्टम जो लोगों को ऋण या बंधक के लिए मूल्यांकन करते हैं और लाभ आवंटित करते हैं, नस्लीय पूर्वाग्रह प्रदर्शित करते पाए गए हैं। AI भर्ती प्रणाली जो रिज्यूमे की जांच करती है, पुरुषों का पक्ष लेती दिखाई देती है। कानून प्रवर्तन एजेंसियों द्वारा उपयोग की जाने वाली चेहरे की पहचान करने वाली प्रणाली रंग के लोगों की गलत पहचान करने की अधिक संभावना है। AI टूल का उपयोग लोगों को परेशान करने या राजनेताओं के विचारों को गलत तरीके से प्रस्तुत करने के लिए पोर्नोग्राफ़िक वीडियो सहित “डीपफेक” वीडियो बनाने के लिए किया जा सकता है। कलाकारों, संगीतकारों और समाचार संगठनों का कहना है कि उनके काम का उपयोग, बिना अनुमति के, AI मॉडल को प्रशिक्षित करने के लिए किया गया है। और स्पष्ट सहमति के बिना प्रशिक्षण उद्देश्यों के लिए व्यक्तिगत डेटा का उपयोग करने की वैधता पर अनिश्चितता है।
इसका नतीजा यह हुआ है कि नए कानूनों की झड़ी लग गई है। यूरोपीय संघ के एआई अधिनियम के तहत कानून प्रवर्तन एजेंसियों द्वारा लाइव फेशियल-रिकग्निशन सिस्टम के इस्तेमाल पर प्रतिबंध लगा दिया जाएगा, उदाहरण के लिए, साथ ही साथ भविष्यसूचक पुलिसिंग, भावना पहचान और अवचेतन विज्ञापन के लिए एआई के इस्तेमाल पर भी प्रतिबंध लगा दिया जाएगा। कई देशों ने एआई द्वारा बनाए गए वीडियो को लेबल करने के लिए नियम बनाए हैं। दक्षिण कोरिया ने चुनाव से पहले 90 दिनों में राजनेताओं के डीपफेक वीडियो पर प्रतिबंध लगा दिया है; सिंगापुर भी ऐसा ही कर सकता है।
कुछ मामलों में मौजूदा नियमों को स्पष्ट करने की आवश्यकता होगी। Apple और Meta दोनों ने कहा है कि वे व्यक्तिगत डेटा के उपयोग पर नियमों में अस्पष्टता के कारण EU में अपने कुछ AI उत्पादों को जारी नहीं करेंगे। (द इकोनॉमिस्ट के लिए एक ऑनलाइन निबंध में, मेटा के मुख्य कार्यकारी अधिकारी मार्क जुकरबर्ग और Spotify के बॉस डैनियल एक ने तर्क दिया कि इस अनिश्चितता का मतलब है कि यूरोपीय उपभोक्ताओं को नवीनतम तकनीक तक पहुँच से वंचित किया जा रहा है।) और कुछ चीजें – जैसे कि प्रशिक्षण उद्देश्यों के लिए कॉपीराइट सामग्री का उपयोग “उचित उपयोग” नियमों के तहत अनुमत है या नहीं – अदालतों में तय की जा सकती हैं।
AI से जुड़ी मौजूदा समस्याओं से निपटने के लिए इनमें से कुछ प्रयास दूसरों की तुलना में बेहतर काम करेंगे। लेकिन वे इस बात को दर्शाते हैं कि विधायक मौजूदा AI सिस्टम से जुड़े वास्तविक जीवन के जोखिमों पर ध्यान केंद्रित करने का चुनाव कैसे कर रहे हैं। इसका मतलब यह नहीं है कि सुरक्षा जोखिमों को नज़रअंदाज़ किया जाना चाहिए; समय के साथ, विशिष्ट सुरक्षा विनियमों की आवश्यकता हो सकती है। लेकिन भविष्य के अस्तित्वगत जोखिम की प्रकृति और सीमा को मापना मुश्किल है, जिसका अर्थ है कि अभी इसके खिलाफ़ कानून बनाना मुश्किल है। इसे देखने के लिए, SB 1047 से आगे न देखें, जो कैलिफ़ोर्निया के राज्य विधानमंडल के माध्यम से काम करने वाला एक विवादास्पद कानून है।
अधिवक्ताओं का कहना है कि यह विधेयक किसी दुष्ट एआई द्वारा रासायनिक, जैविक, रेडियोलॉजिकल या परमाणु हथियारों के उपयोग या महत्वपूर्ण बुनियादी ढांचे पर साइबर हमलों के माध्यम से किसी आपदा – जिसे “बड़े पैमाने पर हताहत” या $500 मिलियन से अधिक की क्षति के रूप में परिभाषित किया गया है – के कारण होने वाली तबाही की संभावना को कम करेगा। इसके लिए बड़े एआई मॉडल के निर्माताओं को सुरक्षा प्रोटोकॉल का पालन करना होगा और “किल स्विच” बनाना होगा। आलोचकों का कहना है कि इसकी रूपरेखा वास्तविकता से अधिक विज्ञान कथा पर आधारित है, और इसके अस्पष्ट शब्द कंपनियों को बाधित करेंगे और शैक्षणिक स्वतंत्रता को बाधित करेंगे। एआई शोधकर्ता एंड्रयू एनजी ने चेतावनी दी है कि यह शोधकर्ताओं को “पंगु” कर देगा, क्योंकि उन्हें यकीन नहीं होगा कि कानून तोड़ने से कैसे बचें।
अपने विरोधियों की उग्र पैरवी के बाद, इस महीने की शुरुआत में बिल के कुछ पहलुओं को कमज़ोर कर दिया गया था। इसके कुछ हिस्से समझ में आते हैं, जैसे कि AI कंपनियों में मुखबिरों के लिए सुरक्षा। लेकिन ज़्यादातर यह एक अर्ध-धार्मिक विश्वास पर आधारित है कि AI बड़े पैमाने पर विनाशकारी नुकसान का जोखिम पैदा करता है – भले ही परमाणु या जैविक हथियार बनाने के लिए ऐसे उपकरणों और सामग्रियों तक पहुँच की आवश्यकता होती है जिन पर कड़ा नियंत्रण हो। अगर यह बिल कैलिफ़ोर्निया के गवर्नर गैविन न्यूज़ॉम के डेस्क पर पहुँचता है, तो उन्हें इसे वीटो कर देना चाहिए। जैसी स्थिति है, यह देखना मुश्किल है कि एक बड़ा AI मॉडल कैसे मौत या शारीरिक विनाश का कारण बन सकता है। लेकिन ऐसे कई तरीके हैं जिनसे AI सिस्टम पहले से ही गैर-भौतिक रूप से नुकसान पहुँचा सकते हैं और पहुँचाते भी हैं – इसलिए, अभी के लिए, विधायकों को उन पर ध्यान केंद्रित करना चाहिए।
© 2024, द इकोनॉमिस्ट न्यूज़पेपर लिमिटेड। सभी अधिकार सुरक्षित। द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर देखी जा सकती है।