ऑर्टीफीशियल इंटेलीजेंस (एआइ) के दौर में ब्रिटेन दुनिया का पहला ‘ AI सुरक्षा संस्थान’ की स्थापना करने जा रहा है। ब्रिटेन के प्रधानमंत्री ऋषि सुनक ने बृहस्पतिवार को स्वयं यह बड़ा दावा किया है। उन्होंने कहा कि उनका देश कृत्रिम मेधा (एआई) के नए स्वरूपों के परीक्षण के क्षेत्र में अग्रणी भूमिका निभा रहा है और यहीं दुनिया के पहले ‘एआई सुरक्षा संस्थान’ का मुख्यालय स्थापित किया जाएगा। भारतीय मूल के ब्रितानी नेता सुनक अगले सप्ताह पहले ‘वैश्विक एआइ सुरक्षा शिखर सम्मेलन’ की मेजबानी करेंगे।
इससे पहले, उन्होंने लंदन में कहा कि उनका मानना है कि एआई जैसी प्रौद्योगिकियां ‘‘औद्योगिक क्रांति, बिजली आने या इंटरनेट की खोज जितनी’’ ही परिवर्तनकारी साबित होंगी। उन्होंने कहा कि लेकिन सकारात्मक पहलुओं के साथ साथ कृत्रिम मेधा ‘‘नए खतरे और नए डर’’ भी पैदा करती है, जिनसे सीधे तौर पर निपटे जाने की आवश्यकता है। सुनक ने कहा, ‘‘यदि इसका गलत इस्तेमाल हुआ, तो एआई रासायनिक या जैविक हथियार बनाना आसान कर सकती है।
आतंकी भी कर सकते हैं एआइ का दुरुपयोग
आतंकवादी संगठन और भी बड़े पैमाने पर आतंक फैलाने एवं विनाश करने के लिए एआई का इस्तेमाल कर सकते हैं। अपराधी साइबर हमलों, दुष्प्रचार, धोखाधड़ी या यहां तक कि बाल यौन शोषण के लिए भी एआई का उपयोग कर सकते हैं। उन्होंने प्रौद्योगिकी पर से मानवता का नियंत्रण खोने और ‘सुपर इंटेलिजेंस’ (प्रौद्योगिकी की बुद्धिमत्ता मनुष्य से भी अधिक हो जाने) जैसे एआई से जुड़े ऐसे डर का भी जिक्र किया, जिनके वास्तविकता में बदलने की ‘‘बहुत कम संभावना है और जो चरम स्थिति है।’’ सुनक ने कहा, ‘‘यह ऐसा जोखिम नहीं है, जिसे लेकर अभी से लोगों की नींद उड़ जानी चाहिए, लेकिन इसे लेकर वास्तव में बहस हो रही है। कुछ विशेषज्ञों का कहना है कि ऐसा कुछ नहीं होगा, लेकिन ये जोखिम भले ही कितने भी अनिश्चित क्यों न हों और इनकी संभावना भले ही कितनी भी कम क्यों न हो, यदि ये वास्तविकता में बदल गए, तो इनके अप्रत्याशित रूप से गंभीर परिणाम होंगे।
जोखिम पर ध्यान देना जरूरी
ब्रिटेन के पीएम ने कहा कि जब इस प्रौद्योगिकी को विकसित करने वाले दिग्गज स्वयं इन जोखिमों के बारे में चेतावनी देते हैं, तो नेताओं की जिम्मेदारी है कि वे उन्हें गंभीरता से लें और कदम उठाएं। मैं भी यहीं कर रहा हूं।’’ सुनक ने नए एआई सुरक्षा संस्थान की घोषणा करते हुए कहा, ‘‘यह एआई सुरक्षा के बारे में दुनिया का ज्ञान बढ़ाएगा और इसके नए प्रकारों की सावधानीपूर्वक समीक्षा, आकलन और परीक्षण करेगा, ताकि हम समझ सकें कि प्रत्येक नया मॉडल क्या करने में सक्षम है और पूर्वाग्रह एवं गलत सूचना जैसे सामाजिक नुकसान समेत सभी जोखिमों का पता लगा सकें।’
यह भी पढ़ें
Latest World News