ChatGPT के आने के बाद से दिग्गज टेक कंपनियां का झुकाव जेनरेटिव AI और एडवांस आर्टिफिशियल इंटेलिजेंस टूल की तरफ हुआ है। एडवांस AI मॉडल्स आने वाले कुछ सालों में टेक्नोलॉजी के सेक्टर में एक नया आयाम स्थापित कर सकते हैं। हालांकि, इन एडवांस AI मॉडल का गलत इस्तेमाल भारी तबाही भी ला सकती है। रॉयटर्स की एक रिपोर्ट के मुताबिक, अमेरिका की जो बाइडेन सरकार ने चीन और रूस से अमेरिकी AI की सुरक्षा के लिए प्रयासरत है। सरकार अमेरिकी एआई को रूस और चीन के एडवांस AI से बचाने के लिए नई सिक्योरिटी लेयर तैयार करने की योजना पर काम कर रही है।
रिपोर्ट के मुताबिक, सरकार और प्राइवेट सेक्टर के रिसर्चर्स की सबसे बड़ी टेंशन ये है कि अमेरिका विरोधी आक्रामक साइबर हमले या शक्तिशाली जैविक हथियार बनाने के लिए एडवांस AI मॉडल का उपयोग किया जा सकता है। यही नहीं, एडवांस AI के जरिए बड़ी मात्राओं में सूचनाओं को सारांशित करने और कॉन्टेंट जेनरेट करने का काम किया जा सकता है। एडवांस AI पर रिसर्च करने वाले वैज्ञानिकों के लिए यह एक चिंता का सबब बना हुआ है। आइए, जानते हैं एडवांस एआई का किस तरह से गलत इस्तेमाल किया जा सकता है। यह अमेरिका ही नहीं, पूरी दुनिया की टेंशन बढ़ा सकता है।
Deepfake और अफवाह
हाल के दिनों में डीपफेक काफी चर्चा में रहा है। कई सेलिब्रिटीज और राजनेताओं के डीपफेक वीडियो और कॉन्टेंट सोशल मीडिया प्लेटफॉर्म पर वायरल हो चुके हैं, जिसे लेकर सरकार चिंता जाहिर कर चुकी है। एडवांस AI द्वारा तैयार किए जाने वाले डीपफेक में साइबर अपराधी AI एल्गोरिदम का इस्तेमाल करके फेब्रिकेटेड वीडियो क्रिएट कर सकते हैं और सोशल मीडिया पर प्रसारित कर सकते हैं।
हालांकि, सोशल मीडिया पर लंबे समय से फर्जी वीडियो या कॉन्टेंट के जरिए अफवाह फैलाए जा रहे हैं, लेकिन एडवांस AI वाले डीपफेक के आने के बाद इनकी संख्यां पिछले कुछ साल में काफी बढ़ गई है। कई जेनरेटिव AI टूल इंटरनेट पर आसानी से उपलब्ध हैं, जिसका इस्तेमाल करके कोई भी डीपफेक कॉन्टेंट क्रिएट कर सकते हैं।
OpenAI, Microsoft और Meta AI ने आर्टिफिशियल इंटेलिजेंस के जरिए इमेज क्रिएशन करने वाले टूल पेश किए हैं। ये एडवांस टूल फर्जी फोटो के जरिए आसानी से अफवाह फैला सकते हैं। हालांकि, इन अफवाहों को रोकने के लिए कई देशों में पॉलिसी भी है, लेकिन मिसलीडिंग कॉन्टेंट और वीडियो आसानी से प्रसारित किए जा रहे हैं।
कई बार तो डीपफेक इतना वास्तविक लगता है कि एक आम आदमी के लिए इसकी पहचान करना बेहद मुश्किल होता है। सोशल मीडिया प्लेटफॉर्म Facebook, Twitter (X), YouTube के पास इन अफवाहों से लड़ने की पॉलिसी है, लेकिन ये कितने कारगर हैं यह बड़ा सवाल है?
जैविक हथियार
रिपोर्ट की मानें तो अमेरिकी इंटेलिजेंस कम्युनिटी का कहना है कि एडवांस AI कैपेबिलिटी का एक्सेस विदेशी गलत हाथों में होने पर तबाही मच सकती है। रिसर्चर्स Gryphone Scientific और Rand Corporation का कहना है कि एडवांस AI मॉडल से बायोलॉजिकल हथियार बनाए जाने की जानकारी प्राप्त की जा सकती है। रिसर्च फर्म ने अपनी स्टडी में बताया कि किस तरह से लार्ज लैंग्वेज मॉडल (LLM)) पर कम्प्युटर प्रोग्राम के जरिए जीव विज्ञान से संबंधित बड़ी मात्रा में टेक्स्ट कॉन्टेंट जेनरेट किए जा सकते हैं।
यह आतंकवादियों को जैविक हथियार बनाने के लिए इंटरनेट पर मौजूद सभी सामाग्री उपलब्ध करा सकता है और उनकी राह आसान कर सकता है। यही नहीं, इन एडवांस AI मॉडल के जरिए एक डॉक्टर के बराबर की जानकारी हासिल की जा सकती है और संक्रमण फैलाने वाले वायरस बनाए जा सकते हैं।
साइबर हथियार
डिपार्टमेंट ऑफ होमलैंड सिक्योरिटी (DHS) ने कहा कि साइबर अपराधी एडवांस AI का इस्तेमाल करके नए टूल्स क्रिएट कर सकते हैं, जो बड़ी मात्रा में साइबर हमले कर सके। ये साइबर हमले रेलवे और पाइपलाइन जैसे बड़े और जटिल इंफ्रास्ट्रक्चर को तबाह करने के लिए काफी होंगे। DHS का कहना है कि चीन और उसके सहयोगी ऐसी ही एडवांस AI टेक्नोलॉजी पर काम कर रहे हैं, जो अमेरिका के साइबर डिफेंस को भेद सके और बड़े हमले किए जा सके।
इस साल फरवरी में माइक्रोसॉफ्ट द्वारा जारी एक रिपोर्ट में कहा गया है कि चीन और उत्तर कोरिया के साथ-साथ रूस की सरकार इन एडवांस AI और लार्ज लैंग्वेज मॉडल के जरिए अपने हैकिंग कैंपेन को और बेहतर कर सकते हैं। Google ने पिछले दिनों बड़े साइबर अटैक को रोकने के लिए Threat Intelligence AI की घोषणा की है, जो साइबर हमलों को रोकने में सक्षम होगा। गूगल का यह टूल Gemini 1.5 प्रो लॉर्ज लैंग्वेज मॉडल पर काम करेगा। यह टूल तेजी से सिक्योरिटी थ्रेट्स और मेलवेयर अटैक को स्कैन कर सकता है और उसे रोक सकता है।