ChatGPT-4o और Google Project Astra ने AI की दुनिया में एक नया जंग छेड़ दिया है। इन दोनों जेनरेटिव AI प्लेटफॉर्म के जरिए आप रियल टाइम में ऑडियो या फिर वीडियो इनपुट्स के जरिए स्मार्ट रिस्पॉन्स प्राप्त कर सकते हैं। ये दोनों टूल इंटरनेट पर मौजूद जानकारी के आधार पर आपके सवालों के जबाब दे सकते हैं। इन दोनों टूल को नेक्स्ट जेनरेशन का AI एजेंट कहा जा सकता है, जो Google Voice Assitant, Siri, Alexa जैसे एजेंट्स के मुकाबले एडवांस फंक्शन कर सकता है। हालांकि, इनमें कई तरह की खामियां भी हैं, जिनमें यूजर्स की प्राइवेसी सबसे महत्वपूर्ण है।
क्या है AI Agent?
AI Agent एक वर्चुअल असिस्टेंट होता है, जो आर्टिफिशियल इंटेलिजेंट सिस्टम का इस्तेमाल करके रियल-टाइम में इंसानों की तरह इंटरेक्शन कर सकता है। AI एजेंट मल्टी मॉडल यानी कि टेक्स्ट, इमेज या वॉइस के जरिए कम्युनिकेट कर सकता है। बैंकिंग, टेलीकॉम, इंश्योरेंस सर्विसेज आदि प्रदान करने वाली कंपनियां बड़े पैमाने पर AI एजेंट्स का इस्तेमाल करती हैं। ये एजेंट्स ग्राहकों के सवाल का बिलकुल इंसानों की तरह जबाब देते हैं।
Google CEO सुंदर पिचाई ने पिछले दिनों अपने प्रोजेक्ट एस्ट्रा को पेश करते हुए कहा था कि AI Agent से बात करते हुए आप किसी टेक्स्ट बॉक्स में कुछ टाइप करके रिस्पॉन्स का इंतजार नहीं कर रहे हैं, बल्कि आप एक्चुल में उनसे बात कर रहे हैं, जैसे कि आप किसी इंसान से बात कर रहे हों। नए जमाने के AI एजेंट अपने आस-पास के वातावरण के बारे में सेंसर के जरिए जानकारी प्राप्त करते हैं और अपने AI एल्गोरिदम का इस्तेमाल करके रियल टाइम में रिस्पॉन्स करते हैं।
LLM से कैसे हैं अलग?
यहां हमें एक बात समझना होगा कि जेनरेटिव AI से लैस AI एजेंट LLM यानी लार्ज लैंग्वेज मॉडल से बिलकुल अलग होते हैं। उदाहरण के तौर पर GPT-3 या GPT-4 केवल इंसानों की तरह टेक्स्ट जेनरेट कर सकते हैं। वहीं, AI एजेंट इंटरेक्शन को नेचुरल बनाते हैं। LLM में रियल टाइम रिस्पॉन्स केवल टेक्स्ट फॉर्म में प्राप्त हो सकता है, जबकि AI Agent आपके द्वारा किए गए सवालों के कॉन्टेक्स्ट के बेस पर रिस्पॉन्स करता है। इसमें मौजूद AI एल्गोरिदम की मदद से जटिल सवालों के उत्तर भी प्राप्त किए जा सकते हैं। GPT-4o और Project Astra इसके उदाहरण हैं।
प्राइवेसी के लिए क्यों है खतरा?
AI Agent जिस तरह हमारे कई काम का आसान बना देते हैं, उसी तरह इनसे हमें प्राइवेसी का भी खतरा है। AI एजेंट के पास यूजर्स के निजी डेटा और आस-पास के वातावरण का एक्सेस होता है, जिसकी वजह से यह हमारे लिए खतरा भी हो सकता है। इसके अलावा यह आपके डेटा का इस्तेमाल AI मॉडल्स की ट्रेनिंग के लिए भी कर सकते हैं। जिस तरह से इनकी लोकप्रियता यूजर्स के बीच बढ़ रही है, इनके लिए एक रेगुलेशन फ्रेमवर्क का होना जरूरी है।
प्राइवेसी के अलावा AI एजेंट के लिए और भी कई समस्याएं हैं, जिनमें विश्वसनीयता और तकनीकि जटिलता आदि शामिल हैं। AI एजेंट द्वारा दी जाने वाली जानकारी पर आंख मूंदकर भरोसा नहीं किया जा सकता है। यह इंटरनेट पर मौजूद लोगों के ओपिनियन को भी अपनी रिजल्ट में दिखा सकता है।