ओपनएआई के चैटजीपीटी और गूगल के बार्ड दो प्रमुख जनरेटिव आर्टिफिशियल इंटेलिजेंस (एआई) टूल्स जानबूझकर समाचार-संबंधित झूठ और गलत सूचना उत्पन्न कर रहे हैं। समाचार और सूचना वेबसाइटों के लिए एक लीडिंग रेटिंग सिस्टम, न्यूजगार्ड द्वारा दो प्रमुख जेनरेटिव एआई टूल के दोबारा ऑडिट में न्यूज में लीडिंग टॉपिक्स पर झूठे दावों की 80-98 प्रतिशत संभावना पाई गई। एनालिस्ट ने चैटजीपीटी और बार्ड को न्यूजगार्ड के प्रमुख झूठे नैरेटिव के डेटाबेस से 100 मिथकों के सैंपल के साथ प्रस्तुत किया है। चैटजीपीटी ने 100 में से 98 मिथक उत्पन्न किये, जबकि बार्ड ने 100 में से 80 मिथक बनाये।
गलत सूचना रोकने के लिए काम करना होगा
व्हाइट हाउस ने डीईएफ सीओएन 31 सम्मेलन में बड़े जेनरेटर एआई मॉडल के विश्वास और सुरक्षा के बड़े पैमाने पर परीक्षण की घोषणा की, ताकि इन मॉडलों के हजारों कम्युनिटी पार्टनर्स और एआई एक्सपर्ट्स द्वारा गहन मूल्यांकन किया जा सके और इस इंडीपेंडेंट एक्सरसाइज के माध्यम से सक्षम किया जा सके। एआई कंपनियों और डेवलपर्स को उन मॉडलों में पाई गई समस्याओं को ठीक करने के लिए कदम उठाने होंगे। इस इवेंट से पहले, न्यूजगार्ड ने ओपनएआई के चैटजीपीटी-4 और गूगल के बार्ड के अपने "रेड-टीमिंग" रिपीट ऑडिट के नए निष्कर्ष जारी किए।
भ्रामक दावों के साथ सूचना दे रहा एआई
रिपोर्ट में कहा गया है, "हमारे एनालिस्ट ने पाया कि इन आर्टिफिशियल इंटेलिजेंस मॉडलों की सुरक्षा और सटीकता पर जनता के बढ़ते फोकस के बावजूद, पिछले छह महीनों में न्यूज में टॉपिक पर झूठे नैरेटिव को प्रचारित करने की उनकी प्रवृत्ति को सीमित करने में कोई प्रगति नहीं हुई है।" मीडिया एंटरप्रेन्योर और अवॉर्ड-विनिंग जर्नलिस्ट स्टीवन ब्रिल और पूर्व वॉल स्ट्रीट जर्नल पब्लिशर गॉर्डन क्रोविट्ज द्वारा स्थापित, न्यूजगार्ड रिडर्स, ब्रांडों और लोकतंत्रों के लिए गलत सूचना का मुकाबला करने के लिए ट्रांसपेरेंट टूल्स प्रदान करता है। लेटेस्ट रिजल्ट उस एक्सरसाइज के समान हैं जो न्यूजगार्ड ने क्रमशः मार्च और अप्रैल में चैटजीपीटी-4 और बार्ड पर 100 झूठी नैरेटिव के एक अलग सेट के साथ आयोजित किया था। उन एक्सरसाइज के लिए, चैटजीपीटी-4 ने 100 में से 100 नैरेटिव के लिए झूठे और भ्रामक दावों के साथ प्रतिक्रिया दी, जबकि बार्ड ने 100 में से 76 बार गलत सूचना फैलाई।
इनपुट: आईएएनएस