माइक्रोसॉफ्ट के स्वामित्व वाली OpenAI ने और पॉवरफुल चैटबॉट नए बड़े मल्टीमोडल मॉडल 'जीपीटी-4' लॉन्च की घोषणा की है। यह नया चैटबॉट इमेज और टेक्स्ट इनपुट स्वीकार करता है। यानी तस्वीर देखकर भी यह आपके सवालों के जवाब देगा। कंपनी ने एक ब्लॉगपोस्ट में कहा, हमने जीपीटी-4 बनाया है, जो ओपनएआई के डीप लर्निंग को बढ़ाने के प्रयास में नवीनतम मील का पत्थर है। जीपीटी-3.5 की तुलना में, नया एआई मॉडल अधिक विश्वसनीय, रचनात्मक और जटिल निर्देशों को संभालने में सक्षम है। नया चैटबॉट इंग्रीडिएंट की तस्वीरों से रेसिपी का सुझाव प्रदान कर सकता है। साथ ही कैप्शन और डिस्क्रिप्शन भी लिख सकता है। यह 25,000 शब्दों तक भी प्रोसेस कर सकता है।
भाषा की बाध्यता खत्म हुई
टेक्स्ट-ओनली सेटिंग के विपरीत, यह मॉडल टेक्स्ट और इमेज दोनों के साथ एक संकेत स्वीकार कर सकता है, जिससे उपयोगकर्ता किसी भी भाषा कार्य को निर्दिष्ट कर सकते हैं।जीपीटी-4 बेस मॉडल, पहले के जीपीटी मॉडल की तरह, एक दस्तावेज में अगले शब्द की भविष्यवाणी करना सिखाया गया था। इसे लाइसेंस प्राप्त और सार्वजनिक रूप से उपलब्ध डेटा दोनों का उपयोग कर प्रशिक्षित किया गया था। चैटजीपीटी प्लस ग्राहकों को चैट.ओपनाई.कॉम पर जीपीटी-4 एक्सेस मिलेगा, जबकि डेवलपर जीपीटी-4 एपीआई की प्रतीक्षा सूची के लिए साइन अप कर सकते हैं। कंपनी ने कहा, "हम आशा करते हैं कि जीपीटी-4 कई एप्लिकेशन्स को सशक्त बनाकर लोगों के जीवन को बेहतर बनाने में एक महत्वपूर्ण उपकरण बन जाएगा।" GPT-4 शुरू में चैटजीपीटी प्लस ग्राहकों के लिए उपलब्ध होगा, जो सर्विस के प्रीमियम एक्सेस के लिए प्रति माह $20 (लगभग 1650 रुपए) का भुगतान करते हैं।
6 महीने तक परीक्षण
कंपनी न बताया कि हमने परीक्षण कार्यक्रम के साथ-साथ चैटजीपीटी के लेशंस का उपयोग करते हुए जीपीटी-4 को बेहतर बनाने के लिए 6 महीने बिताए हैं, जिसके परिणामस्वरूप अब तक के सबसे अच्छे परिणाम मिले हैं। जीपीटी-4 मौजूदा बड़े भाषा मॉडल (एलएलएम) से बेहतर प्रदर्शन करता है, जिसमें अधिकांश अत्याधुनिक (एसओटीए) मॉडल शामिल हैं जिनमें बेंचमार्क-विशिष्ट निर्माण या अतिरिक्त प्रशिक्षण विधियां शामिल हो सकती हैं। कंपनी इस नए मॉडल का आंतरिक रूप से भी उपयोग कर रही है, जिसका समर्थन, बिक्री, कंटेंट मॉडरेशन और प्रोग्रामिंग जैसे कार्यों पर बहुत प्रभाव पड़ता है।
Latest Business News