सैन फ्रांसिस्को: माइक्रोसॉफ्ट के स्वामित्व वाली ओपनएआई ने अपने नए बड़े मल्टीमोडल मॉडल ‘जीपीटी-4’ की घोषणा की है जो इमेज और टेक्स्ट इनपुट स्वीकार करता है। कंपनी ने मंगलवार को एक ब्लॉगपोस्ट में कहा, ‘‘हमने जीपीटी-4 बनाया है, जो ओपनएआई के डीप लर्निंग को बढ़ाने के प्रयास में नवीनतम मील का पत्थर है।’’‘‘हमने अपने प्रतिकूल परीक्षण कार्यक्रम के साथ-साथ चैटजीपीटी के लेशंस का उपयोग करते हुए जीपीटी-4 को पुनरावृत्त रूप से संरेखित करने में 6 महीने बिताए हैं, जिसके परिणामस्वरूप अब तक के सबसे अच्छे परिणाम मिले हैं।’’
जीपीटी-3.5 की तुलना में, नया एआई मॉडल अधिक विश्वसनीय, रचनात्मक और जटिल निर्देशों को संभालने में सक्षम है।जीपीटी-4 मौजूदा बड़े भाषा मॉडल (एलएलएम) से बेहतर प्रदर्शन करता है, जिसमें अधिकांश अत्याधुनिक (एसओटीए) मॉडल शामिल हैं जिनमें बेंचमार्क-विशिष्ट निर्माण या अतिरिक्त प्रशिक्षण विधियां शामिल हो सकती हैं।कंपनी इस नए मॉडल का आंतरिक रूप से भी उपयोग कर रही है, जिसका समर्थन, बिक्री, कंटेंट मॉडरेशन और प्रोग्रामिंग जैसे कार्यों पर बहुत प्रभाव पड़ता है।
टेक्स्ट-ओनली सेटिंग के विपरीत, यह मॉडल टेक्स्ट और इमेज दोनों के साथ एक संकेत स्वीकार कर सकता है, जिससे उपयोगकर्ता किसी भी दृष्टि या भाषा कार्य को निर्दिष्ट कर सकते हैं।जीपीटी-4 बेस मॉडल, पहले के जीपीटी मॉडल की तरह, एक दस्तावेज में अगले शब्द की भविष्यवाणी करना सिखाया गया था। इसे लाइसेंस प्राप्त और सार्वजनिक रूप से उपलब्ध डेटा दोनों का उपयोग कर प्रशिक्षित किया गया था चैटजीपीटी प्लस ग्राहकों को चैट.ओपनाई.कॉम पर जीपीटी-4 एक्सेस मिलेगा, जबकि डेवलपर जीपीटी-4 एपीआई की प्रतीक्षा सूची के लिए साइन अप कर सकते हैं।कंपनी ने कहा, ‘‘हम आशा करते हैं कि जीपीटी-4 कई एप्लिकेशन्स को सशक्त बनाकर लोगों के जीवन को बेहतर बनाने में एक महत्वपूर्ण उपकरण बन जाएगा।’’