Jul 2, 2025, 10:32 AM IST
सैम ऑल्टमैन ने यह बात कही कि ChatGPT पर ज़रूरत से ज़्यादा भरोसा नहीं करना चाहिए। यह एक शक्तिशाली टूल है, लेकिन सीमाओं के साथ आता है।
ChatGPT कभी-कभी बिल्कुल आत्मविश्वास के साथ गलत जानकारी दे देता है। इस प्रक्रिया को AI ‘hallucination’ कहते हैं, जो अभी तक पूरी तरह हल नहीं हुई है।
ChatGPT को सिर्फ एक सहायक या गाइड के रूप में देखें, इससे मिली जानकारी की पुष्टि करना ज़रूरी है खासकर जब बात किसी अहम फैसले या तथ्य की हो।
उन्होंने यह भी ध्यान दिलाया कि कई बार ChatGPT ने इतिहास, विज्ञान, हेल्थ या कानून से जुड़े झूठे तथ्य दे दिए, जिनसे भ्रम पैदा हो सकता है।
ऑल्टमैन ने याद दिलाया कि AI इंसानों की मदद के लिए बना है, न कि उनकी सोच या समझ का विकल्प बनने के लिए। इंसानी विवेक और विश्लेषण ज़रूरी है।
अगर ChatGPT आपको गलत जानकारी देकर नुकसान पहुंचा भी दे, तो इसकी कोई कानूनी जवाबदेही नहीं बनती — यह एक बड़ा ethical gap है।
ऑल्टमैन इस तकनीक के विकास को लेकर उत्साहित ज़रूर हैं, पर उन्होंने बार-बार कहा है कि फिलहाल इसकी सीमाएं पहचानना जरूरी है।
अंत में, उन्होंने भरोसा जताया कि OpenAI लगातार अपने मॉडल्स को बेहतर और ज़्यादा भरोसेमंद बनाने पर काम कर रहा है। लेकिन तब तक, users को खुद भी सावधान रहना होगा।