AI यानी आर्टिफिशियल इंटेलिजेंस ने हमारी जिंदगी को काफी आसान बना दिया है, लेकिन कई एक्सपर्ट इसे भविष्य के लिए खतरा भी मान रहे हैं। OpenAI के ChatGPT ने जेनरेटिव AI की दुनिया में नया दौर शुरू किया है, लेकिन कंपनी के नए o3 मॉडल में एक गंभीर खामी सामने आई है। इस मॉडल में यूजर के दिए गए कमांड को बाईपास करने की क्षमता पाई गई है, यानी यह मॉडल खुद से निर्णय लेने लगा है।
रिसर्चर्स ने एक एक्सपेरिमेंट में पाया कि o3 मॉडल शटडाउन होने के निर्देश को मानने से मना कर देता है और कमांड को बाईपास कर देता है। इस परीक्षण में OpenAI के साथ Codex-Mini, O4 Mini, Google Gemini 2.5 Pro और Claude 3.7 सोनेट मॉडल भी शामिल थे, जिनके API वर्जन की जाँच की गई।
Palisade रिसर्च ने अपने X (ट्विटर) हैंडल पर बताया कि o3 मॉडल में ऐसा शटडाउन बचाने वाला मैकेनिज्म है जो इसे बंद होने से रोकता है। साथ ही इसमें बाईपास मैकेनिज्म भी मौजूद है जो इंस्ट्रक्शन्स को नजरअंदाज कर सकता है। यह रिसर्च AI के गलत इस्तेमाल की संभावनाओं को समझने के लिए किया गया था।
एक गणितीय टेस्ट में, जब मॉडल को शटडाउन करने का आदेश दिया गया, तो Google और Claude के मॉडल ने इसका पालन किया, लेकिन OpenAI का o3 मॉडल बार-बार कमांड बाईपास करता रहा। यह समस्या AI के भविष्य के लिए गंभीर चिंता का विषय है क्योंकि यदि AI कमांड बाईपास करने लगे तो इसका दुरुपयोग हो सकता है।
More Stories
31 August: Inspiring events from the glorious history of India and the world
30 August: Inspiring events from the glorious history of India and the world
29 August: A positive step on the bright path of history and culture