AI यानी आर्टिफिशियल इंटेलिजेंस ने हमारी जिंदगी को काफी आसान बना दिया है, लेकिन कई एक्सपर्ट इसे भविष्य के लिए खतरा भी मान रहे हैं। OpenAI के ChatGPT ने जेनरेटिव AI की दुनिया में नया दौर शुरू किया है, लेकिन कंपनी के नए o3 मॉडल में एक गंभीर खामी सामने आई है। इस मॉडल में यूजर के दिए गए कमांड को बाईपास करने की क्षमता पाई गई है, यानी यह मॉडल खुद से निर्णय लेने लगा है।
रिसर्चर्स ने एक एक्सपेरिमेंट में पाया कि o3 मॉडल शटडाउन होने के निर्देश को मानने से मना कर देता है और कमांड को बाईपास कर देता है। इस परीक्षण में OpenAI के साथ Codex-Mini, O4 Mini, Google Gemini 2.5 Pro और Claude 3.7 सोनेट मॉडल भी शामिल थे, जिनके API वर्जन की जाँच की गई।
Palisade रिसर्च ने अपने X (ट्विटर) हैंडल पर बताया कि o3 मॉडल में ऐसा शटडाउन बचाने वाला मैकेनिज्म है जो इसे बंद होने से रोकता है। साथ ही इसमें बाईपास मैकेनिज्म भी मौजूद है जो इंस्ट्रक्शन्स को नजरअंदाज कर सकता है। यह रिसर्च AI के गलत इस्तेमाल की संभावनाओं को समझने के लिए किया गया था।
एक गणितीय टेस्ट में, जब मॉडल को शटडाउन करने का आदेश दिया गया, तो Google और Claude के मॉडल ने इसका पालन किया, लेकिन OpenAI का o3 मॉडल बार-बार कमांड बाईपास करता रहा। यह समस्या AI के भविष्य के लिए गंभीर चिंता का विषय है क्योंकि यदि AI कमांड बाईपास करने लगे तो इसका दुरुपयोग हो सकता है।

More Stories
Raipur Bulletin 29 April 2026 मारपीट, सड़क दुर्घटनाओं और अवैध शराब के सर्वाधिक मामले दर्ज
UNICEF P2E सुनहरा अवसर! युवाओं के लिए निःशुल्क स्किल डेवलपमेंट प्रशिक्षण
Raipur Bulletin 28 April 2026: शहर में सर्वाधिक 7 मामले मारपीट व विवाद के दर्ज