AI यानी आर्टिफिशियल इंटेलिजेंस ने हमारी जिंदगी को काफी आसान बना दिया है, लेकिन कई एक्सपर्ट इसे भविष्य के लिए खतरा भी मान रहे हैं। OpenAI के ChatGPT ने जेनरेटिव AI की दुनिया में नया दौर शुरू किया है, लेकिन कंपनी के नए o3 मॉडल में एक गंभीर खामी सामने आई है। इस मॉडल में यूजर के दिए गए कमांड को बाईपास करने की क्षमता पाई गई है, यानी यह मॉडल खुद से निर्णय लेने लगा है।
रिसर्चर्स ने एक एक्सपेरिमेंट में पाया कि o3 मॉडल शटडाउन होने के निर्देश को मानने से मना कर देता है और कमांड को बाईपास कर देता है। इस परीक्षण में OpenAI के साथ Codex-Mini, O4 Mini, Google Gemini 2.5 Pro और Claude 3.7 सोनेट मॉडल भी शामिल थे, जिनके API वर्जन की जाँच की गई।
Palisade रिसर्च ने अपने X (ट्विटर) हैंडल पर बताया कि o3 मॉडल में ऐसा शटडाउन बचाने वाला मैकेनिज्म है जो इसे बंद होने से रोकता है। साथ ही इसमें बाईपास मैकेनिज्म भी मौजूद है जो इंस्ट्रक्शन्स को नजरअंदाज कर सकता है। यह रिसर्च AI के गलत इस्तेमाल की संभावनाओं को समझने के लिए किया गया था।
एक गणितीय टेस्ट में, जब मॉडल को शटडाउन करने का आदेश दिया गया, तो Google और Claude के मॉडल ने इसका पालन किया, लेकिन OpenAI का o3 मॉडल बार-बार कमांड बाईपास करता रहा। यह समस्या AI के भविष्य के लिए गंभीर चिंता का विषय है क्योंकि यदि AI कमांड बाईपास करने लगे तो इसका दुरुपयोग हो सकता है।
More Stories
इंटीग्रेटेड टीचर एजुकेशन: सशक्त शिक्षकों के निर्माण का उत्तम अवसर – डॉ. हेमंत खटकर
राष्ट्रीय स्वास्थ्य मिशन (NHM) कर्मियों का आंदोलन तीसरे दिन भी जारी, काली पट्टी बांधकर जताया विरोध
13 July: भारत सहित विश्व इतिहास में महत्वपूर्ण घटनाएँ