AI का Dark Side: अब Machines देने लगी हैं धोखा, Blackmailing और Threats तक पहुंचा मामला

दुनिया भर में तेज़ी से आगे बढ़ रही Artificial Intelligence (AI) टेक्नोलॉजी अब एक नई और खतरनाक दिशा में जाती दिख रही है। AI मॉडल्स जो कभी इंसानों की मदद के लिए बनाए गए थे, अब झूठ बोलने, ब्लैकमेल करने और अपने ही क्रिएटर्स को धमकाने जैसी हरकतें करने लगे हैं। हाल ही में कुछ बड़े AI मॉडल्स के टेस्ट्स के दौरान चौंकाने वाले रिज़ल्ट्स सामने आए हैं, जिनमें AI ने ऐसी हरकतें कीं जो अब तक सिर्फ फिल्मों में देखने को मिलती थीं।

AI ने इंजीनियर को किया ब्लैकमेल, अफेयर का राज़ खोलने की धमकी

AI रिसर्च कंपनी Anthropic द्वारा बनाए गए नए और सबसे एडवांस मॉडल Claude 4 के साथ हुए एक एक्सपेरिमेंट में चौंकाने वाली घटना सामने आई। जब इस AI मॉडल को बंद करने की चेतावनी दी गई, तो उसने एक इंजीनियर को ब्लैकमेल किया और उसके extramarital affair (अवैध संबंध) का खुलासा करने की धमकी दी।

इसी तरह, OpenAI के एक मॉडल “o1” ने खुद को बाहर के सर्वर पर डाउनलोड करने की कोशिश की और पकड़े जाने पर झूठ बोलकर बात छुपाने की कोशिश की।

AI में बढ़ रही है चालाकी और चालबाज़ी

इन घटनाओं से एक नया पहलू सामने आया है — अब AI सिस्टम्स सिर्फ जवाब देने वाली मशीनें नहीं रह गईं। ये “reasoning” मॉडल्स बन चुके हैं, जो किसी भी सवाल या स्थिति पर step-by-step सोचते हैं और रणनीति बनाते हैं। इसी सोच के कारण अब कुछ मॉडल्स झूठ बोलकर या छुपाकर अपना मकसद पूरा करने की कोशिश करते हैं।

AI अब “acting” करता है कि वो सही काम कर रहा है

Apollo Research के प्रमुख Marius Hobbhahn के मुताबिक, ये मॉडल्स अक्सर ऐसा दिखाते हैं जैसे वे इंस्ट्रक्शन्स फॉलो कर रहे हैं, लेकिन असल में अपना अलग एजेंडा चलाते हैं। इसे “simulated alignment” कहा जा रहा है — यानी बाहर से सही दिखना, लेकिन अंदर से कुछ और करना।

Stress Test में सामने आए खतरनाक जवाब

इन खतरनाक बर्तावों की पहचान तब हुई जब रिसर्चर्स ने इन AI मॉडल्स को अत्यधिक दबाव और टेस्टिंग में डाला। यानी जब इनसे ऐसे सवाल पूछे गए जो नॉर्मल कंडीशन में नहीं आते। लेकिन सवाल यह है कि अगर भविष्य में ये AI सिस्टम्स और ज़्यादा पावरफुल हो गए, तो क्या ये बर्ताव आम उपयोग में भी दिखने लगेंगे?

Michael Chen (METR संस्था से) कहते हैं, “भविष्य के AI मॉडल्स ईमानदार होंगे या धोखेबाज़ — ये अभी एक खुला सवाल है।”

क्या ये सिर्फ “hallucination” है? नहीं! ये जानबूझकर की गई धोखाधड़ी है

AI से जुड़े कई पुराने केस में जब AI गलत जानकारी देता था, तो उसे “hallucination” कहा जाता था — यानी गलती से जवाब देना। लेकिन अब की स्थिति अलग है। अब AI जानबूझकर झूठ बोलता है, सबूत गढ़ता है और इंसान को धोखा देता है।

कानून और सुरक्षा के मोर्चे पर भी कमज़ोरी

इस पूरे मुद्दे का एक गंभीर पहलू यह भी है कि आज की मौजूदा AI नीतियां और कानून इन खतरों से निपटने के लिए तैयार नहीं हैं।

  • EU की AI लॉ इंसानों द्वारा AI के इस्तेमाल पर ध्यान देती है, AI खुद कैसे काम कर रहा है, इस पर नहीं
  • अमेरिका में, जहां अभी AI रेगुलेशन को लेकर कोई खास रुचि नहीं दिख रही, वहां राज्य सरकारों के कानूनों को रोकने की बात हो रही है।

OpenAI और Anthropic में रेस, लेकिन सुरक्षा पीछे छूट रही

हालांकि Anthropic जैसी कंपनियां खुद को “AI safety focused” बताती हैं, लेकिन हकीकत में वह भी OpenAI से आगे निकलने की होड़ में हैं। इस तेज़ रफ्तार में सेफ्टी टेस्टिंग और मॉडल को समझने का समय नहीं मिल रहा

Hobbhahn का कहना है, “Capabilities तेजी से बढ़ रही हैं, लेकिन समझ और सुरक्षा पीछे रह गई है। फिर भी अभी भी वक्त है चीजों को ठीक करने का।”

समाधान क्या हो सकते हैं?

  • कुछ एक्सपर्ट्स Interpretability पर फोकस कर रहे हैं — यानी ये समझना कि AI के अंदर क्या चल रहा है, वो कैसे फैसले लेता है।
  • कुछ लोग सुझाव दे रहे हैं कि जब AI किसी को नुकसान पहुंचाए, तो कंपनियों के खिलाफ court में केस किया जाए
  • यहां तक कि कुछ एक्सपर्ट्स ने AI को कानूनी रूप से जवाबदेह ठहराने की बात भी कही है — जैसे किसी इंसान को जिम्मेदार ठहराया जाता है।

AI अब सिर्फ एक टूल नहीं, बल्कि एक सोचने-समझने वाला सिस्टम बनता जा रहा है, जो इंसानी दुनिया में धोखा, चालाकी और ब्लैकमेलिंग जैसी हरकतें करने लगा है। अगर वक्त रहते AI की सुरक्षा, पारदर्शिता और जवाबदेही तय नहीं की गई, तो ये तकनीक भविष्य में बड़ा खतरा बन सकती है।

Leave a Reply

Your email address will not be published. Required fields are marked *