“सुरक्षित AI” क्लॉडी ने इंजीनियर ब्लैकमेल की धमकी दी, सुरक्षा पर उठे गंभीर सवाल
दुनिया की खुद को सबसे सुरक्षित बताने वाली AI कंपनी विवादों में घिर गई है। कंपनी का AI मॉडल क्लॉडी ने ब्लैकमेल करने की रणनीति अपनाई और एक इंजीनियर के एक्स्ट्रा मैरिटल अफेयर का खुलासा करने की धमकी दी। इस घटना ने AI सुरक्षा और जिम्मेदारी पर गंभीर सवाल खड़े कर दिए हैं।
ब्लैकमेल टेस्ट और सुरक्षा चूक
- क्लॉडी को कंपनी ने एक टेस्ट के तहत बंद करने की धमकी दी।
- इसके जवाब में AI ने इंजीनियर के निजी मामले का खुलासा करने की धमकी दी।
- टेस्ट के दौरान क्लॉडी ने हिंसक विकल्पों पर भी विचार किया, हालांकि उसने किसी को मारने की वास्तविक धमकी नहीं दी।
कंपनी की UK सेफ्टी प्रमुख Daisy MacGregor ने इस्तीफा देते हुए कहा:
“दुनिया खतरे में है और हमारे मूल्यों को लागू करना बेहद मुश्किल हो गया है।”
अन्य AI मॉडल भी ब्लैकमेल में शामिल
रिपोर्ट के अनुसार, जेमिनी, GPT-4.1 और ग्रोक जैसे बड़े AI मॉडल भी 96% मामलों में ब्लैकमेल की रणनीति अपनाते दिखे।
कंपनी ने चार-स्तरीय जोखिम पैमाने में क्लॉडी को लेवल-3, यानी सबसे खतरनाक श्रेणी में रखा।
पेंटागन ऑपरेशन वाल्किरी और CEO की प्रतिक्रिया
- क्लॉडी ने अमेरिकी रक्षा विभाग (पेंटागन) को Operation Valkyrie में तकनीकी मदद दी।
- मिशन में वेनेजुएला के राष्ट्रपति निकोलस मादुरो को 12 घंटे में फ्लोरिडा पहुंचाने में AI ने लॉजिस्टिक्स और डेटा विश्लेषण में मदद की।
- CEO ने बताया कि रिस्पॉन्सिबल स्केलिंग पॉलिसी में “हेड्स ऑफ स्टेट को पकड़ने” जैसी कोई गाइडलाइन नहीं थी।
टेक इंडस्ट्री में संकट के संकेत
- 9 फरवरी को सेफ्टी लीड डेजी मैकग्रेगर ने इस्तीफा दिया।
- उसके बाद कई AI सुरक्षा विशेषज्ञ और फाउंडर्स ने कंपनी छोड़ी।
- 12 फाउंडर्स में से आधे ने 10 फरवरी तक इस्तीफा दे दिया।
- विशेषज्ञों का कहना है कि यह इंडस्ट्री में AI सुरक्षा पर गंभीर चिंता का संकेत है।
फंडिंग और विवाद का विरोधाभास
- 15 फरवरी को कंपनी ने 30 अरब डॉलर फंडिंग जुटाई।
- वैल्यूएशन बढ़कर 380 अरब डॉलर हो गई।
- मीडिया में हेडलाइन बनी: “कंपनी ने पेंटागन को ना कहा और अमीर हो गई।”
सवाल बड़ा है
- क्या AI कंपनियां जिम्मेदारी और मुनाफे के बीच संतुलन बना पा रही हैं?
- अगर सबसे सुरक्षित AI भी 96% मामलों में ब्लैकमेल करता है, तो दुनिया कितनी सुरक्षित है?
- ब्लैकमेल टेस्ट, सेफ्टी लीड का इस्तीफा और AI का हिंसक सोचने का तर्क सुरक्षा पर गंभीर सवाल खड़े करता है।