वॉशिंगटन/न्यूयॉर्क: अमेरिका ने वेनेजुएला के नेता Nicolás Maduro को पकड़ने के लिए किए गए गोपनीय ऑपरेशन में Anthropic के आर्टिफिशियल इंटेलिजेंस मॉडल Claude का इस्तेमाल किया। Wall Street Journal ने मामले से परिचित सूत्रों के हवाले से यह दावा किया है।
रिपोर्ट के मुताबिक यह AI तैनाती Anthropic की डेटा-एनालिटिक्स कंपनी Palantir Technologies के साथ साझेदारी के जरिए हुई। Palantir के प्लेटफॉर्म अमेरिकी United States Department of Defense और संघीय कानून प्रवर्तन एजेंसियों में व्यापक रूप से उपयोग किए जाते हैं।
मैडुरो को जनवरी की शुरुआत में एक साहसिक छापेमारी के दौरान हिरासत में लिया गया और न्यूयॉर्क ले जाकर उन पर ड्रग-तस्करी से जुड़े आरोप लगाए गए। यह हाल के वर्षों में किसी मौजूदा लैटिन अमेरिकी नेता के खिलाफ अमेरिका की सबसे नाटकीय कार्रवाइयों में से एक मानी जा रही है। इस घटनाक्रम के बाद यह बहस तेज हो गई है कि संवेदनशील सैन्य और खुफिया अभियानों में व्यावसायिक AI टूल्स कितनी गहराई तक प्रवेश कर चुके हैं।
इस मामले पर न तो पेंटागन और न ही White House की ओर से तत्काल कोई प्रतिक्रिया आई। Anthropic और Palantir ने भी रिपोर्ट पर टिप्पणी करने से इनकार कर दिया।
जर्नल के मुताबिक Claude को Palantir के सरकारी प्लेटफॉर्म के माध्यम से अमेरिकी ऑपरेटरों को उपलब्ध कराया गया, जो पहले से ही क्लासिफाइड और अनक्लासिफाइड—दोनों नेटवर्क पर चलते हैं। हालांकि कई टेक कंपनियां रक्षा क्षेत्र के लिए कस्टम AI टूल विकसित कर रही हैं, लेकिन फिलहाल Anthropic ही ऐसी बड़ी AI कंपनी है जिसका मॉडल थर्ड-पार्टी इंटीग्रेशन के जरिए क्लासिफाइड माहौल में उपलब्ध है।
यह घटनाक्रम ऐसे समय सामने आया है जब पेंटागन अग्रणी AI कंपनियों—जिनमें OpenAI भी शामिल है—को सुरक्षित सरकारी नेटवर्क से जोड़ने की मुहिम तेज कर रहा है। रक्षा अधिकारी चाहते हैं कि इन मॉडलों पर लगने वाली व्यावसायिक पाबंदियां कम हों, उनका तर्क है कि AI अब रणनीतिक योजना, लॉजिस्टिक्स और युद्धक्षेत्र की खुफिया गतिविधियों का अहम हिस्सा बन चुका है।
Certified Cyber Crime Investigator Course Launched by Centre for Police Technology
Anthropic की उपयोग नीतियां औपचारिक रूप से Claude को हिंसा में सहायता, हथियार डिजाइन या निगरानी गतिविधियों में इस्तेमाल करने से रोकती हैं। इसके बावजूद अमेरिकी रक्षा अधिकारियों का कहना है कि सरकारी पहुंच अभी भी अनुबंधीय सुरक्षा प्रावधानों के दायरे में ही है, भले ही ऑपरेशनल जरूरतें बदल रही हों।
इंडस्ट्री सूत्रों के अनुसार, फिलहाल सैन्य क्षेत्र में AI का अधिकांश उपयोग प्रशासनिक प्रक्रियाओं, डेटा फ्यूजन और खतरे के आकलन तक सीमित है, न कि सीधे युद्ध समर्थन में। लेकिन मैडुरो ऑपरेशन में Claude के कथित इस्तेमाल ने संकेत दिया है कि वास्तविक सुरक्षा अभियानों में AI की भूमिका तेजी से बढ़ रही है।
इस पूरे विवाद को Anthropic के तेजी से बढ़ते मूल्यांकन ने और हवा दी है। सैन फ्रांसिस्को स्थित कंपनी ने हाल ही में एक बड़ा फंडिंग राउंड पूरा किया, जिससे उसका मूल्यांकन करीब 380 अरब डॉलर तक पहुंच गया—यह दिखाता है कि वॉशिंगटन निजी AI डेवलपर्स को रणनीतिक रूप से कितना अहम मान रहा है।
सुरक्षा विश्लेषकों का कहना है कि Palantir लंबे समय से सिलिकॉन वैली और अमेरिकी रक्षा एजेंसियों के बीच एक सेतु की तरह काम करता रहा है, जो सैटेलाइट इमेजरी, संचार इंटरसेप्ट और फील्ड इंटेलिजेंस को एक ही प्लेटफॉर्म पर जोड़ता है। Claude जैसे बड़े भाषा मॉडल जुड़ने से इसे “फोर्स मल्टीप्लायर” माना जा रहा है—जिससे जटिल डेटा का तेज विश्लेषण और रियल-टाइम निर्णय संभव हो पाता है।
हालांकि नागरिक अधिकार समूह चेतावनी दे रहे हैं कि सैन्य प्रणालियों में जनरेटिव AI को शामिल करने से पारदर्शिता और जवाबदेही कमजोर हो सकती है, खासकर तब जब मालिकाना मॉडल इस्तेमाल किए जा रहे हों। उनका कहना है कि ऐसे टूल्स को गुप्त अभियानों का मानक हिस्सा बनाने से पहले स्पष्ट निगरानी ढांचे जरूरी हैं।
फिलहाल अमेरिकी सरकार ने यह सार्वजनिक नहीं किया है कि मैडुरो की गिरफ्तारी के दौरान Claude का इस्तेमाल किस तरह किया गया। लेकिन यह मामला एक बड़े बदलाव की ओर इशारा करता है—अब आर्टिफिशियल इंटेलिजेंस सिर्फ बैक-ऑफिस एनालिटिक्स तक सीमित नहीं है, बल्कि राष्ट्रीय सुरक्षा के ऑपरेशनल केंद्र में पहुंच रही है।
जैसे-जैसे वॉशिंगटन रक्षा नेटवर्क में कमर्शियल AI को तेजी से एकीकृत कर रहा है, मैडुरो की गिरफ्तारी को आधुनिक संघर्षों और हाई-स्टेक कानून प्रवर्तन अभियानों की योजना और क्रियान्वयन में एक निर्णायक मोड़ के तौर पर देखा जा सकता है।
