वॉशिंगटन। आर्टिफिशियल इंटेलिजेंस को लेकर अमेरिकी सरकार और निजी कंपनियों के बीच टकराव अब अदालत तक पहुंच गया है। एक संघीय न्यायाधीश ने पेंटागन द्वारा AI कंपनी Anthropic को “सप्लाई-चेन रिस्क” घोषित करने के फैसले पर कड़ी टिप्पणी करते हुए कहा कि यह कदम कंपनी को उसकी AI सुरक्षा संबंधी चिंताओं के लिए “सजा देने जैसा” प्रतीत होता है।
कैलिफोर्निया की संघीय अदालत में सुनवाई के दौरान जज ने कहा कि पेंटागन का यह निर्णय कंपनी की कार्यक्षमता को बाधित करने का प्रयास नजर आता है। अदालत की यह टिप्पणी ऐसे समय आई है जब कंपनी ने इस फैसले को चुनौती देते हुए मुकदमा दायर किया है और अस्थायी राहत की मांग की है।
विवाद की जड़ उस समय शुरू हुई जब Anthropic ने अपने AI मॉडल “Claude” के सैन्य उपयोग, खासकर निगरानी और स्वायत्त हथियारों में इस्तेमाल, पर आपत्ति जताई। कंपनी का कहना है कि मौजूदा AI तकनीक इतनी विश्वसनीय नहीं है कि उसे हथियार प्रणालियों में सुरक्षित तरीके से इस्तेमाल किया जा सके। साथ ही, घरेलू निगरानी में AI के उपयोग को कंपनी ने नागरिक अधिकारों के लिए खतरा बताया।
मामले में कंपनी ने आरोप लगाया है कि पेंटागन ने अपनी शक्तियों का दुरुपयोग करते हुए उसे “नेशनल सिक्योरिटी सप्लाई-चेन रिस्क” करार दिया। यह टैग आमतौर पर उन कंपनियों के लिए इस्तेमाल किया जाता है, जिनसे सैन्य प्रणालियों में घुसपैठ या तोड़फोड़ का खतरा हो सकता है। इस फैसले के बाद कंपनी को कई महत्वपूर्ण रक्षा अनुबंधों से बाहर कर दिया गया, जिससे उसे इस साल अरबों रुपये के संभावित नुकसान का सामना करना पड़ सकता है।
सुनवाई के दौरान जज ने यह भी कहा कि यह कार्रवाई इस बात की ओर इशारा करती है कि कंपनी द्वारा सार्वजनिक रूप से उठाए गए सवालों को दबाने की कोशिश की गई है। उन्होंने टिप्पणी करते हुए कहा कि यह मामला “कॉन्ट्रैक्ट विवाद को सार्वजनिक जांच के दायरे में लाने की कोशिश के जवाब में लिया गया कदम” जैसा दिखता है।
FutureCrime Summit 2026 Calls for Speakers From Government, Industry and Academia
वहीं, सरकार की ओर से दायर जवाब में कहा गया है कि यह फैसला कंपनी के विचारों के कारण नहीं, बल्कि उसके अनुबंध संबंधी शर्तों को स्वीकार न करने के कारण लिया गया। सरकार का तर्क है कि यदि कंपनी अपने AI सिस्टम के उपयोग पर प्रतिबंध लगाती है, तो इससे सैन्य अभियानों के दौरान अनिश्चितता पैदा हो सकती है और सिस्टम के कामकाज पर असर पड़ सकता है।
यह मामला इसलिए भी अहम है क्योंकि पहली बार किसी अमेरिकी कंपनी को इस तरह सार्वजनिक रूप से “सप्लाई-चेन रिस्क” घोषित किया गया है। यह कदम आमतौर पर विदेशी कंपनियों के खिलाफ उठाया जाता रहा है, जिससे राष्ट्रीय सुरक्षा से जुड़े जोखिमों को रोका जा सके।
कंपनी ने अपने मुकदमे में यह भी दावा किया है कि उसे अपना पक्ष रखने का अवसर नहीं दिया गया, जो अमेरिकी संविधान के तहत उसके अधिकारों का उल्लंघन है। इसके अलावा, कंपनी का कहना है कि यह फैसला बिना पर्याप्त सबूत के लिया गया और पहले पेंटागन द्वारा उसके AI सिस्टम की सराहना के विपरीत है।
मामले ने AI के सैन्य उपयोग और उसके नियमन को लेकर एक व्यापक बहस को जन्म दिया है। विशेषज्ञों का मानना है कि आने वाले समय में सरकार और तकनीकी कंपनियों के बीच इस तरह के टकराव बढ़ सकते हैं, खासकर तब जब AI का उपयोग रक्षा और निगरानी जैसे संवेदनशील क्षेत्रों में तेजी से बढ़ रहा हो।
फिलहाल अदालत में इस मामले की सुनवाई जारी है और अगला फैसला इस बात पर निर्भर करेगा कि क्या Anthropic को अस्थायी राहत मिलती है या नहीं। लेकिन इतना तय है कि यह मामला AI नीति, राष्ट्रीय सुरक्षा और अभिव्यक्ति की स्वतंत्रता के बीच संतुलन को लेकर एक अहम मिसाल बन सकता है।
