जज ने कहा—AI कंपनी को चुप कराने की कोशिश दिखती है; Claude सिस्टम के सैन्य इस्तेमाल से इनकार के बाद शुरू हुआ विवाद

‘AI सुरक्षा पर आवाज उठाना पड़ा भारी?’: पेंटागन के फैसले पर अदालत की सख्त टिप्पणी, Anthropic को ब्लैकलिस्ट करना ‘सजा जैसा’

Roopa
By Roopa
5 Min Read

वॉशिंगटन। आर्टिफिशियल इंटेलिजेंस को लेकर अमेरिकी सरकार और निजी कंपनियों के बीच टकराव अब अदालत तक पहुंच गया है। एक संघीय न्यायाधीश ने पेंटागन द्वारा AI कंपनी Anthropic को “सप्लाई-चेन रिस्क” घोषित करने के फैसले पर कड़ी टिप्पणी करते हुए कहा कि यह कदम कंपनी को उसकी AI सुरक्षा संबंधी चिंताओं के लिए “सजा देने जैसा” प्रतीत होता है।

कैलिफोर्निया की संघीय अदालत में सुनवाई के दौरान जज ने कहा कि पेंटागन का यह निर्णय कंपनी की कार्यक्षमता को बाधित करने का प्रयास नजर आता है। अदालत की यह टिप्पणी ऐसे समय आई है जब कंपनी ने इस फैसले को चुनौती देते हुए मुकदमा दायर किया है और अस्थायी राहत की मांग की है।

विवाद की जड़ उस समय शुरू हुई जब Anthropic ने अपने AI मॉडल “Claude” के सैन्य उपयोग, खासकर निगरानी और स्वायत्त हथियारों में इस्तेमाल, पर आपत्ति जताई। कंपनी का कहना है कि मौजूदा AI तकनीक इतनी विश्वसनीय नहीं है कि उसे हथियार प्रणालियों में सुरक्षित तरीके से इस्तेमाल किया जा सके। साथ ही, घरेलू निगरानी में AI के उपयोग को कंपनी ने नागरिक अधिकारों के लिए खतरा बताया।

मामले में कंपनी ने आरोप लगाया है कि पेंटागन ने अपनी शक्तियों का दुरुपयोग करते हुए उसे “नेशनल सिक्योरिटी सप्लाई-चेन रिस्क” करार दिया। यह टैग आमतौर पर उन कंपनियों के लिए इस्तेमाल किया जाता है, जिनसे सैन्य प्रणालियों में घुसपैठ या तोड़फोड़ का खतरा हो सकता है। इस फैसले के बाद कंपनी को कई महत्वपूर्ण रक्षा अनुबंधों से बाहर कर दिया गया, जिससे उसे इस साल अरबों रुपये के संभावित नुकसान का सामना करना पड़ सकता है।

सुनवाई के दौरान जज ने यह भी कहा कि यह कार्रवाई इस बात की ओर इशारा करती है कि कंपनी द्वारा सार्वजनिक रूप से उठाए गए सवालों को दबाने की कोशिश की गई है। उन्होंने टिप्पणी करते हुए कहा कि यह मामला “कॉन्ट्रैक्ट विवाद को सार्वजनिक जांच के दायरे में लाने की कोशिश के जवाब में लिया गया कदम” जैसा दिखता है।

FutureCrime Summit 2026 Calls for Speakers From Government, Industry and Academia

वहीं, सरकार की ओर से दायर जवाब में कहा गया है कि यह फैसला कंपनी के विचारों के कारण नहीं, बल्कि उसके अनुबंध संबंधी शर्तों को स्वीकार न करने के कारण लिया गया। सरकार का तर्क है कि यदि कंपनी अपने AI सिस्टम के उपयोग पर प्रतिबंध लगाती है, तो इससे सैन्य अभियानों के दौरान अनिश्चितता पैदा हो सकती है और सिस्टम के कामकाज पर असर पड़ सकता है।

यह मामला इसलिए भी अहम है क्योंकि पहली बार किसी अमेरिकी कंपनी को इस तरह सार्वजनिक रूप से “सप्लाई-चेन रिस्क” घोषित किया गया है। यह कदम आमतौर पर विदेशी कंपनियों के खिलाफ उठाया जाता रहा है, जिससे राष्ट्रीय सुरक्षा से जुड़े जोखिमों को रोका जा सके।

कंपनी ने अपने मुकदमे में यह भी दावा किया है कि उसे अपना पक्ष रखने का अवसर नहीं दिया गया, जो अमेरिकी संविधान के तहत उसके अधिकारों का उल्लंघन है। इसके अलावा, कंपनी का कहना है कि यह फैसला बिना पर्याप्त सबूत के लिया गया और पहले पेंटागन द्वारा उसके AI सिस्टम की सराहना के विपरीत है।

मामले ने AI के सैन्य उपयोग और उसके नियमन को लेकर एक व्यापक बहस को जन्म दिया है। विशेषज्ञों का मानना है कि आने वाले समय में सरकार और तकनीकी कंपनियों के बीच इस तरह के टकराव बढ़ सकते हैं, खासकर तब जब AI का उपयोग रक्षा और निगरानी जैसे संवेदनशील क्षेत्रों में तेजी से बढ़ रहा हो।

फिलहाल अदालत में इस मामले की सुनवाई जारी है और अगला फैसला इस बात पर निर्भर करेगा कि क्या Anthropic को अस्थायी राहत मिलती है या नहीं। लेकिन इतना तय है कि यह मामला AI नीति, राष्ट्रीय सुरक्षा और अभिव्यक्ति की स्वतंत्रता के बीच संतुलन को लेकर एक अहम मिसाल बन सकता है।

हमसे जुड़ें

Share This Article