Claude Mythos Preview को लेकर अमेरिकी वित्तीय संस्थानों, टेक कंपनियों और नीति-निर्माताओं के बीच बढ़ती साइबर सुरक्षा चिंता का प्रतीकात्मक दृश्य।

Anthropic का Claude Code लीक: $2.5 बिलियन का AI टूल क्षणिक रूप से सार्वजनिक, क्रिएटर ने कहा ‘गलती इंसान की नहीं, प्रक्रिया की’

Team The420
4 Min Read

नई दिल्ली: $2.5 बिलियन वार्षिक राजस्व तक पहुंचने वाले Anthropic के AI एजेंटिक कोडिंग टूल Claude Code का स्रोत कोड एक अस्थायी मानव त्रुटि के कारण इंटरनेट पर सार्वजनिक हो गया। यह लीक कंपनी के लिए तकनीकी दुनिया में चर्चा का विषय बन गया, क्योंकि डेवलपर्स और AI विशेषज्ञों ने कोड के अंदर अप्रकाशित मॉडल व आंतरिक प्रणालियों के संकेत पाए।

Claude Code, जो लॉन्च के सिर्फ एक साल बाद ही $2.5 बिलियन के वार्षिक अनुमानित राजस्व तक पहुंच गया था, का पूरा स्रोत कोड गलती से सार्वजनिक npm रजिस्ट्री में चला गया। कंपनी के अनुसार यह एक पैकेजिंग मुद्दा था, न कि सुरक्षा उल्लंघन, और किसी भी ग्राहक डेटा या क्रेडेंशियल्स का खुलासा नहीं हुआ।

Anthropic के क्रिएटर बोरीस चेर्नी ने ट्विटर (X) पर स्पष्ट किया कि लीक का कारण डिप्लॉयमेंट प्रक्रिया में एक मैनुअल स्टेप का छूट जाना था। उन्होंने लिखा, “हमारी डिप्लॉय प्रक्रिया में कुछ मैनुअल स्टेप्स हैं, और उनमें से एक सही ढंग से नहीं किया गया। इस मामले में गलती किसी व्यक्ति की नहीं, बल्कि इंफ्रास्ट्रक्चर की थी। कोई भी व्यक्ति यह गलती आसानी से कर सकता था।”

FCRF Launches Premier CISO Certification Amid Rising Demand for Cybersecurity Leadership

इस घटना के बाद किसी कर्मचारी को न निकालने का निर्णय लिया गया। चेर्नी ने कहा कि समाधान केवल ऑटोमेशन बढ़ाना है। Claude टूल स्वयं अब डिप्लॉयमेंट परिणामों की जांच करेगा, ताकि भविष्य में ऐसी चूक न हो।

डेवलपर्स ने लीक के तुरंत बाद कोड की समीक्षा शुरू की। उन्होंने अप्रकाशित मॉडल संस्करणों—Opus 4.7 और Sonnet 4.8—और आंतरिक कोडनेम जैसे “Capybara” और “Tengu” के संदर्भ पाए। सबसे चर्चा में रहा KAIROS, जो एक बैकग्राउंड एजेंट है, जो स्वचालित रूप से कार्य करता है, दैनिक लॉग तैयार करता है और “autoDream” नामक रात्री रूटीन चलाता है, जो सीखने की प्रक्रिया को पुनर्गठित करता है। चेर्नी ने कहा कि कंपनी अभी तय नहीं कर पाई है कि इसे रिलीज़ किया जाएगा या नहीं।

इसके अलावा, डेवलपर्स ने एक Tamagotchi-स्टाइल कोडिंग साथी देखा, जो इनपुट बॉक्स के बगल में बैठता है और उपयोगकर्ता की गतिविधियों पर प्रतिक्रिया करता है। एक सिस्टम जो अपशब्दों को निगेटिव सिग्नल के रूप में चिन्हित करता है, उसे चेर्नी ने वास्तविक बताया। “हम इसे डैशबोर्ड पर ‘fucks’ चार्ट कहते हैं,” उन्होंने लिखा।

Anthropic द्वारा की गई DMCA टakedown की कार्रवाई में कुछ वैध फ़ोर्क भी प्रभावित हुए, जो लीक से संबंधित नहीं थे। डेवलपर थेओ ने इसे “पूरी तरह निराशाजनक” बताया। चेर्नी ने कहा कि यह अनजाने में हुआ और कंपनी ने GitHub के साथ मिलकर इसे ठीक किया।

इस घटना ने AI डेवलपमेंट में मानव त्रुटि और ऑटोमेशन की जरूरत को उजागर किया। विशेषज्ञों का कहना है कि यह मामला सिर्फ Anthropic तक सीमित नहीं है; उद्योग-wide प्रक्रियाओं में ऐसे मैनुअल स्टेप्स अक्सर जोखिम पैदा कर सकते हैं।

विश्लेषकों के अनुसार, Claude Code लीक ने डेवलपर्स को अप्रकाशित मॉडल और आंतरिक कार्यप्रणाली का पहला मौका दिया। यह AI सुरक्षा और कॉर्पोरेट प्रक्रिया डिज़ाइन पर गहरी बहस को जन्म देगा। चेर्नी ने स्पष्ट किया कि लीक कोई दुर्भावनापूर्ण हमला नहीं था, और ग्राहक डेटा सुरक्षित है।

इस मामले से AI कंपनियों के लिए यह संदेश गया कि मैनुअल त्रुटियों से बचने के लिए ऑटोमेशन और प्रॉडक्शन चेक्स को मजबूत करना अनिवार्य है। Anthropic अब इन प्रक्रियाओं को सुधारने पर ध्यान केंद्रित कर रहा है, जिससे भविष्य में कोई भी ऐसा अप्रत्याशित लीक न हो।

हमसे जुड़ें

Share This Article