नई दिल्ली: $2.5 बिलियन वार्षिक राजस्व तक पहुंचने वाले Anthropic के AI एजेंटिक कोडिंग टूल Claude Code का स्रोत कोड एक अस्थायी मानव त्रुटि के कारण इंटरनेट पर सार्वजनिक हो गया। यह लीक कंपनी के लिए तकनीकी दुनिया में चर्चा का विषय बन गया, क्योंकि डेवलपर्स और AI विशेषज्ञों ने कोड के अंदर अप्रकाशित मॉडल व आंतरिक प्रणालियों के संकेत पाए।
Claude Code, जो लॉन्च के सिर्फ एक साल बाद ही $2.5 बिलियन के वार्षिक अनुमानित राजस्व तक पहुंच गया था, का पूरा स्रोत कोड गलती से सार्वजनिक npm रजिस्ट्री में चला गया। कंपनी के अनुसार यह एक पैकेजिंग मुद्दा था, न कि सुरक्षा उल्लंघन, और किसी भी ग्राहक डेटा या क्रेडेंशियल्स का खुलासा नहीं हुआ।
Anthropic के क्रिएटर बोरीस चेर्नी ने ट्विटर (X) पर स्पष्ट किया कि लीक का कारण डिप्लॉयमेंट प्रक्रिया में एक मैनुअल स्टेप का छूट जाना था। उन्होंने लिखा, “हमारी डिप्लॉय प्रक्रिया में कुछ मैनुअल स्टेप्स हैं, और उनमें से एक सही ढंग से नहीं किया गया। इस मामले में गलती किसी व्यक्ति की नहीं, बल्कि इंफ्रास्ट्रक्चर की थी। कोई भी व्यक्ति यह गलती आसानी से कर सकता था।”
FCRF Launches Premier CISO Certification Amid Rising Demand for Cybersecurity Leadership
इस घटना के बाद किसी कर्मचारी को न निकालने का निर्णय लिया गया। चेर्नी ने कहा कि समाधान केवल ऑटोमेशन बढ़ाना है। Claude टूल स्वयं अब डिप्लॉयमेंट परिणामों की जांच करेगा, ताकि भविष्य में ऐसी चूक न हो।
डेवलपर्स ने लीक के तुरंत बाद कोड की समीक्षा शुरू की। उन्होंने अप्रकाशित मॉडल संस्करणों—Opus 4.7 और Sonnet 4.8—और आंतरिक कोडनेम जैसे “Capybara” और “Tengu” के संदर्भ पाए। सबसे चर्चा में रहा KAIROS, जो एक बैकग्राउंड एजेंट है, जो स्वचालित रूप से कार्य करता है, दैनिक लॉग तैयार करता है और “autoDream” नामक रात्री रूटीन चलाता है, जो सीखने की प्रक्रिया को पुनर्गठित करता है। चेर्नी ने कहा कि कंपनी अभी तय नहीं कर पाई है कि इसे रिलीज़ किया जाएगा या नहीं।
इसके अलावा, डेवलपर्स ने एक Tamagotchi-स्टाइल कोडिंग साथी देखा, जो इनपुट बॉक्स के बगल में बैठता है और उपयोगकर्ता की गतिविधियों पर प्रतिक्रिया करता है। एक सिस्टम जो अपशब्दों को निगेटिव सिग्नल के रूप में चिन्हित करता है, उसे चेर्नी ने वास्तविक बताया। “हम इसे डैशबोर्ड पर ‘fucks’ चार्ट कहते हैं,” उन्होंने लिखा।
Anthropic द्वारा की गई DMCA टakedown की कार्रवाई में कुछ वैध फ़ोर्क भी प्रभावित हुए, जो लीक से संबंधित नहीं थे। डेवलपर थेओ ने इसे “पूरी तरह निराशाजनक” बताया। चेर्नी ने कहा कि यह अनजाने में हुआ और कंपनी ने GitHub के साथ मिलकर इसे ठीक किया।
इस घटना ने AI डेवलपमेंट में मानव त्रुटि और ऑटोमेशन की जरूरत को उजागर किया। विशेषज्ञों का कहना है कि यह मामला सिर्फ Anthropic तक सीमित नहीं है; उद्योग-wide प्रक्रियाओं में ऐसे मैनुअल स्टेप्स अक्सर जोखिम पैदा कर सकते हैं।
विश्लेषकों के अनुसार, Claude Code लीक ने डेवलपर्स को अप्रकाशित मॉडल और आंतरिक कार्यप्रणाली का पहला मौका दिया। यह AI सुरक्षा और कॉर्पोरेट प्रक्रिया डिज़ाइन पर गहरी बहस को जन्म देगा। चेर्नी ने स्पष्ट किया कि लीक कोई दुर्भावनापूर्ण हमला नहीं था, और ग्राहक डेटा सुरक्षित है।
इस मामले से AI कंपनियों के लिए यह संदेश गया कि मैनुअल त्रुटियों से बचने के लिए ऑटोमेशन और प्रॉडक्शन चेक्स को मजबूत करना अनिवार्य है। Anthropic अब इन प्रक्रियाओं को सुधारने पर ध्यान केंद्रित कर रहा है, जिससे भविष्य में कोई भी ऐसा अप्रत्याशित लीक न हो।
