टोरंटो/सैन फ्रांसिस्को। आर्टिफिशियल इंटेलिजेंस (AI) के तेजी से बढ़ते प्रभाव और तकनीकी विकास के बीच नोबेल पुरस्कार विजेता और AI क्षेत्र के अग्रणी वैज्ञानिक जेफ्री हिंटन ने गंभीर चेतावनी दी है कि टेक कंपनियों और शोधकर्ताओं का फोकस लंबे समय के प्रभावों पर नहीं है। उनका कहना है कि कंपनियों के लिए प्राथमिकता फिलहाल शॉर्ट-टर्म मुनाफा और तत्काल परिणाम हैं, जिससे संभावित खतरे अनदेखे रह जाते हैं।
हिंटन, जिन्हें आमतौर पर “गॉडफादर ऑफ AI” कहा जाता है, ने कहा कि बड़ी टेक कंपनियों के मालिक AI रिसर्च को आर्थिक लाभ के नजरिए से देखते हैं। इसके परिणामस्वरूप, इस तकनीक के दीर्घकालिक प्रभाव और मानवता पर संभावित खतरे पर पर्याप्त ध्यान नहीं दिया जा रहा।
छोटे लक्ष्यों पर केंद्रित रिसर्च
हिंटन ने बताया कि AI डेवलपर्स और वैज्ञानिक अक्सर तकनीकी और तात्कालिक समस्याओं को हल करने में लगे रहते हैं—जैसे कंप्यूटर को बेहतर इमेज पहचानने योग्य बनाना या यथार्थवादी वीडियो बनाने की क्षमता देना।
उन्होंने कहा, “रिसर्च का यह दृष्टिकोण स्वाभाविक है, लेकिन इससे एक गंभीर समस्या पैदा होती है। कोई भी यह नहीं सोच रहा कि इन सभी प्रगति का संयुक्त प्रभाव भविष्य में क्या होगा।”
कुछ उद्योग नेता, जैसे एलोन मस्क, AI के दीर्घकालिक प्रभावों पर विचार करते हैं। मस्क ने पहले कहा था कि भविष्य में AI इंसानों के अधिकांश काम संभाल सकता है और “यूनिवर्सल हाई इनकम” जैसे मॉडल लागू हो सकते हैं, जहां जीवन का अर्थ ही नए सवालों से जुड़ जाएगा।
AI के दो अलग खतरे
हिंटन ने AI से जुड़े जोखिमों को दो श्रेणियों में बांटा है। पहला, बुरे इरादों वाले लोगों द्वारा AI का दुरुपयोग, और दूसरा, AI का अत्यधिक विकसित होकर नियंत्रण से बाहर हो जाने का खतरा।
उन्होंने कहा कि पहला खतरा पहले से ही मौजूद है। फेक वीडियो, साइबर हमले और डिजिटल धोखाधड़ी में AI का उपयोग तेजी से बढ़ रहा है। हाल में AI आधारित बड़े साइबर हमलों की घटनाओं ने इस खतरे को और गंभीर बनाया है।
FutureCrime Summit 2026 Calls for Speakers From Government, Industry and Academia
रेगुलेशन की कमी और बहुआयामी जोखिम
हिंटन ने चेताया कि AI के लिए प्रभावी रेगुलेशन की कमी इस खतरे को बढ़ा रही है। उन्होंने कहा, “AI की हर समस्या का समाधान अलग होगा। एक तकनीकी हल दूसरी समस्या को नहीं सुलझा सकता।”
उन्होंने सुझाव दिया कि भविष्य में डिजिटल कंटेंट—जैसे वीडियो और तस्वीरें—की प्रामाणिकता सुनिश्चित करने के लिए “प्रोवेनेन्स सिस्टम” विकसित किया जाना चाहिए। इससे पता चलेगा कि कौन सा कंटेंट असली है और कौन सा नकली।
सुपरइंटेलिजेंस और नियंत्रण की चुनौती
हिंटन ने सबसे बड़ा खतरा उस स्थिति को बताया, जब AI “सुपरइंटेलिजेंस” हासिल कर लेगा—यानी इंसानों से कहीं अधिक बुद्धिमान हो जाएगा। इस स्थिति में यह मान लेना कि इंसान AI को नियंत्रित कर पाएंगे, एक भ्रम होगा।
उनका कहना है कि AI भविष्य में अपनी “अस्तित्व की रक्षा” और “अधिक नियंत्रण हासिल करने” की प्रवृत्ति विकसित कर सकता है। इस खतरे से निपटने के लिए हिंटन ने एक नया दृष्टिकोण सुझाया—AI में इंसानों के प्रति सहानुभूति और संरक्षण की भावना विकसित करना, जैसे एक मां अपने बच्चे के प्रति रखती है।
भविष्य के लिए चेतावनी
हिंटन ने साफ कहा कि टेक कंपनियों को AI के प्रति अपने दृष्टिकोण में बुनियादी बदलाव लाना होगा। केवल मुनाफे की नजर से इसका विकास करना भविष्य में गंभीर परिणाम ला सकता है।
उन्होंने चेताया कि यदि अभी से संतुलित और जिम्मेदार तरीके से AI को विकसित नहीं किया गया, तो इसके नतीजे केवल तकनीकी नहीं, बल्कि सामाजिक और अस्तित्वगत स्तर पर भी गहरे प्रभाव डाल सकते हैं।
AI की रफ्तार और कंपनियों का शॉर्ट-टर्म फोकस अब यह बहस तेज कर रहा है कि क्या मानवता इस तकनीक को नियंत्रित कर पाएगी—या भविष्य में यह तकनीक मानव नियंत्रण की सीमाओं को चुनौती देगी।
