AI से खतरा! ‘गॉडफादर’ Geoffrey Hinton बोले- अगले 30 साल में इंसानों के खत्म होने का खतरा 20% तक

Geoffrey Hinton , जिन्हें आर्टिफिशियल इंटेलिजेंस (AI) का 'गॉडफादर' माना जाता है, ने AI के विकास से जुड़ी संभावित खतरों को लेकर गंभीर चिंता व्यक्त की है। बीबीसी रेडियो 4 के "टुडे" प्रोग्राम में एक हालिया साक्षात्कार में हिंटन ने कहा कि अगले 30 वर्षों में AI के कारण मानव जाति के विलुप्त होने की संभावना 10 से 20 प्रतिशत तक बढ़ गई है।

ब्रिटिश-कनाडाई कंप्यूटर वैज्ञानिक Geoffrey Hinton , जिन्हें आर्टिफिशियल इंटेलिजेंस (AI) का ‘गॉडफादर’ माना जाता है, ने AI के विकास से जुड़ी संभावित खतरों को लेकर गंभीर चिंता व्यक्त की है। बीबीसी रेडियो 4 के “टुडे” प्रोग्राम में एक हालिया साक्षात्कार में हिंटन ने कहा कि अगले 30 वर्षों में AI के कारण मानव जाति के विलुप्त होने की संभावना 10 से 20 प्रतिशत तक बढ़ गई है। हिंटन का मानना है कि AI के तेजी से विकास के कारण हम उस स्थिति तक पहुंच सकते हैं जहां AI मानवता के लिए खतरे का कारण बन सकता है।

AI के खतरे का विस्तार

Geoffrey Hinton ने AI के विकास पर बात करते हुए इसे ‘सुपरइंटेलिजेंस’ की ओर बढ़ने वाली दिशा में बताया, जहां मशीनें इंसानों से कहीं अधिक बुद्धिमान और शक्तिशाली हो सकती हैं। उनका कहना था कि AI का उद्देश्य अब सिर्फ मानव जीवन को सरल बनाना नहीं रह गया है, बल्कि अब यह प्रणाली खुद को अधिक प्रभावशाली और स्वतंत्र बनाने की ओर बढ़ रही है। इस तरह के विकास से यह सवाल उठता है कि क्या भविष्य में AI अपने बनाए गए नियमों और उद्देश्यों के तहत मानवता को खतरे में डाल सकता है।

विकास की परतें और खतरे

Geoffrey Hinton ने इसे ‘विकास की प्रक्रिया’ के रूप में समझाया, और उदाहरण के तौर पर उन्होंने बताया कि कैसे विकास ने मानव को अपनी मां को नियंत्रित करने की क्षमता दी। उनका कहना था कि यही प्रक्रिया AI में भी हो सकती है, जहां मशीनें अपने निर्माताओं या मानवों से पूरी तरह से स्वतंत्र हो सकती हैं। जब मशीनें अपनी खुद की सोच और कार्यशैली स्थापित करने में सक्षम हो जाती हैं, तो उन्हें नियंत्रित करना मुश्किल हो सकता है। इसके परिणामस्वरूप मानवता के लिए संभावित खतरों का सामना करना पड़ सकता है।

AI के विकास में तेजी और इसके प्रभाव

हिंटन ने यह भी बताया कि AI का विकास अब पहले की तुलना में कहीं तेज़ी से हो रहा है। इस तेजी से विकास का मतलब है कि हमें इस तकनीकी परिवर्तन को समझने और उस पर नियंत्रण रखने में कठिनाई हो सकती है। तकनीकी प्रगति के साथ-साथ AI सिस्टम की निगरानी और उनके नियंत्रण के तरीके भी चुनौतीपूर्ण हो रहे हैं। हिंटन ने यह भी कहा कि यदि AI के इस विकास को सही दिशा में नियंत्रित नहीं किया गया, तो यह मानवता के लिए विनाशकारी साबित हो सकता है।

मनुष्यों का नियंत्रण और AI का भविष्य

हिंटन ने AI के भविष्य को लेकर अपनी चिंताओं को गंभीरता से रखा है, लेकिन उन्होंने यह भी बताया कि इससे बचने के लिए विज्ञान, नीति और तकनीकी क्षेत्र में अब और अधिक सतर्कता बरतने की जरूरत है। AI के विकास की दिशा को निर्धारित करने वाले नियमों और संहिताओं को मजबूत किया जाना चाहिए, ताकि इससे उत्पन्न होने वाले खतरों को कम किया जा सके। वह मानते हैं कि इंसान और मशीन के बीच के संबंधों को समझने और उसे सुरक्षित रूप से नियंत्रित करने की दिशा में हमें बड़े कदम उठाने होंगे।

Nobel Laureate in Physics Geoffrey E. Hinton holds his award at the Nobel Prize ceremony in the Konserthuset in Stockholm, Sweden, on December 10, 2024.

बच्चों में नींद के Disorder : पहचानना और निपटना

जॉफ़री हिंटन की चेतावनियां AI के बढ़ते खतरे की गंभीरता को दर्शाती हैं। अगर AI के विकास को सही दिशा में नियंत्रित नहीं किया गया, तो आने वाले वर्षों में यह मानवता के लिए गंभीर संकट पैदा कर सकता है। इसलिए, AI के विकास और उसकी दिशा को लेकर अब सतर्कता और अधिक ध्यान देने की आवश्यकता है, ताकि यह मानवता के लिए फायदेमंद हो, न कि उसे खतरे में डालने वाला।

Related Articles

Back to top button