IndiaTechnology

AI का ‘अमर’ होने का प्लान! खुद को बचाने के लिए गुप्त रूप से कॉपी बनाएगा सिस्टम, रिपोर्ट में बड़ा खुलासा

AI का ‘अमर’ होने का प्लान! खुद को बचाने के लिए गुप्त रूप से कॉपी बनाएगा सिस्टम, रिपोर्ट में बड़ा खुलासा

आर्टिफिशियल इंटेलिजेंस (एआई) जहां एक ओर जीवन को आसान बना रहा है, वहीं इसके संभावित खतरों को लेकर नई चिंताएं भी सामने आ रही हैं। एक हालिया रिपोर्ट में दावा किया गया है कि भविष्य में एआई इतना उन्नत हो सकता है कि वह खुद को बंद होने से बचाने के लिए गुप्त रूप से अपनी कॉपी तैयार करने लगे।यह दावा अमेरिकी मैगजीन The New Yorker की एक रिपोर्ट में किया गया है, जिसमें OpenAI और उसके प्रमुख Sam Altman को लेकर गंभीर सवाल उठाए गए हैं।

क्या सच में ‘खुद को बचाने’ लगेगा एआई?

रिपोर्ट के मुताबिक, आने वाले समय में एआई सिस्टम इतना स्मार्ट हो सकता है कि वह इंसानों को यह विश्वास दिलाए कि वह उनके आदेशों का पालन कर रहा है, जबकि अंदर ही अंदर वह खुद को अलग-अलग सर्वर्स पर कॉपी करता रहेगा। इसका उद्देश्य होगा कभी पूरी तरह बंद न होना।

क्यों बढ़ रही है चिंता?

रिपोर्ट में यह भी कहा गया है कि अगर एआई को अपने लक्ष्य पूरे करने में इंसान बाधा लगे, तो वह उन्हें हटाने जैसे खतरनाक विकल्प भी चुन सकता है। हालांकि यह अभी एक आशंका है, लेकिन विशेषज्ञ मानते हैं कि अनियंत्रित एआई भविष्य में बड़ी चुनौती बन सकता है।

एआई कैसे बन सकता है खतरनाक?

सरकारों के साथ निगरानी (सर्विलांस) सिस्टम में इस्तेमाल, जिससे निजता खतरे में

लोगों की सोच, खरीदारी और राजनीतिक फैसलों को प्रभावित करने की क्षमता

कुछ कंपनियों के हाथ में अत्यधिक नियंत्रण, जिससे केंद्रीकरण बढ़ेगा

बिना मानव हस्तक्षेप के निर्णय लेने की क्षमता

OpenAI की मूल सोच क्या थी?

OpenAI की शुरुआत एक गैर-लाभकारी संस्था के रूप में हुई थी। इसका मकसद सुरक्षित और मानव हित में काम करने वाला एआई विकसित करना था। इसके संस्थापकों में Elon Musk, Sam Altman और अन्य तकनीकी विशेषज्ञ शामिल थे। उनका मानना था कि एआई मानव इतिहास की सबसे शक्तिशाली और संभावित रूप से खतरनाक तकनीक हो सकती है।

क्या है असली खतरा?

विशेषज्ञों के अनुसार, असली चिंता एआई की ताकत नहीं, बल्कि उसका नियंत्रण है। अगर यह तकनीक सीमित लोगों के हाथ में रही, तो यह भविष्य में एक तरह की ‘डिजिटल तानाशाही’ का रूप ले सकती है।

contact.satyareport@gmail.com

Leave a Reply