नए युग का डिजिटल विज्ञान और नैतिकता

राजपाल सिंह राठौर

Update: 2023-12-28 20:11 GMT

डिजिटल दुनिया के इस युग में हम सदी के सबसे बड़े परिवर्तन को निकटता से देखने वाली पीढ़ी है। हमने रेडियो, टीवी, टेप रीकॉर्डर से लेकर फ्लापी डिस्क भी देखी है। जेब में चवन्नी-अठन्नी लेकर चलने वाली हमारी पीढ़ी आज डिजिटल पेमेंट के युग में जी रही है। हम द्रुत गति से बदलती इस दुनिया को निकटता से देख रहे हैं। इस आधुनिक डिजिटल दुनिया में सब कुछ बहुत आसान दिखता है, चुटकियों में जानकारी उपलब्ध हो जाती है और मिनटों में कोई बात पूरी दुनिया में पहुँच जाती है। विगत कुछ दिनों से हम इसी डिजिटल युग में एक नाम बार-बार सुन रहे हैं, आर्टिफिशियल इंटेलिजेंस। वैज्ञानिकों और इंजीनियरों द्वारा विकसित एक कृत्रिम बुद्धि (आर्टिफिशियल इंटेलिजेंस) है जो मानव के समान सोचने और कार्य करने की क्षमता वाली मशीनों का निर्माण करती है जिसका उपयोग छोटे स्तर पर जीवन के लगभग हर क्षेत्र में होना शुरू हो चुका है। स्व-चालित कार, सुरक्षा, स्वास्थ्य, शिक्षा, फिल्म और कला जगत से लेकर दैनिक जीवन के कई काम और कृषि के क्षेत्र में भी आने वाले लगभग पाँच वर्षों में हर गाँव तक यह तकनीक पहुँचने वाली है।

इसी आर्टिफिशियल इंटेलिजेंस क्षेत्र की एक महत्वपूर्ण तकनीक चैटजीपीटी एक ऐसा मॉडल है जो एक संवादात्मक तरीके से हमसे बात करता है। इस चैटबॉट को पहले से ही बहुत सारे शब्दों और वाक्यों से सीखने के लिए प्रशिक्षित किया गया है जिससे यह नए वाक्य को उत्पन्न कर सकता है। यह चैटबॉट विभिन्न भाषाओं में बातचीत कर सकता है और विभिन्न विषयों पर जानकारी दे सकता है।

आर्टिफिशियल इंटेलिजेंस क्षेत्र का एक और आविष्कार है डीपफेक टेक्नोलॉजी, जिसका तात्पर्य कृत्रिम मीडिया से होता है, जिसमें एक मौजूदा छवि या वीडियो में एक व्यक्ति की जगह किसी दूसरे को लगा दिया जाता है और उसमें इतनी समानता होती है कि उनमें अंतर करना कठिन हो जाता है। इस तरह के फोटो-वीडियो में छुपी हुई परतें होती हैं जिन्हें सिर्फ एडिटिंग सॉफ्टवेयर से ही देखा जा सकता है। एक वाक्य में कहें तो डीपफेक, वास्तविक फोटो-वीडियो को बेहतर नकली फोटो-वीडियो में बदलने की एक प्रक्रिया है। डीपफेक फोटो-वीडियो नकली होते हुए भी वास्तविक ही नजर आते हैं।

अत: डीपफेक टेक्नोलॉजी का उपयोग कुछ गलत उद्देश्यों के लिए भी किया जा रहा है, जैसे कि फेक न्यूज, ब्लैकमेलिंग, हैकिंग, आदि। डीपफेक टेक्नोलॉजी से किसी भी व्यक्ति का वीडियो बनाया जा सकता है, जिसमें वह कुछ भी कहता है या करता है, जो उसके वास्तविक व्यक्तित्व से भिन्न हो। डीपफेक टेक्नोलॉजी से किसी भी व्यक्ति का अश्लील वीडियो बनाया जा सकता है, जिससे उसकी सामाजिक छवि बिगाड़ी जा सकती है। यह तकनीकी युग बहुत उम्मीदों भरा है परंतु इन आधुनिक तकनीकों के साथ कितनी गंभीर समस्याएं आने वाली है इसकी कल्पना आप इसी बात से लगा सकते हैं मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस को लेकर पूरी दुनिया में कानून बनाने की मांग जोर पकड़ने लगी है। इसी वर्ष अगस्त के महीने में यूरोप महासंघ ने आर्टिफिशियल इंटेलिजेंस के उपयोग पर निगरानी रखने के लिए कानून बनाया है। जून 2023 में भारत सरकार ने भी आर्टिफिशियल इंटेलिजेंस के उपयोग को लेकर डिजिटल इंडिया बिल लाने की चर्चा शुरू की है। मशीन लर्निंग तकनीक के इस युग में बहुत बड़ी समस्या इस बात को लेकर भी आने वाली है की दैनिक दिनचर्या की नौकरियों का लगभग सारा काम आने वाले समय में मशीन से होने वाला है और दुनिया का एक बड़ा वर्ग बेरोजगार होने वाला है। दुनिया भर में छोटे उद्योगों को बचाने के लिए संघर्ष होगा, सब कुछ मशीन आधारित हो जाने से मनुष्य अत्यधिक आलसी प्रवृत्ति का हो जाएगा और भविष्य में सामाजिक जीवन में नीरसता बढ़ेगी तथा परिवार से ज्यादा मशीनों के साथ मनुष्य अपना समय बिताएगा।

आर्टिफिशियल इंटेलिजेंस का जितना ज्यादा उपयोग होगा, मशीन उतना ज्यादा प्रशिक्षित होती चली जाएगी और आने वाले समय में मशीन मनुष्य के बराबर आ कर खड़ी हो जाएगी। आधुनिक तकनीक का यह युग बहुत ही जिम्मेदारी से आगे बढ़ने का है। हमारी थोड़ी सी चूक भविष्य में बड़े खतरे को पैदा कर सकती है। युवा पीढ़ी विशेष रूप से इस बदलते युग की धुरी है। युवा पीढ़ी की चारित्रिक और नैतिक समझ यह तय करेगी कि नवयुग की इन तकनीकों का समाज जीवन पर कितना सकारात्मक परिवर्तन देखने को मिलेगा।

मशीन की महानता मनुष्य से बढ़कर ना हो, मशीन का अधिकार मनुष्य पर ना हो। सृष्टि के सृजन से लेकर सतयुग, त्रेता युग, द्वापर युग और अब कलियुग के इस काल तक जब-जब मनुष्य ने विवेकपूर्ण आविष्कार किए हैं तो उससे प्राणीमात्र का भला ही हुआ है। जिम्मेदारी सम्मत, विवेक सम्मत तकनीक आविष्कार और नैतिकता से उनका उपयोग मानव जीवन के सभी अंगों के लिए उपयोगी सिद्ध होते हैं।

(लेखक राष्ट्रीय युवा सलाहकार समिति भारत सरकार के सदस्य हैं)

Similar News