- November 14, 2023
तकनीक का (DEEP FAKE NEWS) दुरुपयोग मानवता के भविष्य के लिए खतरनाक?
तकनीक का (DEEP FAKE NEWS) दुरुपयोग मानवता के भविष्य के लिए खतरनाक?
तकनीक का दुरुपयोग मानवता के भविष्य के लिए खतरनाक?
डीपफेक तकनीक के तहत किसी फोटो या वीडियो में दूसरे का चेहरा लगा दिया जाता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस यानी एआइ का सहारा लिया जाता है। इसमें वीडियो और आडियो को साफ्टवेयर की मदद से ऐसे तैयार किया जाता है कि फेक भी रियल दिखने लगे। वायस क्लोनिंग की वजह से अब आवाज भी हुबहू कापी की जा सकती है. ऐसे कौन से तरीके हैं जिनसे एआई-हेरफेर डिजिटल मीडिया व्यक्तियों के जीवन को प्रभावित करने के साथ-साथ सार्वजनिक चर्चा को भी प्रभावित कर सकता है? इसे विभिन्न समूहों द्वारा कैसे नियोजित किया जाता है और समाज ‘सूचना महामारी’ से कैसे उबर सकता है? डीपफेक, हमें चेतावनी दी गई है और सरकारों, प्रौद्योगिकीविदों और बड़े पैमाने पर समाज के लिएअब जवाबी कदम उठाने का समय आ गया है। प्रौद्योगिकी के लोकतंत्रीकरण ने शरारती शौकीनों से लेकर साइबर अपराधियों तक सभी के लिए डीपफेक निर्माण के क्षेत्र में प्रवेश की बाधा को कम कर दिया है।
-प्रियंका सौरभ
डीपफेक डिजिटल मीडिया हैं – वीडियो, ऑडियो और छवियों को आर्टिफिशियल इंटेलिजेंस का उपयोग करके संपादित और हेरफेर किया जाता है। यह मूल रूप से अति-यथार्थवादी डिजिटल मिथ्याकरण है। डीपफेक व्यक्तियों और संस्थानों को नुकसान पहुंचाने के लिए बनाए जाते हैं। कमोडिटी क्लाउड कंप्यूटिंग तक पहुंच, सार्वजनिक अनुसंधान एआई एल्गोरिदम, और प्रचुर डेटा और विशाल मीडिया की उपलब्धता ने मीडिया के निर्माण और हेरफेर को लोकतांत्रिक बनाने के लिए एक आदर्श तूफान खड़ा कर दिया है। इस सिंथेटिक मीडिया सामग्री को डीपफेक कहा जाता है। दुष्प्रचार और अफवाहें महज झुंझलाहट से लेकर युद्ध तक विकसित हो गई हैं जो सामाजिक कलह पैदा कर सकती हैं, ध्रुवीकरण बढ़ा सकती हैं और कुछ मामलों में चुनाव परिणाम को भी प्रभावित कर सकती हैं। भू-राजनीतिक आकांक्षाओं, वैचारिक विश्वासियों, हिंसक चरमपंथियों और आर्थिक रूप से प्रेरित उद्यमों वाले राष्ट्र-राज्य अभिनेता आसान और अभूतपूर्व पहुंच और पैमाने के साथ सोशल मीडिया कथाओं में हेरफेर कर सकते हैं।
दुष्प्रचार के खतरे के पास डीपफेक के रूप में एक नया उपकरण है। पोर्नोग्राफी में डीपफेक के दुर्भावनापूर्ण उपयोग का पहला मामला सामने आया था। सेंसिटी.एआई के अनुसार, 96% डीपफेक अश्लील वीडियो हैं, अकेले अश्लील वेबसाइटों पर 135 मिलियन से अधिक बार देखा गया है। डीपफेक पोर्नोग्राफ़ी विशेष रूप से महिलाओं को लक्षित करती है। अश्लील डीपफेक धमकी दे सकते हैं, डरा सकते हैं और मनोवैज्ञानिक नुकसान पहुंचा सकते हैं। यह महिलाओं को भावनात्मक संकट पैदा करने वाली यौन वस्तुओं तक सीमित कर देता है, और कुछ मामलों में, वित्तीय नुकसान और नौकरी छूटने जैसे आकस्मिक परिणामों का कारण बनता है। डीपफेक एक दुर्भावनापूर्ण राष्ट्र-राज्य द्वारा सार्वजनिक सुरक्षा को कमजोर करने और लक्षित देश में अनिश्चितता और अराजकता पैदा करने के लिए एक शक्तिशाली उपकरण के रूप में कार्य कर सकता है। डीपफेक संस्थानों और कूटनीति में विश्वास को कम कर सकता है। डीपफेक का उपयोग गैर-राज्य अभिनेताओं, जैसे कि विद्रोही समूहों और आतंकवादी संगठनों द्वारा, अपने विरोधियों को भड़काऊ भाषण देने या लोगों के बीच राज्य-विरोधी भावनाओं को भड़काने के लिए उत्तेजक कार्यों में संलग्न दिखाने के लिए किया जा सकता है।
डीपफेक की एक और चिंता झूठे व्यक्ति का लाभांश है; किसी अवांछनीय सत्य को डीपफेक या फर्जी समाचार कहकर खारिज कर दिया जाता है। डीपफेक का अस्तित्व ही खंडन को अधिक विश्वसनीयता प्रदान करता है। नेता डीपफेक को हथियार बना सकते हैं और मीडिया के वास्तविक हिस्से और सच्चाई को खारिज करने के लिए फर्जी समाचार और वैकल्पिक-तथ्यों की कहानी का उपयोग कर सकते हैं। डीपफेक अल्पकालिक और दीर्घकालिक सामाजिक नुकसान भी पहुंचा सकता है और पारंपरिक मीडिया में पहले से ही घट रहे भरोसे को तेज कर सकता है। इस तरह का क्षरण तथ्यात्मक सापेक्षतावाद की संस्कृति में योगदान कर सकता है, जिससे नागरिक समाज का ताना-बाना तेजी से तनावपूर्ण हो सकता है।डीपफेक में किसी व्यक्ति को असामाजिक व्यवहार में लिप्त और घृणित बातें कहते हुए दर्शाया जा सकता है जो उन्होंने कभी नहीं किया। भले ही पीड़ित बहाना बनाकर या किसी अन्य तरीके से नकली को उजागर कर सकता है, प्रारंभिक नुकसान को ठीक करने के लिए यह समाधान बहुत देर से आ सकता है। डीपफेक न केवल व्यक्तिगत गोपनीयता का उल्लंघन करते हैं बल्कि प्रतिष्ठा को भी नुकसान पहुंचा सकते हैं, उत्पीड़न भड़का सकते हैं और झूठ का प्रचार कर सकते हैं। तदनुसार, चूंकि हम एक नया आईटी कानून बनाने के कगार पर खड़े हैं, इसलिए उनके खिलाफ हमारे कानूनी प्रयासों को मजबूत करना महत्वपूर्ण है।
इस समस्या के समाधान के लिए अधिक विस्तृत लेंस अपनाना भी उतना ही आवश्यक है, यह पहचानते हुए कि इसका प्रभाव और परिणाम तकनीकी क्षेत्रों से परे तक फैले हुए हैं। जबकि कानून और सामग्री हटाना तकनीक-सुविधा युक्त लिंग-आधारित हिंसा के खिलाफ हमारी लड़ाई के आवश्यक घटक हैं, हमें उपयोगकर्ताओं को डीपफेक जैसे सुरक्षा खतरों के अस्तित्व और खतरों के बारे में शिक्षित करने में भी समान रूप से निवेश करना चाहिए। व्यक्तियों को घातक नुकसानों से खुद को पहचानने और बचाने के लिए सशक्त बनाकर, हम अधिक ठोस बदलाव ला सकते हैं। अनुसंधान एक प्रभावी प्रतिक्रिया रणनीति का समान रूप से महत्वपूर्ण स्तंभ है। प्रमुख तकनीकी कंपनियों के नेतृत्व में डीप फेक डिटेक्शन चैलेंज जैसे सहयोगात्मक प्रयास तकनीकी समाधानों के लिए संसाधनों को एकत्रित करने के महत्व पर जोर देते हैं। यह महत्वपूर्ण है कि हम इस गति को जारी रखें और डीपफेक वक्र से आगे रहने के लिए गहन अनुसंधान और क्षमता निर्माण में निवेश करें।
एआई की विश्लेषणात्मक क्षमता से सशक्त, नवोन्मेषी पहचान प्रौद्योगिकियों का चल रहा विकास, डीपफेक के घातक प्रभाव को कम करने के लिए एक आशाजनक मार्ग प्रदान करता है। इसके साथ ही, शिक्षा के प्रति हमारी अटूट प्रतिबद्धता, डीपफेक तकनीक के अस्तित्व और संभावित खतरों के बारे में जागरूकता बढ़ाना, व्यक्तियों को इस डिजिटल खदान को विवेक और आलोचनात्मक सोच के साथ नेविगेट करने के लिए सशक्त बना सकता है।
समझदार जनता को तैयार करने के लिए मीडिया साक्षरता प्रयासों को बढ़ाया जाना चाहिए। उपभोक्ताओं के लिए मीडिया साक्षरता दुष्प्रचार और डीपफेक से निपटने का सबसे प्रभावी उपकरण है। ऑनलाइन सुरक्षा और सामग्री अखंडता को बढ़ाने की दिशा में हस्तक्षेप के अलावा, डीपफेक के बढ़ते खतरों से निपटने के लिए एआई की परिवर्तनकारी क्षमता का लाभ उठाना भी महत्वपूर्ण है। एआई, सिंथेटिक मीडिया बनाने और उसका पता लगाने की अपनी क्षमता के साथ, इस डिजिटल युद्ध के मैदान में दोधारी तलवार के रूप में उभरता है।
हमें दुर्भावनापूर्ण डीपफेक के निर्माण और वितरण को हतोत्साहित करने के लिए विधायी समाधान विकसित करने के लिए प्रौद्योगिकी उद्योग, नागरिक समाज और नीति निर्माताओं के साथ सहयोगात्मक चर्चा के साथ सार्थक नियमों की भी आवश्यकता है। सोशल मीडिया प्लेटफॉर्म डीपफेक मुद्दे का संज्ञान ले रहे हैं, और उनमें से लगभग सभी के पास डीपफेक के लिए कुछ नीति या उपयोग की स्वीकार्य शर्तें हैं। हमें डीपफेक का पता लगाने, मीडिया को प्रमाणित करने और आधिकारिक स्रोतों को बढ़ाने के लिए उपयोग में आसान और सुलभ प्रौद्योगिकी समाधानों की भी आवश्यकता है। डीपफेक के खतरे का मुकाबला करने के लिए, हम सभी को इंटरनेट पर मीडिया के महत्वपूर्ण उपभोक्ता होने की जिम्मेदारी लेनी चाहिए, सोशल मीडिया पर साझा करने से पहले सोचना और रुकना चाहिए, और इस ‘इन्फोडेमिक’ के समाधान का हिस्सा बनना चाहिए।
अंत में, और सबसे महत्वपूर्ण बात, हमें यह सुनिश्चित करना चाहिए कि हमारी प्रतिक्रियाएँ बचे हुए लोगों के अधिकारों और पुनर्प्राप्ति को प्राथमिकता दें। उत्तरजीवी-केंद्रित दृष्टिकोण केवल कानूनी कार्रवाई या सामग्री को हटाने के बारे में नहीं है; यह पीड़ितों को ठीक होने और आत्मविश्वास से ऑनलाइन फिर से जुड़ने में मदद करने के बारे में है। ऑनलाइन सुरक्षा और सामग्री अखंडता को बढ़ाने की दिशा में हस्तक्षेप के अलावा, डीपफेक के बढ़ते खतरों से निपटने के लिए एआई की परिवर्तनकारी क्षमता का लाभ उठाना भी महत्वपूर्ण है। एआई, सिंथेटिक मीडिया बनाने और उसका पता लगाने की अपनी क्षमता के साथ, इस डिजिटल युद्ध के मैदान में दोधारी तलवार के रूप में उभरता है। एआई की विश्लेषणात्मक क्षमता से सशक्त, नवोन्मेषी पहचान प्रौद्योगिकियों का चल रहा विकास, डीपफेक के घातक प्रभाव को कम करने के लिए एक आशाजनक मार्ग प्रदान करता है। इसके साथ ही, शिक्षा के प्रति हमारी अटूट प्रतिबद्धता, डीपफेक तकनीक के अस्तित्व और संभावित खतरों के बारे में जागरूकता बढ़ाना, व्यक्तियों को इस डिजिटल खदान को विवेक और आलोचनात्मक सोच के साथ नेविगेट करने के लिए सशक्त बना सकता है।