December 22, 2024

Deepfake डीपफेक की दुनिया

Deepfake photo of USA President Barack Obama
Deepfake , We can see the difference between original and artificial picture made by deepfake technology
Courtesy -Digital media society and culture

What is Deepfake यदि आप स्वयं को उस रूप में देखें जिस रूप में आप थे ही नही या स्वयं को ऐसे क्रिया कलाप करते हुए या बात कहते हुए देखें जिसे आप ने वास्तव में किया ही नही या कहा ही नही, तो फिर आप को न केवल बहुत आश्चर्य होगा वरन् इसे आप संकट में भी पड़ सकते हैं। किन्तु वर्तमान में ऐसी तकनीक आ गयी है । इसके माध्यम से विविध ढंग के मैनिपुलेशन करना संभव हो गया है। इसे डीपफेक तकनीक कहते हैं। 

          अभी तक फेक समाचार के बारे में हम सुनते रहे हैं , किन्तु वर्तमान में डीपफेक पद काफी अधिक चर्चा में है। इसने अनेक प्रकार से सकारात्मक उम्मीद के साथ तमाम नकारात्मक शंकाओं को भी को जन्म दिया है। यह पद दो शब्द डीप एवं फेक को मिला करके बनाया गया है। डीप से आशय डीप लर्निंग और फेक अर्थ झूठ से सम्बन्धित है। जैसा कि हम जानते है कि डीप लर्निंग एक उन्नत आर्टिफिशियल इंटेलिजेंस (एआई) पद्धति है। इसकी मदद से किसी भी प्रकार के आडियो, वीडियो, फोटो के स्वरूप में बहुत ही जबरदस्त ढंग से या कहें कि बारीकी के साथ बदलाव किया जा सकता है। इस प्रकार के परिवर्तन का इस्तेमाल किसी व्यक्ति के चेहरे उसकी आवाज आदि में उसके मूल रूप में रखते हुए उसे मनमाफिक ढंग से प्रस्तुत किया जा सकता है। अर्थात् कोई व्यक्ति जो कुछ नही कहा है या किया है उसे डीपफेक की मदद से वैसा कहते एवं करते हुए दिखाया जा सकता है।

इसे भी पढ़ें- Modi in Branding India in political communication भारत की ब्रांडिंग में मोदी की भूमिका

कैसे बनता है डीपफेक वीडियो Deepfake video

         डीप फेक बनाने के लिए मशीन लर्निंग एल्गोरिद्म का विशेष ढंग से उपयोग किया जाता है। यह आर्टिफीसियल इन्टेलीजेंस अर्थात् एआई उस डेटा या सामग्री का भी इस्तेमाल कर सकती है जो कि अपने आप में बहुत सुव्यस्थित नही है। इस एआई की मदद से उसे एक वॉंछित रूप दिया जा सकता है या कहें कि उसमें बदलाव किया जा सकता है। उदाहरण के लिए जैसे किसी मानव के मूल चेहरा या उसकी चाल का डेटा ले करके यह फिर इसका इस्तेमाल अपने ढंग से किया जा सकता है। हम यह कह सकते हैं कि इनपुट ग्रुप में दिए गए आडियो, वीडियो में जबरदस्त तरीके से बदलाव करने के लिए यह मशीन लर्निंग एल्गोरिदम का उपयोग किया जाता है

News  deepfake cyber crime

इसे पढ़ें- किसे कहते हैं रंग संचार

           डीपफेक के अन्तर्गत वीडियो, आडियो, फोटो डेटा को जेनरेटिव एडवरसैरियल नेटवर्क के माध्यम से डीपफेक वीडियो बनाने के लिए इस्तेमाल किया जाता है। यह नेटवर्क मशीन लर्निंग में हाल में बनायी गयी है। यह किसी आडियो, वीडियो डेटा में परिवर्तन का एक तरीका है। वे किसी भी डेटा को उसके मूल गुणों के साथ तत्काल नए डेटा बना सकते हैं। जैसे एक व्यक्ति के साधारण फोटो को हॅसते या कुछ कहते हुए प्रस्तुत किया जा सकता है। वे ऐसी छवियां भी बना सकते हैं जो मानव चेहरों की तस्वीरों की तरह दिखती हैं, भले ही चेहरे किसी वास्तविक व्यक्ति के न हों। अब इसमें अपने ढंग से भाव या संकेत बना कर प्रस्तुत कर सकते है।

डीपफेक Deepfake के उदाहरण

डीपफेक के विविध उदाहरण सामने आते रहते हैं। विविध टीवी चैनलों पर एवं सोषल मीडिया नेताओं एवं अन्य सेलीब्रिटीज के मूल चेहरे के साथ उन्ही की आवाज में इच्छानुसार बातें कहते हुए दिखाया जा सकता है। वर्तमान में सोशल मीडिया पर देवी, देवताओं को भी कुछ कहते हुए प्रस्तुत किया जाता है। कुछ समय पहले  यूएसए के पूर्व राष्ट्रपति ओबामा फेसबुक के मालिक मार्क जुकरबर्ग का डीपफेक काफी चर्चित रहा।

डीपफेक Deepfake का दुरुपयोग

यदि कोई डीपफेक इमेज या वीडियो बहुत सही नही बना है तो भी वह लोगों को धोखा देने के लिए पर्याप्त है। जब तक इसका विश्लेषण करके सच्चाई का पता लगाया जाये, तब तक उसे लाखों लोग देख चुके होते हैं। इसकी मदद से न जाने कितने लोगों के अश्लील फिल्मे बना करके उसे लाखों लोगों तक पहुॅचा दिया गया है। इसी प्रकार से बहुत से फिल्मी अभिनेत्रियों के पोर्न फिल्में बना करके पोस्ट कर दिये गये हैं। इस तकनीक का इस्तेमाल करके किसी नेता या अन्य व्यक्ति की पूरी स्पीच बदली जा सकती है। यह सुनने में उस व्यक्ति के ही लगेगी , किन्तु उसके कन्टेन्ट हम अपने ढंग से बना सकते है। अर्थात् जो दूसरे व्यक्ति की आवाज देते हुए हम मनमानी बातें कह सकते है।

AI Commentary खेल कमेंट्री में आर्टिफिशियल इंटेलिजेंस का उपयोग

डीप फेक Deepfake से खतरें-

Dangers from deep fake डीपफेक तकनीक का इस्तेमाल वर्तमान में विविध प्रकार से अपराध करने के लिए किया जा रहा है। इसकी मदद से लोग व्यक्तिगत् दुश्मनी भी निकाल रहे हैं। एक समाचार के अनुसार कम्पनी के बड़े अधिकारी  की डीपफेक आवाज के माध्यम से उसी कम्पनी के दूसरे कर्मचारी को निर्देश दे करके एक बहुत बड़ी राशि का ट्रांसफर करवा दिया गया। यह आवाज इतनी अधिक विश्वसनीय थी कि उसके प्रति कर्मचारी को किसी प्रकार का कोई आशंका करने की कोई बात ही नही थी। अतः उसने इसे चेक नही किया। जब उसने दुबारा वही कार्य करने के लिए निवेदन किया तब उसे शंका हुई। तब अलार्म बजा, किन्तु तब तक देर हो चुका था। भारत में अभी तक तो लोग दूसरे का नाम एवं मेल का इस्तेमाल करके धोखा दे करके पैसे की मॉग करते रहे थे। किन्तु अब दूसरे की आवाज की हूबहु नकल करके भी ठगने के लिए फोन किया जाता है।   

https://www.theverge.com/tldr/2018/4/17/17247334/ai-fake-news-video-barack-obama-jordan-peele-buzzfeed  

        डीप फेक तकनीक द्वारा विविध प्रकार से ब्लैकमेल भी किये जाने के भी खतरे बन रहे हैं। इसका दुरूपयोग करके किसी न किसी बहाने कम्पनियों से वसूली की जा सकती है। इसी प्रकार से कम्पनी के बड़े अधिकारी बन करके अपने कर्मचारियों से विविध प्रकार की सूचनाएं प्राप्त की जा सकती है। इस प्रकार की सूचनाए या पासवर्ड हैकर के पास भी जा सकती है। वे महत्वपूर्ण डेटा को नुकसान कर सकते है। जैसे जैसे इस प्रकार की तकनीक का लोगों के बीच प्रसार होता जायेगा, उसी के साथ इसके दुरूपयोग की आशंका भी बढ़ती जा रही है। फिर बड़ी संख्या में विविध प्रकार के मामले आ सकते हैं।

 डीपफेक Deepfake के सन्दर्भ में कानून –

डीपफेक से बचाव करना एवं इस सन्दर्भ में कानून बनाने की सख्त और श्रद्धा हो गयी है। कुछ देशों में इसके बारे में कानून बनाया पास किया गया है। किन्तु ऐसे कानून अभी प्रभावी नही साबित हो रहे हैं। भारत में भी डीपफेक को ले करके अभी तक कोई कानून नही बनाया गया है। इसके इस्तेमाल करने के तौर तरीके के आधार पर केवल मानहानि या अन्य अपराध सम्बन्धी वर्तमान कानून में मुकदमें किया जा सकते है।

डीप फेक से पहचान कैसे करें – Deepfake

अभी डीप फेक में कुछ इस प्रकार की बातें हैं, जिससे कि डीपफेक वीडियो आदि की पहचान की जा सकती है। इसमें वीडियो में जर्क, एक फ्रेम से दूसरे फ्रेम पर जाने के दौरान प्रकाष एवं त्वचा के टोन में बदलाव, ऑख की पलकों का अजीब ढंग से गिरना एवं उठना ओठ का सही प्रकार से नही हिलना आदि बातें शामिल है। किन्तु इस ढंग की बातों को पकड़ने पर बहुत ध्यान नही जाता है। सामान्यतया एक व्यक्ति आडियो वीडियो पर उतना ध्यान नही देता है। दूसरी तरफ, तकनीक के सुधार के साथ ही ऐसी की त्रुटियां कम से कम होती जा रही है। अतः फेक वीडियो या आडियो की पहचान हेतु विशेषज्ञ की ही मदद लेने की आवश्यकता होती है।

डीप फेक रोकने हेतु ऐन्टिफेक तकनीक का उपयोग 

         वैज्ञानिक वर्तमान में ऐसे उपकरण बना रहे हैं जो एआई फर्जीवाड़े का पता लगा सकते हैं, लेकिन फिलहाल, इस प्रकार की गलत सूचना के खिलाफ सबसे अच्छी बचाव हर किसी को मीडिया के प्रति थोड़ा अधिक जागरूक बनाना है। वर्तमान में कुछ इस प्रकार की तकनीक आ गयी है जो कि वीडियो निर्माताओं को उसके अपने वीडियो के प्रामाणित करने की सुविधा प्रदान करता है। इससे जब कभी वीडियों में बदलाव किया गया रहता है तो फिर उसे पकड़ने में मदद मिलेगी। वीडियो के दौरान निर्धारित अंतराल पर हैश डालने के लिए एक क्रिप्टोग्राफिक एल्गोरिदम का उपयोग किया जा सकता है। यदि वीडियो बदल दिया जाता है, तो हैश बदल जाएगा।

हैशिंग एक क्रिप्टोग्राफिक तकनीक है जो किसी भी प्रकार के डेटा को एक विशेष टेक्स्ट स्ट्रिंग में बदल देती है।  यह वाटरमार्क की तरह कहा जा सकता है। किन्तु इसमें अभी कुछ प्रकार की समस्या भी है। जब कभी वीडियो को दूसरे कोड के साथ कम्प्रेस किया जाता है तो फिर एक निश्चित समय पर पोस्ट किये गये हैश बदल जाता है।

          इसी प्रकार से डीपफेक से बचने के लिए ऐसे प्रोग्राम इस्तेमाल किया जा सकते हैं जिससे वीडियो का पिक्सल का पैटर्न छिप जाता जाता है। इसी पिक्सल पैटर्न का ही डीपफेक साफ्टवेयर इस्तेमाल करता है। उसके न ज्ञात होने पर वह सही डीपफेक नही कर सकता है। इससे गुणवत्ता वाला डीपफेक वीडियो बनाना संभव नही हो पाता है।

लोगों में Deepfake के बारे में जागरूकता उत्पन्न करना

                डीपफेक से बचने का आशय उस फर्जी बात एवं संदेशसे बचना जो कि किसी व्यक्ति को वास्तविक बना करके प्रस्तुत किये जाते है। डीपफेक जालसाजी से बचने की बहुत जबरदस्त आवश्यकता है। किसी भी प्रकार की जानकारी आदि के लिए कुछ भी कन्टेन्ट लिए जाये वह सही स्रोत से हो। किसी भी प्रकार के कन्टेन्ट पर विश्वास करने के साथ ही उसे जॉंच भी करने की आदत होनी चाहिए। इसके लिए जरूरी है कि कम्पनियों में कर्मचारी डीपफेक के बारे में एक समझ रखे जिससे कि वे जब कभी इस प्रकार की स्थिति आये तो फिर वे उसे भॉप सके । इसकी पहचान के बारे में सबको शिक्षित करने की भी आवश्यकता है।

            किसी भी प्रकार के मैसेज के प्रति एक सन्देहपूर्ण ऑख मूॅद करके विश्वास करने की जगह उसके प्रति सावधान होना चाहिए।  साइबर सुरक्षा के अन्तर्गत मजबूत पासवर्ड, भिन्न भिन्न एकाउंन्ट के लिए भिन्न भिन्न पासवर्ड का इस्तेमाल किया जाना चाहिए। होम नेटवर्क की सुरक्षा के लिए विविध प्रकार के पैकज भी आ गये है। इसमें एन्टिवायरस साफ्टवेयर आ गये । इससे मोबाईल टैबलेट एवं होमनेटवर्क की सुरक्षा की जा सकती है।  जब कभी किसी संबंधी की आवाज में फोन आए और उसमें किसी प्रकार की पैसे आदि की मांग की गई हो तो फिर उसके परिचित फोन पर वापस फोन करके मोस्ट वेरिफिकेशन जरूर करना चाहिए ।

        डीपफेक तकनीक अन्य प्रकार के तकनीक की तरह से लगातार विकसित हो रही है। पहले भी डीपफेक वाले वीडियो आते थे। उनकी तकनीकी गुणवत्ता कम होती थी। उसमें कुछ इस ढंग की खामियॉं होती थी जिससे उसकी बहुत ही आसानी के साथ पहचान की जा सकती थी। किन्तु अब ऐसे डीप फेक वीडियो पहचान करना आसान नही है। इसकी संख्या में लगातार बढ़ोत्तरी होती जा रही है। तकनीक की सहुलियत और लोगों द्वारा इसे सीख लेने के पश्चात आने वाले दिनों में इसकी संख्या बढ़ने की आशंका है। इसमें बहुत तो सिर्फ व्यॅग्य के लिए भी बनाये जाते हैं । किन्तु कुछ एक खास उद्देश्यको ध्यान में रख करके बनाये जाते हैं। अतः सावधानी एवं जागरूकता अपनाना ही बचाव का एक रास्ता है।

https://edition.cnn.com/interactive/2019/01/business/pentagons-race-against-deepfakes/

error: Content is protected !!