Deepfake Cheats : डीपफेक पर नियंत्रण को सरकारी सख्ती जरूरी
Deepfake Cheats: Government strictness is necessary to control deepfakes
Deepfake Cheats : डीपफेक व्यक्तिगत जीवन से आगे बढ़ कर अब राजनीतिक एवं वैश्विक सन्दर्भों के लिये एक गंभीर खतरा बनता जा रहा है। इक्कीसवीं सदी में कृत्रिम बौद्धिकता (आर्टिफ़िशियल इंटेलिजेंस या एआई) तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है, एआइ के जरिए डीपफेक वीडियो बनाकर सोशल मीडिया पर वायरल किए जा रहे हैं।
गलत सूचनाएं, ऑडियो-वीडियो और तस्वीरें फैलाने वालों के हाथों में एआइ ने खतरनाक उस्तरा थमा दिया है, जो राष्ट्रीय सुरक्षा एवं राजनीतिक मुद्दों के साथ व्यक्तिगत छवि को घूमिल करने का यह हथियार अनेक चिन्ताओं को बढ़ा रहा है और बड़े संकट का सबब बनता जा रहा है। डीपफेक ने प्रधानमंत्री नरेंद्र मोदी को भी नहीं बक्शा है, उन्हें भी परेशान कर दिया है।
उनका एक वीडियो इन दिनों यू-ट्यूब सहित सभी सोशल मीडिया प्लेटफॉर्म्स पर खूब चर्चित हो रहा है, इसमें उनको गरबा करते दिखाया गया है। ये पूरा वीडियो डीपफेक नाम की आर्टिफिशियल इंटेलिजेंस से तैयार किया गया है। इसी तरह देश एवं विदेश की अनेक हस्तियों के अनेक अश्लील एवं राजनीतिक डीपफेक व्यापक स्तर पर प्रसारित हो रहे हैं।
डीपफेक एक ऐसी तकनीक है जिसमे आप कृत्रिम बौद्धिकता की मदद एवं तकनीक से वीडियो, तस्वीरों और ऑडियो में हेरफेर कर सकते है। इस तकनीक की मदद से आप किसी दूसरे व्यक्ति की फ़ोटो या वीडियो पर किसी और का चेहरा लगाकर उसे पूरी तरह से बदल भी सकते है। एक रिपोर्ट के अनुसार इसका सबसे ज्यादा इस्तेमाल लगभग 96 प्रतिशत के आसपास अश्लील सामग्री बनाने में होता है।
कुछ लोग इसका इस्तेमाल अपने मर चुके रिश्तेदारों की तस्वीरों को ऐनिमेट करने में भी करते हैं लेकिन अब डीपफेक कंटेंट का इस्तेमाल देश एवं विदेश की राजनीति में भी होने लगा है। राजनीतिक पार्टियाँ अपने चुनावी प्रचार में इस तकनीक का जमकर इस्तेमाल कर रही है। आम जनता को गुमराह करने एवं बड़ी हस्तियों की छवि एवं प्रतिष्ठा को धूमिल करने में अब इस तकनीक का व्यापक उपयोग होने लगा है।
अनेक फिल्मी हस्तियों विशेषतः हीराइनों की अविश्वसनीय अश्लील एवं नग्न वीडियो बड़ी संख्या में आनलाइन आसानी से देखी जा सकती है। पब्लिक प्लैटफॉर्म्स पर मौजूद फोटोज की मदद से आसानी से डीपफेक विडियो बनाया जा सकता है। ऐसे वक्त में जब कोई नौसिखिया भी आसानी से फर्जी विडियो बनाकर सच और झूठ का फर्क मिटा सकता है, किसी भी विडियो पर झट से भरोसा ना करें क्योंकि डीपफेक विडियोज से घिरी वर्चुअल दुनिया में आंखों देखा सबकुछ हमेशा सच नहीं होता।
देश-विदेश में कई प्रतिष्ठित हस्तियां डीपफेक वीडियो का शिकार हो चुकी हैं। कई विदेशी हस्तियों के भी डीपफेक वीडियो सामने आ चुके हैं। यूक्रेन के राष्ट्रपति व्लादिमीर जेलेंस्की के डीपफेक वीडियो में तो वे रूस से लड़ रही अपनी सेना को सरेंडर करने के लिए कह रहे हैं। इजरायल-हमास युद्ध के भी कई डीपफेक वीडियो सोशल मीडिया पर वायरल हो चुके हैं। तभी प्रधानमंत्री नरेंद्र मोदी ने भी डीपफेक को देश के लिए सबसे बड़े खतरों में से एक बता इसके खिलाफ जनता को शिक्षित एवं सावधान करने पर जोर दिया है।
भारत के लिये बड़ा खतरा
भारत के लिये यह बड़ा खतरा इसलिये भी है कि भारत विविधता वाला देश है, यहां की जनता छोटी-छोटी बातों पर भावुक एवं भड़क जाती है। असली एवं नकली यानी डीपफेक का पता लगाने के लिये सतर्कता एवं सावधानी बरतने की अपेक्षा है। अगर वीडियो में आँख और नाक कहीं और जा रही है या वीडियो में पलक नहीं झपकाई गई है तो समझ जाइए यह डीपफेक कंटेंट है। कंटेंट की कलरिंग को भी देखकर पता लग सकता है कि तस्वीर या वीडियो में छेड़छाड़ हुई है।
ढेरों चर्चित महिला हस्तियों एवं सिने कलाकारों के चेहरे डीपफेक टेक की मदद से पॉर्न वीडियोज पर लगाकर उन्हें ऑनलाइन शेयर किया जा रहा है। पॉप्युलर अमेरिकन अडल्ट साइट की ट्रेंडिंग टैग्स रिपोर्ट दिखाती है कि ऐसे वीडियोज पिछले कुछ महीने में तेजी से चर्चित हुए हैं और इन्हें व्यापक रूप में सर्च किया जा रहा है या देखा जा रहा है। इस टेक से किसी का फेक न्यूड वीडियो बनाकर उसे ब्लैकमेल भी किया जा सकता है और ऐसे मामले सामने आए भी हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे यह टेक्नॉलजी पॉप्युलर होगी, इसका गलत इस्तेमाल और ऐसे क्राइम भी बढ़ते जाएंगे।
कृत्रिम बुद्धि का नाम दिया
कृत्रिम बुद्धि, कंप्यूटर विज्ञान की एक शाखा है जो मशीनों और सॉफ्टवेयर को बुद्धि के साथ विकसित करता है। 1955 में जॉन मैकार्थी ने इसको कृत्रिम बुद्धि का नाम दिया और उसके बारे में ‘यह विज्ञान और इंजीनियरिंग के बुद्धिमान मशीनें बनाने के’ के रूप परिभाषित किया। कृत्रिम बुद्धि अनुसंधान के लक्ष्यों में तर्क, ज्ञान की योजना, सीखने, धारणा और वस्तुओं में हेरफेर करने की क्षमता, आदि शामिल हैं।
वर्तमान में, इस लक्ष्य तक पहुंचने के लिए सांख्यिकीय विधियों, कम्प्यूटेशनल बुद्धि और पारंपरिक खुफिया शामिल हैं। कृत्रिम बुद्धि का दावा इतना है कि मानव की बुद्धि का एक केंद्रीय संपत्ति एक मशीन द्वारा अनुकरण कर सकता है। बिजली के बल्ब और मूवी कैमरे के आविष्कारक थॉमस अल्वा एडिसन ने कहा था कि हर नई तकनीक सुविधाओं के साथ कुछ नकारात्मक पहलू भी लाती है। नित नई तकनीक के दौर से गुजर रही दुनिया में उनका कथन प्रासंगिक बना हुआ है। कृत्रिम बौद्धिकता तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है।
डीपफेक टेक्नॉलजी (Deepfake Technology)
किसी भी बात या घटना के सच होने का सबसे बड़ा सबूत उसके किसी विडियो को माना जाता रहा है लेकिन अब चीजें बदल गई हैं। आंखों देखी पर और किसी भी तरह के डिजिटल फोटो या विडियो पर भरोसा नहीं किया जा सकता। डीपफेक टेक्नॉलजी की मदद से ऐसे वीडियो बनाए जा सकते हैं कि बड़े-बड़े एक्सपर्ट्स भी गच्चा खा जाएं। सामान्य इंटरनेट यूजर शायद ही समझ पाए कि विडियो डीपफेक है और उसमें दिखने वाला शख्स कोई और है। यह टेक्नॉलजी वीडियोज के साथ बिल्कुल वैसे ही काम करती है, जैसा फोटो के लिए फोटोशॉप करता है।
रश्मिका मंदाना का वीडियो वायरल (Rashmika Mandanna video viral)
सोशल मीडिया पर अभिनेत्री रश्मिका मंदाना का एक वीडियो वायरल हो रहा है, यह वीडियो फेक (डीपफेक) है। दरअसल इस वीडियो को लेकर मेगा स्टार अमिताभ बच्चन ने भी चिंता जताई है। इस डीपफेक वीडियो पर दिल्ली महिला आयोग ने स्वतः संज्ञान लेते हुए दिल्ली पुलिस में मामला दर्ज कराया है। इस मामले में एक गिरफ्तारी भी हो चुकी है।
सेहत एवं समृद्धि का अनमोल उपहार है मुस्कान
काजोल भी हुईं डीपफेक की शिकार (Deepfake Cheats)
अब काजोल का भी डीपफेक सोशल मीडिया पर आ गया है। इसमें उनको कपड़े बदलते दिखाया गया है। इसमें ओरिजनल वीडियो ब्रिटिश सोशल मीडिया इन्फ्लुएंसर रोजी ब्रीन का है। उन्होंने ये वीडियो टिकटॉक पर ‘गेट रेडी विद मी’ सीरीज के लिए बनाया था। भारत में डीपफेक तकनीक का दुरुपयोग रोकने और फर्जी वीडियो की पहचान के लिए बेहतर प्रौद्योगिकी विकसित करने की जरूरत है।
वीडियो पर अंकुश के लिए कोई बड़ी पहल नहीं (Deepfake Cheats Videos)
चिंता की बात है कि सोशल मीडिया मंचों और टेक कंपनियों ने डीपफेक वीडियो पर अंकुश के लिए कोई बड़ी पहल नहीं की है। लेकिन भारत सरकार इस मुद्दे पर इसकी घातकता को देखते हुए गंभीर है। सरकार इंटरनेट इस्तेमाल करने वाले सभी डिजिटल नागरिक की सुरक्षा और भरोसे को सुनिश्चित करने को लेकर प्रतिबद्ध हैं। सरकार ने सोशल मीडिया कंपनियों को गलत सूचनाओं, डीपफेक, अन्य अवांछित सामग्री की पहचान कर 36 घंटे के अंदर उन्हें हटाने के निर्देश दिए जा चुके हैं।
Israel-Hamas War : मानवता पर बढ़ता खतरा
सरकार हुई सख्त (Deepfake Cheats)
सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने साफ कह दिया कि सोशल मीडिया प्लेटफॉर्म अगर डीपफेक कंटेंट को हटाने के लिए पर्याप्त कदम नहीं उठाते हैं तो उन्हें मिलने वाले संरक्षण को वापस ले लिया जाएगा। कई देशों की सरकारें डीपफेक के नियमन की तैयारी में हैं। कुछ अमरीकी राज्यों में बगैर सहमति डीपफेक बनाने को अपराध घोषित किया जा चुका है। यूरोपीय देशों में भी कानून बनाने की तैयारी चल रही है। सिर्फ कानून बनाने से समस्या से पार पाना संदिग्ध है। जरूरत ऐसे तंत्र की है, जो डीपफेक की सतत निगरानी रख अवांछित सामग्री फैलाने के सभी रास्ते बंद रखे।
प्रेषकः
(ललित गर्ग)
लेखक, पत्रकार, स्तंभकार
ई-253, सरस्वती कंुज अपार्टमेंट
25 आई. पी. एक्सटेंशन, पटपड़गंज, दिल्ली-92
फोनः 22727486, 9811051133