आज तकनीक और इंटरनेट की मदद से जो कुछ भी हम पढ़ रहे हैं, सुन रहे हैं या देख रहे हैं उसका सौ फ़ीसदी सच होना ज़रूरी नहीं है। जिस प्रकार कई बार झूठी ख़बर बनाकर या ख़बरों को भ्रामक तरीक़े से लोगों के सामने इंटरनेट की मदद से परोसा जाता है, वैसे ही वीडियो भी पहुंचाए जाते हैं। इसे डीपफेक कहते हैं, जिसमें असल और नक़ल की पहचान करना बेहद मुश्किल होता है। डीपफेक का उपयोग करके मीडिया कंटेन्ट जैसे तस्वीर, ऑडियो व वीडियो की परिवर्तित कॉपी तैयार की जाती है, जो वास्तविक कंटेन्ट की तरह ही दिखता है।
बॉलीवुड के दिग्गज अभिनेता अमिताभ बच्चन की पोती 11 वर्षीय आराध्या के स्वास्थ्य के बारे में झूठी खबर, मध्यप्रदेश के पूर्व मंत्री अजय विश्नोई के बारे में झूठी खबर, पोप का झूठा चित्र, या ओबामा और ट्रम्प के झूठे साबित हुए वीडियो और हालिया जारी हुआ प्रधानमंत्री नरेंद्र मोदी का डांडिया करते हुए वीडियो। ये सब तो एक झलक मात्र हैं कृत्रिम बुद्धिमता की बढ़ती हुई शक्ति के। भविष्य में हम इस तकनीक के दुरूपयोग के और भी मामले देखेंगे। ऐसा नहीं है कि पहले फेक या मॉर्फ वीडियो नहीं बनते थे, लेकिन कृत्रिम बुद्धिमत्ता की मदद से ऐसे वीडियो तैयार किए जा रहे हैं जो मॉर्फ वीडियो का बेहद उन्नत रूप है। पहले के मुकाबले ऐसे वीडियो को बनाना अब आसान है। ये कहीं अधिक वास्तविक और विश्वसनीय प्रतीत होते हैं। डीपफेक सच को झूठ दिखा सकता है और झूठ को सच।
कृत्रिम मेधा (ए आई ) और एक शक्तिशाली कंप्यूटर प्रणाली का उपयोग करके डिजिटल मीडिया, वीडियो, ऑडियो, छवियों, लेखों आदि को संपादित करने और निहितार्थ में मनचाहा फेरबदल कर प्रस्तुत करने की कला विधी का नाम डीपफेक है। यह मूल रूप से अति-यथार्थवादी डिजिटल मिथ्याकरण है। इसका उपयोग फर्जी खबरें उत्पन्न करने और अन्य अवैध कामों जैसे वित्तीय धोखाधड़ी करने के लिये किया जाता है। पहले से उपलब्ध सच्चे वीडियो, चित्र या ऑडियो में बदलाव कर उनके भ्रामक या झूठे वर्शन तैयार करना अब पुराने जमाने की बात हो गई है। कृत्रिम बुद्धि आधारित गहन प्रशिक्षण प्राप्त मॉडल बगैर किसी पुरानी सामग्री के अब आपके चाहे अनुसार एकदम नवीन नकली लेख, चित्र, संगीत, आडियो या वीडियो का निर्माण करने में सक्षम है।
डीपफेक द्वारा उत्पन्न सबसे बड़ा खतरा झूठी जानकारी फैलाने की उनकी क्षमता है जो विश्वसनीय स्रोतों से आती है। उदाहरण के लिए, 2022 में यूक्रेन के राष्ट्रपति वोलोदिमिर जेलेंस्की द्वारा अपने सैनिकों को आत्मसमर्पण करने के लिए कहने का एक विस्तृत वीडियो जारी किया गया था। जैसे-जैसे कृत्रिम मीडिया प्रौद्योगिकी की पहुँच में वृद्धि होती है, वैसे-वैसे शोषण का जोखिम भी बढ़ता है। डीपफेक का इस्तेमाल प्रतिष्ठा को हानि पहुंचाने, सबूत गढ़ने, जनता को धोखा देने तथा लोकतांत्रिक संस्थानों में विश्वास कम करने के लिए किया जा सकता है। यह सब कुछ अल्प संसाधनों के साथ, स्तर एवं गति के साथ प्राप्त किया जा सकता है एवं यहां तक कि समर्थन को प्रेरित करने के लिए सूक्ष्म-लक्षित भी किया जा सकता है।
आसान भाषा में समझें तो तकनीक के जरिए इंसान को धोखा देना ही डीप फेक टेक्नोलॉजी है. इस तकनीक में आर्टिफिशियल इंटेलिजेंस का प्रयोग किया जाता है। यह तकनीक दो चीजों से मिलकर बनी है। पहली डीप लर्निंग और दूसरी फेक यानी फर्जी। इसकी मदद से तैयार फर्जी वीडियो का एल्गोरिदम इतना सटीक होता है कि यह फर्क कर पाना मुश्किल हो जाता है कि वीडियो में दिखाई दे रहा शख्स असली है या नकली और उसमें सुनाई पड़ा रही आवाज वाकई में उसने दी है या किसी और ने।
नकली सामग्री बनाने और परिष्कृत करने के लिए डीपफेक दो एल्गोरिदम का उपयोग करता है – एक जनरेटर और एक भेदभावकर्ता। जनरेटर वांछित आउटपुट के आधार पर एक प्रशिक्षण डेटा सेट बनाता है, प्रारंभिक नकली डिजिटल सामग्री बनाता है, जबकि भेदभावकर्ता विश्लेषण करता है कि सामग्री का प्रारंभिक संस्करण कितना यथार्थवादी या नकली है। इस प्रक्रिया को दोहराया जाता है, जिससे जनरेटर को यथार्थवादी सामग्री बनाने में सुधार करने की अनुमति मिलती है और भेदभावकर्ता को जनरेटर को सही करने के लिए खामियों को दूर करने में अधिक कुशल बनने की अनुमति मिलती है।
जनरेटर और भेदभावपूर्ण एल्गोरिदम का संयोजन एक जनरेटिव प्रतिकूल नेटवर्क बनाता है। एक जीएएन वास्तविक छवियों में पैटर्न को पहचानने के लिए गहरी शिक्षा का उपयोग करता है और फिर नकली बनाने के लिए उन पैटर्न का उपयोग करता है। एक डीपफेक तस्वीर बनाते समय, एक जीएएन प्रणाली सभी विवरणों और दृष्टिकोणों को पकड़ने के लिए कोणों की एक सरणी से लक्ष्य की तस्वीरों को देखती है। एक डीपफेक वीडियो बनाते समय, जीएएन विभिन्न कोणों से वीडियो को देखता है और व्यवहार, आंदोलन और भाषण पैटर्न का भी विश्लेषण करता है। इस जानकारी को अंतिम छवि या वीडियो के यथार्थवाद को ठीक करने के लिए कई बार भेदभावकर्ता के माध्यम से चलाया जाता है।
किसी भी तकनीक का इस्तेमाल सही हो रहा है या ग़लत, यह हम पर निर्भर करता है। वैसे तो तकनीक मनुष्य की मदद करने और सहूलियत देने के लिए है, लेकिन कुछ मामलों में इसका ग़लत इस्तेमाल भी किया जाता है। जैसे अश्लील चलचित्र (पोर्नोग्राफी): डीपफेक के दुर्भावनापूर्ण उपयोग का पहला मामला अश्लील साहित्य अथवा पोर्नोग्राफी के रूप में सामने आया था। एक अध्ययन के अनुसार, 96% डीपफेक अश्लील वीडियो हैं। डीपफेक अश्लील कंटेन्ट विशेष रूप से महिलाओं को लक्षित करती है। अश्लील डीपफेक बनाने वाले अपने लक्ष्य को धमकी दे सकते हैं, भयभीत कर सकते हैं एवं मनोवैज्ञानिक क्षति पहुंचा सकते हैं। यह महिलाओं को यौन वस्तुओं के रूप में संकुचित कर भावनात्मक संकट उत्पन्न करता है तथा कुछ मामलों में, वित्तीय हानि तथा नौकरी छूटने जैसे संपार्श्विक परिणामों का कारण बनता है।
डीपफेक एक व्यक्ति को असामाजिक व्यवहारों में लिप्त होने एवं ऐसी घटिया बातें कहने वाले व्यक्ति के रूप में चित्रित कर सकता है जो उसने कभी नहीं की। डीपफेक दीर्घकालिक सामाजिक क्षति भी पहुंचा सकते हैं एवं पारंपरिक मीडिया में पूर्व से ही कम हो रहे विश्वास की गति को और तीव्र कर सकते हैं। इस तरह का क्षरण तथ्यात्मक सापेक्षवाद की संस्कृति में योगदान कर सकता है, तनावपूर्ण नागरिक समाज के ताने-बाने को तेजी से तोड़ सकता है। डीपफेक एक दुर्भावनापूर्ण राष्ट्र-राज्य द्वारा सार्वजनिक सुरक्षा को कमजोर करने एवं लक्षित देश में अनिश्चितता तथा अराजकता उत्पन्न करने हेतु एक शक्तिशाली उपकरण के रूप में कार्य कर सकता है।
डीपफेक संस्थानों एवं कूटनीति में विश्वास को कम कर सकते हैं। डीपफेक का उपयोग गैर-राज्य कारकों द्वारा, जैसे कि विद्रोही समूह एवं आतंकवादी संगठन, अपने विरोधियों को भड़काऊ भाषण देने अथवा लोगों के बीच राज्य विरोधी भावनाओं को भड़काने के लिए उत्तेजक कार्यों में शामिल होने के रूप में दिखाने के लिए किया जा सकता है। डीपफेक से एक अवांछनीय सत्य को नकली समाचार के रूप में खारिज करवा दिया जाता है।
डीपफेक के शिकार होने से बचने के लिय सतर्कता से रहें, हमेशा ऐसे कैमरे से तस्वीर लें जो उसको एन्क्रिप्टेड कर दें ताकि फोटो को बदला न जा सके। स्मार्ट कैमरे और स्मार्ट मोबाइल में इसके लिए विकल्प मौजूद हैं। सेंडर और रिसीवर दोनों एन्क्रिप्शन की (चाबी) का उपयोग करते हैं। सोशल मीडिया में अपनी फोटोज़ या वीडियो ज्यादा ज्यादा लिखने न करें। अकाउंट प्राइवेट रखें। एक-साथ पंद्रह-बीस फोटो शेयर न करें क्योंकि इससे सायबर अटैक की आशंका बढ़ती है। कम से कम वीडियो और तस्वीर संबंधित पोस्ट शेयर करने की कोशिश करें। अपनी तस्वीरों की सीरीज़ न डालें यानी एक ही तरह की काफ़ी सारी तस्वीरें शेयर न करें क्योंकि साइबर अपराधी बहुत सारी अलग-अलग फोटो को इकट्ठा करके एआई द्वारा उनसे डाटा निकालकर दुरुपयोग कर सकते हैं।
वीडियो असली है या नकली, ऐसे समझें, ज्यादातर मामलों में डीपफेक वीडियो बनाए ही इसलिए जाते हैं ताकि लोगों को चौंकाया जाए। अगर आपको भी कोई ऐसा चौकाने वाला वीडियो मिलता है तो उसके ओरिजनल सोर्स को जांचें। मान लीजिए हैरी पॉटर का एक वीडियो वायरल हो रहा है तो फिल्म से जुड़े किरदारों के सोशल मीडिया प्रोफाईल पर जाएं। कई बार सेलिब्रिटी खुद ऐसे फर्जी वीडियो की जानकारी देते हैं। न्यूज के जरिए खंडन किया जाता है. फैक्टचेकर्स भी इनके बारे में जानकारी देते हैं। वर्तमान में डीपफेक से निपटने के लिए कानूनों की कमी है क्योंकि अधिकांश लोग नई तकनीक, इसके उपयोग और खतरों से अनजान हैं। इस वजह से, पीड़ितों को कानून के तहत ज्यादातर मामलों में अपेक्षित सुरक्षा नहीं मिल पाती है।