Deepfake video of Rashmika Mandanna : एक्टर रश्मिका मंदन्ना के एक फेक वीडियो ने सोशल मीडिया पर काफ़ी viral हो रहा है। जब viral वीडियो की सच्चाई सामने आई, तो कई पत्रकारों से लेकर बड़े एक्टर अमिताभ बच्चन जैसे शक्शियतों ने इस तरह के फेक वीडियो क्रिमिनल चार्जेस (legal-action) की मांग की।

अभिनेत्री रश्मिका मंदन्ना के डीपफेक वीडियो पर छाया है। वीडियो में दिखाया गया है कि एक महिला लिफ्ट में प्रवेश कर रही है, जिसका चेहरा रश्मिका का है, लेकिन यह वास्तविकतः कोई अन्य महिला है। आर्टिफिशियल इंटेलिजेंस की मदद से उस महिला के चेहरे को रश्मिका के चेहरे में बदल दिया गया है।
इस तकनीक को ‘Deepfakeo’ या ‘डीप लर्निंग’ कहते हैं, जिसे आर्टिफिशियल इंटेलिजेंस का एक रूप माना जाता है। यह कुछ साल पहले अमेरिका में विवाद पैदा कर दिया था, जब इसका उपयोग असली चेहरों को छुपाने के लिए किया गया था। लेकिन रश्मिका के मामले में, यह तकनीक काफी उन्नत है और उसका पता लगाना अब काफी कठिन है।
रश्मिका के अलावा, कई भारतीय सेलिब्रिटीज के भी डीपफेक वीडियो बनाए गए हैं, लेकिन इस पर चर्चा भारत में अधिक नहीं हुई है। विपरीत, अमेरिका और अन्य पश्चिमी देशों में डीपफेक के खतरों पर बहस जारी है। रश्मिका के डीपफेक वीडियो की सच्चाई सामने आने के बाद, कई लोगों ने इसे लेकर चिंता जाहिर की है। अभिनेता अमिताभ बच्चन ने भी इस पर अपनी राय दी है।
Deepfake video of Rashmika Mandanna
AI के आम लोगों के लिए उपलब्ध होने के बाद, इसके गलत इस्तेमाल की कई घटनाएं सामने आईं हैं। उदाहरण के तौर पर, आवाज बदलकर या वीडियो कॉल में छवि जोड़कर ठगाई जाती है। कई हॉलीवुड अभिनेता ने इस गलत इस्तेमाल को लेकर चेतावनी दी है। इसके बाद, रश्मिका के वीडियो के आने के बाद, एक सवाल उठता है कि इसके लिए कोई नियम बनाए जाएं या नहीं।
इस बारे में बात करते हैं, पहले AltNews के पत्रकार अभिषेक के पोस्ट को देखें। उन्होंने वीडियो के साथ हुई छेड़छाड़ के बारे में विस्तार से बताया है। मौलिक वीडियो एक ब्रिटिश-इंडियन लड़की का है जिसके इंस्टाग्राम पर लगभग 4 लाख फॉलोवर्स हैं।
अभिषेक की टाइमलाइन पर Sami नाम से एक छोटे से वीडियो या GIF में एक छवि लगाई गई है जिसमें डीपफेक इफेक्ट स्पष्ट दिखता है।
जब असली वीडियो सामने आया, तो अमिताभ बच्चन ने भी अभिषेक के पोस्ट को शेयर करते हुए लिखा कि इस पर कानूनी कार्रवाई की आवश्यकता है।
डीपफेक वीडियो कुछ सालों में एक बड़ा खतरा बन गए हैं। कुछ वीडियो में एलन मस्क ने निवेश योजना बेची तो अमेरिकी अभिनेता टॉम हैंक्स ने डेंटल प्लांट की बात की। पूर्व अमेरिकी राष्ट्रपति डॉनाल्ड ट्रम्प के कई मजेदार डीपफेक वीडियो वायरल हो चुके हैं। तथापि, यह तकनीक केवल मजेदार नहीं है। टॉम ने अपनी इंस्टाग्राम पोस्ट के माध्यम से इस पर चेतावनी दी थी।
मेरा डीपफेक वीडियो इंटरनेट पर वायरल किया जा रहा है – रश्मिका
रश्मिका का भी डीपफेक वीडियो पर प्रतिक्रिया आई है। उन्होंने इस पर दुख जताते हुए लिखा है, ‘मुझे इस बारे में बताते हुए बहुत दुख हो रहा है। मेरा डीपफेक वीडियो इंटरनेट पर वायरल किया जा रहा है। सच कहूं तो इस तरह की चीज सिर्फ मेरे लिए डरावनी नहीं है, बल्कि तकनीक का इस तरह का उपयोग हर किसी के लिए खतरा है।’
रश्मिका ने लिखा कि आज के समय में उनके परिवार और करीबी लोगों ने उन्हें समर्थन दिया है, लेकिन अगर ऐसा उनके स्कूल या कॉलेज के दिनों में होता, तो वो इस सिचुएशन को कैसे हैंडल करती, उनके बारे में सोचना भी मुश्किल होता। उन्होंने आगे लिखा, ‘इससे पहले कि और लोग इस तरह की आइडेंटिटी चोरी की चपेट में आएं, हमें कम्युनिटी के रूप में तुरंत इस पर ध्यान देना होगा।’ रश्मिका ने अपनी पोस्ट में सायबराबाद पुलिस और महाराष्ट्र साइबर पुलिस को भी टैग किया है।
इस तरह के फेक वीडियो के लिए कानून क्या है ?
अब सवाल यह है कि इस तरह के फेक वीडियो के लिए कानून क्या है। अर्थात्, हर देश में साइबर अपराधों के खिलाफ कानून है। हमारे देश में साइबर पुलिस से लेकर विभिन्न पोर्टलों तक इसकी सुविधाएं मौजूद हैं। ‘इन्फॉर्मेशन टेक्नोलॉजी एक्ट, 2000’ बहुत सारे अपराधों के लिए सजा और जुर्माना तय करता है। फिर भी, इस तरह के कारनामों का विरोध नहीं देखा जा रहा है। आर्टिफिशियल इंटेलिजेंस की तकनीक ने हर किसी के हाथ में आने से इस खतरे को और भी बढ़ा दिया है।
डीपफेक की शुरुआत और विकसिति के बारे में जानकारी हासिल करना भी आसान नहीं है। विभिन्न देशों में इस पर नियम बनाने की चर्चा चल रही है, लेकिन जब तक ये नियम नहीं बनते, जागरूकता ही सबसे अच्छा संरक्षण है। ऐसे वीडियो भविष्य में भी सामने आ सकते हैं, इसलिए किसी भी खबर या वीडियो पर विश्वास करने से पहले उसकी प्रमाणितता की जाँच करें। कई न्यूज चैनल्स अब फैक्ट चेकिंग करते हैं, उन्हें ध्यान में रखें। ‘लल्लंटॉप’ भी ‘पड़ताल’ नाम से ऐसे फर्जी वीडियो और खबरों का सत्यापन करता है।
जागरूकता के साथ-साथ सावधानी भी बरतें, उदाहरण के लिए यदि कोई आपको अपने पिताजी की आवाज में फोन करके पैसे मांगे तो थोड़ी देर रुककर घर पर फोन करें। थोड़ी सी सावधानी आपको बड़े नुकसान से बचा सकती है।