डीपफेक वीडियो के मामले में इटली के प्रधानमंत्री जॉर्जिया मेलोनी ने मुआवजा मांगा है. मुआवजे की यह रकम 1 लाख यूरो यानी 90 लाख रुपये होगी. इस मामले की सुनवाई सार्डिनिया की सासारी कोर्ट में चल रही है। 2 जुलाई 2024 को प्रधानमंत्री मेलोनी की गवाही होनी है. आइए समझते हैं क्या है पूरा मामला.
साल 2022 में जॉर्जिया मेलोनी का वीडियो एक अमेरिकी एडल्ट कंटेंट वेबसाइट पर पोस्ट किया गया था. उस वक्त जॉर्जिया मेलोनी इटली की प्रधानमंत्री नहीं थीं. आरोपी ने जॉर्जिया का चेहरा एक एडल्ट फिल्म स्टार के चेहरे पर लगा दिया था. यानी मेलोनी का डीपफेक वीडियो फेस मॉर्फिंग तकनीक के जरिए बनाया गया था. बीबीसी की एक रिपोर्ट के मुताबिक, जिस मोबाइल का इस्तेमाल एडल्ट वीडियो अपलोड करने के लिए किया गया था. पुलिस ने उस मोबाइल को ट्रेस किया और 40 वर्षीय आरोपी को गिरफ्तार कर लिया. हैरानी की बात ये थी कि इस काम में उनके 73 साल के पिता भी शामिल थे. दोनों ने मिलकर आर्टिफिशियल इंटेलिजेंस की मदद से एक फर्जी वीडियो बनाया.
क्या हो सकती है सज़ा?
मेलोनी की टीम की ओर से जारी बयान के मुताबिक, 2022 में अपलोड किए गए इस वीडियो को अब तक लाखों लोग देख चुके हैं. इटालियन कानून के मुताबिक, यह एक अपराध है जिसके लिए 6 महीने से लेकर 3 साल तक की जेल हो सकती है। हालांकि, जब आरोपी पकड़े गए तो मुकदमा शुरू हुआ। जॉर्जिया मेलोनी की ओर से दोनों आरोपियों के खिलाफ मानहानि का मुकदमा दायर किया गया था. अब हर्जाने के तौर पर 1 लाख यूरो यानी करीब 90 लाख रुपये मुआवजे की मांग की गई है.
मुआवजे की मांग क्यों?
मेलोनी की वकील मारिया गिउलिया मारोंगियू ने कहा- प्रधानमंत्री जो मुआवजा मांग रहे हैं, वह प्रतीकात्मक है। इस मुआवजे का मकसद ऐसे अपराधों की शिकार महिलाओं को यह संदेश देना है कि उन्हें अपनी आवाज उठाने से नहीं डरना चाहिए. अगर मुआवज़ा मिलता है तो वह उस रकम को हिंसा पीड़ित महिलाओं की मदद के लिए दान कर देंगी।
‘डीपफेक’ वीडियो क्या है?
आज के डिजिटल युग में बहुत से लोग इंटरनेट के माध्यम से गलत खबरें और भ्रामक सूचनाएं फैला रहे हैं। इसी तरह के फर्जी वीडियो भी लोगों को भेजे जाते हैं. इन वीडियो को डीपफेक कहा जाता है. इसमें असली और नकली की पहचान करना बहुत मुश्किल होता है. क्योंकि इन वीडियो को बनाने में आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग सॉफ्टवेयर का इस्तेमाल किया जाता है। इसे मॉर्फिंग का एक उन्नत रूप माना जा सकता है। आसान भाषा में कहें तो AI तकनीक के जरिए किसी फोटो, ऑडियो या वीडियो की नकली कॉपी तैयार की जाती है, जो देखने में असली लगती है। बात सिर्फ इतनी है कि विषय बदल जाता है. यानी किसी व्यक्ति के चेहरे पर कोई दूसरा चेहरा इतनी सफाई से थोप दिया जाता है कि देखने वाला धोखा खा जाता है। इन वीडियो को बनाने का मकसद लोगों की छवि खराब करना, उन्हें बदनाम करना और पैसे ऐंठना हो सकता है.
ये सेलिब्रिटी भी बने निशाने पर
आपने खबरों में सुना होगा बॉलीवुड एक्ट्रेस रश्मिका मंदाना का भी ऐसा ही वीडियो सामने आया था. यह वीडियो सोशल मीडिया पर खूब शेयर किया गया. वह वीडियो भी डीपफेक था. इसमें रश्मिका के चेहरे की जगह ज़ारा पटेल नाम की लड़की का चेहरा लगा दिया गया था. इस डीपफेक वीडियो पर अमिताभ बच्चन से लेकर खुद रश्मिका मंदाना तक सभी ने हैरानी जताई. रश्मिका के अलावा अक्षय कुमार, आलिया भट्ट और काजोल के डीपफेक वीडियो भी इंटरनेट पर वायरल हुए थे. इसके पीछे का मकसद इन सेलिब्रिटीज की प्रतिष्ठा को नुकसान पहुंचाना था।