इटली की प्रधानमंत्री जॉर्जिया मेलोनी ने डीपफेक वीडियो के मामले में मुआवजा मांगा है. मुआवजे की ये राशि 1 लाख यूरो यानि 90 लाख रुपए होगी. सार्डिनिया (Sardinia) की ससारी कोर्ट में ये मामला अंडर ट्रायल है. 2 जुलाई 2024 को प्रधानमंत्री मेलोनी की गवाही होनी है. आइए, समझते हैं पूरा मामला क्या है?
क्या है पूरा मामला?
साल 2022 में जार्जिया मेलोनी का वीडियो अमेरिकी एडल्ट कॉन्टेंट वेबसाइट पर पोस्ट किया गया था. तब जार्जिया मेलोनी इटली की प्रधानमंत्री नहीं थी. आरोपियों ने एडल्ट फिल्म स्टार के चेहरे पर जॉर्जिया का चेहरा लगाया गया था. यानि फेस मॉर्फिंग तकनीकि के जरिए मेलोनी का डीपफेक वीडियो तैयार किया गया था. BBC की रिपोर्ट के मुताबिक, एडल्ट वीडियो अपलोड करने के लिए जिस मोबाइल का इस्तेमाल किया था. पुलिस ने उस मोबाइल को ट्रेस कर 40 साल के आरोपी को पकड़ा. हैरानी की बात ये थी कि इस काम में उसका 73 साल का पिता भी शामिल था. दोनों ने मिलकर आर्टिफिशियल इंटेलीजेंस की मदद से फेक वीडियो बनाया था.
क्या हो सकती है सज़ा?
मेलोनी की टीम की तरफ से जारी बयान के मुताबिक, 2022 में अपलोड हुए इस वीडियो को लाखों लोगों ने देखा है. इटली के कानून के मुताबिक ये एक ऐसा अपराध जिसके लिए 6 महीने से 3 साल तक की जेल हो सकती है. बहरहाल, आरोपी पकड़े गए तो, ट्रायल शुरू हुआ. जार्जिया मेलोनी की तरफ से दोनों आरोपियों पर मानहानि का केस दर्ज कराया गया. अब हर्जाने के तौर पर 1 लाख यूरो, यानी करीब 90 लाख रुपए का मुआवजे की मांग की गई है.
मुआवजे की मांग क्यों?
मेलोनी की वकील मारिया गिउलिया मारोंगिउ ने कहा- प्रधानमंत्री जो मुआवजा मांग रही हैं वो प्रतीकात्मक है. इस मुआवजे का उद्देश्य, इस तरह के अपराध का शिकार हुई महिलाओं को यह संदेश देना है कि वे आवाज उठाने से न डरें. अगर, मुआवजा दिया जाता है, तो वो इस राशि को हिंसा का शिकार हुई महिलाओं की मदद के लिए दान कर देंगी.
क्या होता है ‘डीपफेक’ वीडियो?
आज के डिजिटल दौर में इंटरनेट के जरिए कई लोग ऐसे भी हैं जो, गलत खबरें और भ्रामक जानकारियां फैला रहे हैं. ऐसे ही फेक वीडियो भी लोगों तक पहुंचाए जाते हैं. इन वीडियो को डीपफेक कहते हैं. इसमें असली और नकली की पहचान करना बेहद मुश्किल होता है. क्योंकि इन वीडियो को बनाने में आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग सॉफ्टवेयर का इस्तेमाल किया जाता है. इसे मॉर्फिंग का एडवांस रूप माना जा सकता है. आसान भाषा में कहें तो, AI तकनीकि के जरिए फोटोग्राफ, ऑडियो या वीडियो की फेक कॉपी तैयार की जाती है, जो एकदम रियल लगती है. बस इसमें सब्जेक्ट बदल जाता है. यानि किसी शख्स के चेहरे पर दूसरा चेहरा इतनी सफाई से लगाया जाता है कि देखने वाले धोखा खा जाएं. इन वीडियो को बनाने का मकसद लोगों की छवि को खराब करना, उन्हें बदनाम करना और पैसा ऐंठना हो सकता है.
ये सेलिब्रिटीज भी बने टारगेट
आपने खबरों में सुना होगा, ऐसा ही एक वीडियो बॉलीवुड एक्ट्रेस रश्मिका मंदाना का भी सामने आया था. सोशल मीडिया पर ये वीडियो खूब शेयर किया गया था. दरअसल, वो वीडियो भी डीपफेक था. उसमें जारा पटेल नाम की एक लड़की के चेहरे को बदलकर रश्मिका का चेहरा लगा दिया गया था. इस डीपफेक वीडियो पर अमिताभ बच्चन से लेकर खुद रश्मिका मंदाना तक ने हैरानी जताई थी. रश्मिका के अलावा, अक्षय कुमार, आलिया भट्ट और काजोल का डीपफेक वीडियो भी इंटरनेट पर वायरल हुए. जिसके पीछे मकसद इन सेलिब्रिटीज की प्रतिष्ठा को नुकसान पहुंचाना था.
Comments are closed, but trackbacks and pingbacks are open.