Rashmika Mandana Deepfake Video AI म्हणजेच कृत्रिम बुद्धिमत्तेमुळे होणारे चांगले बदल आपण पाहत असतानाच याचं वाईट रूपसुद्धा समोर येऊ लागलं आहे. अनेक प्रसिद्ध सेलेब्रिटीचा चेहरा Deepfake तंत्राचा वापर करून दुसऱ्या व्हिडिओवर लावून तो व्हायरल केला जात आहे. तो बदललेला चेहरा इतका हुबेहूब पद्धतीने त्या व्हिडिओमध्ये ठेवलेला असतो की आता तो व्हिडिओ खरा आहे की खोटा हे सांगणंसुद्धा दिवसेंदिवस अवघड होत आहे. फॉटोशॉपचा वापर करून फोटोमध्ये बदल करता यायचे पण व्हिडिओसाठी आता या नव्या Deepfake चा वापर होतोय!
गेल्या काही दिवसांपासून अभिनेत्री रश्मिकाचा एक लिफ्टमधून बाहेर पडतानाचा व्हिडिओ व्हायरल होत आहे. पण खरेतर तो व्हिडिओ रश्मिकाचा नसून झारा पटेल नावाच्या मॉडेलचा आहे मात्र त्यावर त्या मॉडेलच्या चेहऱ्याऐवजी रश्मिकाचा चेहरा Deepfake वापरुन बसवला आहे आणि सहज व्हिडिओ पाहणाऱ्या कोणत्याही व्यक्तीला त्या व्हिडिओमध्ये रश्मिकाच आहे असं वाटेल!
Deepfake video म्हणजे काय आणि हे कसं काम करतं ? : Deepfake video म्हणजे असा व्हिडिओ ज्यामध्ये एखाद्या व्यक्तीचा चेहरा किंवा शरीर AI मधी Deep Learning चा वापर करून बदलण्यात आहे जेणेकरून त्यांना दुसऱ्या व्यक्तिप्रमाणे दाखवता येईल. असे व्हिडिओ शक्यतो चुकीच्या उद्देशाने अश्लील किंवा चुकीची माहिती पसरवण्यासाठी तयार केले जात आहेत.
Deep Learning सॉफ्टवेअर किंवा टूलद्वारे एखाद्या अभिनेत्रीचा चेहरा पूर्णपणे Analyse केला जातो आणि मग तो चेहरा एखाद्या पोर्न व्हिडिओमध्ये मूळ व्हिडिओतील पोर्नस्टारच्या जागी त्या अभिनेत्रीचा चेहरा जोडला जातो आणि मग याचं आउटपुट हे इतक्या उत्तम प्रकारे तयार केलेलं असतं की व्हिडिओ खरा आहे की खोटा हे सहज सांगता येत नाही!
https://www.instagram.com/deeptomcruise या इंस्टाग्राम प्रोफाइलवर असे हॉलीवुड सेलेब्रिटीचे अनेक डीपफेक व्हिडिओ तुम्ही पाहू शकाल.
असे व्हिडिओ तयार करण्याचं प्रमाण गेले काही महिन्यात प्रचंड वाढलं असून याचे दुष्परिणाम आता जाणवण्यास सुरुवात झाली आहे. सध्या जगभरात अनेक अभिनेत्रींना किंवा सेलेब्रिटींना यामुळे प्रचंड त्रासाला सामोरं जावं लागत असून हीच गोष्ट उद्या आपल्या सोबत किंवा आपल्या परिचयाच्या व्यक्तिंसोबतसुद्धा होऊ शकते. कारण हे तंत्रज्ञान इंटरनेटवर मोफत आणि सहज उपलब्ध होत आहे!
उद्या राजकीय किंवा वैयक्तिकरित्या बदनामीसाठीही एखाद्या व्यक्तिने कधीच न उच्चारलेले शब्दसुद्धा या तंत्राने त्या व्यक्तिने बोलल्याचं दाखवलं जाऊ शकतं. यामुळे मोठ्या प्रमाणात चुकीची माहिती पसरून त्या व्यक्तिबद्दल गैरसमज पसरु शकतात. याचा वापर भविष्यात एखाद्याला त्रास देणे, धमकावणे, अपमानित करणे यासाठी नक्कीच केला जाऊ शकतो.
Deepfake video व्हिडिओ कसा ओळखायचा ?
- प्रथम प्रचलित सोशल मीडियावर संबंधित व्हिडिओ उपलब्ध आहे का ते पहा.
- व्हिडिओचं आउटपुट चांगलं नसेल तर चेहऱ्यावरील हावभाव पाहून लगेच लक्षात येऊ शकतं की तो व्हिडिओ फेक आहे.
- डोळे, केशरचनेचा भाग आणि बोलताना ओठांची हालचाल (Lip Sync) सध्यातरी AI ला पूर्णपणे जमत नाही. तिथे काही चुका नक्की दिसतात.
- चेहऱ्याचं भागदेखील जास्तच सपाट/मऊ असतो आणि सावली योग्य प्रकारे दिसत नाही.
- डीपफेकमध्ये डोळ्यांच्या पापण्यांची उघडझाप अगदीच कमी किंवा खूपच जास्त दिसते.
- चेहरा वेगळ्या दिशेने वळला की काही सेकंद मूळ व्हिडिओमधील चेहरासुद्धा दिसतो!
- जास्त हालचाल असलेल्या क्षणी बरेच रेषा, ब्लर झालेल्या किंवा चुकीच्या आकृत्या दिसतात.
- आता बऱ्याच मोठ्या कंपन्या एकत्र येत असून इंटरनेटवरील AI द्वारे तयार करण्यात आलेल्या कंटेंटला त्याप्रकारे लेबल दाखवण्यासाठी प्रयत्न करत आहेत.
- विशेष म्हणजे यातील बऱ्याच कंपन्याचेच टूल्स वापरुन हे व्हिडिओ तयार होत आहेत!
रश्मिकाने ट्विटर/एक्सवरती याबाबत नाराजी व्यक्त करत याबद्दल सर्वांनी एकत्र येऊन अशा प्रकारच्या चुकीची ओळख निर्माण करणाऱ्या प्रकारांकडे वेळीच लक्ष द्यायला हवं असं म्हटलं आहे. हीच गोष्ट जर शाळेत किंवा कॉलेजमध्ये असताना झाली असती तर याला सामोरं कसं जायचं याची कल्पनासुद्धा करता येत नाही असं तिने सांगितलं आहे. यावर आता अमिताभ बच्चन यांच्या सारख्या सेलेब्रिटीनी रश्मिकाच्या भूमिकेला दुजोरा देत कायदेशीर कारवाईची मागणी केली आहे.
I feel really hurt to share this and have to talk about the deepfake video of me being spread online.
— Rashmika Mandanna (@iamRashmika) November 6, 2023
Something like this is honestly, extremely scary not only for me, but also for each one of us who today is vulnerable to so much harm because of how technology is being misused.…
खाली दिलेल्या ट्विटमधील व्हिडिओमुळेच यावेळी निदान चर्चेला तरी सुरुवात झाली आहे आणि AI चा वाईट वापर किती सहजपणे केला जाऊ शकतो याचं उदाहरण समोर आलं आहे.
🚨 There is an urgent need for a legal and regulatory framework to deal with deepfake in India.
— Abhishek (@AbhishekSay) November 5, 2023
You might have seen this viral video of actress Rashmika Mandanna on Instagram. But wait, this is a deepfake video of Zara Patel.
This thread contains the actual video. (1/3) pic.twitter.com/SidP1Xa4sT
आता या प्रकरणाच्या बातम्या देतानासुद्धा अनेक न्यूज माध्यमांनी अश्लील Thumbnails चा वापर करत बातम्या शेयर केल्या आहेत. यूट्यूबवर केवळ रश्मिका नावाने सर्च केलं तरी हे सर्व वाईट प्रकार दिसून येतील. यामुळे याबद्दल मीडियाकडून काही होण्याची तर अपेक्षा करू नयेच. मुळात या डीपफेक टूल्सवर बंदी घालणं सुद्धा वाटतं तितकं सोपं नाही. जगभरातील Governments आणि AI कंपनन्यानी एकत्र येऊन याबद्दल उपाय काढण्यासाठी चर्चा करणं मात्र नक्कीच आवश्यक आहे…
Rashmika Mandana Deepfake Video: ‘डीपफेक’ म्हणजे आर्टिफिकल इंटेलिजन्सद्वारे तयार केलेले फोटो, व्हिडिओ, आवाज किंवा मजकूर. एआयचे डीपफेक तंत्रज्ञान वापरून रश्मिका मंदानाचा चेहरा झाराच्या त्या व्हिडीओवर लावण्यात आला आहे.
रश्मिका मंदानाचा सांगून व्हायरल होणारा हा व्हिडीओ मुळात झारा पटेल या ब्रिटिश-भारतीय तरुणीचा आहे. एआयचे डीपफेक तंत्रज्ञान वापरून रश्मिका मंदानाचा चेहरा झाराच्या त्या व्हिडीओवर लावण्यात आला आहे.
झारा पटेल हिने ऑक्टोबर महिन्यात हा व्हिडीओ पोस्ट केला होता ज्यावर सहा लाखांहून अधिक लाईक्स व हजारो कमेंट्स आहेत.
झाराच्या मूळ व्हिडिओवर अनेकांनी टीका करून अशाप्रकारे प्रसिद्ध होण्यासाठी अंगप्रदर्शन का करता असा प्रश्न केला होता, पण झाराने अशा कोणत्याच कमेंट्सना काहीही उत्तर दिलेले नाही.
झाराचे बहुसंख्य व्हिडीओ हे त्याच लिफ्टमधील आहेत जी आता रश्मिकाच्या मॉर्फ व्हिडीओमध्ये सुद्धा दिसून येतेय
झारा इन्स्टाग्रामवर खूपच प्रसिद्ध असून तिचे तब्बल ४ लाख ४५ हजार फॉलोवर्स आहेत. ती स्वतः सद्गुरू यांच्या अकाउंटला सुद्धा फॉलो करते.
‘डीपफेक’ म्हणजे आर्टिफिकल इंटेलिजन्सद्वारे तयार केलेले फोटो, व्हिडिओ, आवाज किंवा मजकूर. “डीप” हे “डीप लर्निंग” मधून आले आहे, यामध्ये एका व्यक्तीचा डिजिटल कॉन्टेन्ट अन्य व्यक्तीच्या कॉन्टेन्टसह बदलला जातो. या तंत्रज्ञानाने केवळ झारा व रश्मिकाच नव्हे तर अन्य अनेक सेलिब्रिटींचे फोटो व्हिडीओ सोशल मीडियावर व्हायरल होत आहेत