WhatsApp


अभिनेत्री रश्मिकाचा Deepfake video व्हिडिओ व्हायरल : डीपफेक म्हणजे काय?

Rashmika Mandana Deepfake Video AI म्हणजेच कृत्रिम बुद्धिमत्तेमुळे होणारे चांगले बदल आपण पाहत असतानाच याचं वाईट रूपसुद्धा समोर येऊ लागलं आहे. अनेक प्रसिद्ध सेलेब्रिटीचा चेहरा Deepfake तंत्राचा वापर करून दुसऱ्या व्हिडिओवर लावून तो व्हायरल केला जात आहे. तो बदललेला चेहरा इतका हुबेहूब पद्धतीने त्या व्हिडिओमध्ये ठेवलेला असतो की आता तो व्हिडिओ खरा आहे की खोटा हे सांगणंसुद्धा दिवसेंदिवस अवघड होत आहे. फॉटोशॉपचा वापर करून फोटोमध्ये बदल करता यायचे पण व्हिडिओसाठी आता या नव्या Deepfake चा वापर होतोय!

गेल्या काही दिवसांपासून अभिनेत्री रश्मिकाचा एक लिफ्टमधून बाहेर पडतानाचा व्हिडिओ व्हायरल होत आहे. पण खरेतर तो व्हिडिओ रश्मिकाचा नसून झारा पटेल नावाच्या मॉडेलचा आहे मात्र त्यावर त्या मॉडेलच्या चेहऱ्याऐवजी रश्मिकाचा चेहरा Deepfake वापरुन बसवला आहे आणि सहज व्हिडिओ पाहणाऱ्या कोणत्याही व्यक्तीला त्या व्हिडिओमध्ये रश्मिकाच आहे असं वाटेल!

Deepfake video म्हणजे काय आणि हे कसं काम करतं ? : Deepfake video म्हणजे असा व्हिडिओ ज्यामध्ये एखाद्या व्यक्तीचा चेहरा किंवा शरीर AI मधी Deep Learning चा वापर करून बदलण्यात आहे जेणेकरून त्यांना दुसऱ्या व्यक्तिप्रमाणे दाखवता येईल. असे व्हिडिओ शक्यतो चुकीच्या उद्देशाने अश्लील किंवा चुकीची माहिती पसरवण्यासाठी तयार केले जात आहेत.

Deep Learning सॉफ्टवेअर किंवा टूलद्वारे एखाद्या अभिनेत्रीचा चेहरा पूर्णपणे Analyse केला जातो आणि मग तो चेहरा एखाद्या पोर्न व्हिडिओमध्ये मूळ व्हिडिओतील पोर्नस्टारच्या जागी त्या अभिनेत्रीचा चेहरा जोडला जातो आणि मग याचं आउटपुट हे इतक्या उत्तम प्रकारे तयार केलेलं असतं की व्हिडिओ खरा आहे की खोटा हे सहज सांगता येत नाही!

https://www.instagram.com/deeptomcruise या इंस्टाग्राम प्रोफाइलवर असे हॉलीवुड सेलेब्रिटीचे अनेक डीपफेक व्हिडिओ तुम्ही पाहू शकाल.

असे व्हिडिओ तयार करण्याचं प्रमाण गेले काही महिन्यात प्रचंड वाढलं असून याचे दुष्परिणाम आता जाणवण्यास सुरुवात झाली आहे. सध्या जगभरात अनेक अभिनेत्रींना किंवा सेलेब्रिटींना यामुळे प्रचंड त्रासाला सामोरं जावं लागत असून हीच गोष्ट उद्या आपल्या सोबत किंवा आपल्या परिचयाच्या व्यक्तिंसोबतसुद्धा होऊ शकते. कारण हे तंत्रज्ञान इंटरनेटवर मोफत आणि सहज उपलब्ध होत आहे!

उद्या राजकीय किंवा वैयक्तिकरित्या बदनामीसाठीही एखाद्या व्यक्तिने कधीच न उच्चारलेले शब्दसुद्धा या तंत्राने त्या व्यक्तिने बोलल्याचं दाखवलं जाऊ शकतं. यामुळे मोठ्या प्रमाणात चुकीची माहिती पसरून त्या व्यक्तिबद्दल गैरसमज पसरु शकतात. याचा वापर भविष्यात एखाद्याला त्रास देणे, धमकावणे, अपमानित करणे यासाठी नक्कीच केला जाऊ शकतो.

Deepfake video व्हिडिओ कसा ओळखायचा ?

  • प्रथम प्रचलित सोशल मीडियावर संबंधित व्हिडिओ उपलब्ध आहे का ते पहा.
  • व्हिडिओचं आउटपुट चांगलं नसेल तर चेहऱ्यावरील हावभाव पाहून लगेच लक्षात येऊ शकतं की तो व्हिडिओ फेक आहे.
  • डोळे, केशरचनेचा भाग आणि बोलताना ओठांची हालचाल (Lip Sync) सध्यातरी AI ला पूर्णपणे जमत नाही. तिथे काही चुका नक्की दिसतात.
  • चेहऱ्याचं भागदेखील जास्तच सपाट/मऊ असतो आणि सावली योग्य प्रकारे दिसत नाही.
  • डीपफेकमध्ये डोळ्यांच्या पापण्यांची उघडझाप अगदीच कमी किंवा खूपच जास्त दिसते.
  • चेहरा वेगळ्या दिशेने वळला की काही सेकंद मूळ व्हिडिओमधील चेहरासुद्धा दिसतो!
  • जास्त हालचाल असलेल्या क्षणी बरेच रेषा, ब्लर झालेल्या किंवा चुकीच्या आकृत्या दिसतात.
  • आता बऱ्याच मोठ्या कंपन्या एकत्र येत असून इंटरनेटवरील AI द्वारे तयार करण्यात आलेल्या कंटेंटला त्याप्रकारे लेबल दाखवण्यासाठी प्रयत्न करत आहेत.
  • विशेष म्हणजे यातील बऱ्याच कंपन्याचेच टूल्स वापरुन हे व्हिडिओ तयार होत आहेत!

रश्मिकाने ट्विटर/एक्सवरती याबाबत नाराजी व्यक्त करत याबद्दल सर्वांनी एकत्र येऊन अशा प्रकारच्या चुकीची ओळख निर्माण करणाऱ्या प्रकारांकडे वेळीच लक्ष द्यायला हवं असं म्हटलं आहे. हीच गोष्ट जर शाळेत किंवा कॉलेजमध्ये असताना झाली असती तर याला सामोरं कसं जायचं याची कल्पनासुद्धा करता येत नाही असं तिने सांगितलं आहे. यावर आता अमिताभ बच्चन यांच्या सारख्या सेलेब्रिटीनी रश्मिकाच्या भूमिकेला दुजोरा देत कायदेशीर कारवाईची मागणी केली आहे.

खाली दिलेल्या ट्विटमधील व्हिडिओमुळेच यावेळी निदान चर्चेला तरी सुरुवात झाली आहे आणि AI चा वाईट वापर किती सहजपणे केला जाऊ शकतो याचं उदाहरण समोर आलं आहे.

आता या प्रकरणाच्या बातम्या देतानासुद्धा अनेक न्यूज माध्यमांनी अश्लील Thumbnails चा वापर करत बातम्या शेयर केल्या आहेत. यूट्यूबवर केवळ रश्मिका नावाने सर्च केलं तरी हे सर्व वाईट प्रकार दिसून येतील. यामुळे याबद्दल मीडियाकडून काही होण्याची तर अपेक्षा करू नयेच. मुळात या डीपफेक टूल्सवर बंदी घालणं सुद्धा वाटतं तितकं सोपं नाही. जगभरातील Governments आणि AI कंपनन्यानी एकत्र येऊन याबद्दल उपाय काढण्यासाठी चर्चा करणं मात्र नक्कीच आवश्यक आहे…

रश्मिका मंदानाच्या Video मधील खरी तरुणी आहे भारतीय वंशाची ‘ही’ मॉडेल! आक्षेपार्ह फोटोंमुळे असते चर्चेत

Rashmika Mandana Deepfake Video: ‘डीपफेक’ म्हणजे आर्टिफिकल इंटेलिजन्सद्वारे तयार केलेले फोटो, व्हिडिओ, आवाज किंवा मजकूर. एआयचे डीपफेक तंत्रज्ञान वापरून रश्मिका मंदानाचा चेहरा झाराच्या त्या व्हिडीओवर लावण्यात आला आहे.

रश्मिका मंदानाचा सांगून व्हायरल होणारा हा व्हिडीओ मुळात झारा पटेल या ब्रिटिश-भारतीय तरुणीचा आहे. एआयचे डीपफेक तंत्रज्ञान वापरून रश्मिका मंदानाचा चेहरा झाराच्या त्या व्हिडीओवर लावण्यात आला आहे.

Rashmika Mandana Deepfake Video
Rashmika Mandana Deepfake Video

झारा पटेल हिने ऑक्टोबर महिन्यात हा व्हिडीओ पोस्ट केला होता ज्यावर सहा लाखांहून अधिक लाईक्स व हजारो कमेंट्स आहेत.

Rashmika Mandana Deepfake Video
Rashmika Mandana Deepfake Video

झाराच्या मूळ व्हिडिओवर अनेकांनी टीका करून अशाप्रकारे प्रसिद्ध होण्यासाठी अंगप्रदर्शन का करता असा प्रश्न केला होता, पण झाराने अशा कोणत्याच कमेंट्सना काहीही उत्तर दिलेले नाही.

Rashmika Mandana Deepfake Video
Rashmika Mandana Deepfake Video

झाराचे बहुसंख्य व्हिडीओ हे त्याच लिफ्टमधील आहेत जी आता रश्मिकाच्या मॉर्फ व्हिडीओमध्ये सुद्धा दिसून येतेय

Rashmika Mandana Deepfake Video
Rashmika Mandana Deepfake Video

झारा इन्स्टाग्रामवर खूपच प्रसिद्ध असून तिचे तब्बल ४ लाख ४५ हजार फॉलोवर्स आहेत. ती स्वतः सद्गुरू यांच्या अकाउंटला सुद्धा फॉलो करते.

Rashmika Mandana Deepfake Video
Rashmika Mandana Deepfake Video

‘डीपफेक’ म्हणजे आर्टिफिकल इंटेलिजन्सद्वारे तयार केलेले फोटो, व्हिडिओ, आवाज किंवा मजकूर. “डीप” हे “डीप लर्निंग” मधून आले आहे, यामध्ये एका व्यक्तीचा डिजिटल कॉन्टेन्ट अन्य व्यक्तीच्या कॉन्टेन्टसह बदलला जातो. या तंत्रज्ञानाने केवळ झारा व रश्मिकाच नव्हे तर अन्य अनेक सेलिब्रिटींचे फोटो व्हिडीओ सोशल मीडियावर व्हायरल होत आहेत

Rashmika Mandana Deepfake Video
Rashmika Mandana Deepfake Video

Leave a Comment

error: Content is protected !!