Uncategorized

सचिन तेंदुलकर डीपफेक मामले का हुए शिकार स्काईवर्ड एविटर केस्ट गेमिंग ऐप का वीडियो सोशल मीडिया पर हुआ वायरल।

खबर टीम इंडिया की।
पूर्व क्रिकेटर सचिन तेंदुलकर भी डीपफेक का शिकार हुए हैं। उनका एक वीडियो सोशल मीडिया पर वायरल हो रहा है, जिसमें वे ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रमोट करते नजर आ रहे हैं।
खुद सचिन ने सोशल मीडिया पर इस वीडियो को पोस्ट करके लिखा कि ये वीडियो नकली है और आपको धोखा देने के लिए बनाया गया है। टेक्नोलॉजी का इस प्रकार का दुरुपयोग बिल्कुल गलत है। उन्होंने इस मैसेज के साथ भारत सरकार, सूचना एवं प्रसारण राज्य मंत्री राजीव चंद्रशेखर और महाराष्ट्र साइबर पुलिस को टैग किया है।

वीडियो में सचिन की बेटी का भी जिक्र
इसमें फेक वीडियो में वे ये कहते नजर आते हैं कि उनकी बेटी सारा इस गेम से रोजाना बड़ी मात्रा में पैसा निकालती हैं। वे लोगों को बताते हैं कि मुझे आश्चर्य होता है कि अब अच्छा पैसा कमाना कितना आसान हो गया है।

नवंबर में रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ था
पिछले साल नवंबर में रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर बड़ी सफाई से रश्मिका का चेहरा मोर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें दिख रहे एक्सप्रेशन बिल्कुल सचिन तेंदुलकर डीपफेक मामले का हुए शिकार स्काईवर्ड एविटर केस्ट गेमिंग ऐप का वीडियो सोशल मीडिया पर हुआ वायरल।
रियल लग रहे थे।
इस फेक वीडियो में AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मोर्फ किया गया था।
यह महिला रश्मिका नहीं बल्कि जारा पटेल नाम की एक लड़की थी, जिसके चेहरे को बदलकर रश्मिका का चेहरा लगा दिया गया था। ALT न्यूज के एक जर्नलिस्ट ने डीपफेक वीडियो वायरल होने के बाद इसका खुलासा किया था। पूरी खबर यहां पढ़ें…

डीपफेक होता क्या है और कैसे बनाया जाता है?
डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।
किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है।

इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।
AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है।

Related Posts

आधी रात हाईवे पर ट्रक के सामने डांस करने लगी भाभी, लोग बोले- ट्रैफिक जाम करवाओगी क्या?

खबर इंडिया की। सोशल मीडिया पर इन दिनों एक वीडियो तेजी से वायरल हो रहा है, जिसमें…

अपनी दुल्हनिया संग पीएम मोदी से मिलने पहुंचे नीरज चोपड़ा, बताया किस बारे में हुई बातचीत

उमाकांत त्रिपाठी।प्रधानमंत्री नरेंद्र मोदी ने आज आज सुबह 7, लोक कल्याण मार्ग पर…

गर्लफ्रेंड संग रोमांस कर रहा था पति, पत्नी ने दी जान, ससुरालवालों ने यहां छिपा दी लाश

उमाकांत त्रिपाठी।बिहार के मोतिहारी में महुआवा थाना क्षेत्र के चन्द्रमन गांव में…

घर में टीम इंडिया की शर्मनाक हार, 124 रन नहीं बना पाई वर्ल्ड चैंपियन, इतने रन पर हुई ढेर

खबर इंडिया की।कोलकाता में खेले गए पहले टेस्ट में भारतीय बल्लेबाजों का शर्मनाक…

1 of 18

Leave A Reply

Your email address will not be published. Required fields are marked *