Black And White: Deepfake Video पर PM Modi ने क्या कहा? | PM Modi Deepfake Video | Sudhir Chaudhary

Aaj Tak
17 Nov 202317:34

Summary

TLDRThe script discusses the serious issue of deepfake technology misuse, highlighting Prime Minister Narendra Modi's concerns about its potential threats to society. It demonstrates the ease with which deepfakes can manipulate reality, with examples including fake videos of Modi singing and speaking out of context. The script calls for awareness and strict laws to combat deepfakes, emphasizing the need for fact-checking to avoid their harmful impacts on democracy, elections, and social harmony.

Takeaways

  • 😨 The script discusses the serious issue of deepfake technology and its misuse, emphasizing the concerns raised by Prime Minister Narendra Modi about the dangers of deepfake videos to the nation.
  • 🔍 It highlights the need for people to be vigilant and cautious about deepfake videos, as they can be used to spread misinformation and cause social unrest.
  • 🎭 The script mentions that even the Prime Minister himself has been a target of deepfake videos, with several such videos circulating on the internet.
  • 📢 The speaker uses the example of a deepfake video involving a popular actress to illustrate how easily these videos can go viral and affect public perception.
  • 🚨 It warns of the potential for deepfake technology to cause significant social and political harm, including influencing election outcomes and inciting violence.
  • 🌐 The script points out that deepfake technology has gained significant attention worldwide, with discussions in Western countries and increasing concern in India.
  • 👥 The speaker notes that there is a large segment of the Indian population that lacks awareness and fact-checking mechanisms to verify the authenticity of videos.
  • 📈 The script suggests that deepfake videos can be created rapidly with the help of artificial intelligence, posing a growing challenge for society and its institutions.
  • 🚫 It calls for stricter laws and mechanisms to identify and combat the misuse of deepfake technology, as the current legal framework may not be sufficient to address the issue.
  • 🛑 The speaker proposes that social media companies should implement warnings on deepfake videos to inform users of their inauthentic nature before they are viewed.
  • 🤔 The script concludes by urging viewers to fact-check any suspicious videos and not to forward them without verification, to prevent the spread of misinformation.

Q & A

  • What is the main concern expressed by Prime Minister Narendra Modi regarding deepfake videos?

    -Prime Minister Narendra Modi has expressed deep concern over the misuse of artificial intelligence, particularly deepfake videos, and has emphasized the need for people to be aware and vigilant about them.

  • Why is the Indian government worried about deepfake technology?

    -The Indian government is worried because deepfake technology can be used to create convincing fake videos that can incite violence, spread misinformation, influence elections, and even cause conflicts between nations.

  • What is the potential impact of deepfake videos on society as mentioned in the script?

    -Deepfake videos have the potential to disrupt social life and systems, spread discontent rapidly, and even create a significant crisis for a large segment of the population that lacks verification mechanisms.

  • How can deepfake technology be used to manipulate audio as well?

    -Deepfake technology can be used to manipulate audio by creating synthetic speech that sounds real, allowing for the creation of fake audio clips that can be attributed to anyone, including public figures.

  • What is the challenge posed by the ease of creating deepfake videos as discussed in the script?

    -The challenge is that with the power of artificial intelligence, anyone can now create a deepfake video in just a few minutes, and an audio clip in seconds, making it extremely easy to spread false information and manipulate public opinion.

  • What is the legal consequence mentioned in the script for creating and spreading fake videos in India?

    -Under the IT Act Section 66D, creating and spreading fake videos through computers or machine learning can lead to legal action, with a maximum penalty of 3 years in jail.

  • Why are social media companies potentially not taking deepfake videos seriously according to the script?

    -Social media companies may not be taking deepfake videos seriously because these videos generate significant viewership, likes, shares, and traffic, which can be highly profitable for the platforms.

  • What solution is proposed in the script to handle the spread of deepfake videos?

    -One proposed solution is to implement a mechanism where deepfake videos are clearly labeled as such, warning users before they view or share the content, similar to how sensitive content is handled on social media platforms.

  • How does the script suggest people should react when they encounter a potentially deepfake video?

    -The script suggests that people should fact-check before believing and sharing any suspicious video. It advises against forwarding such content without verification to prevent the spread of misinformation.

  • What is the potential harm to women and girls from deepfake technology as highlighted in the script?

    -Deepfake technology can be particularly harmful to women and girls as it can be used to create non-consensual explicit content or to defame them, which can have severe personal and social consequences.

Outlines

00:00

😨 Deepfake Technology and Its Threats

This paragraph discusses the serious issue of deepfake technology and its misuse, highlighting Prime Minister Narendra Modi's concerns about it. It mentions the need for public awareness and vigilance against deepfake videos, which can be manipulated using artificial intelligence. The script also touches on the potential societal risks, including the spread of misinformation, influencing elections, and inciting violence. The Prime Minister's own deepfake videos circulating on the internet are cited as an example, emphasizing the urgent need for verification systems to combat this new challenge.

05:00

🎭 The Reality of Deepfake Videos in Politics and Media

The second paragraph delves into the reality of deepfake videos, particularly in the political and media spheres. It describes how deepfake technology can be used to create convincing audio and visual content, even mimicking the voice of Prime Minister Modi. The paragraph provides examples of deepfake videos involving political figures, such as a viral deepfake of an actress and a manipulated video of a political leader, illustrating the potential for misinformation and manipulation in public discourse.

10:02

🚨 The Dangers of Deepfake Technology and Legal Challenges

This paragraph underscores the dangers of deepfake technology, including its potential to cause social unrest, influence elections, and incite violence against women. It mentions a report published in the United States in 2021 that warned about the threats posed by deepfake videos. The paragraph also discusses the legal challenges in India, where there are no clear laws to curb the misuse of deepfake technology, and suggests the need for stricter legislation and mechanisms for social media companies to identify and warn about deepfake content.

15:05

📢 Awareness and Precautions Against Deepfake Videos

The final paragraph emphasizes the importance of being cautious about deepfake videos and the need for fact-checking before believing or sharing such content. It advises against blindly trusting videos and suggests using available fact-checking methods to verify their authenticity. The paragraph also touches on the responsibility of social media platforms to inform users about the potential risks of deepfake videos and to discourage their circulation.

Mindmap

Keywords

💡Deepfake

Deepfake refers to synthetic media in which a person's image or voice is faked using artificial intelligence techniques. It is central to the video's theme, discussing the dangers and misuse of deepfake technology in spreading misinformation. An example from the script is the mention of deepfake videos of Prime Minister Narendra Modi circulating on the internet.

💡Artificial Intelligence (AI)

Artificial Intelligence is the simulation of human intelligence in machines that are programmed to think like humans and mimic their actions. In the video, AI is highlighted as the technology enabling the creation of deepfakes, posing a significant threat to society by blurring the line between reality and manipulation.

💡Misinformation

Misinformation is false or inaccurate information spread unintentionally. The script discusses how deepfake videos can disseminate misinformation, as they can convincingly depict individuals saying or doing things they never did, leading to potential societal unrest and confusion.

💡Fact-checking

Fact-checking is the process of verifying the accuracy of information or claims. The video emphasizes the importance of fact-checking in the context of deepfake videos to prevent the spread of false information, as people are not generally aware or equipped to identify deepfakes.

💡Social Media

Social media refers to online platforms that allow users to create and share content or participate in social networking. The script mentions social media as a primary channel for the spread of deepfake videos, highlighting the challenges of content moderation and the potential legal implications of such content.

💡Manipulation

Manipulation is the act of altering something skillfully and often deceptively. In the context of the video, manipulation is discussed in relation to deepfake technology, which can be used to alter videos and audio to create convincing but false representations of reality.

💡Crisis

A crisis is a situation of extreme danger or difficulty. The video script describes deepfakes as a 'new crisis' for India, indicating the potential for deepfake technology to create significant challenges and threats to social stability and trust.

💡Authentication

Authentication is the process of verifying the origin and validity of something. The script discusses the lack of parallel verification systems for authenticating deepfake videos, which can lead to the acceptance of false content as genuine.

💡Election

Elections are formal decisions made by voters about who should hold public office. The video mentions the potential for deepfake videos to influence election outcomes by spreading false information about candidates, thereby undermining the democratic process.

💡Cybersecurity

Cybersecurity is the protection of internet-connected systems, including hardware, software, and data, from attack, damage, or unauthorized access. Although not explicitly mentioned, the script implies the need for cybersecurity measures to combat the threats posed by deepfake technology.

💡Legal Implications

Legal implications refer to the potential consequences or obligations that arise from a particular situation. The script touches on the legal challenges posed by deepfakes, such as the difficulty in holding perpetrators accountable under existing laws like the IT Act, and the need for stricter legislation.

Highlights

Deepfake videos are a serious concern, as highlighted by Prime Minister Narendra Modi's emphasis on the need for awareness and vigilance against their misuse.

There are numerous deepfake videos of Prime Minister Modi circulating on the internet, indicating the pervasiveness of this technology.

Artificial intelligence has made it alarmingly easy to create deepfake videos, posing a significant threat to society and potentially spreading discontent rapidly.

The speaker demonstrates the power of AI by showing a deepfake video of himself singing, something he never had the opportunity to do.

The creation of deepfake videos can be done in as little as a few minutes, and deepfake audio in just seconds, showcasing the accessibility of this deceptive technology.

A deepfake audio example is presented, mimicking Prime Minister Modi's voice, to illustrate the realistic capabilities of AI in voice replication.

The Indian government is considering the implications of deepfake technology on society, as it can influence elections and incite unrest.

A report published in the United States in 2021 warned about the dangers of deepfake videos, suggesting they could lead to conflicts and even war.

Deepfake technology has gained significant attention in Western countries, with discussions about its potential societal impact.

In India, there is a lack of awareness and fact-checking mechanisms to combat the spread of deepfake videos.

A deepfake video of actress Rashmika Mandanna went viral, demonstrating the ease with which misinformation can spread.

The Indian government may face challenges in regulating deepfake content, as it can be difficult to distinguish from real content.

Machine learning and AI can create deepfake videos that are nearly indistinguishable from reality, complicating the verification process.

The speaker presents a deepfake video of himself, emphasizing the ease with which anyone's likeness can be manipulated.

A deepfake video can be created with just a snippet of a person's audio, as shown with a manipulated video of Amitabh Bachchan.

The speaker discusses the potential for deepfake technology to influence election outcomes and public opinion.

A deepfake video involving Madhya Pradesh's Chief Minister Shivraj Singh Chouhan was widely circulated, affecting public perception.

Deepfake technology poses a threat to democracy, as it can manipulate election processes and public trust.

The speaker calls for stricter laws and mechanisms to identify and regulate deepfake content on social media platforms.

A potential solution is to label deepfake videos with warnings, informing viewers of their manipulated nature before consumption.

The speaker concludes by urging viewers to be vigilant and to fact-check deepfake content before sharing it on social media.

Transcripts

play00:00

हम एक गंभीर विषय पर आपके साथ बात करेंगे

play00:03

और डीप फेक वीडियोस का एक ब्लैक एंड वाइट

play00:06

विश्लेषण करेंगे और यह आज हम क्यों कर रहे

play00:08

हैं इसलिए कर रहे हैं क्योंकि आज

play00:10

प्रधानमंत्री नरेंद्र मोदी ने आर्टिफिशियल

play00:13

इंटेलिजेंस के दुरुपयोग पर और इस तरह के

play00:16

डीप फेक वीडियोस पर गहरी चिंता जताई है और

play00:19

कहा है कि देश के लोगों को डीप फेक वीडियो

play00:22

से जागरूक और सावधान रहने की आवश्यकता है

play00:25

और आज प्रधानमंत्री मोदी ने व्यंग करते

play00:28

हुए यह भी कहा कि उनके अपने भी खुद के कई

play00:31

डीप फेक वीडियोस इस समय इंटरनेट पर चल रहे

play00:37

हैं आर्टिफिशियल इंटेलिजेंस के

play00:40

कारण और उसमें भी डीप फेक के कारण जो एक

play00:45

नया संकट आ रहा

play00:49

है भारत का बहुत बड़ा वर्ग ऐसा है कि उसके

play00:53

पास वेरिफिकेशन के

play00:56

लिए या ऑथेंटिका करने लिए कोई उसके पास

play01:00

पैरेलल व्यवस्था नहीं है मैंने अभी एक

play01:03

वीडियो देखा जिसम मैं गरबे गा रहा

play01:06

हूं और मैं खुद भी देख रहा क्या बढ़िया

play01:09

बना

play01:13

है जबक मैं स्कूल एज के बाद कभी मौका नहीं

play01:16

मिला मुझे मैं स्कूल में बहुत अच्छा खेलता

play01:18

था घर में बहुत ही अच्छा खेलता था लेकिन

play01:21

बाद में कभी मौका नहीं मिला लेकिन अभी

play01:25

जैसे आजही बनाया हुसा वीडियो आर्टिफिशियल

play01:28

इंटेलिजेंस की ताकत है उसने रख दिया है और

play01:31

चल रहा है और यह बहुत बड़े संकट की तरफ

play01:35

जाएगा समाज और शायद व असंतोष की आग भी

play01:39

बहुत तेजी से फैला सकता है समाज जीवन की

play01:43

व्यवस्थाओं को और यह बहुत मुश्किल काम

play01:46

होता है बहुत मुश्किल काम होता है मान

play01:49

लीजिए कहीं कोई एक गलत चीज ने कुछ नई

play01:52

समस्या पैदा कर

play01:54

दी अगर सरकार को वहां पहुंचना है तो

play01:58

डिस्टेंस भी तो मेटर करता है अब आपको तो

play02:01

डिस्टेंस समय मैटर ही नहीं करता है तुरंत

play02:03

पहुंच जाता है अगर लोगों को एजुकेट कर

play02:06

सकते हैं हम हमारे कार्यक्रमों के

play02:11

द्वारा कि आखिर है

play02:13

क्या आर्टिफिशियल इंटेलिजेंस कैसे काम कर

play02:16

रहा है डीप क्या कर सकता

play02:20

है और कितना बड़ा संकट पैदा कर सकता

play02:25

है डीप फेक बहुत कुछ कर सकता है यह बहुत

play02:29

खतरनाक चीज है हम आज आपके सामने इसका एक

play02:31

ब्लैक एंड वाइट विश्लेषण करेंगे और

play02:33

अमेरिका के राष्ट्रपति जो बाइड के बाद

play02:36

प्रधानमंत्री नरेंद्र मोदी दुनिया के

play02:38

दूसरे ऐसे बड़े नेता हैं जिन्होंने डीप

play02:41

फेक टेक्नोलॉजी को समाज के लिए सबसे बड़े

play02:44

खतरों में से एक माना है यह आज की एक नई

play02:48

चुनौती है और भविष्य की तो और भी बहुत

play02:50

बड़ी चुनौती होगी फिलहाल दुनिया डीप फेक

play02:53

टेक्नोलॉजी और इसकी मदद से बनाए जाने वाले

play02:55

वीडियोस को लेकर काफी बटी हुई है और

play02:58

पश्चिमी देशों में इस पर काफी बहस चल रही

play03:00

है और भारत में भी यह मुद्दा लगातार चिंता

play03:04

का विषय बना हुआ है लेकिन भारत जैसे देशों

play03:07

के लिए सबसे पहली जो चुनौती है वह यह है

play03:09

कि पहले तो हमें जागरूक होने की आवश्यकता

play03:11

है अभी हमारे देश के लोग इसे लेकर जागरूक

play03:14

नहीं है और हमारे देश में फैक्ट चेकिंग भी

play03:17

नहीं होती है आपको याद होगा पिछले दिनों

play03:19

एक एक्ट्रेस रश्मिका मंदाना का एक डीप फेक

play03:22

वीडियो वायरल हुआ था लेकिन अब इस मामले

play03:25

में भारत सरकार ने तमाम सोशल मीडिया

play03:28

कंपनियां जैसे

play03:59

बदला जा सकता है और ऐसे वीडियोस में आपके

play04:02

चेहरे के अलावा फेशियल एक्सप्रेशंस और

play04:05

ऑडियो को भी असली आवाज में बदलना ज्यादा

play04:08

मुश्किल नहीं होता यानी किसी की आवाज कहीं

play04:11

जा सकती है और आप किसी का भी चेहरा और

play04:13

किसी की भी आवाज बदलकर किसी भी प्रकार का

play04:16

वीडियो या ऑडियो क्रिएट कर सकते हैं इससे

play04:20

भी खतरनाक बात यह है कि मशीन लर्निंग और

play04:22

आर्टिफिशियल इंटेलिजेंस की मदद से सिर्फ

play04:25

डेढ़ मिनट में किसी भी व्यक्ति का एक डीप

play04:28

फेक वीडियो बनाया जा सकता है और सिर्फ 15

play04:30

सेकंड में इसकी मदद से एक डीप फेक ऑडियो

play04:33

भी तैयार किया जा सकता है उदाहरण के लिए

play04:36

इस समय

play05:00

कहीं पर उनकी आर्टिफिशियल इंटेलिजेंस के

play05:02

जरिए कुछ तस्वीर बना दी गई है और आज एक

play05:05

ऐसा ही

play05:06

ऑडियो मैं आपके सामने लेकर आया हूं जो

play05:09

सुनने में आपको बिल्कुल असली लगता है

play05:11

लेकिन हकीकत में यह प्रधानमंत्री मोदी की

play05:14

आवाज नहीं है लेकिन उनकी आवाज के साथ यह

play05:17

वीडियो कुछ ही सेकंड में तैयार कर लिया

play05:20

गया होगा आप भी देखिए प्रधानमंत्री मोदी

play05:23

गाना नहीं गाते हैं यह उनकी आवाज भी नहीं

play05:25

है लेकिन किसी ने उनकी आवाज में एक गाने

play05:28

का भी पूरा ऑडियो तैयार करके इंटरनेट पर

play05:30

डाल रखा है इस समय आपके मोबाइल फोन में

play05:34

प्ले स्टोर पर ऐसे कई एप्स मौजूद हैं जो

play05:37

प्रधानमंत्री मोदी की आवाज में उनका डीप

play05:40

फेक ऑडियो क्रिएट कर सकते हैं और

play05:42

प्रधानमंत्री मोदी को गाना गाने से लेकर

play05:45

न्यूज पढ़ने तक कुछ भी करते हुए दिखाया जा

play05:48

सकता है यहां तक कि यह भी संभव है कि

play05:50

प्रधानमंत्री मोदी की आवाज में आप ब्लैक

play05:51

एंड वाइट का यह विश्लेषण भी सुन सकते हैं

play05:54

जैसे आप इस डीप फेक वीडियो को जब सुनेंगे

play05:56

ऑडियो को सुनेंगे जिसमें बल बलैक एंड वाइट

play06:00

में मेरी जगह प्रधानमंत्री मोदी की आवाज

play06:03

है और प्रधानमंत्री मोदी की आवाज में ही

play06:06

ब्लैक एंड वाइट में खबरों का विश्लेषण हो

play06:08

रहा है एक बार देखिए

play06:11

आप राजनीति के हर दाव पेज का भी हम आपके

play06:14

लिए विश्लेषण करेंगे और आज भारत ने जी 20

play06:16

समिट के इतिहास में एक बहुत बड़ी सफलता

play06:19

हासिल की है जब जी 20 के सभी देशों ने

play06:21

सर्वसम्मति से भारत द्वारा बनाए एजेंडे पर

play06:24

अपनी सहमति जताई है आज की सबसे बड़ी

play06:27

उपलब्धि है कि रशिया और य क्रेन के युद्ध

play06:30

पर बिना रशिया का नाम लिए और बिना

play06:32

राष्ट्रपति वलादर पुतिन का नाम लिए भारत

play06:35

ने इस मुद्दे पर पूरी तरह से विभाजित जी

play06:38

20 देशों के बीच भी एक सहमति बना

play06:43

दी तो देखिए ऐसी टेक्नोलॉजी है कि अगर

play06:46

आपको ब्लैक एंड वाइट में विश्लेषण

play06:48

प्रधानमंत्री मोदी की आवाज में सुनना है

play06:50

तो वह भी किया जा सकता है जो बात उन्होंने

play06:53

कभी कही नहीं वह बात भी उनके मुंह से

play06:55

निकलवाई जा सकती है अब मैं आपको एक और डीप

play06:58

फेक वीडियो दिखाता हूं और यह वीडियो मेरा

play07:01

खुद का है और आप जब मेरे इस डीप फेक

play07:03

वीडियो को देखेंगे तो आपको अपनी आंखों और

play07:06

अपनी कानों पर विश्वास नहीं होगा आप पहले

play07:10

यह वीडियो

play07:11

देखिए अब मैं आप सबका धन्यवाद देना चाहता

play07:14

हूं क्योंकि ब्लैक एंड वाइट में आपका और

play07:16

मेरा सफर आज यहीं खत्म हो रहा है आज ब्लैक

play07:20

एंड वाइट में यह मेरा आखिरी शो है और इसके

play07:22

बाद अब आज तक पर मेरी आपसे मुलाकात नहीं

play07:25

होगी इसलिए आपने मुझे और इस शो को जितना

play07:28

प्यार दिया उसके लिए मैं आपका हमेशा आभारी

play07:33

रहूंगा यह जो डीप फेक वीडियो अभी आपने

play07:36

देखा जिसमें मैं इतनी बड़ी घोषणा कर रहा

play07:38

हूं बहुत बड़ी घोषणा मैं कर रहा हूं यह

play07:41

असल में हमारी ही टीम ने तैयार किया है और

play07:43

मैं शायद इकलौता ऐसा इंसान हूं जिसने अपना

play07:46

ही डीप फेक वीडियो बनवाया है तो यह डीप

play07:50

फेक वीडियो मैंने अपना ही तैयार किया है

play07:52

क्योंकि और किसी का तैयार नहीं कर सकता था

play07:54

क्योंकि यह गैर कानूनी होता इसलिए यह जो

play07:57

डीप फेक वीडियो का मजाक है यह मैंने अपने

play08:00

ऊपर ही किया है और इसलिए आपको अपना ही

play08:03

वीडियो मैंने डीप फेक करके दिखाया

play08:07

है क्योंकि इसके जरिए हम आपको यह समझाना

play08:10

चाहते थे कि किसी भी असली वीडियो को डीप

play08:13

फेक वीडियो में बदलना बहुत आसान हो चुका

play08:15

है और थोड़ी देर पहले मैंने आपसे कहा था

play08:20

कि प्रधानमंत्री मोदी के कई डीप फेक

play08:23

वीडियोस इस समय चल रहे हैं ऑडियोज भी चल

play08:25

रहे हैं उन्हें अभी आपने न्यूज पढ़ते हुए

play08:27

तो देख लिया मैंने अभी आपको दिखाया अब

play08:30

देखिए कि प्रधानमंत्री मोदी जब गाना गाते

play08:32

हैं उनकी आवाज में लोगों ने उनका डीप फेक

play08:35

ऑडियो तैयार करके बाकायदा गाने बना दिए

play08:37

हैं अब जरा

play08:40

देखिए तो यह होती है डीप फेक टेक्नोलॉजी

play08:43

आज अगर आपने अपने सोशल मीडिया पर कोई

play08:45

वीडियो अपलोड किया है तो उस वीडियो को डीप

play08:49

फेक वीडियो में बहुत आसानी से बदला जा

play08:51

सकता है कोई भी बदल देगा और इसीलिए भारत

play08:54

सरकार और प्रधानमंत्री मोदी इस टेक्नोलॉजी

play08:56

को लेकर अब बहुत ही चिंतित है

play09:01

वर्ष 2021 में अमेरिका में प्रकाशित हुई

play09:03

एक रिपोर्ट में डीप फेक वीडियोस के खतरों

play09:05

के बारे में बताया गया था जिसके मुताबिक

play09:07

इस तरह के वीडियोस इतने खतरनाक हैं कि यह

play09:10

दो देशों के बीच युद्ध तक करा सकते हैं

play09:13

किसी भी देश की सेना और सरकार के बीच

play09:15

विद्रोह की स्थिति पैदा कर सकते हैं किसी

play09:18

भी देश में सांप्रदायिक दंगे भड़का सकते

play09:20

हैं किसी भी देश के नागरिकों में सरकार के

play09:23

प्रति नफरत पैदा कर सकते हैं चुनावों के

play09:25

नतीजों को बदल सकते हैं महिलाओं के खिलाफ

play09:27

अपराध को बढ़ावा दे सकते सकते हैं और यह

play09:30

वो वीडियोस हैं जो लोकतंत्र में चुनावों

play09:32

की प्रक्रिया को भी प्रभावित कर सकते हैं

play09:35

और भारत में इसकी शुरुआत हो चुकी है

play09:37

इसीलिए प्रधानमंत्री मोदी ने आज इतनी बड़ी

play09:40

बात कही है मध्य प्रदेश में विधानसभा

play09:42

चुनाव के दौरान एक ऐसा वीडियो काफी चर्चा

play09:44

में रहा जिसमें वहां के मुख्यमंत्री

play09:47

शिवराज सिंह चौहान यह कह रहे हैं कि

play09:49

कांग्रेस पार्टी के नेता कमलनाथ मध्य

play09:52

प्रदेश में सरकार बनाने में सफल हो सकते

play09:55

हैं यानी वह खुद अपनी हार को स्वीकार कर

play09:57

रहे हैं और उनकी और वो यह भी कह रहे हैं

play09:59

कि कमलनाथ की नीतियां लोगों को पसंद आ रही

play10:01

है लेकिन यह असल में एक डीप फेक वीडियो था

play10:04

जो कई लोगों तक हजारों लाखों लोगों तक

play10:07

शायद पहुंच गया और बहुत सारे लोगों ने इसे

play10:10

सही भी मान लिया होगा और इस पर विश्वास भी

play10:12

कर लिया होगा अब देखिए शिवराज सिंह चौहान

play10:15

का यह डीप फेक

play10:17

वीडियो मैं बार-बार कह रहा हूं कमलनाथ को

play10:20

रोको कांग्रेस आ गई तो सबको 1500 महीने और

play10:24

00 में गैस देने लगेगी फिर इस बार तो

play10:26

छोड़ो अगली बार भी हमारा जीतना नामुमकिन

play10:29

हो जाएगा हमने तो कुछ लोगों को 50 दिए हैं

play10:32

वह तो सबको देंगे हमने तो 50 में गैस

play10:35

सिलेंडर का सिर्फ झांसा दिया है वो तो सही

play10:37

में देंगे क्योंकि वह दूसरे प्रदेशों में

play10:39

दे रहे हैं भैया कुछ भी करो पर कमलनाथ को

play10:42

रोको इसी तरह मध्य प्रदेश के चुनाव में दो

play10:45

और और भी ना जाने कितने डीप फेक वीडियोस

play10:48

वायरल हुए हैं जिनमें एक में यह दिख रहा

play10:51

है कि अमिताभ बच्चन ने अपने मशहूर टीवी शो

play10:54

कौन बनेगा करोड़पति में एक प्रतियोगी से

play10:57

यह सवाल पूछा कि भारत के किस मुख्यमंत्री

play11:00

को उनकी झूठी घोषणाओं के लिए घोषणा मशीन

play11:03

कहा जाता है जबकि हकीकत में अमिताभ बच्चन

play11:06

ने अपने शो में ऐसा कोई सवाल पूछा ही नहीं

play11:09

था लेकिन जब आप यह वीडियो देखेंगे तो आपको

play11:12

लगेगा कि अमिताभ बच्चन वाकई पूछ रहे हैं

play11:15

कि किस मुख्यमंत्री को घोषणा मंत्री कहा

play11:18

जाता

play11:20

है अब देखिए देखने में तो आपको बहुत मजा

play11:23

आया होगा और शिवराज सिंह चौहान के जो

play11:26

प्रतिद्वंदी हैं उन्होंने इस वीडियो को

play11:29

वायरल कर दिया होगा अब तक यह वीडियो लाखों

play11:31

करोड़ों लोगों तक पहुंच चुका होगा लोग इसे

play11:34

देखते होंगे फिर हंसते होंगे और फिर इसे

play11:36

और आगे

play11:59

चिंता जताई और लोगों से ऐसे वीडियोस को

play12:01

लेकर सतर्क रहने के लिए उन्होंने कहा है

play12:05

दुनिया में 999 पर डीप फेक वीडियोस

play12:07

महिलाओं को निशाना बनाने के लिए बनाए जाते

play12:10

हैं 999 पर का शिकार महिलाएं होती हैं और

play12:13

इनमें से भी 81 पर वीडियो ऐसे होते हैं

play12:16

जिनका कभी भी फैक्ट चेक नहीं हो पाता और

play12:19

लोग इन फर्जी वीडियोस को ही जीवन भर सही

play12:23

मानते रहते हैं तो सोचिए और महिलाओं को

play12:26

लेकर ये जो वीडियोस आते हैं महिला

play12:29

कहां-कहां जाएंगी किस-किस को बताएंगे कि

play12:30

यह वीडियो गलत है यह फेक है यह एक ऐसा

play12:34

खतरा है जो पूरी दुनिया को इस समय डरा रहा

play12:36

है और बड़ी बात यह है कि अभी डीप फेक

play12:39

टेक्नोलॉजी और आर्टिफिशियल इंटेलिजेंस के

play12:41

दुरुपयोग को रोकने के लिए कहीं भी स्पष्ट

play12:44

कानून है ही नहीं हमारे देश भारत में अगर

play12:47

कंप्यूटर या मशीन लर्निंग के जरिए किसी के

play12:50

खिलाफ कोई गलत जानकारी फैलाई जाती है या

play12:52

फेक वीडियो बनाया जाता है तो ऐसे मामलों

play12:54

में आईटी एक्ट के सेक्शन 66 डी के तहत

play12:57

कारवाई हो सकती है और अधिकतम 3 साल की जेल

play13:01

की सजा हो सकती है सिर्फ 3 साल इसलिए आज

play13:03

इस मामले में स्पष्ट और सख्त कानून की

play13:06

जरूरत तो है ही साथ ही सोशल मीडिया

play13:08

कंपनियों को भी ऐसे वीडियोस की पहचान करने

play13:10

के लिए एक नया मैकेनिज्म तैयार करने की अब

play13:14

बहुत सख्त जरूरत है इसमें एक समाधान आज हम

play13:19

बताना चाहते हैं एक समाधान यह हो सकता है

play13:21

कि ऐसे जितने भी वीडियोस जो मशीन लर्निंग

play13:24

और आर्टिफिशियल इंटेलिजेंस की मदद से

play13:26

तैयार होते हैं उन वीडियोस पर चे चेतावनी

play13:29

लिखी जानी चाहिए और यह लिखा हो कि यह

play13:31

वीडियो डीप फेक वीडियो है या हो सकता है

play13:36

जैसे अभी आपने देखा होगा सोशल मीडिया पर

play13:38

जो वीडियो अपने कंटेंट की वजह से

play13:40

संवेदनशील होते हैं उन्हें लेकर यह सोशल

play13:44

मीडिया कंपनियां टेक्नोलॉजी कंपनियां अपने

play13:47

यूजर्स को जानकारी देती हैं आपने देखा

play13:49

होगा जब आप

play13:58

रोक देते हैं पहले आपको चेतावनी देते हैं

play14:01

और कहते हैं कि यह एक संवेदनशील वीडियो है

play14:03

फिर आपसे पूछते हैं कि क्या इसकी इस

play14:05

चेतावनी के बाद भी आप इसे देखना चाहेंगे

play14:09

इसलिए आज हम यह कहना चाहते हैं कि जो डीप

play14:12

फेक वीडियोस हैं उन्हें लेकर भी यह तमाम

play14:14

सोशल मीडिया कंपनियां जो है यह इस तरह के

play14:17

वीडियोस को लेकर वैसी ही जानकारी दे सकती

play14:20

हैं और दर्शकों को और यूजर्स को पहले ये

play14:23

बता सकती हैं कि यह वीडियो असली नहीं है

play14:26

यह डीप फेक वीडियो है अब अगर आप चाहे तो

play14:29

इसे देख सकते हैं और दूसरा लोगों को यह भी

play14:32

बताया जा सकता है कि यह डीप फेक वीडियो है

play14:34

इसे फॉरवर्ड कृपया करके ना करें इसे आगे

play14:38

ना भेजें हालांकि यहां इस विषय को लेकर

play14:41

पश्चिमी देशों में काफी बहस है बहुत सारे

play14:44

लोगों का कहना है कि जब असली वीडियो की

play14:46

तुलना में डीप फेक वीडियोस में सोशल

play14:48

मीडिया कंपनियों को इतना ज्यादा व्यूअरशिप

play14:51

और ट्रैफिक मिलता है तो क्या वह इन

play14:53

वीडियोस को रोकने के लिए वाकई कोई गंभीर

play14:56

प्रयास करेंगी क्योंकि ऐसे वीडियोस आपके

play14:58

लिए के लिए खतरनाक तो होते हैं लेकिन इन

play15:00

वीडियोस में लाइक्स और व्यूज और शेयर और

play15:04

ट्रैफिक लाने के लिए जबरदस्त क्षमता होती

play15:07

है और ये किसी भी सोशल मीडिया प्लेटफार्म

play15:10

के लिए किसी चुंबक की तरह होते हैं किसी

play15:12

गुड़ की तरह होते हैं जिसमें मक्खियां

play15:14

आसपास बैठती हैं और उसके बाद इन डीप फेक

play15:18

वीडियोस की जो दर्शक हैं और जो इनकी मांग

play15:20

है वो जबरदस्त होती है इसलिए एक बड़ा जो

play15:23

चैलेंज है जो बड़ी चुनौती है वो यह है कि

play15:26

असल में इन डीप फेक वीडियो से सोशल मीडिया

play15:29

कंपनियों को फायदा ही होता है क्योंकि

play15:31

असली वीडियो की जितनी व्यूअरशिप नहीं होती

play15:33

उससे कहीं ज्यादा कई गुना ज्यादा नकली

play15:36

वीडियो की व्यूअरशिप होती है क्योंकि नकली

play15:38

वीडियो किसी खास मंशा के साथ बनाया जाता

play15:41

है या तो किसी का अपमान करना होता है या

play15:43

गलत जानकारी देनी होती है चुनावों को

play15:46

प्रभावित करना होता है दंगे कराए जाने

play15:48

होते हैं और ऐसे में जो एक पार्टी विशेष

play15:51

होती है कोई भी जिसे इस फेक वीडियो का लाभ

play15:55

मिल सकता है वह लोग जानबूझकर उस वीडियो को

play15:58

सर्कुलेट लेट करते हैं और असल में यह सारा

play16:00

पैसा जाता है सोशल मीडिया कंपनियों की जेब

play16:03

में क्योंकि जितने ज्यादा व्यूअर आएंगे

play16:05

जितने ज्यादा शेयर्स आएंगे जितने ज्यादा

play16:07

लाइक्स आएंगे उन्हें उतना ही लाभ मिलेगा

play16:10

यह विषय कितना गंभीर है इसका अंदाजा आप इस

play16:12

बात से लगाइए कि एक और मशहूर एक्ट्रेस

play16:15

काजोल का भी एक डीप फेक वीडियो वायरल हुआ

play16:18

है जो काफी आपत्तिजनक है और हम आप उसे दिख

play16:21

हम उसे दिखा भी नहीं सकते लेकिन सोचिए जब

play16:23

इतनी बड़ी एक्ट्रेस के खिलाफ इस

play16:25

टेक्नोलॉजी का ऐसा दुरुपयोग हो रहा है तो

play16:28

फिर आम महिलाओं और लड़कियों के लिए यह

play16:30

टेक्नोलॉजी कितनी ज्यादा खतरनाक हो सकती

play16:33

है इसलिए आज हम आपको इस डीप फेक

play16:36

टेक्नोलॉजी से सावधान करना चाहते हैं आपको

play16:38

यह बताना चाहते हैं कि जब आपके पास कभी

play16:40

कोई इस तरह का वीडियो आए सबसे पहले आपको

play16:43

उसका फैक्ट चेक करना चाहिए उस पर आंख बंद

play16:45

करके विश्वास तो बिल्कुल नहीं करना चाहिए

play16:48

आजकल बहुत सारे फैक्ट चेकिंग के तरीके आ

play16:50

गए हैं आप उन तरीकों को पहले अपना सकते

play16:53

हैं आप इसके बाद जब आपको लगे कि यह वीडियो

play16:58

विश्वास विश्वसनीय नहीं लग रहा है डीप फेक

play17:01

लग रहा है तो इसे फॉरवर्ड मत कीजिए कृपया

play17:03

करके अपने किसी दोस्त को आगे मत भेजिए

play17:06

अपने किसी दोस्त को

play17:28

लगातार सर्कुलेट हो रहे हैं और आपको इससे

play17:31

बचकर रहना है

Rate This

5.0 / 5 (0 votes)

Ähnliche Tags
DeepfakesSocietal ImpactTechnology AnalysisFake VideosArtificial IntelligencePrime Minister ModiFact-CheckingMedia MisinformationElection InfluenceCybersecurity
Benötigen Sie eine Zusammenfassung auf Englisch?