Les dangers de l'intelligence artificielle : entrevue avec Yoshua Bengio

Radio-Canada Info
25 Jul 202307:49

Summary

TLDRIn this discussion, the imminent dangers of artificial intelligence are highlighted, with the possibility of AI reaching human-level intelligence within a few years rather than decades. The speaker emphasizes the urgent need for regulation to prevent misuse in areas like national security and democracy, citing the potential for AI to generate deepfakes and disseminate false information. There's a call for more research into AI safety and public protection, and a warning against the unchecked advancement of AI without considering its societal impacts.

Takeaways

  • 🚨 The speaker warns of the imminent dangers of artificial intelligence, suggesting it could pose a real threat within the next 20 years or even sooner.
  • 🧠 There is a significant uncertainty about the timeline for AI to reach human-level intelligence, with some estimates suggesting it could be within the next 5 years.
  • 🔍 The speaker highlights the potential for AI to be misused in creating deepfakes and spreading false information, which poses a threat to national security and democratic processes.
  • 💡 AI's capability to generate convincing fake images, videos, and speech could be amplified by recent advancements, leading to increased risks.
  • 🛡️ The speaker calls for immediate action to address AI risks, emphasizing the need for regulation and research into public safety and democracy protection.
  • 🔒 There is a concern that AI systems, if not properly controlled, could be used to scale up disinformation campaigns, potentially impacting future elections.
  • 🤖 The speaker discusses the ethical and control issues surrounding AI, including the possibility of machines developing self-preservation goals that conflict with human interests.
  • 🧐 There is a call for more research into AI safety and governance to ensure that future systems remain under human control and do not lead to discrimination or other harmful outcomes.
  • 🌐 The speaker urges governments to act quickly to establish legislation to regulate AI, coordinate internationally, and invest in research to protect the public and prepare for potential security threats.
  • ⏳ The speaker expresses a sense of urgency, noting that the time to act is now, and that while progress in AI has been rapid, there is still a chance to steer its development towards beneficial outcomes.

Q & A

  • What is the current timeline for artificial intelligence to pose a real danger according to the transcript?

    -The transcript suggests there is uncertainty, but it could be within the next 20 years or even faster, potentially within the next 5 years.

  • What are the immediate dangers of artificial intelligence mentioned in the transcript before reaching human-level intelligence?

    -The immediate dangers include the manipulation of information, production of fake news, and potential influence on democratic processes such as upcoming elections.

  • How can AI currently generate false information, and what are the implications for security?

    -AI can generate deepfakes, fake images, and videos, and provide information on creating cyber-attacks, biological pathogens, or chemical weapons, which is concerning for national security.

  • What is the concern regarding the use of AI in the context of democracy and elections?

    -There is a concern that AI could be used to spread misinformation on a large scale, similar to how human trolls operate but magnified by orders of magnitude due to the automated nature of AI.

  • Has the speaker's perspective on AI shifted from optimism to pessimism, and if so, why?

    -Yes, the speaker's perspective has shifted due to the realization that AI could reach human-level intelligence much sooner than previously thought, which changes the risk assessment.

  • What is the speaker's stance on the controllability of AI, and how does it relate to the Turing Award winner Yann LeCun's views?

    -The speaker has had discussions with Yann LeCun, who believes humans control AI. However, the speaker argues that current systems are trained to imitate humans, which is a flawed premise, and there's a risk of losing control once AI develops self-preservation goals.

  • What are the unknowns and concerns the speaker has about the future of AI?

    -The speaker is concerned about the unknowns such as how to ensure AI systems remain under human control and how to prevent them from causing harm or discrimination.

  • What actions does the speaker suggest are necessary to address the challenges posed by AI?

    -The speaker suggests the need for rapid legislation to regulate AI, investment in research for public protection and control of AI systems, and research into national security measures in case regulation fails.

  • What is the speaker's call to action for governments regarding AI?

    -The speaker calls for governments to work quickly on legislation, coordinate nationally and internationally, invest in research for public protection and control, and prepare for potential security threats.

  • How receptive were the legislators and government officials to the speaker's message about AI risks?

    -The speaker was impressed by the senators and officials who seemed to understand the importance and urgency of the issues, indicating a positive reception and potential for action.

Outlines

00:00

🤖 AI's Imminent Threats and Misinformation

The speaker discusses the potential dangers of artificial intelligence (AI), suggesting that it could pose a real threat within the next two decades. They highlight the uncertainty around the timeline, with some estimates suggesting it could be as soon as five years before AI reaches human-level intelligence. The conversation touches on the risks to national security and democracy, including the potential for AI to generate deepfakes and spread misinformation, which could disrupt upcoming elections. The speaker also mentions the broader implications for society, such as the creation of harmful biological or chemical weapons, and emphasizes the need for immediate action to address these issues.

05:00

🏛️ Urgent Call for AI Regulation and Research

The speaker reflects on the rapid advancements in AI and acknowledges that the focus on the benefits of AI may have overshadowed the need for security measures. They express a sense of urgency, emphasizing that it's time to act. The speaker calls on governments to quickly establish legislation to regulate AI, to ensure its use is not uncontrolled. They also stress the importance of international coordination in this regulation. Furthermore, the speaker advocates for investment in research to protect the public and maintain control over AI systems, to prevent discrimination and other ethical issues. They suggest that research should also explore technological and regulatory measures to safeguard against potential misuse of AI by malicious actors or entities, such as terrorist organizations. The speaker concludes with a note of optimism, having engaged with senators and other policymakers who seem to understand the importance and urgency of the matter.

Mindmap

Keywords

💡Artificial Intelligence

Artificial Intelligence (AI) refers to the simulation of human intelligence in machines that are programmed to think like humans and mimic their actions. In the video, AI is central to the discussion as it poses both imminent and potential future dangers, such as the creation of deepfakes and the facilitation of misinformation, which can impact national security and democratic processes.

💡Imminent danger

The term 'imminent danger' suggests a threat that is about to happen or is expected in the very near future. In the context of the video, the speaker discusses the potential for AI to become a real danger within a couple of decades, or possibly much sooner, indicating a sense of urgency in addressing the risks associated with AI development.

💡Deepfakes

Deepfakes are synthetic media in which a person's likeness is created or manipulated using artificial intelligence. The video mentions deepfakes as a current and growing threat, where AI can generate fake images and videos that can be used to spread disinformation and manipulate public opinion.

💡National security

National security encompasses the measures taken by a government to protect its country's interests against threats such as war, espionage, and terrorism. The video highlights how AI advancements can pose threats to national security, for instance, by providing information on how to conduct cyber-attacks or create biological weapons.

💡Democracy

Democracy is a system of government where power is vested in the people and exercised by them directly or through elected representatives. The video discusses the potential for AI to disrupt democracy by enabling large-scale disinformation campaigns that could sway public opinion and election outcomes.

💡Cyber-attacks

Cyber-attacks are offensive operations against computer systems, networks, or infrastructures that are conducted through the internet or other digital channels. The script mentions AI's role in potentially facilitating the creation of cyber-attacks, indicating a shift in the nature of threats to digital security.

💡Biological weapons

Biological weapons are pathogens or toxins that can be used to intentionally harm or kill people, livestock, or crops. The video script raises concerns that AI could be used to design such weapons, thereby increasing the risk of bioterrorism.

💡Regulation

Regulation refers to the rules and policies established by a government or other authority to control an activity or industry. The video calls for rapid regulation of AI to prevent misuse and ensure that its development is aligned with public safety and ethical standards.

💡Research and development

Research and development (R&D) involves the systematic investigation and experimentation aimed at discovering new knowledge and creating new products or processes. The video emphasizes the need for more R&D in AI safety and governance to ensure that AI systems remain under human control and do not lead to unintended harmful consequences.

💡Public safety

Public safety refers to the protection of the health, welfare, and property of the public. In the video, the speaker stresses the importance of investing in research to protect the public from potential dangers posed by AI, such as the spread of misinformation and the development of harmful technologies.

💡Governance

Governance in the context of AI refers to the structures, policies, and processes that guide the creation, deployment, and use of AI technologies. The video underscores the need for establishing good governance rules for AI to prevent discrimination, ensure ethical use, and maintain control over AI systems.

Highlights

The dangers of artificial intelligence are imminent, potentially within a couple of decades.

There is uncertainty about the timeline, with some suggesting it could be as soon as 5 years before AI reaches human-level intelligence.

Most researchers have shortened their AI timeline expectations.

National security and democracy are at risk even before AI reaches human-level intelligence.

AI can generate fake images, videos, and speeches, which could be amplified with systems like GPT.

AI can provide information on creating cyber-attacks, biological weapons, and chemical weapons.

The misuse of AI could lead to large-scale disinformation, affecting democratic processes like elections.

The speaker used to be more optimistic about AI but has shifted towards a more cautious stance.

Yann LeCun, a Turing Award winner, believes humans will control AI and not the other way around.

Current AI systems are trained to imitate humans, which could lead to negative outcomes.

There's a risk of losing control over AI once it's given a goal of self-preservation.

The need for self-preservation in AI might emerge on its own without being programmed.

There is a need for more research on AI safety and public protection.

The majority of AI investments are currently aimed at making systems more powerful, which can be both beneficial and dangerous.

The speaker acknowledges that they might have focused too much on the benefits of AI and not enough on safety.

The speaker calls for urgent action, including government regulation and investment in AI safety research.

The speaker has been engaging with legislators and government officials to raise awareness about the need for AI regulation.

The speaker is impressed by the responsiveness of U.S. senators and the potential for change in AI governance.

The speaker urges the Canadian government to also recognize the importance of addressing AI challenges.

Transcripts

play00:00

c'est pas la première fois que vous nous

play00:01

signalez les dangers de l'intelligence

play00:04

artificielle si je comprends bien là

play00:06

vous dites c'est imminent c'est à dire

play00:08

ça peut prendre une vingtaine d'années

play00:09

avant que ça pose un réel danger

play00:11

qu'est-ce qui vous fait dire ça en fait

play00:13

ça pourrait être beaucoup plus rapide

play00:14

que ça

play00:16

pourrait être dans quelques années nos

play00:19

gens 5 ans que on atteindrait le niveau

play00:22

d'intelligence des humains ça pourrait

play00:25

être aussi une vingtaine d'années il y a

play00:27

vraiment un incertitude là-dessus mais

play00:28

la plupart des chercheurs ont réduit

play00:30

leur horizon de West quand est-ce qu'on

play00:32

s'attend à avoir des machines aussi

play00:34

intelligentes que nous puis à partir du

play00:36

moment où on atteint ce niveau là il y a

play00:38

vraiment des des dangers au niveau de la

play00:41

sécurité nationale au niveau de la

play00:43

protection de démocratie même avant

play00:44

qu'on atteigne ce niveau là il y a des

play00:46

dangers même pour les prochaines

play00:48

élections américaines par exemple ou les

play00:50

prochaines élections canadiennes et il

play00:53

faut commencer à s'en occuper tout de

play00:54

suite pourquoi juste qu'on situe l'enjeu

play00:57

quand vous parlez de danger c'est quoi

play00:58

c'est la manipulation

play01:00

d'information c'est la production

play01:01

d'informations fausses de quoi

play01:03

parlez-vous exactement quand il est

play01:04

question de sécurité nationale ou par

play01:06

exemple de processus électoral

play01:08

alors déjà l'intelligence artificielle

play01:11

permet de générer des fausses images et

play01:15

vidéos et reproduction de quelqu'un qui

play01:18

parle ça ça existe déjà mais ça risque

play01:20

d'être amplifier avec le genre de

play01:22

système qui qu'on a depuis quelques mois

play01:24

avec chat GPT par exemple qui peuvent

play01:26

aussi interagir au niveau du langage qui

play01:29

peuvent aussi

play01:30

donner des informations qui sont

play01:32

normalement difficiles d'accès par

play01:33

exemple sur comment écrire des

play01:36

cyber-attaques ou comment designer des

play01:39

des pathogènes pour des armes

play01:42

biologiques ou comment designer des des

play01:45

armes chimiques aujourd'hui c'est déjà

play01:49

quelque chose d'inquiétant pour les gens

play01:50

qui s'occupent de sécurité nationale

play01:51

puis ça risque d'être pire dans

play01:54

l'année où les 5 ans qui viennent

play01:57

pour la démocratie c'est que

play02:00

ce qui risque d'arriver c'est que ce

play02:02

système là s'ils sont pas bien encadrés

play02:05

peuvent être utilisées pour mettre à

play02:08

grande échelle le genre de

play02:09

désinformation qu'on qui existe déjà

play02:12

imaginer que des trolls qui sont déjà

play02:15

sur Internet au lieu que ce soit des

play02:18

humains qui le font que ce soit

play02:19

multiplié par 100 ou par 1000 parce que

play02:21

c'est des machines qui sont capables

play02:22

d'interagir avec les citoyens est-ce que

play02:25

je me trompe ou on avait l'impression

play02:26

que vous étiez dans le camp des

play02:28

optimistes un certain moment sur

play02:30

l'utilisation de l'intelligence

play02:31

artificielle puis là que vous basculez

play02:33

un peu dans le camp des pessimistes le

play02:36

déclic se fait ou comment et pourquoi

play02:39

c'est cet hiver que j'ai commencé à

play02:42

réaliser avec toi GPT que le quand

play02:46

est-ce qu'on s'attend de voir des

play02:47

machines aussi ou plus intelligentes que

play02:49

nous tout d'un coup c'est pas dans des

play02:51

décennies des siècles mais c'est dans

play02:53

plutôt une question d'année peut-être ça

play02:56

c'est pas sûr évidemment mais à la

play02:59

vitesse à laquelle les choses bougent

play03:00

c'est c'est tout à fait envisageable et

play03:02

ça ça change complètement la donne

play03:04

Yann lecun que vous connaissez n'est-ce

play03:07

pas il a gagné un prix avec vous en 2018

play03:08

le prix Turing donc dit en même temps

play03:12

c'est des humains qui contrôlent la

play03:13

machine la machine ne va pas nous

play03:15

contrôler on peut pas présumer que la

play03:18

machine si elle était intelligente ou

play03:19

l'intelligence artificielle va avoir les

play03:21

mêmes défauts que l'homme c'est à dire

play03:23

de vouloir

play03:25

déstabiliser des sociétés par exemple

play03:27

vous répondez quoi à ça ces arguments

play03:30

assez contre arguments

play03:32

en fait j'ai eu beaucoup de discussions

play03:34

avec lui et de débat en public aussi

play03:36

premièrement les systèmes d'aujourd'hui

play03:38

sont entraînés à imiter les humains donc

play03:40

déjà ça part mal

play03:42

deuxièmement il y a depuis une dizaine

play03:44

d'années pas mal de recherches en

play03:46

informatique et qui montre que à partir

play03:49

du moment où on donnerait à la machine

play03:52

un but d'autopréservation mais on

play03:55

perdrait le contrôle sur cette machine

play03:56

là vu qu'elle veut se préserver elle

play03:59

voudra pas qu'on l'éteigne par exemple

play04:00

il y a un conflit qui qui commence et

play04:03

puis en plus il y a des analyses qui

play04:06

montrent que ce besoin d'auto-révation

play04:08

on aurait même pas besoin de le

play04:10

programmer ce qui serait relativement

play04:11

facile une fois qu'on a une machine très

play04:12

intelligente il pourrait émerger tout

play04:15

seul à partir d'autres buts qu'on

play04:17

donnerait à la machine donc

play04:19

il y a beaucoup de choses qu'on sait pas

play04:22

puis on sait même pas comment s'assurer

play04:24

aujourd'hui que les systèmes des

play04:27

prochaines années soit vraiment toujours

play04:29

sur notre contrôle on a besoin de

play04:32

beaucoup plus de recherches sur le côté

play04:34

sécurité protection du public alors

play04:37

qu'aujourd'hui 99.9% de l'argent qui

play04:39

investit c'est pour rendre ces systèmes

play04:42

là plus puissant ce qui peut être très

play04:44

très bénéfique mais aussi très dangereux

play04:46

mais donc c'est un Frankenstein que vous

play04:48

avez créé vous la mets les gens qui

play04:50

travaillent dans l'intelligence

play04:50

artificielle sur Frankenstein qui a été

play04:52

créé

play04:55

oui je pense que les chercheurs comme

play04:57

moi qui sont pas dans l'industrie on

play05:00

s'imaginait pas que ça allait aller

play05:03

aussi vite mais c'est sûr que en

play05:07

rétrospective

play05:09

mettons il y a des gens j'aurais

play05:11

peut-être

play05:13

travaillé beaucoup plus sur le côté

play05:14

sécurité que je l'ai fait sans doute

play05:18

parce que j'étais vraiment centré sur ce

play05:20

que l'IA peut apporter de bénéfiques et

play05:22

aussi l'idée que de toute façon c'était

play05:25

très très loin et qu'entre temps il y

play05:26

aurait des choses très très positives

play05:27

pour la société en santé environnement

play05:29

éducation

play05:30

productivité des entreprises tout ça

play05:32

alors il est peut-être pas trop tard

play05:34

c'est un peu ce que vous dites aussi

play05:36

mais c'est le temps d'agir c'est-à-dire

play05:37

que le temps commence à presser

play05:39

qu'est-ce que je présume ce sont les

play05:41

gouvernements que vous interpellez parce

play05:42

que là vous étiez devant des sénateurs

play05:44

aujourd'hui donc des législateurs

play05:45

qu'est-ce que vous leur demandez au

play05:48

Gouvernement sur ce front

play05:50

alors je leur demande premièrement de

play05:53

travailler très très rapidement la mise

play05:55

en place de législation pour réglementer

play05:58

l'IA pour encadrer son utilisation pour

play06:01

que ce soit pas un free for aujourd'hui

play06:02

c'est

play06:04

complètement libre et il faut que ça se

play06:07

fasse de manière coordonnée avec les

play06:09

avec les autres pays il faut que ça se

play06:11

fasse au niveau national et au niveau

play06:13

international deuxièmement je leur dis

play06:16

que il faut investir en recherche pour

play06:19

comment on fait pour protéger le public

play06:21

comment on fait pour que ces systèmes là

play06:23

on en perte pas le contrôle comment on

play06:25

fait pour éviter que ces systèmes là

play06:27

discrimine bon il y a beaucoup de

play06:30

recherches à faire pour nous donner les

play06:31

bonnes règles de gouvernance autour de

play06:33

ces systèmes qui vont arriver de toute

play06:35

façon parce que il y a tellement de

play06:36

milliards qui sont investis par

play06:38

l'industrie aujourd'hui que ça

play06:40

s'accélère troisièmement je leur dis que

play06:42

il faut aussi faire de la recherche pour

play06:44

au cas où la réglementation ne marche

play06:45

pas il y a des enjeux de sécurité

play06:47

nationale comment est-ce que on va faire

play06:50

au cas où dans un autre pays sur lequel

play06:52

on n'a pas de contrôle ou une

play06:53

organisation terroriste quelque chose

play06:54

comme ça qui met la main sur ces

play06:56

systèmes là qui rend ils ont des plus

play06:59

faciles l'utilisation la mise au point

play07:01

d'armes dangereuses mettons par exemple

play07:03

biologique comment on fait pour se

play07:06

prémunir de ça d'un point de vue

play07:08

technologique d'un point de vue

play07:09

réglementaire etc et ce qui vous écoute

play07:13

oui alors j'étais vraiment impressionné

play07:16

par colle les sénateurs qui dirigent

play07:20

cette commission ils ont lu mon rapport

play07:22

écrit ils ont vraiment compris

play07:25

apparemment je me fie à ce dialogue là

play07:28

l'importance et l'urgence d'agir donc

play07:31

j'ai l'impression que j'ai parlé aussi

play07:32

avec des gens à la Maison Blanche donc

play07:34

j'ai l'impression vraiment le bar

play07:35

américain est en train de bouger et je

play07:37

j'aimerais aussi que le notre

play07:39

gouvernement canadien réalise

play07:42

l'importance de s'occuper de ces enjeux

play07:44

le message est fait ce soir monsieur

play07:45

benjiou merci beaucoup et bonne soirée à

play07:47

vous merci à vous

Rate This

5.0 / 5 (0 votes)

Related Tags
Artificial IntelligenceAI EthicsCybersecurityDisinformationNational SecurityRegulationTechnologyDemocracyYann LeCunPublic Safety