Les dangers de l'intelligence artificielle : entrevue avec Yoshua Bengio
Summary
TLDRIn this discussion, the imminent dangers of artificial intelligence are highlighted, with the possibility of AI reaching human-level intelligence within a few years rather than decades. The speaker emphasizes the urgent need for regulation to prevent misuse in areas like national security and democracy, citing the potential for AI to generate deepfakes and disseminate false information. There's a call for more research into AI safety and public protection, and a warning against the unchecked advancement of AI without considering its societal impacts.
Takeaways
- 🚨 The speaker warns of the imminent dangers of artificial intelligence, suggesting it could pose a real threat within the next 20 years or even sooner.
- 🧠 There is a significant uncertainty about the timeline for AI to reach human-level intelligence, with some estimates suggesting it could be within the next 5 years.
- 🔍 The speaker highlights the potential for AI to be misused in creating deepfakes and spreading false information, which poses a threat to national security and democratic processes.
- 💡 AI's capability to generate convincing fake images, videos, and speech could be amplified by recent advancements, leading to increased risks.
- 🛡️ The speaker calls for immediate action to address AI risks, emphasizing the need for regulation and research into public safety and democracy protection.
- 🔒 There is a concern that AI systems, if not properly controlled, could be used to scale up disinformation campaigns, potentially impacting future elections.
- 🤖 The speaker discusses the ethical and control issues surrounding AI, including the possibility of machines developing self-preservation goals that conflict with human interests.
- 🧐 There is a call for more research into AI safety and governance to ensure that future systems remain under human control and do not lead to discrimination or other harmful outcomes.
- 🌐 The speaker urges governments to act quickly to establish legislation to regulate AI, coordinate internationally, and invest in research to protect the public and prepare for potential security threats.
- ⏳ The speaker expresses a sense of urgency, noting that the time to act is now, and that while progress in AI has been rapid, there is still a chance to steer its development towards beneficial outcomes.
Q & A
What is the current timeline for artificial intelligence to pose a real danger according to the transcript?
-The transcript suggests there is uncertainty, but it could be within the next 20 years or even faster, potentially within the next 5 years.
What are the immediate dangers of artificial intelligence mentioned in the transcript before reaching human-level intelligence?
-The immediate dangers include the manipulation of information, production of fake news, and potential influence on democratic processes such as upcoming elections.
How can AI currently generate false information, and what are the implications for security?
-AI can generate deepfakes, fake images, and videos, and provide information on creating cyber-attacks, biological pathogens, or chemical weapons, which is concerning for national security.
What is the concern regarding the use of AI in the context of democracy and elections?
-There is a concern that AI could be used to spread misinformation on a large scale, similar to how human trolls operate but magnified by orders of magnitude due to the automated nature of AI.
Has the speaker's perspective on AI shifted from optimism to pessimism, and if so, why?
-Yes, the speaker's perspective has shifted due to the realization that AI could reach human-level intelligence much sooner than previously thought, which changes the risk assessment.
What is the speaker's stance on the controllability of AI, and how does it relate to the Turing Award winner Yann LeCun's views?
-The speaker has had discussions with Yann LeCun, who believes humans control AI. However, the speaker argues that current systems are trained to imitate humans, which is a flawed premise, and there's a risk of losing control once AI develops self-preservation goals.
What are the unknowns and concerns the speaker has about the future of AI?
-The speaker is concerned about the unknowns such as how to ensure AI systems remain under human control and how to prevent them from causing harm or discrimination.
What actions does the speaker suggest are necessary to address the challenges posed by AI?
-The speaker suggests the need for rapid legislation to regulate AI, investment in research for public protection and control of AI systems, and research into national security measures in case regulation fails.
What is the speaker's call to action for governments regarding AI?
-The speaker calls for governments to work quickly on legislation, coordinate nationally and internationally, invest in research for public protection and control, and prepare for potential security threats.
How receptive were the legislators and government officials to the speaker's message about AI risks?
-The speaker was impressed by the senators and officials who seemed to understand the importance and urgency of the issues, indicating a positive reception and potential for action.
Outlines
🤖 AI's Imminent Threats and Misinformation
The speaker discusses the potential dangers of artificial intelligence (AI), suggesting that it could pose a real threat within the next two decades. They highlight the uncertainty around the timeline, with some estimates suggesting it could be as soon as five years before AI reaches human-level intelligence. The conversation touches on the risks to national security and democracy, including the potential for AI to generate deepfakes and spread misinformation, which could disrupt upcoming elections. The speaker also mentions the broader implications for society, such as the creation of harmful biological or chemical weapons, and emphasizes the need for immediate action to address these issues.
🏛️ Urgent Call for AI Regulation and Research
The speaker reflects on the rapid advancements in AI and acknowledges that the focus on the benefits of AI may have overshadowed the need for security measures. They express a sense of urgency, emphasizing that it's time to act. The speaker calls on governments to quickly establish legislation to regulate AI, to ensure its use is not uncontrolled. They also stress the importance of international coordination in this regulation. Furthermore, the speaker advocates for investment in research to protect the public and maintain control over AI systems, to prevent discrimination and other ethical issues. They suggest that research should also explore technological and regulatory measures to safeguard against potential misuse of AI by malicious actors or entities, such as terrorist organizations. The speaker concludes with a note of optimism, having engaged with senators and other policymakers who seem to understand the importance and urgency of the matter.
Mindmap
Keywords
💡Artificial Intelligence
💡Imminent danger
💡Deepfakes
💡National security
💡Democracy
💡Cyber-attacks
💡Biological weapons
💡Regulation
💡Research and development
💡Public safety
💡Governance
Highlights
The dangers of artificial intelligence are imminent, potentially within a couple of decades.
There is uncertainty about the timeline, with some suggesting it could be as soon as 5 years before AI reaches human-level intelligence.
Most researchers have shortened their AI timeline expectations.
National security and democracy are at risk even before AI reaches human-level intelligence.
AI can generate fake images, videos, and speeches, which could be amplified with systems like GPT.
AI can provide information on creating cyber-attacks, biological weapons, and chemical weapons.
The misuse of AI could lead to large-scale disinformation, affecting democratic processes like elections.
The speaker used to be more optimistic about AI but has shifted towards a more cautious stance.
Yann LeCun, a Turing Award winner, believes humans will control AI and not the other way around.
Current AI systems are trained to imitate humans, which could lead to negative outcomes.
There's a risk of losing control over AI once it's given a goal of self-preservation.
The need for self-preservation in AI might emerge on its own without being programmed.
There is a need for more research on AI safety and public protection.
The majority of AI investments are currently aimed at making systems more powerful, which can be both beneficial and dangerous.
The speaker acknowledges that they might have focused too much on the benefits of AI and not enough on safety.
The speaker calls for urgent action, including government regulation and investment in AI safety research.
The speaker has been engaging with legislators and government officials to raise awareness about the need for AI regulation.
The speaker is impressed by the responsiveness of U.S. senators and the potential for change in AI governance.
The speaker urges the Canadian government to also recognize the importance of addressing AI challenges.
Transcripts
c'est pas la première fois que vous nous
signalez les dangers de l'intelligence
artificielle si je comprends bien là
vous dites c'est imminent c'est à dire
ça peut prendre une vingtaine d'années
avant que ça pose un réel danger
qu'est-ce qui vous fait dire ça en fait
ça pourrait être beaucoup plus rapide
que ça
pourrait être dans quelques années nos
gens 5 ans que on atteindrait le niveau
d'intelligence des humains ça pourrait
être aussi une vingtaine d'années il y a
vraiment un incertitude là-dessus mais
la plupart des chercheurs ont réduit
leur horizon de West quand est-ce qu'on
s'attend à avoir des machines aussi
intelligentes que nous puis à partir du
moment où on atteint ce niveau là il y a
vraiment des des dangers au niveau de la
sécurité nationale au niveau de la
protection de démocratie même avant
qu'on atteigne ce niveau là il y a des
dangers même pour les prochaines
élections américaines par exemple ou les
prochaines élections canadiennes et il
faut commencer à s'en occuper tout de
suite pourquoi juste qu'on situe l'enjeu
quand vous parlez de danger c'est quoi
c'est la manipulation
d'information c'est la production
d'informations fausses de quoi
parlez-vous exactement quand il est
question de sécurité nationale ou par
exemple de processus électoral
alors déjà l'intelligence artificielle
permet de générer des fausses images et
vidéos et reproduction de quelqu'un qui
parle ça ça existe déjà mais ça risque
d'être amplifier avec le genre de
système qui qu'on a depuis quelques mois
avec chat GPT par exemple qui peuvent
aussi interagir au niveau du langage qui
peuvent aussi
donner des informations qui sont
normalement difficiles d'accès par
exemple sur comment écrire des
cyber-attaques ou comment designer des
des pathogènes pour des armes
biologiques ou comment designer des des
armes chimiques aujourd'hui c'est déjà
quelque chose d'inquiétant pour les gens
qui s'occupent de sécurité nationale
puis ça risque d'être pire dans
l'année où les 5 ans qui viennent
pour la démocratie c'est que
ce qui risque d'arriver c'est que ce
système là s'ils sont pas bien encadrés
peuvent être utilisées pour mettre à
grande échelle le genre de
désinformation qu'on qui existe déjà
imaginer que des trolls qui sont déjà
sur Internet au lieu que ce soit des
humains qui le font que ce soit
multiplié par 100 ou par 1000 parce que
c'est des machines qui sont capables
d'interagir avec les citoyens est-ce que
je me trompe ou on avait l'impression
que vous étiez dans le camp des
optimistes un certain moment sur
l'utilisation de l'intelligence
artificielle puis là que vous basculez
un peu dans le camp des pessimistes le
déclic se fait ou comment et pourquoi
c'est cet hiver que j'ai commencé à
réaliser avec toi GPT que le quand
est-ce qu'on s'attend de voir des
machines aussi ou plus intelligentes que
nous tout d'un coup c'est pas dans des
décennies des siècles mais c'est dans
plutôt une question d'année peut-être ça
c'est pas sûr évidemment mais à la
vitesse à laquelle les choses bougent
c'est c'est tout à fait envisageable et
ça ça change complètement la donne
Yann lecun que vous connaissez n'est-ce
pas il a gagné un prix avec vous en 2018
le prix Turing donc dit en même temps
c'est des humains qui contrôlent la
machine la machine ne va pas nous
contrôler on peut pas présumer que la
machine si elle était intelligente ou
l'intelligence artificielle va avoir les
mêmes défauts que l'homme c'est à dire
de vouloir
déstabiliser des sociétés par exemple
vous répondez quoi à ça ces arguments
assez contre arguments
en fait j'ai eu beaucoup de discussions
avec lui et de débat en public aussi
premièrement les systèmes d'aujourd'hui
sont entraînés à imiter les humains donc
déjà ça part mal
deuxièmement il y a depuis une dizaine
d'années pas mal de recherches en
informatique et qui montre que à partir
du moment où on donnerait à la machine
un but d'autopréservation mais on
perdrait le contrôle sur cette machine
là vu qu'elle veut se préserver elle
voudra pas qu'on l'éteigne par exemple
il y a un conflit qui qui commence et
puis en plus il y a des analyses qui
montrent que ce besoin d'auto-révation
on aurait même pas besoin de le
programmer ce qui serait relativement
facile une fois qu'on a une machine très
intelligente il pourrait émerger tout
seul à partir d'autres buts qu'on
donnerait à la machine donc
il y a beaucoup de choses qu'on sait pas
puis on sait même pas comment s'assurer
aujourd'hui que les systèmes des
prochaines années soit vraiment toujours
sur notre contrôle on a besoin de
beaucoup plus de recherches sur le côté
sécurité protection du public alors
qu'aujourd'hui 99.9% de l'argent qui
investit c'est pour rendre ces systèmes
là plus puissant ce qui peut être très
très bénéfique mais aussi très dangereux
mais donc c'est un Frankenstein que vous
avez créé vous la mets les gens qui
travaillent dans l'intelligence
artificielle sur Frankenstein qui a été
créé
oui je pense que les chercheurs comme
moi qui sont pas dans l'industrie on
s'imaginait pas que ça allait aller
aussi vite mais c'est sûr que en
rétrospective
mettons il y a des gens j'aurais
peut-être
travaillé beaucoup plus sur le côté
sécurité que je l'ai fait sans doute
parce que j'étais vraiment centré sur ce
que l'IA peut apporter de bénéfiques et
aussi l'idée que de toute façon c'était
très très loin et qu'entre temps il y
aurait des choses très très positives
pour la société en santé environnement
éducation
productivité des entreprises tout ça
alors il est peut-être pas trop tard
c'est un peu ce que vous dites aussi
mais c'est le temps d'agir c'est-à-dire
que le temps commence à presser
qu'est-ce que je présume ce sont les
gouvernements que vous interpellez parce
que là vous étiez devant des sénateurs
aujourd'hui donc des législateurs
qu'est-ce que vous leur demandez au
Gouvernement sur ce front
alors je leur demande premièrement de
travailler très très rapidement la mise
en place de législation pour réglementer
l'IA pour encadrer son utilisation pour
que ce soit pas un free for aujourd'hui
c'est
complètement libre et il faut que ça se
fasse de manière coordonnée avec les
avec les autres pays il faut que ça se
fasse au niveau national et au niveau
international deuxièmement je leur dis
que il faut investir en recherche pour
comment on fait pour protéger le public
comment on fait pour que ces systèmes là
on en perte pas le contrôle comment on
fait pour éviter que ces systèmes là
discrimine bon il y a beaucoup de
recherches à faire pour nous donner les
bonnes règles de gouvernance autour de
ces systèmes qui vont arriver de toute
façon parce que il y a tellement de
milliards qui sont investis par
l'industrie aujourd'hui que ça
s'accélère troisièmement je leur dis que
il faut aussi faire de la recherche pour
au cas où la réglementation ne marche
pas il y a des enjeux de sécurité
nationale comment est-ce que on va faire
au cas où dans un autre pays sur lequel
on n'a pas de contrôle ou une
organisation terroriste quelque chose
comme ça qui met la main sur ces
systèmes là qui rend ils ont des plus
faciles l'utilisation la mise au point
d'armes dangereuses mettons par exemple
biologique comment on fait pour se
prémunir de ça d'un point de vue
technologique d'un point de vue
réglementaire etc et ce qui vous écoute
oui alors j'étais vraiment impressionné
par colle les sénateurs qui dirigent
cette commission ils ont lu mon rapport
écrit ils ont vraiment compris
apparemment je me fie à ce dialogue là
l'importance et l'urgence d'agir donc
j'ai l'impression que j'ai parlé aussi
avec des gens à la Maison Blanche donc
j'ai l'impression vraiment le bar
américain est en train de bouger et je
j'aimerais aussi que le notre
gouvernement canadien réalise
l'importance de s'occuper de ces enjeux
le message est fait ce soir monsieur
benjiou merci beaucoup et bonne soirée à
vous merci à vous
関連動画をさらに表示
AI and the future of humanity | Yuval Noah Harari at the Frontiers Forum
Nick Bostrom What happens when our computers get smarter than we are?
From Futurism to Public Thinking: Global Issues Beyond AI, Technology and Business
MENGAPA PARA PAKAR AI MULAI KETAKUTAN DENGAN AI??
OpenAI Former Employees Reveal NEW Details In Surprising Letter...
AGI by 2030: Gerd Leonhard Interview on Artificial General Intelligence
5.0 / 5 (0 votes)