Qu’est-ce que l’AI Act (ou le règlement européen sur l’intelligence artificielle) ? 🤖

Dev Café
31 Mar 202413:09

Summary

TLDRLa vidéo aborde l'AI Act, une législation européenne votée en mars pour encadrer l'utilisation de l'intelligence artificielle. Elle explique le but de la réglementation, qui est de créer des normes pour les systèmes IA sur le marché européen et ceux qui impactent les citoyens européens, en distinguant les risques et en interdisant ou régulant les systèmes en conséquence. Le but est de garantir la confiance dans les IA, en matière de santé, de sécurité et de droits fondamentaux. Le script introduit également le concept de 'sandbox' pour le développement contrôlé des IA et mentionne la création d'un Bureau européen de l'IA pour superviser la mise en œuvre du règlement.

Takeaways

  • 📜 L'AI Act est une législation européenne qui a été votée en mars par le Parlement européen et vise à réguler l'utilisation de l'intelligence artificielle (IA) en Europe.
  • 🌟 L'objectif principal de l'AI Act est de garantir que les systèmes d'IA soient dignes de confiance en matière de santé, sécurité et respect des droits fondamentaux.
  • 🚫 Certains types d'IA, tels que ceux utilisant des techniques manipulatrices ou exploitant les vulnérabilités, sont interdits par le règlement.
  • 🏢 L'AI Act s'applique à tous les systèmes d'IA commercialisés dans les 27 pays européens, ainsi qu'à ceux qui ont un impact sur les citoyens européens, qu'ils soient européens ou étrangers.
  • 🔍 Le règlement classe les systèmes d'IA en fonction du niveau de risque qu'ils présentent, allant de l'interdiction totale à l'absence de restrictions pour les systèmes considérés comme inoffensifs.
  • 📊 Les systèmes d'IA à haut risque, comme ceux utilisés dans les transports ou la gestion migratoire, sont soumis à de nombreuses obligations, notamment en matière de transparence, de sécurité et de documentation.
  • 🛡️ Un Bureau européen de l'IA sera créé pour évaluer les risques, s'assurer du respect des règles et aider au développement d'un écosystème européen de confiance en IA.
  • ⏱️ La mise en œuvre de l'AI Act se déroulera en plusieurs étapes, avec des délais allant de 2 à 3 ans pour certaines dispositions, laissant ainsi du temps pour l'adaptation.
  • 🌐 L'Union européenne espère que l'AI Act servira de modèle pour d'autres pays, bien que cela reste incertain et dépendra de la réaction du marché et des concurrents internationaux.
  • 🔄 Le règlement prévoit également la mise en place de sandbox pour tester les systèmes d'IA dans des environnements contrôlés, afin de faciliter leur développement conformément aux exigences de l'AI Act.

Q & A

  • 什么是欧盟的人工智能法案(AI Act)?

    -欧盟的人工智能法案(AI Act)是一项旨在确保在欧洲市场上放置和使用的人工智能系统是安全、尊重基本权利和欧盟价值观的法规。它采用了基于风险的方法,对不同风险级别的AI系统设定了不同的义务和要求。

  • AI Act的主要目标是什么?

    -AI Act的主要目标是确保AI系统的安全性、透明度、可追溯性、非歧视性以及环保性。它还旨在建立一个适用于未来AI系统的技术中性、统一的AI定义,并确保AI系统由人监督,而不是自动化,以防止有害结果。

  • AI Act如何分类AI系统?

    -AI Act根据AI系统对用户构成的风险将它们分类。不可接受风险的AI系统,例如社会评分或行为操纵,将被禁止。高风险AI系统,如用于招聘或关键基础设施管理的系统,将受到严格监管。有限风险AI系统,如与人类直接互动的AI系统,需要遵守透明度要求。最小风险AI系统,如垃圾邮件过滤器或AI视频游戏,不受严格监管。

  • AI Act对高风险AI系统有哪些要求?

    -对于高风险AI系统,AI Act要求在上市前和整个生命周期中进行评估。这些系统需要满足严格的标准,包括风险管理、数据质量、透明度、人类监督和鲁棒性,以最小化风险。

  • AI Act对生成式AI和基础模型有哪些透明度要求?

    -生成式AI,如ChatGPT,虽然不被归类为高风险,但必须遵守透明度要求和欧盟版权法。这包括披露内容是由AI生成的、设计模型以防止生成非法内容,以及发布用于训练的版权数据的摘要。

  • AI Act对企业有何影响?

    -AI Act将对开发或使用AI系统的企业产生深远影响。企业需要评估其AI系统是否属于AI法案下的受规制系统,并根据风险等级判断所需履行的合规义务。企业还需要判断自身是否构成AI法案下的AI系统提供者,并遵守相应的合规要求。

  • AI Act何时生效?

    -AI Act已于2024年5月21日由欧盟理事会正式批准通过,并已于2024年8月1日正式生效。

  • AI Act对数据治理有哪些要求?

    -AI Act要求高风险AI系统的提供者在将系统投放市场前开展数据治理活动,包括数据的选择、收集、预处理等,并确保数据集的偏见得到审查和减少。

  • AI Act对个人信息保护有何规定?

    -AI Act规定处理个人信息时需要遵循相应的法律要求,并采取适当的技术和管理措施以保障训练数据涉及的个人信息的安全性。

  • AI Act是否支持创新和技术发展?

    -是的,AI Act旨在提供机会给初创企业和中小型企业在将AI模型发布给公众之前进行开发和训练。它要求国家当局为公司提供接近真实条件的测试环境。

Outlines

00:00

🌐 Introduction à l'AI Act

Le premier paragraphe introduit le sujet de la vidéo, qui est l'AI Act, une législation européenne sur l'intelligence artificielle. Le présentateur explique que le but de la vidéo est de comprendre les raisons pour lesquelles ce règlement a été créé, les changements qu'il apportera en Europe, et son influence potentielle à l'échelle mondiale. L'AI Act a été votée en mars par le Parlement européen et marque un grand pas en avant pour l'UE en tant que pionnière dans le domaine de la régulation de l'IA. Le paragraphe aborde également les définitions de l'intelligence artificielle et de son fournisseur, en utilisant ChatGPT et OpenAI comme exemples. L'objectif de l'AI Act est de garantir que les IA sont dignes de confiance en matière de santé, de sécurité et de respect des droits fondamentaux, en harmonisant les règles pour les IA sur le marché ou en régulant celles qui le sont déjà.

05:00

🚫 Interdictions et régulations de l'AI Act

Le deuxième paragraphe détaille les différentes interdictions et régulations imposées par l'AI Act. Il explique que les systèmes d'intelligence artificielle qui utilisent des techniques manipulatrices, exploitent les vulnérabilités, implémentent des systèmes de notation sociale, ou évaluent le risque de criminalité en fonction de profils ou de traits de personnalité sont interdits. De plus, il est interdit de déduire des émotions dans des contextes professionnels ou éducatifs. Le paragraphe poursuit avec une description de la pyramide des risques, qui classe les IA en fonction de leur niveau de risque, allant des activités interdites aux activités autorisées. Les IA considérées comme inoffensives ne sont pas soumises à de grandes contraintes, tandis que les IA à risque limité, comme les deepfakes, doivent informer les utilisateurs de leur nature potentiellement trompeuse.

10:03

🔍 Analyse des risques et création du Bureau européen de l'IA

Le troisième paragraphe traite des catégories intermédiaires et à haut risque des IA, ainsi que de la création du Bureau européen de l'IA. Il explique que les IA génératives associées à des modèles de langage de grande taille (LLM) doivent fournir une documentation technique et respecter le droit d'auteur. Les modèles nécessitant plus de 1025 FLOPS sont considérés comme 'systémiques' et soumis à des obligations supplémentaires, notamment une évaluation des modèles et une cybersécurité accrue. Les systèmes à haut risque, comme ceux impliqués dans les transports ou la gestion migratoire, sont soumis à huit obligations précises pour évaluer et réduire les risques, fournir des données de haute qualité, et garantir la sécurité et la robustesse du système. Le Bureau européen de l'IA sera chargé d'évaluer le niveau de risque des IA, de s'assurer du respect des règlements, et de développer l'écosystème européen de l'IA. Il collaborera avec les États membres et les communautés d'experts pour établir des outils communs et mettre en place des environnements de test (sandbox) pour s'assurer que les systèmes sont conformes dès le développement.

Mindmap

Keywords

💡AI Act

L'AI Act est une législation européenne sur l'intelligence artificielle, votée en mars 2024 par le Parlement européen. Il vise à réguler et harmoniser l'utilisation de l'IA en Europe, en garantissant que ces technologies soient 'dignes de confiance', c'est-à-dire sûres, transparentes et respectueuses des droits fondamentaux. L'exemple est donné avec OpenAI et ChatGPT, où l'AI Act impose des règles pour prévenir les dérives potentielles.

💡Intelligence artificielle

L'intelligence artificielle (IA) est définie dans la vidéo comme un système basé sur une machine capable de fonctionner avec différents niveaux d'autonomie et de générer des résultats comme des prédictions, du contenu, des recommandations ou des décisions à partir des données reçues. Un exemple concret est donné avec ChatGPT, un système d'IA développé par OpenAI.

💡Digne de confiance

Le terme 'digne de confiance' est un concept central dans l'AI Act. Il fait référence à la volonté de l'Union européenne de s'assurer que les IA respectent des critères de sécurité, de transparence et des droits fondamentaux, comme la protection contre la désinformation et les fausses nouvelles. C'est une des préoccupations majeures de la législation.

💡Systèmes interdits

Certains systèmes d'IA sont totalement interdits par l'AI Act, comme ceux qui exploitent des vulnérabilités humaines (comme l'âge ou le handicap), manipulent les utilisateurs ou créent des systèmes de notation sociale. Ces interdictions visent à protéger les individus contre les abus potentiels liés à l'utilisation de l'IA.

💡Risque inacceptable

Les systèmes d'IA présentant un risque inacceptable, comme ceux qui affectent la sécurité des citoyens ou portent atteinte aux droits fondamentaux, seront interdits dès la fin 2025. Ces risques concernent des domaines comme les transports ou l'emploi, où les erreurs pourraient avoir de graves conséquences.

💡Fournisseur

Le fournisseur est l'entité qui met une IA sur le marché. Dans la vidéo, OpenAI est donné en exemple comme étant le fournisseur de ChatGPT. Ce terme est essentiel pour comprendre qui est responsable de l'implémentation et de la régulation des systèmes d'IA dans le cadre de l'AI Act.

💡Systèmes à risque élevé

Les systèmes à risque élevé incluent ceux qui touchent à des domaines sensibles comme la santé, la démocratie, ou l'infrastructure. Ces IA devront respecter des obligations strictes, comme la transparence des données utilisées, la documentation technique, et des évaluations régulières pour réduire les risques.

💡IA générative

L'IA générative, comme les modèles de traitement du langage (LLM) tels que ChatGPT, est une technologie qui produit du contenu à partir de données. Ces systèmes devront respecter des règles spécifiques, telles que la transparence sur l'origine des données d'entraînement et des exigences techniques supplémentaires si le modèle est qualifié de systémique.

💡Bureau européen de l'IA

Le Bureau européen de l'IA est l'organisme chargé de superviser la conformité des systèmes d'IA avec l'AI Act. Il évaluera les niveaux de risque et collaborera avec les autorités nationales et les experts pour établir des normes et des bonnes pratiques, assurant que les IA respectent les critères de sécurité et de transparence.

💡Sandbox

Les sandbox sont des environnements de test où les fournisseurs d'IA pourront vérifier la conformité de leurs systèmes avec les exigences de l'AI Act. Ces tests permettent d'identifier et de corriger les risques avant la mise sur le marché, contribuant ainsi à renforcer la confiance dans les IA développées.

Highlights

L'AI Act est une législation européenne qui a été votée en mars par le Parlement européen pour réguler l'utilisation de l'intelligence artificielle.

Le but de l'AI Act est de comprendre pourquoi ce règlement a été créé et les changements qu'il apportera en Europe et potentiellement dans le monde entier.

L'Union Européenne est la première à légiférer sur l'IA, faisant figure de pionnière dans ce domaine.

La définition de l'intelligence artificielle dans le cadre de l'AI Act est un système basé sur une machine conçue pour fonctionner avec différents niveaux d'autonomie.

Un fournisseur d'IA est l'entité qui met une intelligence artificielle sur le marché, comme OpenAI avec ChatGPT.

L'AI Act vise à assurer que les systèmes d'IA soient dignes de confiance en matière de santé, sécurité et droits fondamentaux.

Le règlement s'intéresse à la transparence des décisions prises par les IA et à la prévention de leur utilisation abusive.

Certains types d'IA, comme ceux utilisant des techniques manipulatrices ou exploitant les vulnérabilités, sont interdits par l'AI Act.

Le règlement établit un système de risques avec cinq niveaux, allant de l'interdiction totale à l'autorisation sans contrainte.

Les IA considérées comme inoffensives ne sont pas soumises à de grandes contraintes et sont encouragées à suivre les bonnes pratiques.

Pour les IA à risque limité, les utilisateurs doivent être informés de la possibilité d'erreurs dans les résultats générés.

Les IA génératives, associées aux grands modèles de langage, doivent fournir des documents techniques et respecter le droit d'auteur.

Les modèles 'systémiques', nécessitent une évaluation des modèles, une réduction des risques, une documentation et un niveau élevé de cybersécurité.

Les IA à haut risque sont soumises à huit obligations précises, incluant l'évaluation des risques, la documentation détaillée et la robustesse.

Un Bureau européen de l'IA sera créé pour évaluer les risques et s'assurer du respect des règles par les fournisseurs d'IA.

Le règlement prévoit la mise en place de 'sandbox' pour tester les systèmes IA dans des environnements contrôlés.

L'entrée en vigueur de l'AI Act est prévue en plusieurs étapes, allant de 2025 à 2027 pour certaines dispositions.

L'AI Act vise à équilibrer la liberté de création d'IA avec la nécessité de protéger les citoyens et de maintenir la confiance dans la technologie.

Transcripts

play00:00

Bonjour à toutes et à tous, dans cette vidéo je propose qu'on prenne quelques minutes

play00:03

pour essayer de comprendre ce qui se cache derrière l'AI Act, ou la législation sur

play00:08

l'intelligence artificielle (si je dis en bon français), et elle a été votée à la

play00:11

mi-mars par le Parlement européen.

play00:13

L'idée de cette vidéo c'est d'essayer de comprendre Pourquoi ce règlement a été

play00:16

créé et aussi ce qui va changer en Europe, et surtout potentiellement l'influence qu'il

play00:21

aura au niveau mondial, vu que l'Union Européenne est la première à faire un aussi grand pas en avant

play00:25

en faisant en quelque sorte figure de pionnière.

play00:27

Et donc comme j'ai pu le faire pour le Digital Markets Act, je propose qu'on le découvre

play00:34

à travers différentes questions, et qui feront donc le fil conducteur de cette vidéo, et

play00:37

bien sûr vous retrouvez ça dans la barre de progression.

play00:40

Déjà, et avant de creuser le sujet, on va faire un détour par l'aspect définition,

play00:47

et tout d'abord celle de l'intelligence artificielle qui est, et je cite, "un système basé sur

play00:52

une machine conçue pour fonctionner avec différents niveaux d'autonomie, et qui peut

play00:56

déduire à partir des données qu'il reçoit, comment générer des résultats tels que

play01:00

des prédictions, du contenu, des recommandations ou des décisions".

play01:04

Et pour compléter cette première définition, ce qu'on appelle un fournisseur, c'est tout

play01:08

simplement l'entité qui met une intelligence artificielle sur le marché.

play01:11

Et donc concrètement, pour vous citer l'exemple le plus connu, ChatGPT c'est donc un système

play01:16

d'intelligence artificielle, et OpenAI, ça en est le fournisseur.

play01:19

Et de là, on va commencer à s'intéresser au règlement, et vous avez souvent entendu

play01:23

dire qu'on ne sait pas pourquoi une IA a pris telle ou telle décision, et on voit

play01:27

vite les problèmes que ça peut agendrer si par exemple elles sont utilisées, je sais

play01:30

pas, dans des embauches.

play01:31

Mais pire, et vous avez souvent entendu dire qu'elles peuvent aussi dérailler,

play01:35

voire même halluciner.

play01:36

C'est-à-dire en gros qu'elles vont inventer purement et simplement des réponses en affirmant

play01:40

pourtant qu'elles sont vraies.

play01:41

Et donc aujourd'hui, on voit qu'on est à mi-chemin entre des outils très puissants,

play01:45

mais aussi des outils très faillibles.

play01:47

Et c'est donc pour ça que l'Union Européenne ne veut absolument pas bannir les IA, mais

play01:51

plutôt s'assurer qu'elles soient dignes de confiance, et d'ailleurs ça c'est vraiment

play01:55

le mot-clé qui revient tout le temps : Dignes de confiance.

play01:57

Et donc dignes de confiance en matière de santé, de sécurité, et aussi des droits

play02:01

fondamentaux.

play02:02

Donc par exemple avec la démocratie, ou les fake news, ça pourrait vite amener à des

play02:05

problèmes lors des élections.

play02:07

Et donc d'une manière globale, l'idée de l'AI Act, c'est d'harmoniser les règles

play02:11

pour les Intelligences Artificielles qui vont être mises sur le marché, ou alors réguler,

play02:16

voire carrément interdire celles qui le sont déjà.

play02:18

Et en intro, je vous ai dit que c'est une législation européenne, qui concerne donc

play02:24

tous les systèmes qui sont mis sur le marché dans les 27 pays, mais aussi ceux qui peuvent

play02:28

avoir un impact sur les citoyens européens, donc pas forcément qui sont mis sur le marché,

play02:32

et donc d'une manière générale ça peut être des acteurs européens genre Mistral,

play02:36

mais aussi étrangers comme OpenAI ou Anthropic.

play02:38

Et de là, pour encadrer ces IA, le règlement est parti sur un système de risques, et qui

play02:42

est représenté sur cette pyramide. Mais en vrai elle est fausse parce qu'il n'y a pas

play02:46

4 mais 5 niveaux.

play02:47

Donc bref, je vais vous faire à ma sauce, où je vais d'abord vous dire ce qui est totalement

play02:50

interdit, puis on ira de plus en plus vers ce qui est régulé.

play02:53

Je vous préviens, pour ce premier volet, je vous fais la liste complète, car ça vous

play02:59

montrera bien tout ce qui est interdit, mais après rassurez-vous, j'accélèrerai.

play03:03

Et pour ça on a 6 critères qui élimineront les IA qui utilisent des techniques manipulatrices

play03:07

ou trompeuses, et qui peuvent entraver à la prise de décision.

play03:10

Ensuite, et c'est un peu lié, mais tout ce qui tourne autour de l'exploitation des vulnérabilités,

play03:15

et on entend, soit l'âge avec les enfants, soit le handicap, soit les situations économiques,

play03:19

pour par exemple faire croire des choses aux personnes en difficulté, ce sera bien là

play03:22

aussi interdit.

play03:23

On poursuit, et contrairement à la Chine, tout système de notation sociale ou de classification

play03:28

des gens, là aussi ce sera bien interdit.

play03:30

Après, c'est un sujet assez vaste puisque ça englobe la catégorisation et

play03:35

l'identification biométrique.

play03:36

En gros, ce sont les systèmes qui déduisent des attributs comme la race ou les opinions

play03:40

politiques, et donc ça peut être totalement faux parce que ça déduit, mais on verra

play03:44

que dans certains cas, il peut y avoir des dérogations.

play03:47

Et un peu dans la même lignée, des systèmes qui évalueraient le risque qu'une personne

play03:51

puisse commettre des infractions sur la base de profilage ou sur ses traits de personnalité,

play03:56

là aussi ce sera bien interdit.

play03:57

Et enfin, dernier point, il n'est pas possible de déduire des émotions sur son lieu de travail

play04:02

ou encore à l'école.

play04:03

Donc voilà, tout ce que je viens de vous citer, c'est bien totalement interdit, et

play04:08

sans rentrer dans les détails, il peut y avoir des dérogations qui sont possibles, mais

play04:11

vraiment dans des cadres judiciaires extrêmement limités, autant dans le temps que dans le

play04:14

champ d'application.

play04:15

Et donc, maintenant qu'on a vu tout ce qui était interdit, on va aller de l'autre

play04:19

côté de la barrière, avec au contraire ce qui est le plus autorisé.

play04:22

Et là, préparez-vous, mais je vais vous dire quelque chose de contre-intuitif, et

play04:29

contrairement à ce qu'on pourrait croire, le règlement passe à côté d'une majeure

play04:32

partie des IA actuelles.

play04:34

Et là, j'imagine que vous allez me demander "Pourquoi ?".

play04:36

Eh bien parce qu'elles sont vues comme inoffensives.

play04:39

Et si vous vous souvenez au début, je vous ai dit que tout le règlement tournait autour

play04:42

d'IAs dignes de confiance.

play04:44

Et donc, il y a dans un jeu qui gère par exemple les ennemis, ou alors le filtre antismem,

play04:48

ils sont là pour améliorer des algos.

play04:49

Mais clairement, ni l'une ni l'autre ne seront, je sais pas, nocives pour la société.

play04:53

Et donc, pour cette catégorie, le règlement n'impose aucune contrainte, et ça incite

play04:58

simplement à suivre les règles de bonne conduite.

play05:00

Et j'enchaîne avec ce qu'ils appellent le risque limité, et on entend tout ce qui

play05:06

peut poser problème autour du manque de transparence, et les deepfakes sont donnés en exemple.

play05:11

Et pour ça, chaque service devra explicitement informer l'utilisateur de cet état, et ce

play05:15

sera donc à l'utilisateur en son âme et conscience de savoir que les résultats peuvent

play05:19

être faux.

play05:20

Et d'ailleurs, cette catégorie exige que tous les résultats générés doivent pouvoir

play05:24

être identifiés, et donc ça concerne les images et les vidéos en général. Et côté

play05:28

texte, c'est uniquement s'il y a un intérêt général derrière.

play05:31

Et on enchaîne avec une catégorie intermédiaire, et tout à l'heure, si je vous disais que

play05:38

la pyramide était fausse, c'est qu'il manque un étage qui est donc entre le risque

play05:41

limité et le risque élevé, et qui concerne les IAs à usage général, ou en gros ce qu'on

play05:45

appelle les IA génératives qui sont associées à des LLM.

play05:48

Et là-dessus, elles devront nécessairement fournir la doc technique et aussi respecter

play05:53

le droit d'auteur, et éléments supplémentaires si toutefois un modèle n'est pas open source,

play05:57

il faudra fournir un résumé expliquant d'où viennent les données de la base d'entraînement.

play06:00

Et donc ça, c'est le cas général, et ici préparez-vous à un sous-sous-cas, car si

play06:05

toutefois pour créer un modèle, il a fallu plus de 1025 opérations en virgule flottante

play06:09

par seconde (ou 1025 FLOPS), et bien dans ce cas, le modèle sera qualifié de "systémique".

play06:14

Et si un système est systémique, il y a des obligations supplémentaires, comme une

play06:18

évaluation obligatoire des modèles, essayer d'atténuer les risques, documenter, signaler

play06:23

des incidents graves, et aussi mettre en place un niveau suffisant de cybersécurité.

play06:27

Et enfin, pour ce qui est du risque élevé, contrairement au précédent qui était assez

play06:33

générique, on a ici les critères bien précis, et en l'occurrence, on en a 8.

play06:37

Et juste avant de vous les citer, beaucoup de choses dans ce règlement ont été mis

play06:40

dans les annexes histoire de facilement pouvoir les faire évoluer.

play06:43

Et donc si je reviens aux risques, là je vous les affiche tous, mais je vais vous en citer

play06:46

juste quelques-uns.

play06:47

Il y a les infrastructures, avec par exemple les transports, qui peuvent facilement mettre

play06:51

en danger la vie des citoyens.

play06:52

On se parle aussi d'emploi, de démocratie, de formation, ou même de toute la gestion

play06:57

migratoire, qui sont déjà des sujets bien brûlants lorsque les politiques essaient

play07:00

de faire des changements, donc des IAs, n'en parlons pas.

play07:02

Et de là, 7 obligations seront appliquées à ces systèmes, et déjà un système pour

play07:07

évaluer les risques devrait être mis en place, et aussi faire en sorte de les réduire.

play07:11

Côté jeux de données, pour éviter tout bias, ces systèmes devront obligatoirement prouver

play07:15

que les données sont de haute qualité.

play07:17

En numéro 3, il faut fournir une documentation détaillée de tout le système pour aider

play07:21

à évaluer sa conformité. Mais forcément aussitôt, il y a un point 4 qui forcera

play07:26

à avoir un mécanisme de surveillance, (ou des logs si vous préférez), qui permettront

play07:29

de tracer les résultats et vérifier que la doc était pas mensongère.

play07:32

Et ensuite, toujours en mode doc, il faut des infos claires sur la manière de déployer,

play07:37

et aussi indiquer quelles mesures prendre pour minimiser les risques.

play07:40

Et enfin, dernière obligation, mais qui coule de sens, à savoir être fortement robuste,

play07:45

très sécurisé, et avoir des réponses bien précises.

play07:47

Donc vous voyez que ces contraintes ne sont pas là pour empêcher ces IA d'exister,

play07:52

mais plutôt les brider, et avoir des logs si toutefois elles avaient déraillées.

play07:55

Et maintenant qu'on a vu tous les cas possibles et imaginables, la question c'est qui va

play08:02

s'assurer que tout est bien respecté ? Et pour ça, un Bureau européen de l'IA va

play08:06

être créé, et qui aura donc pour mission de faire les évaluations sur le niveau de

play08:10

risque, et aussi de s'assurer que tout est bien respecté.

play08:12

Et ce que j'entends par là, vous savez, c'est pas juste gronder, mais vraiment être

play08:15

derrière le dos des fournisseurs pour qu'ils fassent donc les changements, sinon ça pourrait

play08:19

aller jusqu'à l'interdiction.

play08:20

Mais ce bureau, il n'a pas uniquement un rôle administratif on va dire, parce qu'il va

play08:24

aussi s'assurer de développer l'écosystème européen pour s'assurer que les entreprises

play08:27

elles peuvent bien créer, vous savez, des modèles dignes de confiance.

play08:30

Et un bon point, c'est que ce bureau, il sera pas cloisonné à Bruxelles, puisqu'il

play08:35

collabora avec les différents états membres, et aussi les communautés d'experts.

play08:38

Et donc l'idée c'est qu'ils se réuniront régulièrement pour établir des outils

play08:42

communs, comme par exemple des guides de bonne pratique.

play08:45

Et d'ailleurs l'idée sous-jacente, c'est qu'elle fasse aussi de la veille pour faire

play08:48

en sorte de faire évoluer les règles si toutefois le marché venait à évoluer.

play08:51

Et si je reviens sur l'aspect validation des IA, dans le cas de ceux à haut risque,

play08:59

et bien le bureau européen devra faire en sorte que tant que les critères seront pas

play09:03

remplis, et bien hop, ça boucle au ras.

play09:04

Et dès que le modèle il sera validé, il sera identifié, et il pourra fièrement arborer

play09:08

vous savez le logo CE.

play09:10

Et juste d'ailleurs pour parenthèse, le logo CE que là vous achetez sur vos produits

play09:14

en général, c'est du pur déclaratif, donc généralement du pur pipo.

play09:17

Mais ici ce sera bien le bureau de l'IA qui donnera cette validation, donc ici il sera

play09:21

à une vraie valeur.

play09:22

Pour en revenir au bureau de l'IA, il donnera des guides de bonne pratique, mais la vraie

play09:29

question c'est finalement, s'il y a des contraintes dans l'UE, forcément les modèles

play09:33

seront bridés, alors qu'à l'intentionnal, ce sera pas le cas des concurrents.

play09:36

Et là dessus, il faut le dire clairement, mais le règlement a une réponse assez décevante.

play09:41

Parce que l'approche, c'est de dire que vu que l'UE fait figure de pionnière en

play09:45

montrant le chemin à suivre, et bien ils espèrent que les autres pays s'aligneront.

play09:49

Mais donc, ils espèrent.

play09:50

Mais bref, de là en vient la notion de sandbox, où le bureau européen et les acteurs nationaux

play09:55

seront chargés de mettre en place des environnements de test avec des jeux de données tout à

play09:59

fait plausibles. Et donc ça permettra de s'assurer que dès le développement, tous

play10:02

les systèmes seront bien en règle.

play10:04

Et donc pour le coup, ça c'est plutôt une bonne chose, puisque ça évitera, vous savez,

play10:08

trop d'allers-retours pour la validation, mais reste toujours cette question des limites

play10:12

face aux concurrents internationaux.

play10:14

Et malheureusement, pour finir, c'est un peu l'étape qui fâche, parce que ce règlement

play10:21

dans une grande partie, il n'entrera en vigueur que dans 2 ans, voire même 3 pour

play10:24

certaines choses.

play10:25

Mais en réalité, la timeline est plus compliquée que ça, et donc je vais vous le faire étape

play10:29

par étape.

play10:30

Et déjà, il faut savoir qu'à l'heure actuelle, c'est uniquement le parlement

play10:33

qui l'a voté, mais il faudra attendre qu'il paraisse au Journal officiel, et ça, ça

play10:37

devrait être en mai.

play10:38

Et de là, il faut ajouter 20 jours, donc fin mai, début juin, et après, la timeline

play10:42

que je vous décris va démarrer.

play10:44

Et donc 6 mois après la mise en vigueur, donc fin d'année, début 2025, les IA avec

play10:49

un risque inacceptable seront interdites.

play10:51

Et là, on enchaîne sur un an où chaque état membre mettra en place son autorité,

play10:55

et les premières obligations sur les IA générales s'appliqueront.

play10:59

Et surtout, 2 ans après, donc mi-2026, c'est vraiment là où tout le système sera mis

play11:04

en place autour des systèmes à haut risque.

play11:06

Et pour finir, ça va juste en 2027 avec certains systèmes à haut risque, parce qu'imaginons

play11:11

qu'un jouet ou alors des dispositifs médicaux utilisent ce genre d'IA, eh bien eux, ils

play11:14

auront un tout petit peu plus de temps.

play11:15

Donc voyez que la timeline s'étend sur une durée assez longue, preuve que l'UE est

play11:20

en mode "on est les premiers, mais voilà, peut-être on va faire des erreurs, donc voilà,

play11:24

on se laisse une petite marge".

play11:26

Et donc pour terminer cette vidéo, vous voyez que d'une manière générale, cet AI Act

play11:32

est avant tout là pour limiter un secteur qui a aucune contrainte. Et d'une manière

play11:36

générale, les principales et moins nocives ne seront pas touchées, et à l'inverse,

play11:41

certaines catégories seront automatiquement interdites, et ça d'ici à la fin de l'année.

play11:44

Et ensuite, on a des niveaux de gradation, où d'une manière générale, les mots-clés

play11:48

sont transparence et si possible atténuer les risques pour donc qu'elles soient

play11:52

dignes de confiance.

play11:53

Par contre, reste la question autour de la concurrence, et ça, ce sera vraiment le point

play11:57

à suivre, parce que ce serait quand même dommage de voir des acteurs comme Mistral

play12:01

se faire un peu étouffer par ce genre de règlement, parce que finalement, les concurrents,

play12:05

eux, ils n'auraient pas autant de contraintes.

play12:07

En tout cas, là-dessus, merci d'avoir suivi la vidéo, qui, je l'espère, vous aura mieux

play12:11

permis de comprendre ce règlement, et donc laisse pression à retenir, vous avez compris,

play12:15

c'est des IA dignes de confiance.

play12:17

Et donc voilà, n'hésitez pas à appuyer sur le pouce en l'air, ou encore à vous

play12:20

abonner à la chaîne, parce que je publie régulièrement ce genre de vidéos.

play12:23

Et donc voilà, je le répète ici, mais mon intention, c'est bien d'expliquer le règlement,

play12:28

et pas de cibler des failles, ou même de critiquer, voilà, c'était vraiment de vous

play12:31

l'expliquer.

play12:32

Donc voilà, on s'arrête pour cette vidéo et donc je l'espère à bientôt !

Rate This

5.0 / 5 (0 votes)

Связанные теги
AI ActRégulation IAUnion EuropéenneIntelligence ArtificielleConfiance IARisques IADroits FondamentauxTransparence IARèglement UEInnovation IA
Вам нужно краткое изложение на английском?