Qu’est-ce que l’AI Act (ou le règlement européen sur l’intelligence artificielle) ? 🤖
Summary
TLDRLa vidéo aborde l'AI Act, une législation européenne votée en mars pour encadrer l'utilisation de l'intelligence artificielle. Elle explique le but de la réglementation, qui est de créer des normes pour les systèmes IA sur le marché européen et ceux qui impactent les citoyens européens, en distinguant les risques et en interdisant ou régulant les systèmes en conséquence. Le but est de garantir la confiance dans les IA, en matière de santé, de sécurité et de droits fondamentaux. Le script introduit également le concept de 'sandbox' pour le développement contrôlé des IA et mentionne la création d'un Bureau européen de l'IA pour superviser la mise en œuvre du règlement.
Takeaways
- 📜 L'AI Act est une législation européenne qui a été votée en mars par le Parlement européen et vise à réguler l'utilisation de l'intelligence artificielle (IA) en Europe.
- 🌟 L'objectif principal de l'AI Act est de garantir que les systèmes d'IA soient dignes de confiance en matière de santé, sécurité et respect des droits fondamentaux.
- 🚫 Certains types d'IA, tels que ceux utilisant des techniques manipulatrices ou exploitant les vulnérabilités, sont interdits par le règlement.
- 🏢 L'AI Act s'applique à tous les systèmes d'IA commercialisés dans les 27 pays européens, ainsi qu'à ceux qui ont un impact sur les citoyens européens, qu'ils soient européens ou étrangers.
- 🔍 Le règlement classe les systèmes d'IA en fonction du niveau de risque qu'ils présentent, allant de l'interdiction totale à l'absence de restrictions pour les systèmes considérés comme inoffensifs.
- 📊 Les systèmes d'IA à haut risque, comme ceux utilisés dans les transports ou la gestion migratoire, sont soumis à de nombreuses obligations, notamment en matière de transparence, de sécurité et de documentation.
- 🛡️ Un Bureau européen de l'IA sera créé pour évaluer les risques, s'assurer du respect des règles et aider au développement d'un écosystème européen de confiance en IA.
- ⏱️ La mise en œuvre de l'AI Act se déroulera en plusieurs étapes, avec des délais allant de 2 à 3 ans pour certaines dispositions, laissant ainsi du temps pour l'adaptation.
- 🌐 L'Union européenne espère que l'AI Act servira de modèle pour d'autres pays, bien que cela reste incertain et dépendra de la réaction du marché et des concurrents internationaux.
- 🔄 Le règlement prévoit également la mise en place de sandbox pour tester les systèmes d'IA dans des environnements contrôlés, afin de faciliter leur développement conformément aux exigences de l'AI Act.
Q & A
什么是欧盟的人工智能法案(AI Act)?
-欧盟的人工智能法案(AI Act)是一项旨在确保在欧洲市场上放置和使用的人工智能系统是安全、尊重基本权利和欧盟价值观的法规。它采用了基于风险的方法,对不同风险级别的AI系统设定了不同的义务和要求。
AI Act的主要目标是什么?
-AI Act的主要目标是确保AI系统的安全性、透明度、可追溯性、非歧视性以及环保性。它还旨在建立一个适用于未来AI系统的技术中性、统一的AI定义,并确保AI系统由人监督,而不是自动化,以防止有害结果。
AI Act如何分类AI系统?
-AI Act根据AI系统对用户构成的风险将它们分类。不可接受风险的AI系统,例如社会评分或行为操纵,将被禁止。高风险AI系统,如用于招聘或关键基础设施管理的系统,将受到严格监管。有限风险AI系统,如与人类直接互动的AI系统,需要遵守透明度要求。最小风险AI系统,如垃圾邮件过滤器或AI视频游戏,不受严格监管。
AI Act对高风险AI系统有哪些要求?
-对于高风险AI系统,AI Act要求在上市前和整个生命周期中进行评估。这些系统需要满足严格的标准,包括风险管理、数据质量、透明度、人类监督和鲁棒性,以最小化风险。
AI Act对生成式AI和基础模型有哪些透明度要求?
-生成式AI,如ChatGPT,虽然不被归类为高风险,但必须遵守透明度要求和欧盟版权法。这包括披露内容是由AI生成的、设计模型以防止生成非法内容,以及发布用于训练的版权数据的摘要。
AI Act对企业有何影响?
-AI Act将对开发或使用AI系统的企业产生深远影响。企业需要评估其AI系统是否属于AI法案下的受规制系统,并根据风险等级判断所需履行的合规义务。企业还需要判断自身是否构成AI法案下的AI系统提供者,并遵守相应的合规要求。
AI Act何时生效?
-AI Act已于2024年5月21日由欧盟理事会正式批准通过,并已于2024年8月1日正式生效。
AI Act对数据治理有哪些要求?
-AI Act要求高风险AI系统的提供者在将系统投放市场前开展数据治理活动,包括数据的选择、收集、预处理等,并确保数据集的偏见得到审查和减少。
AI Act对个人信息保护有何规定?
-AI Act规定处理个人信息时需要遵循相应的法律要求,并采取适当的技术和管理措施以保障训练数据涉及的个人信息的安全性。
AI Act是否支持创新和技术发展?
-是的,AI Act旨在提供机会给初创企业和中小型企业在将AI模型发布给公众之前进行开发和训练。它要求国家当局为公司提供接近真实条件的测试环境。
Outlines
🌐 Introduction à l'AI Act
Le premier paragraphe introduit le sujet de la vidéo, qui est l'AI Act, une législation européenne sur l'intelligence artificielle. Le présentateur explique que le but de la vidéo est de comprendre les raisons pour lesquelles ce règlement a été créé, les changements qu'il apportera en Europe, et son influence potentielle à l'échelle mondiale. L'AI Act a été votée en mars par le Parlement européen et marque un grand pas en avant pour l'UE en tant que pionnière dans le domaine de la régulation de l'IA. Le paragraphe aborde également les définitions de l'intelligence artificielle et de son fournisseur, en utilisant ChatGPT et OpenAI comme exemples. L'objectif de l'AI Act est de garantir que les IA sont dignes de confiance en matière de santé, de sécurité et de respect des droits fondamentaux, en harmonisant les règles pour les IA sur le marché ou en régulant celles qui le sont déjà.
🚫 Interdictions et régulations de l'AI Act
Le deuxième paragraphe détaille les différentes interdictions et régulations imposées par l'AI Act. Il explique que les systèmes d'intelligence artificielle qui utilisent des techniques manipulatrices, exploitent les vulnérabilités, implémentent des systèmes de notation sociale, ou évaluent le risque de criminalité en fonction de profils ou de traits de personnalité sont interdits. De plus, il est interdit de déduire des émotions dans des contextes professionnels ou éducatifs. Le paragraphe poursuit avec une description de la pyramide des risques, qui classe les IA en fonction de leur niveau de risque, allant des activités interdites aux activités autorisées. Les IA considérées comme inoffensives ne sont pas soumises à de grandes contraintes, tandis que les IA à risque limité, comme les deepfakes, doivent informer les utilisateurs de leur nature potentiellement trompeuse.
🔍 Analyse des risques et création du Bureau européen de l'IA
Le troisième paragraphe traite des catégories intermédiaires et à haut risque des IA, ainsi que de la création du Bureau européen de l'IA. Il explique que les IA génératives associées à des modèles de langage de grande taille (LLM) doivent fournir une documentation technique et respecter le droit d'auteur. Les modèles nécessitant plus de 1025 FLOPS sont considérés comme 'systémiques' et soumis à des obligations supplémentaires, notamment une évaluation des modèles et une cybersécurité accrue. Les systèmes à haut risque, comme ceux impliqués dans les transports ou la gestion migratoire, sont soumis à huit obligations précises pour évaluer et réduire les risques, fournir des données de haute qualité, et garantir la sécurité et la robustesse du système. Le Bureau européen de l'IA sera chargé d'évaluer le niveau de risque des IA, de s'assurer du respect des règlements, et de développer l'écosystème européen de l'IA. Il collaborera avec les États membres et les communautés d'experts pour établir des outils communs et mettre en place des environnements de test (sandbox) pour s'assurer que les systèmes sont conformes dès le développement.
Mindmap
Keywords
💡AI Act
💡Intelligence artificielle
💡Digne de confiance
💡Systèmes interdits
💡Risque inacceptable
💡Fournisseur
💡Systèmes à risque élevé
💡IA générative
💡Bureau européen de l'IA
💡Sandbox
Highlights
L'AI Act est une législation européenne qui a été votée en mars par le Parlement européen pour réguler l'utilisation de l'intelligence artificielle.
Le but de l'AI Act est de comprendre pourquoi ce règlement a été créé et les changements qu'il apportera en Europe et potentiellement dans le monde entier.
L'Union Européenne est la première à légiférer sur l'IA, faisant figure de pionnière dans ce domaine.
La définition de l'intelligence artificielle dans le cadre de l'AI Act est un système basé sur une machine conçue pour fonctionner avec différents niveaux d'autonomie.
Un fournisseur d'IA est l'entité qui met une intelligence artificielle sur le marché, comme OpenAI avec ChatGPT.
L'AI Act vise à assurer que les systèmes d'IA soient dignes de confiance en matière de santé, sécurité et droits fondamentaux.
Le règlement s'intéresse à la transparence des décisions prises par les IA et à la prévention de leur utilisation abusive.
Certains types d'IA, comme ceux utilisant des techniques manipulatrices ou exploitant les vulnérabilités, sont interdits par l'AI Act.
Le règlement établit un système de risques avec cinq niveaux, allant de l'interdiction totale à l'autorisation sans contrainte.
Les IA considérées comme inoffensives ne sont pas soumises à de grandes contraintes et sont encouragées à suivre les bonnes pratiques.
Pour les IA à risque limité, les utilisateurs doivent être informés de la possibilité d'erreurs dans les résultats générés.
Les IA génératives, associées aux grands modèles de langage, doivent fournir des documents techniques et respecter le droit d'auteur.
Les modèles 'systémiques', nécessitent une évaluation des modèles, une réduction des risques, une documentation et un niveau élevé de cybersécurité.
Les IA à haut risque sont soumises à huit obligations précises, incluant l'évaluation des risques, la documentation détaillée et la robustesse.
Un Bureau européen de l'IA sera créé pour évaluer les risques et s'assurer du respect des règles par les fournisseurs d'IA.
Le règlement prévoit la mise en place de 'sandbox' pour tester les systèmes IA dans des environnements contrôlés.
L'entrée en vigueur de l'AI Act est prévue en plusieurs étapes, allant de 2025 à 2027 pour certaines dispositions.
L'AI Act vise à équilibrer la liberté de création d'IA avec la nécessité de protéger les citoyens et de maintenir la confiance dans la technologie.
Transcripts
Bonjour à toutes et à tous, dans cette vidéo je propose qu'on prenne quelques minutes
pour essayer de comprendre ce qui se cache derrière l'AI Act, ou la législation sur
l'intelligence artificielle (si je dis en bon français), et elle a été votée à la
mi-mars par le Parlement européen.
L'idée de cette vidéo c'est d'essayer de comprendre Pourquoi ce règlement a été
créé et aussi ce qui va changer en Europe, et surtout potentiellement l'influence qu'il
aura au niveau mondial, vu que l'Union Européenne est la première à faire un aussi grand pas en avant
en faisant en quelque sorte figure de pionnière.
Et donc comme j'ai pu le faire pour le Digital Markets Act, je propose qu'on le découvre
à travers différentes questions, et qui feront donc le fil conducteur de cette vidéo, et
bien sûr vous retrouvez ça dans la barre de progression.
Déjà, et avant de creuser le sujet, on va faire un détour par l'aspect définition,
et tout d'abord celle de l'intelligence artificielle qui est, et je cite, "un système basé sur
une machine conçue pour fonctionner avec différents niveaux d'autonomie, et qui peut
déduire à partir des données qu'il reçoit, comment générer des résultats tels que
des prédictions, du contenu, des recommandations ou des décisions".
Et pour compléter cette première définition, ce qu'on appelle un fournisseur, c'est tout
simplement l'entité qui met une intelligence artificielle sur le marché.
Et donc concrètement, pour vous citer l'exemple le plus connu, ChatGPT c'est donc un système
d'intelligence artificielle, et OpenAI, ça en est le fournisseur.
Et de là, on va commencer à s'intéresser au règlement, et vous avez souvent entendu
dire qu'on ne sait pas pourquoi une IA a pris telle ou telle décision, et on voit
vite les problèmes que ça peut agendrer si par exemple elles sont utilisées, je sais
pas, dans des embauches.
Mais pire, et vous avez souvent entendu dire qu'elles peuvent aussi dérailler,
voire même halluciner.
C'est-à-dire en gros qu'elles vont inventer purement et simplement des réponses en affirmant
pourtant qu'elles sont vraies.
Et donc aujourd'hui, on voit qu'on est à mi-chemin entre des outils très puissants,
mais aussi des outils très faillibles.
Et c'est donc pour ça que l'Union Européenne ne veut absolument pas bannir les IA, mais
plutôt s'assurer qu'elles soient dignes de confiance, et d'ailleurs ça c'est vraiment
le mot-clé qui revient tout le temps : Dignes de confiance.
Et donc dignes de confiance en matière de santé, de sécurité, et aussi des droits
fondamentaux.
Donc par exemple avec la démocratie, ou les fake news, ça pourrait vite amener à des
problèmes lors des élections.
Et donc d'une manière globale, l'idée de l'AI Act, c'est d'harmoniser les règles
pour les Intelligences Artificielles qui vont être mises sur le marché, ou alors réguler,
voire carrément interdire celles qui le sont déjà.
Et en intro, je vous ai dit que c'est une législation européenne, qui concerne donc
tous les systèmes qui sont mis sur le marché dans les 27 pays, mais aussi ceux qui peuvent
avoir un impact sur les citoyens européens, donc pas forcément qui sont mis sur le marché,
et donc d'une manière générale ça peut être des acteurs européens genre Mistral,
mais aussi étrangers comme OpenAI ou Anthropic.
Et de là, pour encadrer ces IA, le règlement est parti sur un système de risques, et qui
est représenté sur cette pyramide. Mais en vrai elle est fausse parce qu'il n'y a pas
4 mais 5 niveaux.
Donc bref, je vais vous faire à ma sauce, où je vais d'abord vous dire ce qui est totalement
interdit, puis on ira de plus en plus vers ce qui est régulé.
Je vous préviens, pour ce premier volet, je vous fais la liste complète, car ça vous
montrera bien tout ce qui est interdit, mais après rassurez-vous, j'accélèrerai.
Et pour ça on a 6 critères qui élimineront les IA qui utilisent des techniques manipulatrices
ou trompeuses, et qui peuvent entraver à la prise de décision.
Ensuite, et c'est un peu lié, mais tout ce qui tourne autour de l'exploitation des vulnérabilités,
et on entend, soit l'âge avec les enfants, soit le handicap, soit les situations économiques,
pour par exemple faire croire des choses aux personnes en difficulté, ce sera bien là
aussi interdit.
On poursuit, et contrairement à la Chine, tout système de notation sociale ou de classification
des gens, là aussi ce sera bien interdit.
Après, c'est un sujet assez vaste puisque ça englobe la catégorisation et
l'identification biométrique.
En gros, ce sont les systèmes qui déduisent des attributs comme la race ou les opinions
politiques, et donc ça peut être totalement faux parce que ça déduit, mais on verra
que dans certains cas, il peut y avoir des dérogations.
Et un peu dans la même lignée, des systèmes qui évalueraient le risque qu'une personne
puisse commettre des infractions sur la base de profilage ou sur ses traits de personnalité,
là aussi ce sera bien interdit.
Et enfin, dernier point, il n'est pas possible de déduire des émotions sur son lieu de travail
ou encore à l'école.
Donc voilà, tout ce que je viens de vous citer, c'est bien totalement interdit, et
sans rentrer dans les détails, il peut y avoir des dérogations qui sont possibles, mais
vraiment dans des cadres judiciaires extrêmement limités, autant dans le temps que dans le
champ d'application.
Et donc, maintenant qu'on a vu tout ce qui était interdit, on va aller de l'autre
côté de la barrière, avec au contraire ce qui est le plus autorisé.
Et là, préparez-vous, mais je vais vous dire quelque chose de contre-intuitif, et
contrairement à ce qu'on pourrait croire, le règlement passe à côté d'une majeure
partie des IA actuelles.
Et là, j'imagine que vous allez me demander "Pourquoi ?".
Eh bien parce qu'elles sont vues comme inoffensives.
Et si vous vous souvenez au début, je vous ai dit que tout le règlement tournait autour
d'IAs dignes de confiance.
Et donc, il y a dans un jeu qui gère par exemple les ennemis, ou alors le filtre antismem,
ils sont là pour améliorer des algos.
Mais clairement, ni l'une ni l'autre ne seront, je sais pas, nocives pour la société.
Et donc, pour cette catégorie, le règlement n'impose aucune contrainte, et ça incite
simplement à suivre les règles de bonne conduite.
Et j'enchaîne avec ce qu'ils appellent le risque limité, et on entend tout ce qui
peut poser problème autour du manque de transparence, et les deepfakes sont donnés en exemple.
Et pour ça, chaque service devra explicitement informer l'utilisateur de cet état, et ce
sera donc à l'utilisateur en son âme et conscience de savoir que les résultats peuvent
être faux.
Et d'ailleurs, cette catégorie exige que tous les résultats générés doivent pouvoir
être identifiés, et donc ça concerne les images et les vidéos en général. Et côté
texte, c'est uniquement s'il y a un intérêt général derrière.
Et on enchaîne avec une catégorie intermédiaire, et tout à l'heure, si je vous disais que
la pyramide était fausse, c'est qu'il manque un étage qui est donc entre le risque
limité et le risque élevé, et qui concerne les IAs à usage général, ou en gros ce qu'on
appelle les IA génératives qui sont associées à des LLM.
Et là-dessus, elles devront nécessairement fournir la doc technique et aussi respecter
le droit d'auteur, et éléments supplémentaires si toutefois un modèle n'est pas open source,
il faudra fournir un résumé expliquant d'où viennent les données de la base d'entraînement.
Et donc ça, c'est le cas général, et ici préparez-vous à un sous-sous-cas, car si
toutefois pour créer un modèle, il a fallu plus de 1025 opérations en virgule flottante
par seconde (ou 1025 FLOPS), et bien dans ce cas, le modèle sera qualifié de "systémique".
Et si un système est systémique, il y a des obligations supplémentaires, comme une
évaluation obligatoire des modèles, essayer d'atténuer les risques, documenter, signaler
des incidents graves, et aussi mettre en place un niveau suffisant de cybersécurité.
Et enfin, pour ce qui est du risque élevé, contrairement au précédent qui était assez
générique, on a ici les critères bien précis, et en l'occurrence, on en a 8.
Et juste avant de vous les citer, beaucoup de choses dans ce règlement ont été mis
dans les annexes histoire de facilement pouvoir les faire évoluer.
Et donc si je reviens aux risques, là je vous les affiche tous, mais je vais vous en citer
juste quelques-uns.
Il y a les infrastructures, avec par exemple les transports, qui peuvent facilement mettre
en danger la vie des citoyens.
On se parle aussi d'emploi, de démocratie, de formation, ou même de toute la gestion
migratoire, qui sont déjà des sujets bien brûlants lorsque les politiques essaient
de faire des changements, donc des IAs, n'en parlons pas.
Et de là, 7 obligations seront appliquées à ces systèmes, et déjà un système pour
évaluer les risques devrait être mis en place, et aussi faire en sorte de les réduire.
Côté jeux de données, pour éviter tout bias, ces systèmes devront obligatoirement prouver
que les données sont de haute qualité.
En numéro 3, il faut fournir une documentation détaillée de tout le système pour aider
à évaluer sa conformité. Mais forcément aussitôt, il y a un point 4 qui forcera
à avoir un mécanisme de surveillance, (ou des logs si vous préférez), qui permettront
de tracer les résultats et vérifier que la doc était pas mensongère.
Et ensuite, toujours en mode doc, il faut des infos claires sur la manière de déployer,
et aussi indiquer quelles mesures prendre pour minimiser les risques.
Et enfin, dernière obligation, mais qui coule de sens, à savoir être fortement robuste,
très sécurisé, et avoir des réponses bien précises.
Donc vous voyez que ces contraintes ne sont pas là pour empêcher ces IA d'exister,
mais plutôt les brider, et avoir des logs si toutefois elles avaient déraillées.
Et maintenant qu'on a vu tous les cas possibles et imaginables, la question c'est qui va
s'assurer que tout est bien respecté ? Et pour ça, un Bureau européen de l'IA va
être créé, et qui aura donc pour mission de faire les évaluations sur le niveau de
risque, et aussi de s'assurer que tout est bien respecté.
Et ce que j'entends par là, vous savez, c'est pas juste gronder, mais vraiment être
derrière le dos des fournisseurs pour qu'ils fassent donc les changements, sinon ça pourrait
aller jusqu'à l'interdiction.
Mais ce bureau, il n'a pas uniquement un rôle administratif on va dire, parce qu'il va
aussi s'assurer de développer l'écosystème européen pour s'assurer que les entreprises
elles peuvent bien créer, vous savez, des modèles dignes de confiance.
Et un bon point, c'est que ce bureau, il sera pas cloisonné à Bruxelles, puisqu'il
collabora avec les différents états membres, et aussi les communautés d'experts.
Et donc l'idée c'est qu'ils se réuniront régulièrement pour établir des outils
communs, comme par exemple des guides de bonne pratique.
Et d'ailleurs l'idée sous-jacente, c'est qu'elle fasse aussi de la veille pour faire
en sorte de faire évoluer les règles si toutefois le marché venait à évoluer.
Et si je reviens sur l'aspect validation des IA, dans le cas de ceux à haut risque,
et bien le bureau européen devra faire en sorte que tant que les critères seront pas
remplis, et bien hop, ça boucle au ras.
Et dès que le modèle il sera validé, il sera identifié, et il pourra fièrement arborer
vous savez le logo CE.
Et juste d'ailleurs pour parenthèse, le logo CE que là vous achetez sur vos produits
en général, c'est du pur déclaratif, donc généralement du pur pipo.
Mais ici ce sera bien le bureau de l'IA qui donnera cette validation, donc ici il sera
à une vraie valeur.
Pour en revenir au bureau de l'IA, il donnera des guides de bonne pratique, mais la vraie
question c'est finalement, s'il y a des contraintes dans l'UE, forcément les modèles
seront bridés, alors qu'à l'intentionnal, ce sera pas le cas des concurrents.
Et là dessus, il faut le dire clairement, mais le règlement a une réponse assez décevante.
Parce que l'approche, c'est de dire que vu que l'UE fait figure de pionnière en
montrant le chemin à suivre, et bien ils espèrent que les autres pays s'aligneront.
Mais donc, ils espèrent.
Mais bref, de là en vient la notion de sandbox, où le bureau européen et les acteurs nationaux
seront chargés de mettre en place des environnements de test avec des jeux de données tout à
fait plausibles. Et donc ça permettra de s'assurer que dès le développement, tous
les systèmes seront bien en règle.
Et donc pour le coup, ça c'est plutôt une bonne chose, puisque ça évitera, vous savez,
trop d'allers-retours pour la validation, mais reste toujours cette question des limites
face aux concurrents internationaux.
Et malheureusement, pour finir, c'est un peu l'étape qui fâche, parce que ce règlement
dans une grande partie, il n'entrera en vigueur que dans 2 ans, voire même 3 pour
certaines choses.
Mais en réalité, la timeline est plus compliquée que ça, et donc je vais vous le faire étape
par étape.
Et déjà, il faut savoir qu'à l'heure actuelle, c'est uniquement le parlement
qui l'a voté, mais il faudra attendre qu'il paraisse au Journal officiel, et ça, ça
devrait être en mai.
Et de là, il faut ajouter 20 jours, donc fin mai, début juin, et après, la timeline
que je vous décris va démarrer.
Et donc 6 mois après la mise en vigueur, donc fin d'année, début 2025, les IA avec
un risque inacceptable seront interdites.
Et là, on enchaîne sur un an où chaque état membre mettra en place son autorité,
et les premières obligations sur les IA générales s'appliqueront.
Et surtout, 2 ans après, donc mi-2026, c'est vraiment là où tout le système sera mis
en place autour des systèmes à haut risque.
Et pour finir, ça va juste en 2027 avec certains systèmes à haut risque, parce qu'imaginons
qu'un jouet ou alors des dispositifs médicaux utilisent ce genre d'IA, eh bien eux, ils
auront un tout petit peu plus de temps.
Donc voyez que la timeline s'étend sur une durée assez longue, preuve que l'UE est
en mode "on est les premiers, mais voilà, peut-être on va faire des erreurs, donc voilà,
on se laisse une petite marge".
Et donc pour terminer cette vidéo, vous voyez que d'une manière générale, cet AI Act
est avant tout là pour limiter un secteur qui a aucune contrainte. Et d'une manière
générale, les principales et moins nocives ne seront pas touchées, et à l'inverse,
certaines catégories seront automatiquement interdites, et ça d'ici à la fin de l'année.
Et ensuite, on a des niveaux de gradation, où d'une manière générale, les mots-clés
sont transparence et si possible atténuer les risques pour donc qu'elles soient
dignes de confiance.
Par contre, reste la question autour de la concurrence, et ça, ce sera vraiment le point
à suivre, parce que ce serait quand même dommage de voir des acteurs comme Mistral
se faire un peu étouffer par ce genre de règlement, parce que finalement, les concurrents,
eux, ils n'auraient pas autant de contraintes.
En tout cas, là-dessus, merci d'avoir suivi la vidéo, qui, je l'espère, vous aura mieux
permis de comprendre ce règlement, et donc laisse pression à retenir, vous avez compris,
c'est des IA dignes de confiance.
Et donc voilà, n'hésitez pas à appuyer sur le pouce en l'air, ou encore à vous
abonner à la chaîne, parce que je publie régulièrement ce genre de vidéos.
Et donc voilà, je le répète ici, mais mon intention, c'est bien d'expliquer le règlement,
et pas de cibler des failles, ou même de critiquer, voilà, c'était vraiment de vous
l'expliquer.
Donc voilà, on s'arrête pour cette vidéo et donc je l'espère à bientôt !
Voir Plus de Vidéos Connexes
Interview Davide Ortona - mémoire d'étude d'Anastasia Angou
Legal implications of the Artificial Intelligence Act for cities, regions, and communities 20240619
How DePIN can revolutionize the way AI works (With Jonathan Schemoul from Aleph.im)
Perdons-nous le contrôle sur l’IA ? | 42 - La réponse à presque tout | ARTE
LE WEB - SNT Seconde
Comment FILMER une INTERVIEW professionnelle
5.0 / 5 (0 votes)