EU Artificial Intelligence ACT: La prima regolamentazione (Europea) sull'Intelligenza Artificiale

Video Backlight di Marco Italiano
15 Dec 202308:19

Summary

TLDRThe video discusses the AI Act, new European Union legislation regulating uses of artificial intelligence based on risk level. It establishes four risk categories - minimal, high, unacceptable, limited/specific - with corresponding requirements and restrictions. Key points include mandatory transparency for general AI models regarding training processes and respect for people's rights and freedoms. The Act creates governance bodies to oversee implementation, and sanctions for violations like fines and class action lawsuits to protect citizens' rights.

Takeaways

  • 😀 The AI Act is a long-awaited European law that regulates the use of AI systems
  • 😮‍💨 The law classifies AI systems into 4 risk levels: minimal, limited, high and unacceptable risk
  • 🚫 AI systems posing unacceptable risk to people's rights and freedoms will be banned
  • 😊 Low risk AI like movie recommendations will have minimal obligations
  • 🤖 High risk AI like in the judiciary will face stricter rules
  • 🔎 AI providers must be transparent on how their systems are trained
  • 🏢 An EU AI office and national authorities will oversee implementation
  • ⚖️ Fines up to €35M or 7% of global turnover can be imposed for violations
  • 🤝 Citizens can launch class action suits if harmed by non-compliant AI
  • 👍🏻 The law aims to protect people's rights and freedoms in the AI age

Q & A

  • What is the AI Act?

    -The AI Act is a new European Union law that regulates the use of artificial intelligence systems. It establishes rules around transparency, risk management, governance and enforcement.

  • When is the AI Act expected to be finalized?

    -The AI Act is expected to be finalized and published in the Official Journal of the European Union in spring 2024, if all steps in the legislative process go as planned.

  • How does the AI Act classify risk levels of AI systems?

    -The AI Act classifies AI systems into four risk levels - minimal, limited, high and unacceptable risk. This risk-based approach tailors obligations to the actual risk an AI system poses.

  • What are some examples of unacceptable risk AI systems?

    -Examples of unacceptable risk AI systems that will be prohibited include AI used for social scoring, as done in China, or predictive policing.

  • What transparency rules apply to general purpose AI models?

    -For general purpose AI models like large language models, there are transparency rules around disclosure of how these models are trained, to ensure respect of human rights and freedoms.

  • How will the AI Act be enforced?

    -The EU will establish an AI Office to oversee enforcement. Member states must also designate national competent authorities. Fines up to €35 million or 7% of global annual turnover can be levied for violations.

  • Can individuals take action if harmed by non-compliant AI?

    -Yes, the latest AI Act draft allows individuals to initiate class action lawsuits if they are harmed by non-compliant AI systems.

  • What are the core principles behind the AI Act?

    -The AI Act is centered on protecting human rights and freedoms that may be impacted by AI systems. Ensuring transparency around AI is also a core principle.

  • Which systems are considered low or no risk?

    -AI systems like those recommending Christmas playlists or movies to stream are considered low or no risk, with minimal obligations under the AI Act.

  • What role will EU member states play in AI Act governance?

    -Each EU member state must designate a national authority responsible for supervising implementation and compliance with the AI Act locally.

Outlines

00:00

😲 Overview of AI Act and its risk-based approach

The AI Act is a long-awaited EU regulation that disciplines AI systems' uses based on a risk-based approach. It proposes four AI risk levels from minimum to unacceptable with different transparency requirements. For instance, minimum risk is movie recommendations, while unacceptable risk is predictive policing or social scoring. The Act targets protecting fundamental rights and freedoms.

05:00

😀 Transparency requirements for foundation models and governance provisions

The Act imposes transparency obligations regarding how general purpose AI systems and foundation models are trained to ensure respect for rights and freedoms. There will be a European AI Office and national competent authorities to oversee regulation implementation. Sanctions go up to €35 million fines or 7% of global annual turnover. There is also potential for class action lawsuits by affected citizens and users.

Mindmap

Keywords

💡Artificial Intelligence (AI)

Artificial Intelligence (AI) refers to the simulation of human intelligence in machines that are programmed to think and learn like humans. In the script, AI is the central theme, discussed in the context of its impact, regulation, and integration into various sectors. The video delves into how AI's advancements are prompting discussions on legislation and ethical considerations, reflecting on AI's pervasive role in modern society.

💡IA Act

The IA Act, as mentioned in the script, refers to proposed legislation by the European Union to regulate artificial intelligence. It outlines a framework to address AI's risks and impacts, emphasizing a risk-based approach to categorize AI applications. The Act is pivotal in the video, signifying a significant step towards formalizing AI's governance to ensure its alignment with human rights and ethical standards.

💡Risk-based approach

A risk-based approach, as discussed in the script, categorizes AI systems based on the level of risk they pose, ranging from minimal to unacceptable. This classification informs the degree of regulatory scrutiny and requirements imposed on each AI system, guiding how AI can be developed and used responsibly. The script highlights this approach as a cornerstone of the IA Act, illustrating its role in safeguarding against AI's potential adverse effects.

💡Transparency

Transparency in AI, as explained in the video, involves clear disclosure about how AI systems operate and make decisions. It's a critical aspect of the IA Act, ensuring that users understand when they are interacting with AI and the basis for AI's decisions. This concept is fundamental to building trust and accountability in AI applications, particularly in high-risk contexts.

💡Unacceptable risk

Unacceptable risk refers to AI applications that pose severe threats to people's rights and freedoms, such as predictive policing or social scoring systems. The video underscores that such applications will be prohibited under the IA Act, highlighting the legislation's role in protecting fundamental human values against the backdrop of AI's capabilities.

💡Regulation

Regulation in the context of the video refers to the legal frameworks and rules established to govern AI's development and deployment. The IA Act represents a proactive step by the EU to create a standardized regulatory environment for AI, emphasizing the need to balance innovation with ethical considerations and public welfare.

💡Foundation models

Foundation models, as mentioned in the script, are large-scale AI systems that can be adapted to various tasks. The video discusses the need for transparency in how these models are trained and used, reflecting broader concerns about the accountability and impact of powerful AI systems on society.

💡Sanctions

Sanctions in the AI context refer to penalties for non-compliance with AI regulations. The script outlines potential fines and other punitive measures under the IA Act, emphasizing the enforcement mechanisms designed to ensure adherence to the established AI governance framework.

💡Class action

Class action, as described in the video, allows individuals to collectively sue for damages caused by AI systems that violate the IA Act. This legal recourse exemplifies the empowerment of citizens and users in the regulatory landscape, providing a mechanism to address grievances and hold AI developers accountable.

💡Governance

Governance in the AI context refers to the structures and processes established to oversee AI's development and use. The script mentions the creation of a specific office for AI at the European Commission and national competent authorities, illustrating the multi-layered approach to AI governance envisaged by the IA Act.

Highlights

La legge disciplina gli usi dell'intelligenza artificiale ed è in vigore dalla primavera 2024

La legge propone un approccio basato sul rischio con 4 livelli: minimo, alto, inaccettabile e limitato

I sistemi a rischio inaccettabile come la polizia predittiva saranno vietati

Ci sarà trasparenza per far sapere agli utenti se interagiscono con IA o esseri umani

Non saranno ammesse IA che presentano rischi inaccettabili per i diritti e libertà delle persone

Previsti obblighi di trasparenza anche per i modelli di fondazione come GPT

Ci sarà un ufficio specifico per l'IA istituito presso la Commissione Europea

Ogni stato membro dovrà designare una propria agenzia di sorveglianza sull'IA

Sanzioni fino a 35 milioni di € o 7% del fatturato globale annuo per chi viola le regole

Prevista possibilità di class action da parte degli utenti contro uso improprio di IA

La legge nasce come norma sulla certificazione ma è diventata legge su diritti e libertà

Classificazione dei sistemi IA basata su 4 livelli di rischio: cruciale per regolamentazione

Fondamentale la trasparenza sui modelli IA, specie quelli addestrati su grandi dati

Previsione di rigorose sanzioni e possibilità di class action sono elementi innovativi

La legge tutela innanzitutto i diritti e libertà delle persone che utilizzano o subiscono IA

Transcripts

play00:00

[Musica]

play00:11

Benvenuti a video backlight oggi

play00:13

parleremo di intelligenza artificiale e

play00:15

il Trend del momento proprio nei giorni

play00:18

scorsi abbiamo assistito alla maratona

play00:20

sull'intelligenza artificiale dove 31

play00:23

speakers tra rappresentanti di aziende

play00:27

Service provider aziende multinazionali

play00:29

aziende nazionali membri delle

play00:31

istituzione abbiamo in qualche modo

play00:33

affrontato Qual è l'impatto

play00:35

dell'intelligenza artificiale il fuce

play00:37

che ha legato un po' tutti gli argomenti

play00:40

è stato quello della necessità della

play00:42

regolamentazione in questo ambito

play00:44

proprio per questo mi sembrava d'obbligo

play00:46

affrontare quello che è la iact che

play00:49

proprio in questi giorni L'Unione

play00:51

Europea ha portato Fatemi dire a casa e

play00:55

la persona con cui secondo me se ne può

play00:57

parlare bene è l'avvocato Ernesto Ario

play01:00

Benvenuto Ernesto Grazie Marco per

play01:03

l'invito Allora ti premetto che questo è

play01:06

uno dei tanti eventi che faremo

play01:08

sull'intelligenza artificiale E visto

play01:10

che comunque Parliamo di un accordo

play01:11

all'interno delle istituzione Europea se

play01:13

ne parlerà tante volte quindi non è la

play01:16

non sarà questa l'ultima volta in cui ti

play01:18

chiamerò Allora detto questo Ernesto

play01:21

Allora innanzitutto una panoramica sulla

play01:23

legge una legge tanto

play01:25

attesa sì è una legge tanto attesa è una

play01:28

legge di cui parleremo molto siamo

play01:29

soltanto all'inizio è l'ia Act legge

play01:33

sull'intelligenza artificiale è una

play01:35

legge che disciplina gli usi

play01:37

dell'intelligenza artificiale questo è

play01:39

importante è una proposta che è stata

play01:41

avviata nell'aprile del 2021 E che

play01:44

dovrebbe andare se tutti i passaggi

play01:47

saranno confermati in Gazzetta Ufficiale

play01:50

dell'Unione Europea nella primavera del

play01:52

2024 quindi l'iter è ancora non concluso

play01:56

non abbiamo un testo sappiamo che si è

play01:58

raggiunto un accordo politico e che

play02:00

questa legge propone un approccio basato

play02:03

sul rischio Quindi esistono ia che

play02:06

possono presentare a seconda del

play02:08

contesto in cui vengono usati quattro

play02:09

livelli di rischio il rischio minimo un

play02:12

rischio alto un rischio inaccettabile e

play02:16

poi invece un rischio limitato

play02:17

cosiddetto specifico per la parte di

play02:19

trasparenza provo a spiegare brevemente

play02:21

di cosa si tratta per esempio rischio

play02:24

minimo o Nullo le gli algoritmi che ci

play02:27

consigliano le playlist di Natale o i

play02:30

film da vedere sulla nostra piattaforma

play02:33

di streaming preferita No non hanno un

play02:35

rischio particolarmente alto per i

play02:37

diritti e libertà delle persone poi

play02:38

invece abbiamo

play02:40

i sistemi di intelligenza artificiale

play02:42

con rischio alto che possono essere

play02:44

quelli legati ad esempio all'utilizzo in

play02:47

ambito giudiziario oppure per la

play02:48

selezione del personale poi abbiamo

play02:51

invece i sistemi di intelligenza

play02:53

artificiali a rischio inaccettabile che

play02:55

saranno quindi vietati

play02:57

eh Pensiamo ad esempio alla polizia

play02:59

predittiva o al Social scoring del

play03:02

modello cinese tanto per fare degli

play03:04

esempi e poi invece quelli in relazione

play03:07

ai quali sarà richiesto un determinato

play03:10

livello di trasparenza perché bisognerà

play03:14

sempre che gli utenti sappiano se stanno

play03:16

interagendo con umani o stanno

play03:18

interagendo con sistemi

play03:19

di vediamo Un po' abbiamo parlato dei

play03:22

rischi Questo è molto è molto importante

play03:24

quindi la classificazione

play03:26

dell'intelligenza artificiale ma

play03:28

soprattutto cosa non sarà ammesso perché

play03:30

sappiamo bene delle preoccupazioni che

play03:32

ci sono in giro relativamente

play03:34

all'utilizzo dell'intelligenza

play03:35

artificiale non saranno ammessi tutti

play03:38

quei sistemi di intelligenza artificiale

play03:40

che presentano un rischio inaccettabile

play03:43

per i diritti e libertà delle persone

play03:45

quindi il punto è sempre questo no

play03:48

l'essere umano è al centro di questa

play03:50

regolamentazione laddove l'intelligenza

play03:53

artificiale presenta un rischio

play03:55

inaccettabile che comprometta la dignità

play03:57

e i diritti le libertà fond entari della

play04:00

persona sarà vietato in tutti gli altri

play04:02

casi con ovviamente una

play04:05

serie graduata di impegni e di obblighi

play04:09

sarà ammessa e regolamentata e

play04:11

disciplinata Ovviamente fatti i casi per

play04:15

tutti quei sistemi che presentano un

play04:17

rischio Nullo o minimo per i quali

play04:19

Appunto non ci saranno grossi rischi

play04:22

Ripeto penso alle nostre playlist o ai

play04:24

nostri film di Natale in

play04:26

streaming Invece per quanto riguarda i

play04:29

sistemi di intelligenza artificiale ad

play04:31

uso generale per i modelli di fondazione

play04:33

cosa c'è scritto all'interno delle Act

play04:36

sono previsti Ovviamente questo è stato

play04:39

uno dei punti più controversi

play04:40

soprattutto dopo

play04:42

che un anno fa opena ha lanciato cgpt e

play04:46

quindi c'è stata

play04:48

questa grandissima rincorsa mondiale a

play04:51

gli

play04:52

llm large language model più

play04:56

performanti sono previsti degli

play05:00

obblighi di trasparenza anche con

play05:02

riferimento alle modalità con cui questi

play05:05

modelli sono

play05:06

addestrati anche per assicurare il

play05:09

rispetto dei diritti e delle libertà

play05:11

delle persone e quindi obblighi di

play05:13

divulgazione di informazioni quindi di

play05:16

fatto è una richiesta di trasparenza che

play05:21

è uno dei principi etici che era stato

play05:24

affermato in tutte le carte in tutti i

play05:26

documenti che nel corso degli anni

play05:28

C'erano stati i principi etici

play05:30

dell'intelligenza artificiale Ecco lei

play05:33

Act impone questa trasparenza per questi

play05:36

sistemi di uso generale per i modelli di

play05:38

fondazione invece visto che

play05:42

l'intelligenza artificiale di

play05:46

fatti sarà diffusa in tutto e per tutto

play05:49

anche nella nostra vita diciamo È chiaro

play05:51

che l'istituzione Europea si sta

play05:53

preparando per una governance adeguata

play05:55

cosa ha previsto laat Ci sarà un ufficio

play05:58

specifico per per l'intelligenza

play06:00

artificiale istituito presso la

play06:01

commissione europea e poi ogni Stato

play06:05

membro dovrà designare una propria

play06:07

agenzia o autorità competente a

play06:10

sorvegliare sull'attuazione del

play06:12

regolamento stesso e anche l'Italia nei

play06:14

prossimi mesi Sarà impegnata ad

play06:17

individuare Quale sarà il soggetto

play06:20

competente per concludere Quali sono le

play06:22

sanzioni previste nel caso in cui

play06:24

vengano utilizzati tutti i sistemi di

play06:26

intelligenza artificiale

play06:28

illecitamente e abbiamo nella nelle

play06:32

bozze delle sanzioni fino a 35 milioni o

play06:35

al 7% del fatturato globale annuo è

play06:40

evidente

play06:41

che oltre a queste sanzioni una misura

play06:46

importante delle ultime versioni del

play06:48

regolamento è quella di una class action

play06:50

addirittura dei cittadini e degli utenti

play06:54

che possano sentirsi

play06:56

ehm danneggiati dall'uso di di sistemi

play06:59

di intelligenza artificiale non

play07:01

rispondenti alla normativa quindi quella

play07:02

che che doveva essere e Nasceva come una

play07:06

norma sulla certificazione dei prodotti

play07:08

sistemi di intelligenza artificiale alla

play07:10

fine è diventata una norma sui diritti e

play07:14

le libertà fondamentali appunto che

play07:16

possono essere attivati se sarà

play07:18

confermato nella versione finale del

play07:20

documento addirittura con una class

play07:23

action Allora abbiamo parlato abbiamo

play07:26

fatto una panoramica sulla sulla legge

play07:28

la classificazione dei sistemi di

play07:30

intelligenza artificiale cosa non Sarà

play07:33

ammesso molto importante molto

play07:36

importante altresì è la trasparenza dei

play07:39

dei sistemi soprattutto sui modelli di

play07:41

fondazione e nel momento in cui ci

play07:44

saranno dei controlli da parte delle

play07:46

istituzioni previste dalla governance

play07:47

Europea quali saranno le sanzioni nel

play07:49

momento in cui non saranno in qualche

play07:52

modo osservate le leggi ne abbiamo

play07:54

parlato con Ernesto

play07:56

Belisario che ringraziamo molto quindi

play07:59

ringraziamo l'avvocato Belisario e lo

play08:01

chiameremo anche altre volte anche

play08:03

perché insomma questo è il soltanto il

play08:05

primo step Grazie ancora Ernesto a

play08:09

[Musica]

play08:18

presto