EU Artificial Intelligence ACT: La prima regolamentazione (Europea) sull'Intelligenza Artificiale
Summary
TLDRThe video discusses the AI Act, new European Union legislation regulating uses of artificial intelligence based on risk level. It establishes four risk categories - minimal, high, unacceptable, limited/specific - with corresponding requirements and restrictions. Key points include mandatory transparency for general AI models regarding training processes and respect for people's rights and freedoms. The Act creates governance bodies to oversee implementation, and sanctions for violations like fines and class action lawsuits to protect citizens' rights.
Takeaways
- 😀 The AI Act is a long-awaited European law that regulates the use of AI systems
- 😮💨 The law classifies AI systems into 4 risk levels: minimal, limited, high and unacceptable risk
- 🚫 AI systems posing unacceptable risk to people's rights and freedoms will be banned
- 😊 Low risk AI like movie recommendations will have minimal obligations
- 🤖 High risk AI like in the judiciary will face stricter rules
- 🔎 AI providers must be transparent on how their systems are trained
- 🏢 An EU AI office and national authorities will oversee implementation
- ⚖️ Fines up to €35M or 7% of global turnover can be imposed for violations
- 🤝 Citizens can launch class action suits if harmed by non-compliant AI
- 👍🏻 The law aims to protect people's rights and freedoms in the AI age
Q & A
What is the AI Act?
-The AI Act is a new European Union law that regulates the use of artificial intelligence systems. It establishes rules around transparency, risk management, governance and enforcement.
When is the AI Act expected to be finalized?
-The AI Act is expected to be finalized and published in the Official Journal of the European Union in spring 2024, if all steps in the legislative process go as planned.
How does the AI Act classify risk levels of AI systems?
-The AI Act classifies AI systems into four risk levels - minimal, limited, high and unacceptable risk. This risk-based approach tailors obligations to the actual risk an AI system poses.
What are some examples of unacceptable risk AI systems?
-Examples of unacceptable risk AI systems that will be prohibited include AI used for social scoring, as done in China, or predictive policing.
What transparency rules apply to general purpose AI models?
-For general purpose AI models like large language models, there are transparency rules around disclosure of how these models are trained, to ensure respect of human rights and freedoms.
How will the AI Act be enforced?
-The EU will establish an AI Office to oversee enforcement. Member states must also designate national competent authorities. Fines up to €35 million or 7% of global annual turnover can be levied for violations.
Can individuals take action if harmed by non-compliant AI?
-Yes, the latest AI Act draft allows individuals to initiate class action lawsuits if they are harmed by non-compliant AI systems.
What are the core principles behind the AI Act?
-The AI Act is centered on protecting human rights and freedoms that may be impacted by AI systems. Ensuring transparency around AI is also a core principle.
Which systems are considered low or no risk?
-AI systems like those recommending Christmas playlists or movies to stream are considered low or no risk, with minimal obligations under the AI Act.
What role will EU member states play in AI Act governance?
-Each EU member state must designate a national authority responsible for supervising implementation and compliance with the AI Act locally.
Outlines
😲 Overview of AI Act and its risk-based approach
The AI Act is a long-awaited EU regulation that disciplines AI systems' uses based on a risk-based approach. It proposes four AI risk levels from minimum to unacceptable with different transparency requirements. For instance, minimum risk is movie recommendations, while unacceptable risk is predictive policing or social scoring. The Act targets protecting fundamental rights and freedoms.
😀 Transparency requirements for foundation models and governance provisions
The Act imposes transparency obligations regarding how general purpose AI systems and foundation models are trained to ensure respect for rights and freedoms. There will be a European AI Office and national competent authorities to oversee regulation implementation. Sanctions go up to €35 million fines or 7% of global annual turnover. There is also potential for class action lawsuits by affected citizens and users.
Mindmap
Keywords
💡Artificial Intelligence (AI)
💡IA Act
💡Risk-based approach
💡Transparency
💡Unacceptable risk
💡Regulation
💡Foundation models
💡Sanctions
💡Class action
💡Governance
Highlights
La legge disciplina gli usi dell'intelligenza artificiale ed è in vigore dalla primavera 2024
La legge propone un approccio basato sul rischio con 4 livelli: minimo, alto, inaccettabile e limitato
I sistemi a rischio inaccettabile come la polizia predittiva saranno vietati
Ci sarà trasparenza per far sapere agli utenti se interagiscono con IA o esseri umani
Non saranno ammesse IA che presentano rischi inaccettabili per i diritti e libertà delle persone
Previsti obblighi di trasparenza anche per i modelli di fondazione come GPT
Ci sarà un ufficio specifico per l'IA istituito presso la Commissione Europea
Ogni stato membro dovrà designare una propria agenzia di sorveglianza sull'IA
Sanzioni fino a 35 milioni di € o 7% del fatturato globale annuo per chi viola le regole
Prevista possibilità di class action da parte degli utenti contro uso improprio di IA
La legge nasce come norma sulla certificazione ma è diventata legge su diritti e libertà
Classificazione dei sistemi IA basata su 4 livelli di rischio: cruciale per regolamentazione
Fondamentale la trasparenza sui modelli IA, specie quelli addestrati su grandi dati
Previsione di rigorose sanzioni e possibilità di class action sono elementi innovativi
La legge tutela innanzitutto i diritti e libertà delle persone che utilizzano o subiscono IA
Transcripts
[Musica]
Benvenuti a video backlight oggi
parleremo di intelligenza artificiale e
il Trend del momento proprio nei giorni
scorsi abbiamo assistito alla maratona
sull'intelligenza artificiale dove 31
speakers tra rappresentanti di aziende
Service provider aziende multinazionali
aziende nazionali membri delle
istituzione abbiamo in qualche modo
affrontato Qual è l'impatto
dell'intelligenza artificiale il fuce
che ha legato un po' tutti gli argomenti
è stato quello della necessità della
regolamentazione in questo ambito
proprio per questo mi sembrava d'obbligo
affrontare quello che è la iact che
proprio in questi giorni L'Unione
Europea ha portato Fatemi dire a casa e
la persona con cui secondo me se ne può
parlare bene è l'avvocato Ernesto Ario
Benvenuto Ernesto Grazie Marco per
l'invito Allora ti premetto che questo è
uno dei tanti eventi che faremo
sull'intelligenza artificiale E visto
che comunque Parliamo di un accordo
all'interno delle istituzione Europea se
ne parlerà tante volte quindi non è la
non sarà questa l'ultima volta in cui ti
chiamerò Allora detto questo Ernesto
Allora innanzitutto una panoramica sulla
legge una legge tanto
attesa sì è una legge tanto attesa è una
legge di cui parleremo molto siamo
soltanto all'inizio è l'ia Act legge
sull'intelligenza artificiale è una
legge che disciplina gli usi
dell'intelligenza artificiale questo è
importante è una proposta che è stata
avviata nell'aprile del 2021 E che
dovrebbe andare se tutti i passaggi
saranno confermati in Gazzetta Ufficiale
dell'Unione Europea nella primavera del
2024 quindi l'iter è ancora non concluso
non abbiamo un testo sappiamo che si è
raggiunto un accordo politico e che
questa legge propone un approccio basato
sul rischio Quindi esistono ia che
possono presentare a seconda del
contesto in cui vengono usati quattro
livelli di rischio il rischio minimo un
rischio alto un rischio inaccettabile e
poi invece un rischio limitato
cosiddetto specifico per la parte di
trasparenza provo a spiegare brevemente
di cosa si tratta per esempio rischio
minimo o Nullo le gli algoritmi che ci
consigliano le playlist di Natale o i
film da vedere sulla nostra piattaforma
di streaming preferita No non hanno un
rischio particolarmente alto per i
diritti e libertà delle persone poi
invece abbiamo
i sistemi di intelligenza artificiale
con rischio alto che possono essere
quelli legati ad esempio all'utilizzo in
ambito giudiziario oppure per la
selezione del personale poi abbiamo
invece i sistemi di intelligenza
artificiali a rischio inaccettabile che
saranno quindi vietati
eh Pensiamo ad esempio alla polizia
predittiva o al Social scoring del
modello cinese tanto per fare degli
esempi e poi invece quelli in relazione
ai quali sarà richiesto un determinato
livello di trasparenza perché bisognerà
sempre che gli utenti sappiano se stanno
interagendo con umani o stanno
interagendo con sistemi
di vediamo Un po' abbiamo parlato dei
rischi Questo è molto è molto importante
quindi la classificazione
dell'intelligenza artificiale ma
soprattutto cosa non sarà ammesso perché
sappiamo bene delle preoccupazioni che
ci sono in giro relativamente
all'utilizzo dell'intelligenza
artificiale non saranno ammessi tutti
quei sistemi di intelligenza artificiale
che presentano un rischio inaccettabile
per i diritti e libertà delle persone
quindi il punto è sempre questo no
l'essere umano è al centro di questa
regolamentazione laddove l'intelligenza
artificiale presenta un rischio
inaccettabile che comprometta la dignità
e i diritti le libertà fond entari della
persona sarà vietato in tutti gli altri
casi con ovviamente una
serie graduata di impegni e di obblighi
sarà ammessa e regolamentata e
disciplinata Ovviamente fatti i casi per
tutti quei sistemi che presentano un
rischio Nullo o minimo per i quali
Appunto non ci saranno grossi rischi
Ripeto penso alle nostre playlist o ai
nostri film di Natale in
streaming Invece per quanto riguarda i
sistemi di intelligenza artificiale ad
uso generale per i modelli di fondazione
cosa c'è scritto all'interno delle Act
sono previsti Ovviamente questo è stato
uno dei punti più controversi
soprattutto dopo
che un anno fa opena ha lanciato cgpt e
quindi c'è stata
questa grandissima rincorsa mondiale a
gli
llm large language model più
performanti sono previsti degli
obblighi di trasparenza anche con
riferimento alle modalità con cui questi
modelli sono
addestrati anche per assicurare il
rispetto dei diritti e delle libertà
delle persone e quindi obblighi di
divulgazione di informazioni quindi di
fatto è una richiesta di trasparenza che
è uno dei principi etici che era stato
affermato in tutte le carte in tutti i
documenti che nel corso degli anni
C'erano stati i principi etici
dell'intelligenza artificiale Ecco lei
Act impone questa trasparenza per questi
sistemi di uso generale per i modelli di
fondazione invece visto che
l'intelligenza artificiale di
fatti sarà diffusa in tutto e per tutto
anche nella nostra vita diciamo È chiaro
che l'istituzione Europea si sta
preparando per una governance adeguata
cosa ha previsto laat Ci sarà un ufficio
specifico per per l'intelligenza
artificiale istituito presso la
commissione europea e poi ogni Stato
membro dovrà designare una propria
agenzia o autorità competente a
sorvegliare sull'attuazione del
regolamento stesso e anche l'Italia nei
prossimi mesi Sarà impegnata ad
individuare Quale sarà il soggetto
competente per concludere Quali sono le
sanzioni previste nel caso in cui
vengano utilizzati tutti i sistemi di
intelligenza artificiale
illecitamente e abbiamo nella nelle
bozze delle sanzioni fino a 35 milioni o
al 7% del fatturato globale annuo è
evidente
che oltre a queste sanzioni una misura
importante delle ultime versioni del
regolamento è quella di una class action
addirittura dei cittadini e degli utenti
che possano sentirsi
ehm danneggiati dall'uso di di sistemi
di intelligenza artificiale non
rispondenti alla normativa quindi quella
che che doveva essere e Nasceva come una
norma sulla certificazione dei prodotti
sistemi di intelligenza artificiale alla
fine è diventata una norma sui diritti e
le libertà fondamentali appunto che
possono essere attivati se sarà
confermato nella versione finale del
documento addirittura con una class
action Allora abbiamo parlato abbiamo
fatto una panoramica sulla sulla legge
la classificazione dei sistemi di
intelligenza artificiale cosa non Sarà
ammesso molto importante molto
importante altresì è la trasparenza dei
dei sistemi soprattutto sui modelli di
fondazione e nel momento in cui ci
saranno dei controlli da parte delle
istituzioni previste dalla governance
Europea quali saranno le sanzioni nel
momento in cui non saranno in qualche
modo osservate le leggi ne abbiamo
parlato con Ernesto
Belisario che ringraziamo molto quindi
ringraziamo l'avvocato Belisario e lo
chiameremo anche altre volte anche
perché insomma questo è il soltanto il
primo step Grazie ancora Ernesto a
[Musica]
presto
تصفح المزيد من مقاطع الفيديو ذات الصلة
5.0 / 5 (0 votes)