Cosa è un'AGI? Vediamo a che punto siamo!
Summary
TLDRThe video script discusses the concept of Artificial General Intelligence (AGI) through the lens of a paper titled 'Levels of AGI,' published in November 2023 and updated in January 2024. The paper critiques the traditional singular definitions of AGI, advocating for a multi-level approach to understanding the complexity of achieving true general intelligence. It emphasizes focusing on capabilities rather than mechanisms, the importance of generality and performance, and the potential for cognitive and metacognitive tasks. The script outlines a matrix of six levels of AGI, ranging from non-intelligence (Level 0) to artificial super intelligence (Level 5), and discusses the potential risks associated with each level, such as job displacement and societal shifts. The speaker also touches on the importance of ecological validity in benchmarks and the journey towards AGI, rather than a single endpoint. The video concludes by encouraging viewers to consider the implications of AGI and to educate themselves on the subject, pointing to resources like i360 Academy for further study.
Takeaways
- 📚 The paper 'Levels of AI' discusses a multi-level approach to understanding Artificial General Intelligence (AGI), moving away from a single definition to a spectrum of capabilities.
- 🔍 The paper critiques the idea of relying on a single, specific definition of AGI, suggesting that it can be misleading and counterproductive due to the complexity of the concept.
- 📈 It emphasizes focusing on capabilities rather than mechanisms, stating that how an AGI achieves its tasks is less important than what it can accomplish.
- 🧐 The importance of not equating AGI with human-like thinking or consciousness is highlighted; the consequences of AGI actions are of greater concern.
- 🌟 The paper introduces a matrix of six levels of AI quality, ranging from non-intelligence (Level 0) to artificial super intelligence (Level 5), providing a framework for understanding where we are in AGI development.
- ⚙️ Level 1 AIs are emerging, somewhat better than unskilled humans, while Level 2 AIs are competent, performing at the 50th percentile of skilled adults.
- 🤔 There is debate over whether we have already reached Level 1 or Level 2 AGI, with examples like Cloud 3 and CH G PT4 being considered by some as the first instances of AGI.
- 🚀 Level 3 AIs are experts, performing at the 90th percentile of skilled humans, and Level 4 AIs are virtuosos, at the 99.9th percentile, with examples like Deep Blue and AlphaGo.
- ☢️ Level 5 represents fully autonomous AI, surpassing human intelligence, which brings significant risks such as mass labor displacement and the decline of exceptional human traits.
- 🧮 The paper also discusses the risks associated with each level of AGI, from deskilling and industry disruption at Level 1 to concentration of power and misalignment at Level 5.
- 🌐 The importance of ecological validity is stressed, meaning that AGI should be measured on tasks that are useful and relevant to the real world, not just theoretical benchmarks.
Q & A
What is the main topic discussed in the video script?
-The main topic discussed in the video script is the concept of Artificial General Intelligence (AGI), its definitions, levels, and the potential risks associated with each level as outlined in a paper by Deep Mind.
What does AGI stand for?
-AGI stands for Artificial General Intelligence, which refers to the ability of an AI system to understand or learn any intellectual task that a human being can do.
What is the significance of the paper titled 'levels of AGI'?
-The paper titled 'levels of AGI' is significant because it provides a structured approach to understanding AGI by breaking it down into different levels or steps, each with its own set of capabilities and potential risks.
What are the six levels of AGI performance as described in the paper?
-The six levels of AGI performance are: Level 0 - Non-Intelligence (e.g., a calculator), Level 1 - Emerging (equal to or somewhat better than a skilled human), Level 2 - Competent (at the 50th percentile of skilled adults), Level 3 - Expert (at the 90th percentile of all skilled humans), Level 4 - Virtuoso (at the 99.99th percentile of humans), and Level 5 - ASI (Artificial Super Intelligence, surpassing human intelligence).
What is the potential risk associated with Level 1 AGI?
-The potential risks associated with Level 1 AGI include deskilling, where human skills may atrophy due to reliance on AGI, and disruption of established industries as AGI begins to outperform human workers in certain tasks.
Why is focusing on the capabilities of AGI important?
-Focusing on the capabilities of AGI is important because it allows for a better understanding of what the AI can accomplish rather than just the mechanisms by which it operates. This approach helps to identify characteristics that are not necessarily prerequisites for AGI but are still important areas of research.
What does the term 'Ecological Validity' refer to in the context of AGI?
-In the context of AGI, 'Ecological Validity' refers to the importance of measuring AGI's performance on tasks that are useful and relevant to the real world, as opposed to artificial or abstract tasks that may not accurately reflect its capabilities in practical applications.
What is the potential risk at Level 4 AGI?
-At Level 4 AGI, the potential risks include mass labor displacement, where a significant number of jobs may be lost to AGI, and the decline of exceptional human capabilities, as AI may begin to outperform humans in nearly all tasks.
Why is the concept of 'alignment' important when discussing AGI?
-The concept of 'alignment' is important because it refers to the challenge of ensuring that AGI systems are designed and operate in a way that aligns with human values and ethics. Misalignment could lead to unintended consequences and risks.
What is the role of benchmarks in evaluating AGI?
-Benchmarks play a crucial role in evaluating AGI by providing objective measures of the AI's performance. They help to assess the AI's capabilities in a systematic and standardized way, allowing for comparison and progress tracking over time.
What is the potential risk at Level 5 AGI, also known as ASI?
-The potential risks at Level 5 AGI, or ASI, include the concentration of power, where a few entities may control extremely advanced AGI systems, and the possibility of misalignment, where the AGI's goals and actions may not align with human values or interests.
Outlines
📈 AGI: Levels of Achievement and Perspectives
The first paragraph introduces the concept of Artificial General Intelligence (AGI) and discusses the importance of understanding it in layers rather than a single definition. It highlights the work of Deep Mind and emphasizes the need to look at AGI as a series of steps or levels, rather than a single endpoint. The paragraph also mentions the importance of considering various definitions of AGI from different sources and the potential pitfalls of relying on a single definition. It concludes with an invitation for viewers to support the channel and engage with the content.
🧐 Focusing on Capabilities and Generality in AGI
The second paragraph delves into the specifics of the paper titled 'levels of AGI,' discussing the focus on capabilities rather than the mechanisms behind AGI tasks. It stresses that AGI is not just about mimicking human thought processes but about the consequences of actions. The paragraph also touches on the importance of generality and performance in AGI, the potential need for a robotic embodiment, and the focus on potential rather than deployment. It concludes with a call to measure ecological validity and the importance of understanding the journey towards AGI, not just a single achievement.
📊 AGI Matrix: Measuring Quality and Performance
The third paragraph presents a matrix from the paper that outlines six levels of AI quality or performance, distinguishing between 'Narrow' and 'General' categories. It starts with level zero, equating to non-AI such as a calculator, and progresses through emerging, competent, expert, and virtuoso levels, culminating in artificial superintelligence (ASI). The paragraph discusses the current state of AI technologies in relation to these levels and the debate over whether we have already achieved certain levels of AGI.
🤖 Risks and Evolution of AGI
The fourth paragraph addresses the potential risks associated with each level of AGI, from the status quo at level zero to the profound societal changes that could result from ASI at level five. It discusses the possibility of industry disruption, over-reliance on AI tools, and the need for careful consideration as we progress towards higher levels of AGI. The paragraph also references the importance of considering ecological validity in AGI benchmarks and the societal impact of advanced AI systems.
🚀 AGI's Societal Impact and the Alignment Problem
The fifth and final paragraph discusses the societal impact of AGI, particularly at the highest levels where AI could displace a massive amount of labor and lead to a decline in what is considered exceptional human ability. It touches on the psychological and social effects of such changes and the potential concentration of power in the hands of a few entities controlling advanced AI. The paragraph also mentions the alignment problem, questioning how we can ensure AI respects human values and the importance of understanding and addressing these challenges. It concludes with a recommendation to study AI further and not ignore the ongoing AI revolution.
Mindmap
Keywords
💡AGI (Artificial General Intelligence)
💡Deep Mind
💡Benchmarks
💡Ecological Validity
💡Levels of AGI
💡Risks of AGI
💡Alignment Problem
💡Consciousness in AI
💡Task Performance
💡Cognitive and Metacognitive Tasks
💡Embodiment in AGI
Highlights
The paper discusses the multi-level structure of AGI (Artificial General Intelligence), emphasizing a layered approach rather than a single definition.
It critiques the idea of relying on a single definition of AGI, advocating for a more nuanced understanding that encompasses various capabilities and levels of performance.
The paper provides a historical overview of different AGI definitions, starting from the Turing Test and moving through various definitions over time.
It introduces the concept of focusing on capabilities rather than the mechanisms behind how AGI achieves its tasks, highlighting the importance of outcomes over processes.
The paper argues that achieving AGI does not necessarily mean developing systems with consciousness, emphasizing the significance of consequences over the nature of thought.
It stresses the importance of generality and performance in AGI, stating that the intelligence should be both broadly capable and highly effective.
The paper questions the need for a physical robotic embodiment for an AGI system, suggesting that it may not be a requirement for achieving general intelligence.
It discusses the potential and risks associated with each level of AGI, from level 0 (no AI) to level 5 (Artificial Super Intelligence).
The paper introduces a matrix that categorizes AGI into six levels of intelligence quality, with examples for each level and the potential risks involved.
It differentiates between 'Narrow' and 'General' AI, with the former being highly skilled in specific tasks and the latter capable of handling a wide range of tasks.
The paper suggests that we may already be at AGI level 1, with tools like Google's products and services showing signs of emerging general intelligence.
It debates the potential societal impacts, such as job displacement and the decline of human exceptionalism, as AGI levels increase.
The paper raises concerns about the concentration of power in the hands of a few entities that control advanced AGI technologies.
It emphasizes the need for ecological validity in AGI benchmarks, advocating for real-world task measurements over theoretical ones.
The paper provides a framework for understanding the progression towards AGI, encouraging a focus on the journey rather than a single endpoint.
It discusses the importance of aligning AGI with human values and the challenges of ensuring that AGI respects and upholds these values.
The paper is praised for its comprehensive and well-structured analysis, offering a clear view of the current state and future trajectory of AGI.
The speaker recommends the paper to anyone interested in studying AGI, stating that understanding this revolution is crucial and not something to ignore.
An interview with Elon Musk is mentioned, where he predicts AGI could be achieved by 2025, highlighting the urgency and potential timeline of AGI development.
Transcripts
Agi di qua Agi di là a destra a sinistra
sotto in goop non si capisce niente
visto che facciamo ormai da parecchio
tempo diversi video sulgi qui sopra e
c'è sempre qualcuno che nei commenti
giustamente mi fa notare ma dipende cosa
intendi per egi Raffaele ho citato più
volte che io eh come riferimento adoro
quello sviluppato da Deep Mind in un
Paper e quindi oggi voglio parlarvi di
questo di questo Paper dove loro fanno
una struttura a livelli è una matrice in
In verità e fanno vedere diversi livelli
di Agi mi piace molto quell'approccio
credo che andare su una definizione
singola quella di Wikipedia quella di
Open Eye quella di Google sia sempre una
visione parziale della questione
Soprattutto molto che tira l'acqua al
proprio mulino No perché ognuno se la
definisce come vuole perché ovviamente
dice di averla raggiunto secondo la
propria definizione quella di Deep Mind
mi piace perché invece la mette su una
questione di livelli No del dire non ci
fissiamo su punto d'arrivo no se ci
fosse questo traguardo da un certo punto
da superare Ma capiamo che sono una
serie di step ci arriveremo
progressivamente un po' alla volta Ecco
il paper e prima di tuffarci nel
guardare insieme Alcuni passaggi
interessanti Vi ricordo che se volete
supportare questo canale potete farlo
cliccando il pulsantino grazie Qui sotto
e facendo piovere denaro dal cielo
facendo una donazione di qualche euro
Decidete voi di quanto oppure se proprio
Ve la sentite e dite questo Raffaele è
veramente bravo mi svolta le giornate
con i suoi fantastici contenuti su
YouTube Allora potete fare un
abbonamento che è una donazione
automatica ricorrente tutti i mesi anche
lì di qualche euro che vi sblocca pure
delle funzionalità su YouTube Allora
questo è il paper che si chiama levels
of Agi pubblicato a novembre del 2023 e
poi aggiornato a gennaio del
2024 non ve lo leggo tutto sono una
ventina di pagine vi lascio il link qui
sotto così ve lo potete scaricare e
leggere Voi ci sono un paio di cose
interessanti che voglio farvi vedere di
questo Paper innanzitutto parte dalle
definizioni no c'è questa sezione qua
defining Agi case studies dove va
prendere una serie di definizioni note
quindi parte veramente molto indietro
dal test di Touring attraversando una
serie di definizioni che sono state date
nel tempo no un po' in ordine
cronologico se volete c'è anche quella
famosa di openi basata sul valore
economico che riesce a fare
un'intelligenza artificiale comunque c'è
il test del caffè pure questa molto
molto famosa Eh ci sono tutta una serie
di definizioni loro le vanno un pochino
ad analizzare il ragionamento che fanno
come dicevo nell'introduzione è queste
definizioni così nette così specifiche
No così ehm precise Guardano solo a un
pezzo della questione che invece è molto
più complessa e fissarci su una singola
definizione potrebbe essere fuorviante
potrebbe essere controproducente mi
trova molto d'accordo questa cosa Quindi
cosa fanno loro partono dal definire
alcuni principi e cioè dicono Ecco sei
principi che noi abbiamo sviluppati
sviluppato per poter fare una
definizione di Agi li vediamo
velocemente insieme Poi vi faccio vedere
due tabelle che secondo me sono la parte
veramente importante di questo Paper
Allora la prima cosa è focalizziamoci
sulle capacità Ok questa è una cosa
molto interessante cioè dice la maggior
parte delle definizioni di Agi si
fissano su quello che l'agi può
accomplish No quello che può che può
fare non sul meccanismo con il quale
riesce a fare questi questi Task dice
però Quest importante per identificare
quelle caratteristiche che non sono
necessariamente un prerequisito per
raggiungere le Gi Ma che sono però
comunque degli argomenti interessanti di
ricerca Eh invece dice concentrarci
sulla sulle sulle capacità ci permette
di fare alcune cose no di definire
alcuni requisiti per per le Gi cioè il
fatto che le Gi non implica che il
sistema debba pensare o ragionare in un
modo umano Ok questo importante e
interessante ne abbiamo parlato spesso
nei video che sto facendo su cloud 3 se
non l'avete visto andatevi a vedere la
serie di video che sto facendo su cloud
3 no dove lo metto alla prova e ci
facciamo queste chiacchierate
filosofiche abbiamo provato a capire se
Senziente o meno ma quello che abbiamo
capito è che conta veramente poco sul
fatto che sia veramente cosciente
Senziente Se pensa come pensa un essere
umano perché ci dobbiamo concentrare
sulle conseguenze Cioè se Uni ci ammazza
tutti ma a noi ci interessa veramente
capire se ci ammazza perché pensa come
noi o pensa in un modo diverso La
questione è capire se E perché queste a
ci vuole ammazzare e come la possiamo
fermare ho fatto l'esempio estremo No ma
per dire concentriamoci su quello che
poi è il risultato No di questa di
questa cosa Ehm e seconda cosa la
seconda conseguenza del primo punto dice
ovviamente a raggiungere un Agi non
significa per forza che arriveremo ad
avere dei dei sistemi che hanno
sviluppato una coscienza oppure che sono
senzienti e così via No anche questo
abbiamo parlato molto nei video che
abbiamo fatto su cloud 3 andatevi a
vedere quei video perché secondo me sono
veramente un gioiellino di questo canale
poi dice secondo punto secondo criterio
per un importante è focalizzarci sulla
questione della generalità perciò si
chiama egi No la G sta per artificial
General intelligence e performance
Quindi dice Entrambe le cose molti si
concentrano sulla questione della
generalità ma veramente pochi invece
pensano alla questione della performance
e noi crediamo che siano entrambe
importanti no Quindi sia le performance
che la generalità quindi sì deve essere
generale ma poi deve pure funzionare
bene non basta essere solo generale poi
dice ci concentriamo anche
su Task cognitivi e metacognitivi e qua
diciamo si va un po' più nel tecnico
Dice non sappiamo ancora se c'è bisogno
di avere un robot embodiment che in
italiano non saprei come tradurre No
però avere un un corpo robotico
mettiamola così qualcuno d'accordo
qualcuno No dice senza un corpo non si
può avere diciamo un egi nel senso
classico del termine eccetera eccetera i
Qua f una riflessione sul dire Guardate
che sono importanti i Task cognitivi
anche quelli metacognitivi E cioè eh la
capacità di un di un sistema di gestire
dei Task fisici aumenta la sua
generalità ma non deve essere un
requisito per le gii poi seconda cosa
concentriamoci sul potenziale e non sul
deployment e questa è una cosa che dico
molto spesso quando parliamo di app di
strumenti di sistemi No concentriamoci
sempre sul potenziale Proviamo a
guardare in in prospettiva Eh quindi
dice dimostrare che un sistema può
performare una serie di Task a un certo
livello dovrebbe essere necessario per
dichiarare che quel sistema è un Agi
cioè dice se noi capiamo che questa cosa
effettivamente potrebbe fare quella roba
allora a tutti gli effetti dobbiamo
considerarlo come se quella cosa le
stesse facendo ed ecco perché secondo
molti le gii ce l'abbiamo già da quando
abbiamo
avuto Cloud 2 e CH G pt4 No quella
categoria di enti sono stati i primi ad
essere identificati come G questo
qualcuno la pensa così qualcuno la pensa
in un altro modo sapete Queste sono
opinioni e scule di pensiero non c'è un
modo giusto o sbagliato Anzi se volete
mi dite la vostra nei commenti come
sempre con educazione rispettando le
opinioni di tutti perché sono scuole di
pensiero non c'è un unico modo giusto di
rispondere a questa domanda poi dice
concentrarsi su ecological validity
quindi su la validità di quelle che
vengono fatti qua c'è la grossa
questione diciamo dei dei Benchmark no
del dire servono dei cazzo di Benchmark
che ci permettono veramente di fare una
valutazione oggettiva delle cose che
stiamo misurando e quindi dice noi qua
enfatizzi l'importanza di misurare su
dei Task utili per il mondo reale Ok
Ecco perché vi dico spesso nei Benchmark
si vedono delle cose che lasciano un po'
il tempo che trovano e questo secondo me
il più importante concentriamoci sul
percorso verso le Gi non su un singolo
endpoint altrimenti perdiamo di vista la
questione no pensare di dire perfetto il
giorno eh primo Aprile abbiamo raggiunto
le gii no e e brindiamo o soffiamo sulla
candelina Non è questo quello che
succederà ma c'è un processo un percorso
una serie di step durante questi step ci
sarà un aumento delle performance
cerchiamo di capire di misurare e di
individuare benissimo tutti questi step
intermedi e fatemi prendere un secondo
ne voglio approfittare per ringraziare
lo sponsor di questo video che è cookie
Bot come sapete negli anni col gtpr è
cambiato completamente lo scenario della
privacy e online e ad oggi Chiunque
abbia un sito web e dico chiunque quindi
aziende professionisti ma anche
semplicemente i vostri siti personali
deve mettersi in regola Quindi se stai
guardando questo video e hai un sito web
sappi che ti serve per legge uno
strumento per gestire i cookie e anche
tutte le tecnologie di tracciamento che
utilizzi sul tuo sito web uno strumento
anche che ti faccia un po' da raccolta
del consenso degli utenti e che ti
archivi poi tutti questi questi consensi
Ecco cibot fa esattamente questa cosa ad
oggi è uno strumento utilizzato da 1
milione e mezzo di siti web 1 milione e
mezzo in tutto il mondo e supporta 47
lingue e lo so prima che me lo chiedete
la risposta è sì supporta pure
l'italiano quindi tra queste 47 lingue
ci sono pure ci ha supportato anche
l'italiano loro usano una tecnologia di
scansione del sito web che individua da
solo automatico i cookie e anche i
servizi di tracciamento e poi ti
permette una personalizzazione completa
in base sia alla lingua eh E in base
anche alle normative del del paese e sì
perché c'è un aspetto importante da dire
e cioè che non funziona allo stesso modo
in tutto il mondo e cookiebot quindi ti
aiuta a automatizzare diciamo gran parte
del lavoro ed è importante questo
aspetto questo aspetto qua è sempre
grazie alla loro tecnologia di scansione
automatica la manutenzione che devi fare
nel tempo poi diventa veramente minima
Diciamo che in linea di massima lo
installi fai la scansione la prima volta
no quindi quella iniziale dove Individua
i cookie e e tutti gli altri strumenti
di tracciamento e poi periodicamente
cookie Bot si occuperà di verificare se
ci sono stati dei cambiamenti
all'interno del sito Quindi se volete
saperne di più Vi basta andare su
cookiebot.com vi metto qua il link in
sovraimpressione ve lo lascio pure qui
sotto in descrizione ci cliccate sopra e
vi andate a vedere in dettagli di Cookie
Bot e ora invece torniamo al nostro
video e quindi diciamo si arriva un po'
a questo schema che secondo me sono due
tabelle che sono fatte veramente molto
molto bene eh Questa è una matrice che
fa vedere dice guarda ci sono due
questioni che dobbiamo misurare Allora
il livello ok E qua qua ci sono sei
livelli di di di di diciamo di qualità
dell'intelligenza artificiale diciamo di
di di performance Ecco non mi veniva la
parola anche se stava qua sopra e poi
Qua abbiamo Due Colonne extra nelle
quali vediamo la versione Narrow e
quindi quella verticale Quella specifica
no Quindi leai che fa una cosa e la fa
bene rispetto a quella invece General Ok
quindi quella generale trasversale che
riesce a lavorare su molti Task su molti
campi eccetera eccetera si parte dal
livello zero Quindi livello zero è non
intelligenza artificiale cioè l'esempio
è a calcolatrice Eh e e nella nella
questione General invece Quindi qua qua
in questo Narrow No dice Fa una cosa e
la fa molto bene cioè la calcolatrice fa
dei calcoli da paura i miglior calcoli
di sempre direbbe Apple invece nella
nella versione General di questa cosa
dice dei degli strumenti che in qualche
modo tengono l'umano nel loop e questo
fa l'esempio di Amazon mechanical Turk
se non lo conoscete è un servizio di
Amazon Dove si possono comprare
tantissimi microtask fatti da esseri
umani ok ok L'ho descritto malissimo
però se sapete che cos'è Amazon
mechanical Tark avete avete capito Poi
dice il livello un Qual è il livello uno
è emerging ok come come categoria equal
to or somewhat Better Than un skilled
Human Quindi dice Siamo al livello pari
o leggermente superiore di un umano non
skillato e Qua dice se andiamo nei narro
alcuni sono il gofi oppure questo qua
che è in pronunci abile se andiamo
invece in
quello generale qual è e cgpt e Bard e
lama 2 e Gemini no Perciò vi dicevo
Qualcuno dice che in realtà abbiamo
avuto già un primo livello di Agi vedete
Questo è il livello 1 Ok livello 0 non
c'è livello 1 l'abbiamo avuto già quando
abbiamo
avuto questa qualità di di
prodotti poi si passa al livello due
Quindi dice livello 2 competente lo
chiama competente dice che è a livello
del 50o percentile degli adulti skillati
e Qua dice nella parte Narrow quindi in
quello verticale abbiamo vari esempi
quindi Google Assistant Siri Alexa
Watson eccetera eccetera
l'agi Non ce l'abbiamo ancora non c'
abbiamo ancora un Agi che possiamo
paragonare Come come come performance no
Come qualità Eh che raggiunge almeno il
50o percentile degli adulti e qua in
molti stanno iniziando a dare dubbi e
dire forse questa Casellina la dobbiamo
iniziare a riempire Tra l'altro vedete
la casellina la la la riga dei narro è
tutta riempita quella dei General quasi
tutta vuota Qualcuno dice in realtà
forse ci siamo cioè vedere in azione
Cloud 3 eh andatevi a vedere i video sul
canale vedere in azione Devin no vedere
in azione alcuni robot che iniziano a
fare delle cose è veramente Wow vedere C
GPT con l'audio
Eh la parte Visual eccetera eccetera
forse siamo già a livello 2 diciamo però
sicuramente il livello un l'abbiamo
raggiunto livello 3 esperto quindi
parliamo del 90o percentile di tutti gli
esseri umani skillati e Qua dice alcuni
strumenti possono essere per esempio
grammarly no grammarly fa una cosa
correggere il tuo inglese quando scrivi
e lo fa da paura oppure strumenti di
generazione immagini come posso essere
da lì due
diciamo m Journey 6 No queste qua
veramente di altissima qualità leji
esperta non ce l'abbiamo ancora quindi
se su questa ci sono dei dubbi no
Qualcuno dice Forse questa nuova
generazione potrebbe esserlo il famoso C
GPT 5 di cui si parla tanto virtuoso
questo è l'ultimo livello di Agi perché
poi siamo all'asi con livello 5 virtuoso
è
99 99o percentile degli esseri umani
Quindi abbiamo queste Gi che per
performante quanto tutti gli esseri
umani fondamentalmente no quindi ci
raggiunge in pieno e Qua dice vabbè
esempi sono Deep Blue quindi ce
l'abbiamo già da un paio di decenni Alf
Goo se non avete visto il film questo ve
l'ho consigliato diverse volte se non
avete mai visto il film film
documentario su Alf Go lo trovate
gratuito su YouTube andatevelo a vedere
perché è veramente bellissimo Se vi
piacciono i temi dell'intelligenza
artificiale dovete vederlo ovviamente
l'agi virtuosa non ce l'abbiamo ancora e
l'ultimo questo è l'asi quindi
artificials super intelligence significa
che non è che ha raggiunto tutti gli
esseri umani ma li ha superati ok E da
quel momento in poi ci Stacca per sempre
perché ovviamente dal punto di vista
biologico non possiamo crescere la
velocità con la quale cresce Quella
invece digitale e quindi ci Stacca per
sempre anche qua nel narro ci siamo Alf
Ziro ne ne è un esempio Alf zero è
passatemi la semplificazione
l'evoluzione di Alf go ok per per
capirci però diciamo quello è veramente
di un livello incredibile su sulla parte
generale non ce l'abbiamo ancora questa
Secondo me è un'ottima
eh framework un ottimo framework
chiamiamo così quando parliamo di Agi
parlare a livelli Ok ci aiuta a capire a
che livello siamo quindi Secondo alcuni
esperti adesso siamo tra il livello 1 e
il livello 2 il massimo delle Gi che
possiamo raggiungere livello 4 e poi
dopo c'è il livello 5 che è la diciamo
l'asi se volete questa è un po' come la
classificazione che abbiamo a cinque
livelli delle macchine di guida autonoma
no pure la tiene d'aiuto questa cosa
Quindi queste classificazioni Secondo me
sono sempre molto utili rispetto a dire
netto questa macchina è o non è a guida
autonoma No abbiamo diversi livelli di
autonomia e Qua abbiamo diversi livelli
di generalità e poi c'è un'altra tabella
che vi consiglio di vedere qua salto un
po' di cose ovviamente ve l' andate a
leggere Voi vi faccio vedere questa
perché questa è interessante perché dice
per ognuno di questi sei livelli quali
sono diciamo vi fa degli esempi e poi
dice Quali sono i rischi no potenziali
Quindi dice vabbè a livello Zero status
quo quindi diciamo non abbiamo
eh rischi particolari Se non quelli che
conosciamo già livello un quindi e i as
a tool mi piace questa cosa no che lo lo
lo fa evolvere Quindi come uno strumento
come un consulente come un collaboratore
quindi e as a tool Quindi se è uno
strumento quindi significa l'umano Fully
control tasks quindi l'umano è in pieno
controllo dei Task e usa le hai per
automatizzare dei Sott Task Qua ci sono
anche degli esempi eccetera eccetera qua
no tutto quello che abbiamo letto prima
non vi voglio leggere tutto perché
l'abbiamo già detto prima voglio
concentrarmi sui rischi perché è
interessante anche fare queste
riflessioni dice quali sono qua dei
rischi il deskilling ovviamente sulle
competenze e poi disruption of
established Industries Quindi no il
fatto che intere Industrie possono
venire completamente rivoluzionate
ribaltate se non addirittura distrutte e
se ne sta parlando spesso no quando si
dice Eh Devin scrive tutto il codice da
solo Mid giorne fa le immagini meglio di
delle foto che posso fare che posso fare
io Sora No adesso Sora è l'industria dei
film di Hollywood eccetera eccetera
quindi questo come come tipologia di
rischio livello du Ok vi ricordate
livello du l'abbiamo chiamato eh come si
chiamava sopra Aspettate che non mi
ricordo i nomi dei livelli ta ta ta ta
ta livello du era quello competent Ah no
ma mi sa che c'è scritto pure sotto sono
io che non me ne sono
accorto sono io che non me ne sono
accorto Scusatemi Yes Sì stava scritto
qua Perdonatemi quindi livello 2 ai as a
consultant ok Quindi come se fosse un
consulente Quindi lei prende possesso di
alcun di un ruolo diciamo
sostanziale ma solo quando invocato
dagli umani Ecco perché io ho detto
Secondo
me alcune cose del livello 2 già le
stiamo faccendo cioè io mi rendo conto
che già lo uso in in questo modo e non
in questo modo cioè su alcune cose
alcuni strumenti oggi possono essere già
utilizzati in questo modo
queste competent abbiamo detto over
Trust Questo è un problema Problema
molto grosso no Quindi il mettere troppa
fiducia nello strumento
nell'intelligenza artificiale sapendo
che può avere delle problematiche no
sappiamo tutti quanti le allucinazioni
per dire la problematica più più diciamo
più nota ma anche la disinformazione le
fake news i Deep fake eccetera eccetera
e infatti anche manipolazione no Quindi
qua tutti i problemi che ci possono
essere con le con le truffe eh eccetera
eccetera Ecco perché io dicevo Secondo
me siamo più nel livello 2 che nel
livello 1 Quantomeno per certi aspetti
livello 3 e i con come un collaboratore
Quindi qua dice co equal Human Ey
collaboration no quindi una
collaborazione allo stesso livello dove
vengono considerati alla pari quindi i
Task gli obiettivi No sono fatti
condivisi Questo è il livello Expert
abbiamo visto sopro quindi livello
esperto qua si parla di antrop va Eh
Avete
capito Mi siè imbrogliata la lingua eh E
poi quindi tendere a
umanizzate i video che sto facendo con
Cloud 3 no Comè veramente facile Basta
che parlino in maniera un pochino più no
articolate e tendiamo subito a dire Oh
aspetta un attimo siamo sicuri che
questo è solo un chatbot quindi
immaginate quando avranno la voce la
vista No un corpo
R diventa veramente un lontano ricordo
cambio societario rapido questo proprio
diciamo Sono d'accordo al 100% secondo
me questa cosa è proprio
eh inevitabile cioè proprio ovvio che
sia così livello 4 ai as an Expert
quindi ai drives interation quindi in
questo caso l'ai è passata alla guida No
è leai che fa le cose e l'uomo Ogni
tanto dà dei feedback ok Questo era la
il livello quello virtuoso quindi Parla
par avamo del diciamo dell'ultimo
livello di Agi perché poi dopo abbiamo
l'asi e Qua dice vabbè Mass Labor
displacement
quindi perdita a valanga di posti di
lavoro veramente a valanga e poi il
declino del eccezional umano Questa è
una cosa che fa rodere il culo a molte
persone e cioè a un certo punto
scopriremo che non siamo più così
speciali scopriremo che non siamo la
specie più intelligente su questo
pianeta no scopriremo che tante cose che
pensavamo che fossero solo nostre in
realtà le può fare anche un'intelligenza
artificiale e poi c'è il livello 5
quindi Asi il Fully autonomous ai quindi
intelligenza artificiale completamente
autonoma che completamente autonoma
quella là virtuoso per capirci e la
misalignment quindi Là c'è il grosso
problema del dell'allineamento No
abbiamo citato spesso il famoso libro di
alignment problem no come facciamo a
passare i valori alle ai Come facciamo a
sapere che rispetti i nostri valori Come
facciamo a capire quali sono i valori
importanti Chi decide Quali sono i
valori importanti eccetera eccetera e
poi concentration of Power Questo
ovviamente è uno dei temi e cioè nel
momento in cui questa roba ce l'ha in
mano Google Microsoft Tesla openi No
un'altra di questa grande azienda che
cazzo succede quando hanno questa cosa
in mano loro no quando hanno la bomba
atomica Anzi una cosa forse 100 volte
più importante e impattante di quella
che è la bomba atomica ovviamente non
sono qui a dare risposta a queste
domande perché non ce le ho Penso che ce
le abbiano in pochi Forse nessuno ha
risposto a queste domande ma questo
Paper Secondo me è fatto veramente
veramente molto molto bene ecco perché
ve lo consiglio vi lascio il link qui
sotto dove lo potete scaricare così ve
lo Leggete con calma
eh E vi fate anche la parte che vi ho
saltato No io volevo più che altro
analizzare queste due tabelle Fatemi
sapere qui sotto anche cosa ne pensate a
quale livello pensate che sia siamo in
questo momento Ovviamente vi ricordo che
se volete studiare l'intelligenza
artificiale per capire bene cosa sta
succedendo No questa è una rivoluzione
che dovete comprendere non mettete la
testa sotto la sabbia Mi raccomando vi
aspetto nella mia Academy i360 Academy
il link è qui sotto in descrizione e
visto che abbiamo parlato oggi di
Agi vi metto a schermo questa intervista
che ha fatto qualche giorno elon musk
nel quale ha fatto la previsione che
secondo lui l' gii arriva Entro il 2025
se ve la siete persa cliccate e Andate a
vedere perché elon musk pensa questa
cosa Ah dice anche la data dell'asi
cliccate all'intervista
Ver Más Videos Relacionados
Il Futuro dell'Intelligenza Artificiale: I 5 Livelli Secondo OpenAI - Scopri Dove Siamo! #1293
Artificial General Intelligence (AGI) Simply Explained
BOMBA: Elon Musk ha ragione, GPT-4 E' UNA AGI. (Guai seri per Microsoft?)
AGI by 2030: Gerd Leonhard Interview on Artificial General Intelligence
How Developers might stop worrying about AI taking software jobs and Learn to Profit from LLMs
AGI Before 2026? Sam Altman & Max Tegmark on Humanity's Greatest Challenge
5.0 / 5 (0 votes)