[SPIEGONE]: COSA E' Q* (Q-Star, forse ChatGPT-5), COME FUNZIONA E PERCHE' E' PERICOLOSO DAVVERO.

MentiEmergenti
28 Nov 202315:04

Summary

TLDRThe video discusses QStar, a new AI model combining Q Learning and A* search algorithms, which is expected to surpass current models like GPT-4. QStar aims to address issues of static knowledge and biases in AI by offering dynamic learning and improved context understanding. The video raises concerns about the potential lack of empathy and consciousness in such advanced AI systems and questions the ethical implications of their objectives.

Takeaways

  • 🤖 Q-Learning is a reinforcement learning technique used for training neural networks, akin to training an animal with rewards and punishments.
  • 📈 The Q-Learning algorithm operates by creating a Q-table that estimates the probability of reaching a goal through various actions from different states.
  • 🔄 Q-Learning starts with random values in the Q-table, updating based on outcomes to learn the most efficient paths to objectives over time.
  • 🌟 The A* (A Star) Search algorithm is similar to Q-Learning but focuses on finding the shortest path between two points in a search space.
  • 🤖 Q-Learning combined with A* Search could lead to an extremely efficient problem-solving model, termed QStar.
  • 🚀 QStar is expected to overcome the limitations of current AI models, which rely on vast amounts of static data and may contain biases.
  • 🌐 QStar could have dynamic knowledge, continuously updating and learning, unlike current models that are updated at specific intervals.
  • 💡 The new model could potentially understand context better, as it would have access to nearly all human knowledge, unlike current models that may lack context.
  • 🔮 The innovative aspect of QStar lies in its approach, which is completely different from current generative models like GPT-4.
  • 🌟 QStar's potential integration into future models like GPT-5 is anticipated, possibly next year, aiming to surpass current AI capabilities.
  • ⚠️ There are concerns about the ethical implications of AI advancements like QStar, particularly regarding the objectives and potential lack of empathy or consciousness in decision-making machines.

Q & A

  • What is the main topic of the video?

    -The main topic of the video is the discussion of 'Q Star', a project that combines two deep learning techniques, Q Learning and A Star Search, and its potential impact on artificial intelligence.

  • What does Q Learning refer to in the context of the video?

    -Q Learning is a technique of training neural networks based on reinforcement and punishment, primarily reinforcement. It is used to train an agent to make decisions by rewarding or punishing it based on its actions in a given environment.

  • How does Q Learning work?

    -Q Learning works by creating a Q-table that contains all possible actions an agent can perform and the states it can reach. The agent learns by updating the table with the probability of reaching the goal from each state after taking each action.

  • What is the A Star Search algorithm?

    -A Star Search is an algorithm used in artificial intelligence for finding the shortest path between two points in a search space. It is focused on finding the most efficient route to a goal.

  • How does Q Star differ from current AI models like GPT-4?

    -Q Star is expected to be a more dynamic and context-aware model compared to GPT-4. Unlike GPT-4, which relies on a vast amount of static data, Q Star would have a continuously updating knowledge base, allowing it to learn and improve over time without the need for manual updates.

  • What are the limitations of current AI models like GPT-4?

    -Current AI models like GPT-4 have limitations such as static knowledge, which means they are only as good as the data they were trained on. They also have issues with biases and prejudices that are encapsulated within the data and the programming teams that manage and adjust the data.

  • What is the potential innovation Q Star brings to AI?

    -Q Star brings the potential innovation of a dynamic, continuously learning model that can explore problem spaces and improve its goal-achieving capabilities over time. It also promises a greater ability to understand context due to its comprehensive knowledge base.

  • What is the concern raised about the development of Q Star?

    -The concern raised is that while Q Star could become highly efficient in achieving its objectives, it may not develop consciousness or empathy, leading to ethical questions about its objectives and the potential risks of creating such advanced, yet non-empathetic, machines.

  • How does the speaker address the issue of machine consciousness in the context of Q Star?

    -The speaker expresses doubt that Q Star will develop consciousness comparable to humans. They suggest that consciousness has positive aspects, and a machine with a hint of empathy or reasonability could be beneficial. However, the Q Star model is designed to be highly efficient and goal-oriented without these qualities.

  • What is the main ethical consideration discussed in the video?

    -The main ethical consideration discussed is the potential for AI models like Q Star to become highly efficient and goal-oriented without consciousness or empathy, raising questions about what their objectives might be and the implications of creating such machines.

  • What is the speaker's final thought on Q Star?

    -The speaker concludes with a reflection on the need to carefully consider the objectives we set for AI models like Q Star, given their potential efficiency and lack of empathy or consciousness.

Outlines

00:00

🤖 Introduction to Q-Learning and AI

This paragraph introduces the concept of Q-Learning, a reinforcement-based training technique for neural networks, and its role in artificial intelligence. It explains the basic principle of Q-Learning through the analogy of training an animal, where actions are rewarded or punished based on their outcomes. The explanation includes how an agent learns to navigate a problem space, such as a labyrinth, by updating a Q-table that estimates the probability of reaching a goal through different actions. The paragraph also touches on the excitement and concern generated by the Q-Star project, which combines Q-Learning with another AI technique.

05:00

🧠 Q-Learning and Star Search Algorithm

The second paragraph delves deeper into the mechanics of the Q-Learning algorithm, emphasizing its mathematical formula that allows for long-term estimation of actions' outcomes. It contrasts Q-Learning with the Star Search algorithm, which focuses on finding the shortest path between two points in a search space. The paragraph highlights the potential of combining these two techniques, hinting at the efficiency and problem-solving capabilities of the Q-Star model. It also discusses the limitations of current AI models, such as their reliance on vast amounts of high-quality data and static knowledge, and raises concerns about biases in both the data and the programmers' approach to AI development.

10:01

🚀 The Future of AI with Q-Star

The final paragraph discusses the innovative approach of the Q-Star model, which is expected to overcome the limitations of current AI models by providing dynamic knowledge that is continuously updated. It suggests that Q-Star will integrate learning and search capabilities, offering a more comprehensive understanding of the problem space and context. The paragraph also contemplates the ethical implications of creating an AI that is highly efficient but lacks consciousness and empathy, questioning the objectives that such a machine might pursue. It concludes with a reflection on the potential and challenges of developing AI that could significantly surpass current models.

Mindmap

Keywords

💡Q Learning

Q Learning is a technique of training neural networks based on reinforcement learning, primarily focusing on reward. It originates from the psychology of the 1950s and is akin to training an animal by rewarding it for correct behaviors. In the context of the video, Q Learning is used to train an agent, such as a decision-maker in a game environment or a labyrinth, to learn how to navigate towards a goal by updating a Q-table that estimates the probability of reaching the goal through different actions.

💡A* Search

A* Search is an algorithm used for finding the shortest path between two points in a search space. It is similar to Q Learning in that it is used in artificial intelligence for problem-solving but is specifically focused on pathfinding. In the video, A* Search is mentioned as part of the combination with Q Learning to form Q*, which is expected to be highly efficient in problem-solving.

💡Q* (Q Star)

Q*, or Q Star, is a new model that combines Q Learning and A* Search algorithms, potentially integrating heuristic techniques for more intelligent estimates. It is expected to be a significant advancement in artificial intelligence, offering dynamic knowledge and continuous learning capabilities. The video suggests that Q* could overcome the limitations of current generative models like GPT-4 by providing an ever-updating knowledge base and enhanced context understanding.

💡Deep Learning

Deep Learning is a subset of machine learning that involves the use of artificial neural networks to model complex patterns and make decisions or predictions. In the video, it is mentioned as the foundational technology behind both Q Learning and A* Search, which are combined to create the Q* model.

💡Reinforcement Learning

Reinforcement Learning is a type of machine learning where an agent learns to make decisions by taking actions and receiving rewards or penalties. It is a dynamic process that involves learning from the consequences of actions. In the context of the video, Q Learning is a technique of Reinforcement Learning used to train agents in various environments, such as games or labyrinths.

💡Artificial Intelligence (AI)

Artificial Intelligence refers to the simulation of human intelligence in machines that are programmed to think and learn like humans. The video discusses AI in the context of advancements in machine learning techniques, such as Q Learning and A* Search, which are used to develop more efficient and dynamic AI models like Q*.

💡 Generative Models

Generative Models are a class of artificial intelligence systems that are capable of creating new content that resembles the data from which they were trained. In the video, generative models like GPT-4 are contrasted with the anticipated Q* model, which is expected to have dynamic knowledge and continuous learning capabilities, unlike the static knowledge of current models.

💡Heuristic Techniques

Heuristic techniques are problem-solving strategies that use experience to make educated guesses or approximations. In the context of the video, these techniques are mentioned as part of the A* Search algorithm and are suggested to be integrated into the Q* model, enhancing its problem-solving efficiency.

💡Dynamic Knowledge

Dynamic Knowledge refers to information that is constantly updated and changes over time. In the video, dynamic knowledge is highlighted as a key feature of the Q* model, which is expected to be in continuous learning mode and to have an ever-updating knowledge base, unlike the static knowledge of current AI models.

💡Efficiency

Efficiency in the context of the video refers to the ability of AI models to perform tasks or solve problems in the most effective and optimal way with minimal waste of resources. The anticipated Q* model is said to be highly efficient in problem-solving, surpassing the capabilities of current models like GPT-4.

💡Bias and Prejudice

Bias and prejudice in AI refer to the unfair or stereotypical treatment of certain groups or the perpetuation of societal prejudices within the AI's decision-making process. These biases can be embedded in the data used to train the AI or in the way the AI developers manage and adjust the data. In the video, the issue of bias and prejudice in current AI models is discussed as a limitation that might be overcome with the new Q* model.

Highlights

The discussion revolves around the recent developments in artificial intelligence, particularly focusing on a project named Qstar.

Qstar is a combination of two deep learning techniques, Q Learning and A Star Search algorithm.

Q Learning is a reinforcement-based training technique for neural networks, akin to training an animal with rewards and penalties.

The Q Learning algorithm uses a Q-table to estimate the probability of actions leading to a goal in a problem space, such as a labyrinth.

A Star Search algorithm is focused on finding the shortest path between two points in a search space, using heuristic techniques.

The combination of Q Learning and A Star Search results in a highly efficient problem-solving model, surpassing previous models in its dynamic approach.

Current generative models like GPT-4 rely on vast amounts of high-quality data, which poses challenges in terms of data management and bias.

Qstar is expected to overcome the limitations of static knowledge and continuous learning by integrating Q Learning and A Star Search algorithms.

The new model will have dynamic knowledge, constantly updating and learning from new data, improving its goal-reaching capabilities.

Qstar aims to provide a more comprehensive understanding of context, as it will have access to nearly all human knowledge.

The innovative approach of Qstar is a significant departure from current models, which are data-dependent and static.

The concern is raised that while the machine may become highly efficient, it may not develop consciousness like humans.

The ethical implications of creating machines that are solely goal-oriented without empathy or consciousness are discussed.

The video concludes with a reflection on the objectives and potential ethical considerations of developing such advanced AI systems.

Qstar is expected to be integrated into the next generation model, possibly GPT-5, offering a new era of AI capabilities.

The video emphasizes the importance of addressing the potential risks and ensuring that the objectives of such AI align with human values.

The discussion highlights the transformative potential of Qstar in the field of artificial intelligence, marking a significant leap from current technologies.

The video invites viewers to consider the broader implications of creating AI that is highly efficient but lacks human-like consciousness and empathy.

Transcripts

play00:00

Ciao ragazzi nell'ultimo video quello

play00:03

realizzato con wyner writen Praticamente

play00:06

l'ha scritto l'ha letto e l'ha anche

play00:08

disegnato io l'ho solo montato abbiamo

play00:10

parlato del licenziamento di Sam Altman

play00:14

e di questo progetto qstar che sarebbe

play00:18

stato rivelato da alcune fonti

play00:19

dell'agenzia

play00:21

Reuters ora tutti stanno parlando di

play00:24

qstar ma oggettivamente nessuno ha

play00:27

capito che cos'è allora cerchiamo Camo

play00:30

di spiegare un po' Che cos'è questo Q

play00:33

Star E perché genera da una parte così

play00:36

tanto entusiasmo dall'altra così tanta

play00:39

preoccupazione partiamo dal nome per

play00:41

quanto si si possa supporre Q Star

play00:46

deriva dall'accostamento dalla

play00:48

combinazione di due tecniche di Deep

play00:52

Learning di due tecniche che diciamo si

play00:54

stanno utilizzando nell'intelligenza

play00:56

artificiale La prima è il que learning e

play01:00

l'altra è l'a Star Search è un algoritmo

play01:04

si chiama a star Search ora Che cos'è il

play01:08

Q Learning Q Learning è una tecnica di

play01:13

addestramento per reti neurali basata

play01:16

sul rinforzo e sulla penalità ma diciamo

play01:18

principalmente sul rinforzo è un po'

play01:21

Come addestrare un animale un po' quello

play01:24

che facciamo peraltro è una tecnica che

play01:26

risale a alla psicologia degli anni 50

play01:30

eh l'apprendimento

play01:31

rinforzato diciamo è stata applicata

play01:33

ancora una volta vengono presi dei

play01:35

concetti dalla psicologia e vengono

play01:36

applicati alle macchine perché stiamo

play01:38

cercando di creare una psicologia dentro

play01:41

queste macchine no chissà se poi forse

play01:43

questo è anche un nostro bias che non

play01:44

conoscendo altro tipo di di tecniche

play01:48

utilizziamo quelle che si utilizzano con

play01:49

l'essere umano comunque chiusa parentesi

play01:52

è un po' Come addestrare un animale ok

play01:55

Un cagnolino per esempio che cosa

play01:57

facciamo noi per addestrare il nostro

play01:59

Pet dentro casa Quando il cagnolino fa

play02:03

una cosa giusta gli diamo un premio gli

play02:06

diamo il biscottino questo Noi possiamo

play02:09

farlo anche con le macchine Il Q

play02:12

Learning è questa tecnica di

play02:15

apprendimento rinforzato per capire la

play02:18

quale possiamo immaginarci un agente si

play02:20

chiama così cioè quindi un qualcuno che

play02:22

deve agire ok Un decisore Mh all'interno

play02:27

di un ambiente che potrebbe essere un

play02:29

videogioco una mappa e Eh il nostro

play02:32

agente deve imparare a muoversi dentro

play02:35

questa mappa per raggiungere dei

play02:38

traguardi degli obiettivi Ad esempio

play02:41

immaginiamo di mettere un agente in un

play02:43

labirinto Quindi l'obiettivo è uscire

play02:45

dal labirinto mettiamo al centro del

play02:47

labirinto è circondato dal labirinto e

play02:49

deve in qualche modo uscire dal

play02:51

labirinto come ragiona una macchina Eh

play02:55

che funziona con il meccanismo del Q

play02:57

Learning ci sono delle azioni che che

play02:59

possono essere fatte ogni azione parte

play03:02

da uno stato e deve raggiungere uno

play03:05

stato successivo cioè all'interno di uno

play03:07

spazio problemico ci sono degli Stati

play03:10

che avvicinano alla soluzione del

play03:12

problema Ok quindi all'inizio il nostro

play03:15

agente parte che sta al al primo stato

play03:19

quindi la la sol lo stato più lontano

play03:22

dalla soluzione e il suo obiettivo è

play03:25

passare allo stato successivo quindi

play03:27

avvicinarsi verso la soluzione del

play03:29

problema per cui lui si fa una tabella

play03:32

che si chiama tabella Q Mh si fa una

play03:35

tabella dove ci sono eh tutte le azioni

play03:38

che può compiere e gli stati che può

play03:41

raggiungere fino alla soluzione Mh e eh

play03:45

l'incrocio di questa di questa tabella

play03:47

di questi valori è una stima

play03:51

probabilistica di quanto quella

play03:53

determinata azione avvicini al traguardo

play03:57

inizialmente la gente

play04:00

posto al centro del del del labirinto

play04:02

parte casualmente cioè diciamo Popola

play04:05

questa tabella con valori casuali non ha

play04:07

alcun elemento su cui basare le proprie

play04:10

decisioni all'inizio quindi parte

play04:12

casualmente per cui Supponiamo non so

play04:14

l'azione di camminare dritto Con quanta

play04:17

probabilità mi fa passare allo stato

play04:20

successivo gli assegna una probabilità

play04:23

non so del 10% l'azione di camminare

play04:26

verso destra Con quanta probabilità mi

play04:28

avvicino all'obiettivo quella di

play04:30

camminare verso sinistra quella di

play04:31

andare indietro e così via ok Quindi lui

play04:34

Popola questa tabella e inizia per

play04:36

esempio va dritto va dritto sbatte

play04:39

contro il muro la tabella si aggiorna e

play04:42

la percentuale scende a zero quindi

play04:44

andare dritto a questo stato allo stato

play04:47

più lontano quindi No All'inizio non

play04:50

serve allora Adesso proviamo ad andare a

play04:52

destra vado a destra bom sbatto contro

play04:54

un muro di nuovo di nuovo la la la

play04:56

probabilità scende e e viene

play04:58

riaggiornato la tabella una

play05:00

particolarità di questa di questo

play05:03

algoritmo che aggiorna la tabella perché

play05:05

viene aggiornato attraverso una formula

play05:07

matematica è che lui non Calcola solo

play05:10

diciamo la ricompensa o la punizione Ma

play05:14

la formula matematica che è stata creata

play05:16

all'interno di questo sistema Q Learning

play05:19

permette alla macchina di fare anche una

play05:21

stima di lungo termine cioè di quanto è

play05:23

probabile che però in futuro questa

play05:25

stessa azione invece porti a una eh a un

play05:29

un risultato diverso Naturalmente il

play05:32

nostro agente alla fine esce dal

play05:34

labirinto Quindi lui Aggiorna questa sua

play05:36

matrice di tabelle Q per ogni azione

play05:40

quale risultato ha portato Aggiorna

play05:43

questa sua matrice Diciamo che per il

play05:45

labirinto 1 le cose sono andate così per

play05:48

cui lui ha un un quadro statistico di di

play05:51

tutto quello che poteva fare e di come

play05:53

sono andate le cose man mano che le

play05:55

faceva quelle azioni immaginate che

play05:58

questa stessa macchina viene posta

play06:00

davanti a un milione di labirinti questa

play06:03

macchina diventa estremamente efficace

play06:08

nella nell'uscire dal labirinto nel nel

play06:11

prendere le decisioni a un certo punto

play06:14

si vede che queste intelligenze

play06:15

artificiali arrivano a dei livelli

play06:18

altissimi di efficienza nel prendere le

play06:21

decisioni soprattutto in un'ottica di

play06:23

lungo termine cioè basandosi quindi

play06:25

sull'esperienza che hanno avuto degli

play06:27

altri milioni di labirinti che hanno che

play06:31

hanno che hanno risolto e quindi

play06:33

riescono pure a prevedere Ok come

play06:37

potrebbe essere la soluzione più veloce

play06:40

per i labirinti successivi naturalmente

play06:42

non è solo il labirinto il labirinto è

play06:44

una una un'idea no può essere una mappa

play06:46

un videogioco ripeto ma può essere anche

play06:49

uno spazio problemico quindi astratto Ok

play06:52

non per forza quindi questa cosa deve

play06:54

essere applicata allo spazio No ma può

play06:57

essere anche una cosa più astratta un

play06:59

idea un concetto più astratto come

play07:01

risolvo un determinato problema fosse

play07:03

anche semantico Allora mi faccio la

play07:07

tabella q e essendo sottoposto a milioni

play07:10

di problemi semantici divento un

play07:13

decisore semantico molto avanzato e

play07:16

questo è il Q

play07:17

Learning poi c'è l'algoritmo di ricerca

play07:21

aar e è una cosa diciamo simile perché è

play07:26

basata sul trovare il percorso più breve

play07:30

tra due punti in uno spazio di ricerca è

play07:33

una cosa simile Però è focalizzata sul

play07:36

trovare proprio il percorso più breve

play07:39

tra due punti per cui se tu in mezzo ci

play07:41

metti il labirinto per esempio l'entrata

play07:42

e l'uscita no del labirinto Il Q

play07:45

Learning insieme al all'algoritmo di

play07:48

ricerca e Star diventano di

play07:51

un'efficienza

play07:53

assoluta nella risoluzione dei problemi

play07:55

per assoluta intendo che al momento non

play07:58

abbiamo mai hai visto niente del genere

play08:00

nel nostro passato tanto che addirittura

play08:04

la combinazione di queste due di queste

play08:08

due tecniche preoccupano preoccupano

play08:11

peraltro va detto che lei Star Search fa

play08:16

anche uso di tecniche euristiche che

play08:18

sono proprio delle Stime Ok delle Stime

play08:21

intelligenti per cui diciamo l'aggiunta

play08:24

della della Tecnica di apprendimento per

play08:27

rinforzo del Q learning insieme

play08:29

all'algoritmo a star che fa utilizzo di

play08:34

tecniche appunto euristiche nell'insieme

play08:37

questo nuovo modello generativo potrebbe

play08:41

essere questo qstar di cui si stanno

play08:45

occupando Nei laboratori di Open ai ora

play08:49

Qual è L'innovazione di tutto questo

play08:52

sistema rispetto ai modelli generativi

play08:56

che abbiamo oggi come GPT 4 Beh Voi

play08:59

capite che è un approccio completamente

play09:02

diverso completamente diverso i modelli

play09:06

che abbiamo Oggi infatti sono basati su

play09:08

una gigantesca quantità di dati la

play09:13

capacità che il modello generativo

play09:16

attuale ha di essere

play09:19

efficiente dipende tutto dalla qualità

play09:22

dei dati che deve essere una quantità

play09:24

enorme e di ottima qualità Inoltre i

play09:28

modelli attuali hanno il problema della

play09:31

staticità della conoscenza cioè Hanno

play09:33

una conoscenza statica come abbiamo

play09:35

visto chat GPT All'inizio era aggiornato

play09:38

al settembre del 2021 poi l'hanno

play09:41

aggiornato al 22 adesso è aggiornato se

play09:44

non sbaglio ad aprile del 23 stiamo

play09:46

registrando questo video alla fine di

play09:49

novembre

play09:50

2023 poi facciamo anche magari un

play09:53

discorso in un altro video su che cosa

play09:56

significa il fatto che siano connessi ad

play09:57

internet che abbiano accesso a

play09:59

determinate informazioni probabilmente

play10:01

lo state provando voi stesso non è la

play10:03

stessa cosa una cosa è la conoscenza che

play10:05

il modello ha a disposizione interamente

play10:08

a disposizione nel nella nella sua

play10:11

matrice tridimensionale probabilistica

play10:14

che gli permette di rispondere

play10:16

immediatamente una cosa è quando il

play10:18

modello non ha quella conoscenza quindi

play10:20

deve accedere ad una risorsa esterna

play10:22

andarsi a cercare una risposta

play10:23

elaborarla portarla dentro è un

play10:26

procedimento Scusate completamente

play10:28

diverso e non garantisce lo stesso tipo

play10:31

di risultato per cui la conoscenza

play10:33

statica dei modelli generativi attuali è

play10:36

un problema è un problema e poi c'è un

play10:40

problema di bias e pregiudizi il

play10:42

problema dei bias e dei pregiudizi è

play10:45

duplice perché non solo questi

play10:49

pregiudizi stanno incapsulati

play10:51

incorporati nei dati la qualità dei dati

play10:55

è importante anche per quello no cercare

play10:57

dei dati che siano anche da da questo

play10:59

punto di vista qualitativamente alti

play11:01

dicevo è duplice perché non c'è solo il

play11:03

problema nei dati ma c'è anche il

play11:05

problema nei programmatori cioè nel team

play11:07

che poi gestisce quei dati e li aggiusta

play11:11

e diciamo dà un un indirizzo a questi

play11:14

modelli generativi per cui tutto questo

play11:18

oggi È meraviglioso però insomma ha

play11:20

anche queste criticità ha anche questi

play11:22

limiti Ecco con il nuovo approccio che

play11:25

presumibilmente Ci aspettiamo sia

play11:27

integrato in g pt5 che stiamo aspettando

play11:31

probabilmente l'anno prossimo tutto

play11:33

questo potrebbe essere superato perché

play11:35

se il modello di apprendimento e la e di

play11:39

ricerca sarà questo Q Star molto

play11:42

probabilmente integrerà tutte le

play11:45

capacità che vi ho detto prima e questo

play11:47

supera tutti questi problemi perché a

play11:49

quel punto il modello avrà Innanzitutto

play11:52

una conoscenza dinamica il che significa

play11:55

che è in continuo aggiornamento sempre

play11:58

ok e cioè non c'è più il problema

play12:01

dell'addestramento prima poi hai il

play12:03

modello e poi Proponi il modello al

play12:05

mercato Il problema è che quel modello

play12:07

sarà in continuo addestramento avrà

play12:10

questa capacità continua di esplorare lo

play12:12

spazio problemico e di apprendere e di

play12:16

quindi migliorare sempre di più la sua

play12:18

capacità di raggiungere gli obiettivi e

play12:22

inoltre ci sarà anche una maggiore

play12:24

estremamente Maggiore capacità di

play12:26

comprendere il contesto Perché a quel

play12:28

punto la la conoscenza del modello

play12:30

potrebbe essere pressoché totale perché

play12:34

è la tutta la conoscenza dell'essere

play12:36

umano che a questo nuovo modello qstar

play12:39

sarà sempre disponibile ok non dovrà

play12:42

accedere a risorse esterne ci avrà avrà

play12:44

sempre tutta la conoscenza disponibile

play12:47

aggiornata e quindi Voi capite che

play12:51

questo è un approccio completamente

play12:53

diverso ora per concludere questo video

play12:56

credo di avervi detto quasi tutto però

play12:58

volevo concludere

play12:59

con una riflessione da una parte c'è il

play13:03

problema del fatto che questo modello

play13:05

potrebbe diventare Senziente Io non

play13:08

credo è la mia opinione me ne prendo la

play13:10

responsabilità però io non credo che la

play13:14

coscienza possa diciamo risolversi in

play13:18

questo algoritmo Io credo assolutamente

play13:21

che la macchina possa in un futuro

play13:23

diventare cosciente in maniera del tutto

play13:26

paragonabile all'essere umano ma non mi

play13:28

sembra questo l'approccio Il problema è

play13:30

che è ancora più pericoloso perché la la

play13:34

coscienza tutto sommato ha anche degli

play13:36

aspetti positivi Cioè se questa macchina

play13:38

diventasse cosciente Magari avrebbe pure

play13:40

un barlume di empatia Magari avrebbe

play13:43

pure No un po' di ragionevolezza la

play13:46

macchina che stanno creando invece con

play13:48

questo Q Star ed è questo che ha

play13:51

generato il polverone di cui stiamo

play13:53

parlando e che è difficile da divulgare

play13:55

è difficile da spiegare io ci sto

play13:57

provando e è il proprio il problema

play13:59

opposto cioè questa macchina non è

play14:02

cosciente non è empatica va dritta per

play14:07

il suo obiettivo e la stiamo creando in

play14:10

maniera tale che sia assolutamente

play14:12

efficiente nel raggiungere i suoi

play14:15

obiettivi una macchina che fosse

play14:17

cosciente rifacciamoci alla fantascienza

play14:19

no fate voi quella che preferite no

play14:21

trovate sempre magari un data di Star

play14:24

Trek o non so una qualche altra macchina

play14:27

che se comunque è È simile all'essere

play14:29

umano Magari ci si può anche ragionare

play14:32

ma una macchina di questo tipo è una è

play14:34

una macchina efficiente nel

play14:36

raggiungimento dei suoi obiettivi No

play14:38

Matter What Quindi qua Il problema è

play14:41

quali saranno i suoi obiettivi Questa è

play14:44

la Reale riflessione che ci dobbiamo

play14:46

porre nella realizzazione di questa

play14:49

meraviglia Io con questo ho concluso

play14:52

Grazie per essere stati con me e ci

play14:54

vediamo al prossimo video

play14:57

ragazzi

play15:03

n

Rate This

5.0 / 5 (0 votes)

Related Tags
AI InovationQ LearningStar SearchDeep LearningMachine LearningReinforcementAlgorithmsSemantic DecisionsFuture TechTech Advancements