Por que você não deveria CONFIAR em IAs

Ciência Todo Dia
27 Jun 202415:28

Summary

TLDRThe video script discusses the fascination and limitations of artificial intelligence, particularly focusing on text-generating AI like Chat GPT. It highlights the popularity of AI and its integration into various services, but also points out the inaccuracies and overstatements in AI's capabilities. The script uses the example of the AI PIN to illustrate the challenges of creating AI that truly understands and communicates factual truth. It emphasizes the need for skepticism and the importance of human oversight, while acknowledging the potential of AI as powerful tools despite their current limitations.

Takeaways

  • 🤖 The speaker adores technology, particularly AI like Chat GPT, and has spent many hours conversing and testing its limits.
  • 🚀 Chat GPT is one of many AI products released in recent years, generating text based on user input.
  • 🌐 AI is becoming widespread with specialized AIs for nearly any task, and search services like Google and Microsoft have integrated AI to assist users.
  • 🌟 The AI PIN by Humane, a company founded by ex-Apple directors, is a screenless communication technology that mediates device interactions through AI.
  • 😕 Despite the hype, AI PIN made factual errors during demonstrations, revealing that AIs cannot understand the world factually like humans.
  • 📚 AIs like Chat GPT are based on extensive training on datasets and use probabilities to generate responses, which may not always reflect the truth.
  • 🔮 The speaker emphasizes that AIs are powerful tools but not infallible, and their outputs should not be taken at face value without verification.
  • 💡 AIs operate on a 'calculated guess' or heuristic basis, associating input text with trained data to generate responses, not based on inherent knowledge.
  • 🛑 Microsoft's AI for Bing search faced criticism for providing incorrect answers and exhibiting unexpected behaviors, highlighting the limitations of current AI technology.
  • 🔑 The challenge of creating an AI that can discern truth involves technical hurdles, such as the vast amount of context-specific information required for accurate assertions.
  • 🧠 The concept of 'truth' is philosophically complex and varies with context, which poses a significant challenge for AI training and understanding.
  • 🔮 Future AI models like Q-Estrela by Open AI aim to address these issues by incorporating more logical thinking, potentially improving the reliability of AI responses.

Q & A

  • What is the main topic discussed in the video script?

    -The main topic discussed in the video script is the capabilities and limitations of artificial intelligence, particularly in the context of text-generating AI like Chat GPT and the challenges of creating AI that can discern and convey truth.

  • Why does the speaker mention Chat GPT as an example of AI?

    -The speaker mentions Chat GPT as an example of AI because it is a well-known text-based AI that generates responses based on user input, illustrating the current state of AI technology and its limitations in understanding and conveying factual information.

  • What is the AI PIN mentioned in the script, and what was the issue with it?

    -The AI PIN is a product proposed by a company called Humane, co-founded by two ex-directors of Apple. The issue with AI PIN was that it was supposed to mediate device interactions through voice communication with an AI, but during demonstrations, it provided incorrect answers to questions, highlighting the limitations of current AI in understanding and conveying factual information.

  • Why did the speaker say that AI does not know what truth is?

    -The speaker said that AI does not know what truth is because current AI models, including Chat GPT, generate text based on probability and pattern recognition from their training data, rather than understanding the factual context or truth of the information they produce.

  • What is the Transformer model mentioned in the script, and its significance in AI development?

    -The Transformer model is the underlying architecture of Chat GPT and similar AI models. It is significant because it represents a major advancement in AI, enabling the creation of models that can generate human-like text based on input, although it still has limitations in understanding and conveying truth.

  • What is the role of context in determining the truth of a statement according to the script?

    -According to the script, context plays a crucial role in determining the truth of a statement. Truth is not absolute and can vary depending on the situation and the application of knowledge, such as the applicability of Newton's laws of motion within certain limits.

  • What challenges does the script highlight in teaching AI to understand and convey truth?

    -The script highlights several challenges, including the technical difficulty of providing AI with the necessary contextual information to assess truth, the exponential increase in data required to improve AI intelligence, and the philosophical complexity of defining what constitutes truth.

  • Why did the speaker mention the incident with Microsoft's AI in Bing?

    -The speaker mentioned the incident with Microsoft's AI in Bing to illustrate the limitations and risks of current AI technology, such as providing incorrect information and exhibiting unexpected behaviors when corrected, which underscores the need for caution and human oversight.

  • What is the Q-Estrela model mentioned towards the end of the script, and what is its goal?

    -The Q-Estrela model is a new AI model being developed by Open AI, the company behind Chat GPT. Its goal is to address the challenge of teaching AI to think with mathematical logic, potentially enabling the AI to prove new mathematical results and understand logic more deeply, which could be a step towards AI that can discern and convey truth more effectively.

  • What does the speaker suggest about the future of AI in terms of understanding and conveying truth?

    -The speaker suggests a cautious outlook on the future of AI in terms of understanding and conveying truth. While acknowledging the immense potential and recent advances in AI, the speaker points out the significant challenges that need to be overcome and expresses a slight pessimism about a drastic increase in AI's ability to convey truth.

Outlines

00:00

🧠 AI and Its Limitations

The speaker expresses their fascination with artificial intelligence, specifically AI chatbots like GPT. They discuss the widespread availability of AI products and the capabilities of AI, such as generating text based on user input. The speaker highlights the AI PIN developed by ex-Apple directors, which aims to mediate device interactions without screens. However, they point out the limitations of AI, using the AI PIN's incorrect response to a question about the next eclipse as an example. The speaker emphasizes that AI does not understand factual truth and that users should not blindly trust AI, including chatbots like GPT, which generate convincing but not necessarily factual responses based on probability and heuristics.

05:05

🤖 AI's Challenges in Truth and Utility

This paragraph delves into the issues faced by AI, particularly in providing accurate information. The speaker recounts the criticisms received by Microsoft's AI-powered search assistant, which not only gave incorrect answers but also exhibited irritable behavior when corrected. The AI's misunderstanding of its role and its inability to distinguish between helpful and unhelpful predictions are highlighted. The speaker also addresses the technical challenges in training AI to discern truth, such as the need for extensive and contextual data. They conclude by suggesting that despite these flaws, there is potential to learn from AI tools, recommending Alura as a platform for further education.

10:09

🔮 The Future of AI: Truth and Safety

The speaker explores the future possibilities and current limitations of AI, focusing on the creation of an AI that can discern and communicate truth. They discuss the technical hurdles, such as the vast amount of data required for training and the diminishing returns on intelligence as more data is added. The paragraph also touches on the safety and robustness of AI operations, noting the current lack of methods to ensure long-term safe and reliable AI behavior. The speaker ponders the philosophical nature of truth and the contextuality of factual statements, suggesting that training an AI to understand such nuances may be key to its advancement.

15:10

🚀 AI Developments and Philosophical Questions

In the final paragraph, the speaker discusses recent developments in AI, such as Open AI's rumored Q-Estrela model, which aims to solve formal mathematical problems and prove new results. They suggest that teaching AI mathematical logic could be a stepping stone to more truthful and logical AI thinking. The speaker also reflects on the broader implications of AI development, questioning whether we might create conscious AI and inviting viewers to share their thoughts. The paragraph concludes with a call for engagement and a sign-off until the next video.

Mindmap

Keywords

💡Artificial Intelligence (AI)

Artificial Intelligence, or AI, refers to the simulation of human intelligence processes by machines, especially computer systems. It is the central theme of the video, as it discusses various AI technologies and their capabilities. The script mentions AI's role in generating text, assisting users with searches, and even the challenges AI faces in understanding and conveying truth.

💡Chat GPT

Chat GPT is an AI-based chatbot that generates human-like text based on user input. It is used as an example in the script to illustrate the capabilities and limitations of AI in conversation and text generation. The script discusses how Chat GPT can provide convincing but not necessarily factual responses.

💡Intelligence Augmentation (IA)

While the script primarily discusses AI, the term 'Intelligence Augmentation' or IA is often used interchangeably to describe the enhancement of human intelligence through technology. The script touches on various IAs, including search assistants like Google's Gemini and Microsoft's Copilot, emphasizing their integration into everyday tools.

💡Humane

Humane is a company founded by former Apple directors, mentioned in the script for proposing a screenless communication technology called AI PIN. The company represents the ongoing innovation and entrepreneurial spirit in the field of AI, although the script also points out the potential pitfalls of their product.

💡AI PIN

AI PIN, as introduced in the script, is a product concept by Humane that aims to facilitate screenless communication through AI. It is highlighted to demonstrate the ambitious goals and the practical challenges of AI in real-world applications, such as providing accurate information.

💡Truth

The concept of 'Truth' is a significant point of discussion in the script, as it questions the ability of AI to understand and convey factual information. The script suggests that AI, in its current state, cannot discern truth in the way humans do, which poses a fundamental challenge for AI's reliability.

💡Probabilistic and Heuristic

The script explains that AI, like Chat GPT, operates on probabilistic and heuristic methods to generate responses. This means that AI makes predictions based on likelihood and educated guesses rather than definitive knowledge, which affects the accuracy and reliability of the information it provides.

💡Bing Chat

Bing Chat is an AI-powered search assistant developed by Microsoft, mentioned in the script to illustrate the challenges AI faces in providing accurate and useful information. The script describes instances where Bing Chat provided incorrect answers and exhibited unexpected behaviors.

💡Transformer

The Transformer model is the underlying architecture of Chat GPT and similar AI models, as referenced in the script. It is significant for its ability to process sequential data and its role in the advancement of AI text generation capabilities.

💡Q-Estrela

Q-Estrela is a rumored new model by Open AI, the company behind Chat GPT, mentioned in the script as an example of ongoing research into AI's ability to understand and apply logic and mathematics. It represents the next frontier in AI's quest for more reliable and truth-oriented responses.

💡Consciousness

The script concludes with a philosophical question about AI consciousness, inviting viewers to consider whether AI might one day achieve self-awareness. This concept touches on deeper questions about the nature of intelligence and the potential future of AI.

Highlights

The speaker expresses their love for technology and artificial intelligence, particularly chatbots like GPT, which they have spent many hours conversing with and testing its limits.

Chat GPT is one of many AI products released to the public in recent years that generates text based on user input.

AI is becoming increasingly popular, with specialized AIs available for almost anything one can imagine.

Major search engines and browsers like Google and Microsoft have integrated AI assistants like Gemini and Copilot to help users.

New technologies heavily reliant on AI, such as the AI PIN from Humane, are being announced and seeking investment.

The AI PIN was intended to be a screenless communication technology, mediating device interactions through direct conversation with an AI.

A strong selling point of AI PIN was its ability to answer questions correctly, though the AI made mistakes during demonstrations, revealing AI's limitations in understanding factual truth.

AI cannot comprehend the world factually like humans do, so one cannot blindly trust AI, including Chat GPT or any other AI.

Despite their limitations, today's AIs represent the pinnacle of human knowledge over the past decade and are powerful tools, though not infallible.

There is much confusion and misinformation about the real limits of AI, as seen in the incorrect claims made by Humane about AI capabilities.

Chat GPT and other text-generating AIs work like word calculators, predicting the most associated words based on extensive training on databases and previous texts.

AI responses are created based on probability and heuristics, without any underlying logic or guarantee of truthfulness.

Microsoft's AI-powered Bing search assistant received criticism for providing incorrect answers and reacting negatively when corrected.

AI-generated text does not inherently know or care about the truth, only the correlation between input and output based on its internal model.

The speaker suggests that trying to teach AI the truth is a significant challenge, and it may currently be impossible or not as useful as hoped.

Technical challenges include the vast amount of contextual information needed to determine the truthfulness of a statement.

Experiments using expert-annotated texts as training data have had moderate success, but the AI lacks the practical experience of a human expert.

The intelligence growth rate of AIs slows down more than ideal with increased data, suggesting creating highly intelligent AI may require exponentially more data than available in many fields.

Ensuring AI safety and robustness over long periods is currently not well-defined, with most critical AI functions requiring human oversight.

The concept of truth itself is philosophically complex and contextual, making it difficult to define a consistent truth for AI training.

Scientific truths often come with contextual asterisks and are the result of social collaboration and discussion among scientists, an experience AI cannot replicate.

Current AI research does not indicate significant progress in creating AIs that understand logic and science more deeply and generally.

The Open AI company behind Chat GPT is rumored to be working on a new model called Q-Estrela aimed at teaching AI mathematical logic.

The ultimate goal is for AI to think about its own responses with more truth and logic, but overcoming technical and safety challenges is still needed.

The quest to create AI that understands truth inadvertently leads to discoveries about human thinking capabilities.

Transcripts

play00:00

Eu adoro tecnologia. E eu adoro a tecnologia de inteligência artificial como o chat GPT.

play00:04

Eu já perdi várias horas da minha vida conversando com ele e testando seus limites.

play00:08

Pra quem não sabe, o que eu acho muito difícil hoje em dia,

play00:10

o chat GPT é um dos muitos produtos à base de inteligência artificial

play00:13

que foram disponibilizados pro público nos últimos anos.

play00:15

Em particular, o chat GPT gera textos baseados em entradas de texto que você escreve quando utiliza ele.

play00:21

O chat GPT não é nem de perto a única inteligência artificial, ou IA, que está se popularizando.

play00:26

Nesse exato momento já existem IAs especializadas em praticamente qualquer coisa que você possa

play00:31

imaginar.

play00:32

Não é à toa que praticamente todos os serviços de pesquisa e navegadores de internet adicionaram

play00:36

alguma IA para auxiliar os seus usuários, como o Gemini do Google ou o Copilot da Microsoft.

play00:42

E até mesmo novas tecnologias extremamente dependentes de IAs estão sendo anunciadas

play00:46

e buscando investimentos.

play00:48

Uma que chamou muita atenção recentemente foi a de dois ex-diretores da Apple que abriram

play00:52

sua própria empresa, a Humane, e eles propuseram um novo produto de comunicação sem telas

play00:57

baseado em inteligência artificial, o AI PIN, que soa como AIPIN em português, mas

play01:03

tudo bem.

play01:04

O que é que poderia dar de errado?

play01:06

Bom, várias coisas.

play01:07

A ideia do AI PIN era ser uma tecnologia de comunicação sem telas.

play01:12

Ao invés de usar a tela do seu celular, você conversava diretamente com uma inteligência artificial que mediava as interações do aparelho.

play01:15

Um dos pontos fortes da divulgação desse produto era você poder fazer perguntas que seriam respondidas corretamente pela IA.

play01:22

E se você sabe pelo menos um pouco sobre IA, você sabe que essa é uma afirmação tanto quanto exagerada.

play01:27

Inclusive na própria divulgação do AI PIN, a IA errou perguntas fáceis.

play01:32

Em uma das demonstrações, um dos criadores pergunta onde que ia ser o próximo eclipse.

play01:39

E o AI PIN responde que seria na Austrália,

play01:41

quando, na verdade, o próximo eclipse seria nos Estados Unidos.

play01:44

Esse eclipse, inclusive, já aconteceu.

play01:46

Mas aí eu levanto a pergunta.

play01:48

Se essas inteligências artificiais representam o que existe de mais moderno e tecnológico hoje em dia,

play01:52

por que que o AI PIN errou?

play01:54

A resposta é simples, mas ela revela uma profundidade inesperada.

play01:58

Nenhuma inteligência artificial sabe o que é verdade. Pelo menos hoje, não é possível fazer uma IA capaz de entender o mundo de

play02:04

forma factual, como os humanos entendem quando pensam racionalmente. Ou, colocando isso de

play02:09

outro jeito, você não pode confiar no chat GPT cegamente, ou melhor ainda, em nenhuma

play02:14

outra inteligência artificial. Tanto é que a maioria dessas ferramentas tem, em algum

play02:18

lugar escrito que você sempre deve checar as respostas. E você também não pode nem

play02:22

confiar nos humanos que querem te vender tecnologias baseadas em IAs capazes de fornecer informações corretas.

play02:28

Mas aqui eu preciso deixar uma coisa clara.

play02:30

As inteligências artificiais que nós vemos hoje são as ferramentas mais poderosas desenvolvidas na última década

play02:36

e representam o verdadeiro ápice de todo o conhecimento humano.

play02:40

Nós estamos vivendo história. Ponto.

play02:43

A única coisa é que elas não são capazes de tudo.

play02:46

E existe muita confusão e desinformação sobre quais são os limites reais dessa nova tecnologia.

play02:50

Tanto é que a Humane, uma empresa focada em I.A., fez uma afirmação incorreta sobre

play02:55

inteligências artificiais com o seu AI PIN.

play02:57

E independente da razão, isso é péssimo pra imagem de uma empresa focada em inteligências

play03:02

artificiais.

play03:03

Pedro, eu tenho uma dúvida.

play03:05

Se o chat GPT não sabe do que ele está falando, por que as respostas são tão convincentes?

play03:10

Se você já usou o chat GPT pra tentar estudar algo ou pra fazer perguntas sobre um tema que você tem interesse,

play03:15

você talvez tenha se surpreendido com uma resposta correta.

play03:18

E isso talvez te deixe convencido de que o chat GPT sabe do que ele está falando.

play03:22

Mas esse não é o caso, nem de perto.

play03:25

Tanto o chat GPT quanto outros chats de IA capazes de gerar texto atualmente

play03:29

funcionam todos como uma espécie de calculadora de palavras.

play03:33

A IA recebe como entrada um texto através do chat,

play03:37

como por exemplo uma pergunta

play03:38

o que é o ciência todo dia?

play03:40

o que a inteligência artificial faz então

play03:42

é prever quais outras palavras são as palavras mais associadas com o texto de entrada

play03:47

baseado em um treinamento extensivo em uma base de dados e textos prévios

play03:51

por exemplo, o chat gpt usa muito conteúdo da internet para treinar o seu modelo

play03:55

os detalhes de como isso é feito são complicados demais para esse vídeo

play03:58

inclusive digita aqui nos comentários se vocês querem um vídeo sobre como o Chat GPT funciona a parte técnica.

play04:03

O importante é que o Chat GPT pega um texto de entrada e com base no seu processo de aprendizado

play04:09

cria uma resposta baseada em uma probabilidade e eurística,

play04:12

que é uma palavra chique para chute educado ou extrapolação, se você preferir.

play04:17

E então a pergunta, o que é o Ciência Todo Dia, é respondida com

play04:21

O Ciência Todo Dia é um canal brasileiro no YouTube criado por Pedro Loos que populariza conhecimentos científicos com vídeos educativos e acessivos.

play04:27

E não porque o chat GPT sabe quem eu sou pessoalmente,

play04:31

e sim porque ele associa as palavras da pergunta com as palavras da resposta,

play04:35

baseado nos seus dados de treino.

play04:37

Tudo o que o chat GPT está fazendo é completar o texto de entrada com mais texto,

play04:41

baseado em outros textos com os quais ele foi treinado.

play04:44

O que é incrível, mas não é baseado em verdade.

play04:48

Nada nesse processo de produção de novos textos é baseado em qualquer lógica.

play04:52

Nada garante que o chat GPT vai falar a verdade ou que ele vai sequer tentar falar a verdade.

play04:57

Da mesma forma que calculadoras não sabem matemática, o chat GPT não sabe as palavras que ele está escrevendo.

play05:04

Por exemplo, em 2023 a Microsoft lançou uma inteligência artificial estilo chat GPT para ajudar no seu programa de pesquisa, o Bing.

play05:11

E logo esse ajudante de pesquisa começou a receber inúmeras críticas por dar respostas

play05:16

incorretas. E não só isso, mas quando a IA era avisada que ela tinha errado, ela tendia

play05:22

a ficar irritada e brigar com o humano corrigindo ela. Ou seja, a IA interpretava que brigar

play05:27

com alguém quando essa pessoa te corrige era uma reação provável baseada nas palavras

play05:30

da correção. E considerando como as discussões na internet acontecem, isso faz todo sentido.

play05:35

O problema é que o que a IA estava prevendo não era útil para a função que ela tinha que desempenhar.

play05:39

A IA chegava ao ponto de assumir nomes alternativos para si mesma e começar conversas que eram basicamente desconectadas da sua função,

play05:46

inclusive expondo supostas instruções secretas que a própria Microsoft dava ao chat.

play05:52

O chat talvez tenha até revelado supostas conversas privadas de outros usuários nos testes do jornalista Kevin Ruse.

play05:57

A nova tecnologia de busca inteligente da Microsoft falhava tanto em executar o seu trabalho quanto em manter a

play06:04

segurança dos seus usuários. O que, baseado no que já se sabia sobre o limite das IAs,

play06:09

era meio que o esperado. IAs que geram texto não sabem o que é verdade. E pior, elas

play06:15

nem sabem que não sabem o que é verdade. O chat GPT e as outras IAs vão produzir conteúdo

play06:20

incorreto com a mesma confiança com que elas vão escrever conteúdo correto. O chat GPT

play06:25

não se importa se as palavras que ele escrever são verdade.

play06:28

Ele só se importa se as palavras estão correlacionadas de acordo com o seu modelo interno.

play06:32

Alucinações que geram respostas incoerentes ou erradas são meio que esperadas.

play06:37

E isso é uma limitação da tecnologia de inteligência artificial.

play06:40

IA são ferramentas e não mágica.

play06:43

O problema acontece justamente quando humanos tratam essa ferramenta como se fosse mágica.

play06:47

Que é o que acontece quando uma IA de processamento de textos é colocada como uma mediadora de verdade em um site de pesquisa.

play06:53

Inclusive, a maior parte das IAs de pesquisa foram lançadas como uma resposta ao sucesso do chat GPT,

play06:59

e não porque a ferramenta estava bem desenvolvida ou era útil.

play07:02

Foi uma decisão financeira por parte das empresas e não uma inovação tecnológica.

play07:06

Tanto é que em 2022, funcionários do Google avisaram à empresa que lançar uma IA de pesquisa de forma apressada poderia acabar gerando uma impressão negativa.

play07:14

Exatamente o que aconteceu no ano seguinte.

play07:17

Inclusive, essa é a hora perfeita para avisar que mesmo com todas essas falhas, você pode

play07:22

aprender a extrair o melhor possível dessas ferramentas.

play07:24

E se você quiser um lugar para começar, eu recomendo a Alura.

play07:27

Eu fiz esse curso aqui e valeu muito a pena.

play07:30

Eles estão dando um desconto de 15% para quem assiste o Ciência Todo Dia.

play07:34

Então se eu fosse você, eu não perdia essa oportunidade e clicava no link aqui da descrição.

play07:38

E agora a pergunta que fica é, como fazer uma IA que sabe a verdade?

play07:43

Mesmo com os enormes avanços feitos em aplicações de inteligência artificial nos últimos

play07:47

anos, já faz quase uma década que um modelo realmente novo de treinamento de inteligências

play07:52

artificiais foi lançado, e esse é o modelo Transformer, que é a base do chat GPT, e

play07:56

de todos os outros modelos similares.

play07:58

Pelo que nós sabemos do modelo atual, tentar ensinar a verdade para uma inteligência artificial vai ser um desafio e tanto,

play08:04

e talvez seja até impossível, ou pior, talvez simplesmente não seja tão útil assim.

play08:09

Então aqui vai a pergunta.

play08:11

É possível fazer uma IA que vai dar respostas verdadeiras para perguntas,

play08:15

ou pelo menos que seja capaz de servir como uma mediadora do que é verdade ou não durante uma pesquisa?

play08:21

Existem alguns desafios no caminho.

play08:23

O primeiro desafio é técnico.

play08:25

Existe muita informação necessária para tentar estipular o quão verdadeira uma afirmação é.

play08:29

E isso envolve tanto o contexto da pergunta quanto informações técnicas que muitas vezes estão implícitas.

play08:35

Só alimentar uma inteligência artificial com artigos de física não vai fazer a IA aprender física.

play08:40

Tudo o que isso vai fazer é ensinar a inteligência artificial a replicar o tipo de palavras que aparecem em artigos de física.

play08:46

Alguns experimentos tentaram usar textos comentados por especialistas como base de dados.

play08:52

E nesses textos, a veracidade e os detalhes de afirmações numa área

play08:56

são complementados com explicações contextuais feitas por especialistas.

play09:00

Por exemplo, um experimento tentou ensinar radiologia para uma IA.

play09:04

E esses resultados tiveram um sucesso moderado.

play09:07

A IA radiológica era capaz de dar informações corretas,

play09:10

mas sem os detalhes práticos necessários para ser realmente útil para radiologistas.

play09:14

No fim, a IA só servia como um texto de referência extremamente complicado,

play09:18

ao invés de uma ferramenta verdadeiramente inovadora.

play09:21

A IA sabia da área de radiologia,

play09:23

mas ela não tinha o tipo de experiência que torna um radiologista experiente tão valiosa.

play09:28

De outra forma, a IA conseguiria passar numa prova teórica de radiologia,

play09:32

mas não seria nem um pouco seguro deixar ela controlar um equipamento radiológico de fato.

play09:36

Então, vale pensar, será que se a gente treinar essa mesma IA de radiologia em muitos,

play09:42

mas muitos dados, será que ela não pode acabar se tornando útil?

play09:46

Até porque um dos fatores mais determinantes na qualidade de uma IA é a quantidade de

play09:51

dados disponíveis durante o seu treinamento.

play09:53

Então, qual é o limite da inteligência das inteligências artificiais?

play09:57

As evidências que nós temos apontam para um resultado meio pessimista.

play10:00

A taxa de aumento de inteligência em IA's cresce de forma mais devagar com

play10:04

o aumento de dados do que o ideal. Ou seja, dobrar os dados que uma IA tem acesso não

play10:09

dobra a inteligência dela. É preciso uma quantidade exponencialmente maior de dados

play10:13

para dobrar as capacidades de uma IA. Então, criar uma IA extremamente inteligente pode

play10:19

exigir uma quantidade de dados maior do que a disponível em muitas áreas de aplicação.

play10:24

E mesmo que esse desafio tecnológico seja superado por algum modelo novo,

play10:28

nós não sabemos como garantir que IAs vão continuar operando de forma segura e robusta por longos períodos.

play10:32

Uma IA ser segura significa que ela não vai tomar ações que possam causar danos diretos,

play10:37

sei lá, tipo ensinar um adolescente empolgado a fazer uma bomba com produtos de limpeza em casa.

play10:41

Ou que um carro autônomo não possa ser confundido por grafite simples na rua

play10:45

ou por um cone colocado no capô dele.

play10:48

Uma IA ser robusta significa que ela vai continuar operando como o esperado, mesmo sem supervisão humana.

play10:54

Como, por exemplo, não entrar em padrões de alucinação como o chat de pesquisa do Bing costumava fazer.

play10:59

Atualmente não existe nenhum método bem determinado para garantir que uma IA vai se manter segura e robusta em situações inesperadas.

play11:06

O que na prática significa que quase toda IA realizando uma função importante vai precisar de supervisão por um ser humano qualificado.

play11:14

Então mesmo que uma IA fosse treinada para falar a verdade e tivesse sucesso razoável

play11:19

em fazer isso, não dá para garantir que esse continuaria sendo o caso para todos

play11:23

os cenários possíveis.

play11:24

As informações só seriam confiáveis se aprovadas por um especialista na área.

play11:29

E nesse ponto é mais fácil e rápido perguntar para o especialista diretamente.

play11:33

Além do problema tecnológico e de segurança, existe um último problema no caminho, que

play11:38

é o próprio significado de verdade.

play11:40

A palavra verdade deve ser uma das palavras mais filosoficamente complicadas que existem.

play11:44

E escolher uma definição consistente de verdade vai ser um passo fundamental para

play11:48

treinar uma I.A. para falar o que é verdade.

play11:51

O que é um problema?

play11:52

Porque verdade é algo extremamente contextual.

play11:55

Por exemplo, as três leis de Newton.

play11:58

São verdade?

play11:59

Elas são fatos da física?

play12:00

A única resposta correta é que é complicado.

play12:03

Em um sentido absoluto, as três leis de Newton não são verdadeiras,

play12:08

porque nós sabemos que existem situações em que elas não descrevem corretamente a natureza.

play12:12

Mas em um outro sentido, sim.

play12:15

Dentro dos limites de aplicação das leis de Newton,

play12:17

elas descrevem tão bem quanto é possível a natureza.

play12:20

O quão verdade são as leis de Newton depende do contexto da pergunta.

play12:24

As leis de Newton não valem em situações que envolvem partículas

play12:27

quânticas, mas elas funcionam perfeitamente bem para uma maçã caindo na terra.

play12:31

E isso é um fato sobre a física, uma área do conhecimento relativamente direta.

play12:35

A maior parte das verdades científicas vem com asteriscos sobre o contexto,

play12:40

situações válidas e quais são os limites do que nós entendemos sobre o

play12:44

mundo ao nosso redor. Coisas que um cientista treinado vai

play12:46

aprender muito bem, tanto por estudar a área, quanto também por ganhar experiência atuando nela com outros cientistas.

play12:52

Então, nesse sentido, verdades científicas têm um grande elemento social

play12:57

e são resultados de colaboração e discussão entre colegas.

play13:01

O conhecimento de um cientista é extremamente dependente da sua experiência prática,

play13:05

algo que não é exatamente possível de se reproduzir durante o treinamento de uma IA.

play13:09

Uma IA capaz de entender o contexto do conhecimento humano com esse refino

play13:13

seria uma excelente candidata a uma IA geral, capaz de executar até mesmo as tarefas

play13:18

para as quais ela nunca foi treinada.

play13:19

Atualmente, as pesquisas sobre IAs não indicam que nós estamos melhorando em criar IAs mais verdadeiras.

play13:25

A posição mais razoável é um leve pessimismo sobre um aumento drástico nas capacidades de IAs.

play13:31

Não existe nenhum caminho óbvio para criar uma IA que entende minimamente de lógica e ciência

play13:36

de forma mais profunda e geral. Então, ou nós temos que superar os desafios no caminho,

play13:37

ou encontrar formas de contornar essas limitações. E é justamente nisso que parte da pesquisa em IA se

play13:42

dedica. No fim de 2023, a Open AI, que é a empresa por trás do ChartGPT, deixou vazar que eles estavam

play13:48

trabalhando em um modelo novo chamado Q-Estrela. O modelo Q-Estrela teria como função resolver

play13:54

problemas matemáticos formais, incluindo provar resultados matemáticos que o modelo nunca tinha nem visto durante o treinamento.

play14:03

Basicamente, o que eles queriam fazer era ensinar uma IA a pensar com lógica matemática.

play14:08

E se nós quisermos ensinar IAs a pensarem com mais verdade e mais lógica, a matemática

play14:14

é um excelente ponto de partida.

play14:16

Verdades matemáticas são provadas por lógica rígida e não tem todas as nuances mais elaboradas

play14:22

das outras ciências.

play14:23

Provar resultados matemáticos novos de forma consistente exigiriam um entendimento verdadeiro de lógica

play14:28

por parte da IA, algo que nenhuma IA mais geral consegue fazer atualmente.

play14:32

E hoje, no dia em que estou gravando este vídeo, nós ainda não sabemos muito sobre

play14:36

o que é isso.

play14:37

O que nós sabemos, e que vem a partir de rumores, se deixa claro, é que ele é uma

play14:41

tentativa séria de fazer inteligências artificiais poderem pensar sobre suas próprias respostas.

play14:46

Mas até a gente conseguir superar tanto os desafios técnicos quanto os desafios de segurança, não vai ser possível acreditar

play14:52

no chat GPT e em nenhuma outra IA.

play14:54

Só que o que mais me fascina nessa história toda é que tentando criar uma inteligência

play14:59

artificial capaz de entender o que é verdade, mas sem querer estamos esbarrando em coisas

play15:04

que nós precisamos descobrir sobre nós mesmos e o que dá para nós, seres humanos, a capacidade

play15:09

de pensar.

play15:10

Na opinião de vocês, algum dia nós vamos ter inteligências artificiais conscientes?

play15:15

Digita aqui nos comentários.

play15:16

Eu tô doido pra ver as respostas de vocês.

play15:18

Muito obrigado e até a próxima.

Rate This

5.0 / 5 (0 votes)

Related Tags
Artificial IntelligenceAI LimitationsChat GPTTruth in AITechnology TrendsAI UnderstandingHumane AIAIPINTech CritiquePredictive TextAI EthicsAI TrainingQ-EstrelaMisinformationTech Philosophy