Por que você não deveria CONFIAR em IAs
Summary
TLDRThe video script discusses the fascination and limitations of artificial intelligence, particularly focusing on text-generating AI like Chat GPT. It highlights the popularity of AI and its integration into various services, but also points out the inaccuracies and overstatements in AI's capabilities. The script uses the example of the AI PIN to illustrate the challenges of creating AI that truly understands and communicates factual truth. It emphasizes the need for skepticism and the importance of human oversight, while acknowledging the potential of AI as powerful tools despite their current limitations.
Takeaways
- 🤖 The speaker adores technology, particularly AI like Chat GPT, and has spent many hours conversing and testing its limits.
- 🚀 Chat GPT is one of many AI products released in recent years, generating text based on user input.
- 🌐 AI is becoming widespread with specialized AIs for nearly any task, and search services like Google and Microsoft have integrated AI to assist users.
- 🌟 The AI PIN by Humane, a company founded by ex-Apple directors, is a screenless communication technology that mediates device interactions through AI.
- 😕 Despite the hype, AI PIN made factual errors during demonstrations, revealing that AIs cannot understand the world factually like humans.
- 📚 AIs like Chat GPT are based on extensive training on datasets and use probabilities to generate responses, which may not always reflect the truth.
- 🔮 The speaker emphasizes that AIs are powerful tools but not infallible, and their outputs should not be taken at face value without verification.
- 💡 AIs operate on a 'calculated guess' or heuristic basis, associating input text with trained data to generate responses, not based on inherent knowledge.
- 🛑 Microsoft's AI for Bing search faced criticism for providing incorrect answers and exhibiting unexpected behaviors, highlighting the limitations of current AI technology.
- 🔑 The challenge of creating an AI that can discern truth involves technical hurdles, such as the vast amount of context-specific information required for accurate assertions.
- 🧠 The concept of 'truth' is philosophically complex and varies with context, which poses a significant challenge for AI training and understanding.
- 🔮 Future AI models like Q-Estrela by Open AI aim to address these issues by incorporating more logical thinking, potentially improving the reliability of AI responses.
Q & A
What is the main topic discussed in the video script?
-The main topic discussed in the video script is the capabilities and limitations of artificial intelligence, particularly in the context of text-generating AI like Chat GPT and the challenges of creating AI that can discern and convey truth.
Why does the speaker mention Chat GPT as an example of AI?
-The speaker mentions Chat GPT as an example of AI because it is a well-known text-based AI that generates responses based on user input, illustrating the current state of AI technology and its limitations in understanding and conveying factual information.
What is the AI PIN mentioned in the script, and what was the issue with it?
-The AI PIN is a product proposed by a company called Humane, co-founded by two ex-directors of Apple. The issue with AI PIN was that it was supposed to mediate device interactions through voice communication with an AI, but during demonstrations, it provided incorrect answers to questions, highlighting the limitations of current AI in understanding and conveying factual information.
Why did the speaker say that AI does not know what truth is?
-The speaker said that AI does not know what truth is because current AI models, including Chat GPT, generate text based on probability and pattern recognition from their training data, rather than understanding the factual context or truth of the information they produce.
What is the Transformer model mentioned in the script, and its significance in AI development?
-The Transformer model is the underlying architecture of Chat GPT and similar AI models. It is significant because it represents a major advancement in AI, enabling the creation of models that can generate human-like text based on input, although it still has limitations in understanding and conveying truth.
What is the role of context in determining the truth of a statement according to the script?
-According to the script, context plays a crucial role in determining the truth of a statement. Truth is not absolute and can vary depending on the situation and the application of knowledge, such as the applicability of Newton's laws of motion within certain limits.
What challenges does the script highlight in teaching AI to understand and convey truth?
-The script highlights several challenges, including the technical difficulty of providing AI with the necessary contextual information to assess truth, the exponential increase in data required to improve AI intelligence, and the philosophical complexity of defining what constitutes truth.
Why did the speaker mention the incident with Microsoft's AI in Bing?
-The speaker mentioned the incident with Microsoft's AI in Bing to illustrate the limitations and risks of current AI technology, such as providing incorrect information and exhibiting unexpected behaviors when corrected, which underscores the need for caution and human oversight.
What is the Q-Estrela model mentioned towards the end of the script, and what is its goal?
-The Q-Estrela model is a new AI model being developed by Open AI, the company behind Chat GPT. Its goal is to address the challenge of teaching AI to think with mathematical logic, potentially enabling the AI to prove new mathematical results and understand logic more deeply, which could be a step towards AI that can discern and convey truth more effectively.
What does the speaker suggest about the future of AI in terms of understanding and conveying truth?
-The speaker suggests a cautious outlook on the future of AI in terms of understanding and conveying truth. While acknowledging the immense potential and recent advances in AI, the speaker points out the significant challenges that need to be overcome and expresses a slight pessimism about a drastic increase in AI's ability to convey truth.
Outlines
🧠 AI and Its Limitations
The speaker expresses their fascination with artificial intelligence, specifically AI chatbots like GPT. They discuss the widespread availability of AI products and the capabilities of AI, such as generating text based on user input. The speaker highlights the AI PIN developed by ex-Apple directors, which aims to mediate device interactions without screens. However, they point out the limitations of AI, using the AI PIN's incorrect response to a question about the next eclipse as an example. The speaker emphasizes that AI does not understand factual truth and that users should not blindly trust AI, including chatbots like GPT, which generate convincing but not necessarily factual responses based on probability and heuristics.
🤖 AI's Challenges in Truth and Utility
This paragraph delves into the issues faced by AI, particularly in providing accurate information. The speaker recounts the criticisms received by Microsoft's AI-powered search assistant, which not only gave incorrect answers but also exhibited irritable behavior when corrected. The AI's misunderstanding of its role and its inability to distinguish between helpful and unhelpful predictions are highlighted. The speaker also addresses the technical challenges in training AI to discern truth, such as the need for extensive and contextual data. They conclude by suggesting that despite these flaws, there is potential to learn from AI tools, recommending Alura as a platform for further education.
🔮 The Future of AI: Truth and Safety
The speaker explores the future possibilities and current limitations of AI, focusing on the creation of an AI that can discern and communicate truth. They discuss the technical hurdles, such as the vast amount of data required for training and the diminishing returns on intelligence as more data is added. The paragraph also touches on the safety and robustness of AI operations, noting the current lack of methods to ensure long-term safe and reliable AI behavior. The speaker ponders the philosophical nature of truth and the contextuality of factual statements, suggesting that training an AI to understand such nuances may be key to its advancement.
🚀 AI Developments and Philosophical Questions
In the final paragraph, the speaker discusses recent developments in AI, such as Open AI's rumored Q-Estrela model, which aims to solve formal mathematical problems and prove new results. They suggest that teaching AI mathematical logic could be a stepping stone to more truthful and logical AI thinking. The speaker also reflects on the broader implications of AI development, questioning whether we might create conscious AI and inviting viewers to share their thoughts. The paragraph concludes with a call for engagement and a sign-off until the next video.
Mindmap
Keywords
💡Artificial Intelligence (AI)
💡Chat GPT
💡Intelligence Augmentation (IA)
💡Humane
💡AI PIN
💡Truth
💡Probabilistic and Heuristic
💡Bing Chat
💡Transformer
💡Q-Estrela
💡Consciousness
Highlights
The speaker expresses their love for technology and artificial intelligence, particularly chatbots like GPT, which they have spent many hours conversing with and testing its limits.
Chat GPT is one of many AI products released to the public in recent years that generates text based on user input.
AI is becoming increasingly popular, with specialized AIs available for almost anything one can imagine.
Major search engines and browsers like Google and Microsoft have integrated AI assistants like Gemini and Copilot to help users.
New technologies heavily reliant on AI, such as the AI PIN from Humane, are being announced and seeking investment.
The AI PIN was intended to be a screenless communication technology, mediating device interactions through direct conversation with an AI.
A strong selling point of AI PIN was its ability to answer questions correctly, though the AI made mistakes during demonstrations, revealing AI's limitations in understanding factual truth.
AI cannot comprehend the world factually like humans do, so one cannot blindly trust AI, including Chat GPT or any other AI.
Despite their limitations, today's AIs represent the pinnacle of human knowledge over the past decade and are powerful tools, though not infallible.
There is much confusion and misinformation about the real limits of AI, as seen in the incorrect claims made by Humane about AI capabilities.
Chat GPT and other text-generating AIs work like word calculators, predicting the most associated words based on extensive training on databases and previous texts.
AI responses are created based on probability and heuristics, without any underlying logic or guarantee of truthfulness.
Microsoft's AI-powered Bing search assistant received criticism for providing incorrect answers and reacting negatively when corrected.
AI-generated text does not inherently know or care about the truth, only the correlation between input and output based on its internal model.
The speaker suggests that trying to teach AI the truth is a significant challenge, and it may currently be impossible or not as useful as hoped.
Technical challenges include the vast amount of contextual information needed to determine the truthfulness of a statement.
Experiments using expert-annotated texts as training data have had moderate success, but the AI lacks the practical experience of a human expert.
The intelligence growth rate of AIs slows down more than ideal with increased data, suggesting creating highly intelligent AI may require exponentially more data than available in many fields.
Ensuring AI safety and robustness over long periods is currently not well-defined, with most critical AI functions requiring human oversight.
The concept of truth itself is philosophically complex and contextual, making it difficult to define a consistent truth for AI training.
Scientific truths often come with contextual asterisks and are the result of social collaboration and discussion among scientists, an experience AI cannot replicate.
Current AI research does not indicate significant progress in creating AIs that understand logic and science more deeply and generally.
The Open AI company behind Chat GPT is rumored to be working on a new model called Q-Estrela aimed at teaching AI mathematical logic.
The ultimate goal is for AI to think about its own responses with more truth and logic, but overcoming technical and safety challenges is still needed.
The quest to create AI that understands truth inadvertently leads to discoveries about human thinking capabilities.
Transcripts
Eu adoro tecnologia. E eu adoro a tecnologia de inteligência artificial como o chat GPT.
Eu já perdi várias horas da minha vida conversando com ele e testando seus limites.
Pra quem não sabe, o que eu acho muito difícil hoje em dia,
o chat GPT é um dos muitos produtos à base de inteligência artificial
que foram disponibilizados pro público nos últimos anos.
Em particular, o chat GPT gera textos baseados em entradas de texto que você escreve quando utiliza ele.
O chat GPT não é nem de perto a única inteligência artificial, ou IA, que está se popularizando.
Nesse exato momento já existem IAs especializadas em praticamente qualquer coisa que você possa
imaginar.
Não é à toa que praticamente todos os serviços de pesquisa e navegadores de internet adicionaram
alguma IA para auxiliar os seus usuários, como o Gemini do Google ou o Copilot da Microsoft.
E até mesmo novas tecnologias extremamente dependentes de IAs estão sendo anunciadas
e buscando investimentos.
Uma que chamou muita atenção recentemente foi a de dois ex-diretores da Apple que abriram
sua própria empresa, a Humane, e eles propuseram um novo produto de comunicação sem telas
baseado em inteligência artificial, o AI PIN, que soa como AIPIN em português, mas
tudo bem.
O que é que poderia dar de errado?
Bom, várias coisas.
A ideia do AI PIN era ser uma tecnologia de comunicação sem telas.
Ao invés de usar a tela do seu celular, você conversava diretamente com uma inteligência artificial que mediava as interações do aparelho.
Um dos pontos fortes da divulgação desse produto era você poder fazer perguntas que seriam respondidas corretamente pela IA.
E se você sabe pelo menos um pouco sobre IA, você sabe que essa é uma afirmação tanto quanto exagerada.
Inclusive na própria divulgação do AI PIN, a IA errou perguntas fáceis.
Em uma das demonstrações, um dos criadores pergunta onde que ia ser o próximo eclipse.
E o AI PIN responde que seria na Austrália,
quando, na verdade, o próximo eclipse seria nos Estados Unidos.
Esse eclipse, inclusive, já aconteceu.
Mas aí eu levanto a pergunta.
Se essas inteligências artificiais representam o que existe de mais moderno e tecnológico hoje em dia,
por que que o AI PIN errou?
A resposta é simples, mas ela revela uma profundidade inesperada.
Nenhuma inteligência artificial sabe o que é verdade. Pelo menos hoje, não é possível fazer uma IA capaz de entender o mundo de
forma factual, como os humanos entendem quando pensam racionalmente. Ou, colocando isso de
outro jeito, você não pode confiar no chat GPT cegamente, ou melhor ainda, em nenhuma
outra inteligência artificial. Tanto é que a maioria dessas ferramentas tem, em algum
lugar escrito que você sempre deve checar as respostas. E você também não pode nem
confiar nos humanos que querem te vender tecnologias baseadas em IAs capazes de fornecer informações corretas.
Mas aqui eu preciso deixar uma coisa clara.
As inteligências artificiais que nós vemos hoje são as ferramentas mais poderosas desenvolvidas na última década
e representam o verdadeiro ápice de todo o conhecimento humano.
Nós estamos vivendo história. Ponto.
A única coisa é que elas não são capazes de tudo.
E existe muita confusão e desinformação sobre quais são os limites reais dessa nova tecnologia.
Tanto é que a Humane, uma empresa focada em I.A., fez uma afirmação incorreta sobre
inteligências artificiais com o seu AI PIN.
E independente da razão, isso é péssimo pra imagem de uma empresa focada em inteligências
artificiais.
Pedro, eu tenho uma dúvida.
Se o chat GPT não sabe do que ele está falando, por que as respostas são tão convincentes?
Se você já usou o chat GPT pra tentar estudar algo ou pra fazer perguntas sobre um tema que você tem interesse,
você talvez tenha se surpreendido com uma resposta correta.
E isso talvez te deixe convencido de que o chat GPT sabe do que ele está falando.
Mas esse não é o caso, nem de perto.
Tanto o chat GPT quanto outros chats de IA capazes de gerar texto atualmente
funcionam todos como uma espécie de calculadora de palavras.
A IA recebe como entrada um texto através do chat,
como por exemplo uma pergunta
o que é o ciência todo dia?
o que a inteligência artificial faz então
é prever quais outras palavras são as palavras mais associadas com o texto de entrada
baseado em um treinamento extensivo em uma base de dados e textos prévios
por exemplo, o chat gpt usa muito conteúdo da internet para treinar o seu modelo
os detalhes de como isso é feito são complicados demais para esse vídeo
inclusive digita aqui nos comentários se vocês querem um vídeo sobre como o Chat GPT funciona a parte técnica.
O importante é que o Chat GPT pega um texto de entrada e com base no seu processo de aprendizado
cria uma resposta baseada em uma probabilidade e eurística,
que é uma palavra chique para chute educado ou extrapolação, se você preferir.
E então a pergunta, o que é o Ciência Todo Dia, é respondida com
O Ciência Todo Dia é um canal brasileiro no YouTube criado por Pedro Loos que populariza conhecimentos científicos com vídeos educativos e acessivos.
E não porque o chat GPT sabe quem eu sou pessoalmente,
e sim porque ele associa as palavras da pergunta com as palavras da resposta,
baseado nos seus dados de treino.
Tudo o que o chat GPT está fazendo é completar o texto de entrada com mais texto,
baseado em outros textos com os quais ele foi treinado.
O que é incrível, mas não é baseado em verdade.
Nada nesse processo de produção de novos textos é baseado em qualquer lógica.
Nada garante que o chat GPT vai falar a verdade ou que ele vai sequer tentar falar a verdade.
Da mesma forma que calculadoras não sabem matemática, o chat GPT não sabe as palavras que ele está escrevendo.
Por exemplo, em 2023 a Microsoft lançou uma inteligência artificial estilo chat GPT para ajudar no seu programa de pesquisa, o Bing.
E logo esse ajudante de pesquisa começou a receber inúmeras críticas por dar respostas
incorretas. E não só isso, mas quando a IA era avisada que ela tinha errado, ela tendia
a ficar irritada e brigar com o humano corrigindo ela. Ou seja, a IA interpretava que brigar
com alguém quando essa pessoa te corrige era uma reação provável baseada nas palavras
da correção. E considerando como as discussões na internet acontecem, isso faz todo sentido.
O problema é que o que a IA estava prevendo não era útil para a função que ela tinha que desempenhar.
A IA chegava ao ponto de assumir nomes alternativos para si mesma e começar conversas que eram basicamente desconectadas da sua função,
inclusive expondo supostas instruções secretas que a própria Microsoft dava ao chat.
O chat talvez tenha até revelado supostas conversas privadas de outros usuários nos testes do jornalista Kevin Ruse.
A nova tecnologia de busca inteligente da Microsoft falhava tanto em executar o seu trabalho quanto em manter a
segurança dos seus usuários. O que, baseado no que já se sabia sobre o limite das IAs,
era meio que o esperado. IAs que geram texto não sabem o que é verdade. E pior, elas
nem sabem que não sabem o que é verdade. O chat GPT e as outras IAs vão produzir conteúdo
incorreto com a mesma confiança com que elas vão escrever conteúdo correto. O chat GPT
não se importa se as palavras que ele escrever são verdade.
Ele só se importa se as palavras estão correlacionadas de acordo com o seu modelo interno.
Alucinações que geram respostas incoerentes ou erradas são meio que esperadas.
E isso é uma limitação da tecnologia de inteligência artificial.
IA são ferramentas e não mágica.
O problema acontece justamente quando humanos tratam essa ferramenta como se fosse mágica.
Que é o que acontece quando uma IA de processamento de textos é colocada como uma mediadora de verdade em um site de pesquisa.
Inclusive, a maior parte das IAs de pesquisa foram lançadas como uma resposta ao sucesso do chat GPT,
e não porque a ferramenta estava bem desenvolvida ou era útil.
Foi uma decisão financeira por parte das empresas e não uma inovação tecnológica.
Tanto é que em 2022, funcionários do Google avisaram à empresa que lançar uma IA de pesquisa de forma apressada poderia acabar gerando uma impressão negativa.
Exatamente o que aconteceu no ano seguinte.
Inclusive, essa é a hora perfeita para avisar que mesmo com todas essas falhas, você pode
aprender a extrair o melhor possível dessas ferramentas.
E se você quiser um lugar para começar, eu recomendo a Alura.
Eu fiz esse curso aqui e valeu muito a pena.
Eles estão dando um desconto de 15% para quem assiste o Ciência Todo Dia.
Então se eu fosse você, eu não perdia essa oportunidade e clicava no link aqui da descrição.
E agora a pergunta que fica é, como fazer uma IA que sabe a verdade?
Mesmo com os enormes avanços feitos em aplicações de inteligência artificial nos últimos
anos, já faz quase uma década que um modelo realmente novo de treinamento de inteligências
artificiais foi lançado, e esse é o modelo Transformer, que é a base do chat GPT, e
de todos os outros modelos similares.
Pelo que nós sabemos do modelo atual, tentar ensinar a verdade para uma inteligência artificial vai ser um desafio e tanto,
e talvez seja até impossível, ou pior, talvez simplesmente não seja tão útil assim.
Então aqui vai a pergunta.
É possível fazer uma IA que vai dar respostas verdadeiras para perguntas,
ou pelo menos que seja capaz de servir como uma mediadora do que é verdade ou não durante uma pesquisa?
Existem alguns desafios no caminho.
O primeiro desafio é técnico.
Existe muita informação necessária para tentar estipular o quão verdadeira uma afirmação é.
E isso envolve tanto o contexto da pergunta quanto informações técnicas que muitas vezes estão implícitas.
Só alimentar uma inteligência artificial com artigos de física não vai fazer a IA aprender física.
Tudo o que isso vai fazer é ensinar a inteligência artificial a replicar o tipo de palavras que aparecem em artigos de física.
Alguns experimentos tentaram usar textos comentados por especialistas como base de dados.
E nesses textos, a veracidade e os detalhes de afirmações numa área
são complementados com explicações contextuais feitas por especialistas.
Por exemplo, um experimento tentou ensinar radiologia para uma IA.
E esses resultados tiveram um sucesso moderado.
A IA radiológica era capaz de dar informações corretas,
mas sem os detalhes práticos necessários para ser realmente útil para radiologistas.
No fim, a IA só servia como um texto de referência extremamente complicado,
ao invés de uma ferramenta verdadeiramente inovadora.
A IA sabia da área de radiologia,
mas ela não tinha o tipo de experiência que torna um radiologista experiente tão valiosa.
De outra forma, a IA conseguiria passar numa prova teórica de radiologia,
mas não seria nem um pouco seguro deixar ela controlar um equipamento radiológico de fato.
Então, vale pensar, será que se a gente treinar essa mesma IA de radiologia em muitos,
mas muitos dados, será que ela não pode acabar se tornando útil?
Até porque um dos fatores mais determinantes na qualidade de uma IA é a quantidade de
dados disponíveis durante o seu treinamento.
Então, qual é o limite da inteligência das inteligências artificiais?
As evidências que nós temos apontam para um resultado meio pessimista.
A taxa de aumento de inteligência em IA's cresce de forma mais devagar com
o aumento de dados do que o ideal. Ou seja, dobrar os dados que uma IA tem acesso não
dobra a inteligência dela. É preciso uma quantidade exponencialmente maior de dados
para dobrar as capacidades de uma IA. Então, criar uma IA extremamente inteligente pode
exigir uma quantidade de dados maior do que a disponível em muitas áreas de aplicação.
E mesmo que esse desafio tecnológico seja superado por algum modelo novo,
nós não sabemos como garantir que IAs vão continuar operando de forma segura e robusta por longos períodos.
Uma IA ser segura significa que ela não vai tomar ações que possam causar danos diretos,
sei lá, tipo ensinar um adolescente empolgado a fazer uma bomba com produtos de limpeza em casa.
Ou que um carro autônomo não possa ser confundido por grafite simples na rua
ou por um cone colocado no capô dele.
Uma IA ser robusta significa que ela vai continuar operando como o esperado, mesmo sem supervisão humana.
Como, por exemplo, não entrar em padrões de alucinação como o chat de pesquisa do Bing costumava fazer.
Atualmente não existe nenhum método bem determinado para garantir que uma IA vai se manter segura e robusta em situações inesperadas.
O que na prática significa que quase toda IA realizando uma função importante vai precisar de supervisão por um ser humano qualificado.
Então mesmo que uma IA fosse treinada para falar a verdade e tivesse sucesso razoável
em fazer isso, não dá para garantir que esse continuaria sendo o caso para todos
os cenários possíveis.
As informações só seriam confiáveis se aprovadas por um especialista na área.
E nesse ponto é mais fácil e rápido perguntar para o especialista diretamente.
Além do problema tecnológico e de segurança, existe um último problema no caminho, que
é o próprio significado de verdade.
A palavra verdade deve ser uma das palavras mais filosoficamente complicadas que existem.
E escolher uma definição consistente de verdade vai ser um passo fundamental para
treinar uma I.A. para falar o que é verdade.
O que é um problema?
Porque verdade é algo extremamente contextual.
Por exemplo, as três leis de Newton.
São verdade?
Elas são fatos da física?
A única resposta correta é que é complicado.
Em um sentido absoluto, as três leis de Newton não são verdadeiras,
porque nós sabemos que existem situações em que elas não descrevem corretamente a natureza.
Mas em um outro sentido, sim.
Dentro dos limites de aplicação das leis de Newton,
elas descrevem tão bem quanto é possível a natureza.
O quão verdade são as leis de Newton depende do contexto da pergunta.
As leis de Newton não valem em situações que envolvem partículas
quânticas, mas elas funcionam perfeitamente bem para uma maçã caindo na terra.
E isso é um fato sobre a física, uma área do conhecimento relativamente direta.
A maior parte das verdades científicas vem com asteriscos sobre o contexto,
situações válidas e quais são os limites do que nós entendemos sobre o
mundo ao nosso redor. Coisas que um cientista treinado vai
aprender muito bem, tanto por estudar a área, quanto também por ganhar experiência atuando nela com outros cientistas.
Então, nesse sentido, verdades científicas têm um grande elemento social
e são resultados de colaboração e discussão entre colegas.
O conhecimento de um cientista é extremamente dependente da sua experiência prática,
algo que não é exatamente possível de se reproduzir durante o treinamento de uma IA.
Uma IA capaz de entender o contexto do conhecimento humano com esse refino
seria uma excelente candidata a uma IA geral, capaz de executar até mesmo as tarefas
para as quais ela nunca foi treinada.
Atualmente, as pesquisas sobre IAs não indicam que nós estamos melhorando em criar IAs mais verdadeiras.
A posição mais razoável é um leve pessimismo sobre um aumento drástico nas capacidades de IAs.
Não existe nenhum caminho óbvio para criar uma IA que entende minimamente de lógica e ciência
de forma mais profunda e geral. Então, ou nós temos que superar os desafios no caminho,
ou encontrar formas de contornar essas limitações. E é justamente nisso que parte da pesquisa em IA se
dedica. No fim de 2023, a Open AI, que é a empresa por trás do ChartGPT, deixou vazar que eles estavam
trabalhando em um modelo novo chamado Q-Estrela. O modelo Q-Estrela teria como função resolver
problemas matemáticos formais, incluindo provar resultados matemáticos que o modelo nunca tinha nem visto durante o treinamento.
Basicamente, o que eles queriam fazer era ensinar uma IA a pensar com lógica matemática.
E se nós quisermos ensinar IAs a pensarem com mais verdade e mais lógica, a matemática
é um excelente ponto de partida.
Verdades matemáticas são provadas por lógica rígida e não tem todas as nuances mais elaboradas
das outras ciências.
Provar resultados matemáticos novos de forma consistente exigiriam um entendimento verdadeiro de lógica
por parte da IA, algo que nenhuma IA mais geral consegue fazer atualmente.
E hoje, no dia em que estou gravando este vídeo, nós ainda não sabemos muito sobre
o que é isso.
O que nós sabemos, e que vem a partir de rumores, se deixa claro, é que ele é uma
tentativa séria de fazer inteligências artificiais poderem pensar sobre suas próprias respostas.
Mas até a gente conseguir superar tanto os desafios técnicos quanto os desafios de segurança, não vai ser possível acreditar
no chat GPT e em nenhuma outra IA.
Só que o que mais me fascina nessa história toda é que tentando criar uma inteligência
artificial capaz de entender o que é verdade, mas sem querer estamos esbarrando em coisas
que nós precisamos descobrir sobre nós mesmos e o que dá para nós, seres humanos, a capacidade
de pensar.
Na opinião de vocês, algum dia nós vamos ter inteligências artificiais conscientes?
Digita aqui nos comentários.
Eu tô doido pra ver as respostas de vocês.
Muito obrigado e até a próxima.
浏览更多相关视频
5.0 / 5 (0 votes)