OpenAI o1 | GPT-5 | Finalmente 🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓
Summary
TLDRThe video discusses the recent advancements in AI, focusing on the hype around OpenAI's new model, humorously referred to as 'morango' by the creator. The host, Lucas, shares his first impressions after using the model, which has been rebranded from GPT-4 to GPT-3.5 Turbo. He explores the model's capabilities, particularly in programming tasks, and speculates on its potential to revolutionize the industry. The video also touches on the broader implications for programmers' jobs and the future of AI applications, suggesting a shift towards AI-driven services and products.
Takeaways
- 😀 The script discusses the evolution of AI models, particularly focusing on the hype around the new OpenAI model referred to as 'morango'.
- 🎯 The term 'morango' was used to describe the excitement and anticipation around the new AI model's capabilities.
- 🌟 There was speculation about the new model's potential, including rumors involving Sam Altman and concerns that led to a delay in the release of the GPT-4 model.
- 🚀 The speaker shares their experience using the new OpenAI model, expressing their positive impressions after testing it out.
- 🤖 Concerns are raised about AI potentially replacing human jobs, especially in programming, reflecting a common anxiety in the tech community.
- 🧠 The script touches on the concept of 'Chain of Thoughts' and how the new AI model is capable of complex reasoning, similar to human thought processes.
- 💡 An example is given where the AI model is asked to create a project with specific requirements, showcasing its ability to understand and execute complex tasks.
- 📈 The script highlights the performance of the new model in various tests, indicating significant improvements over previous models like GPT-4.
- 📝 The speaker discusses the practical application of the AI model in creating a real-time audio response system for a live chat, demonstrating its utility.
- 🔮 The future of AI is pondered, with the speaker predicting a surge in AI-based applications and services, potentially leading to a new era of software development.
Q & A
What is the significance of the term 'morango' in the context of the script?
-In the script, 'morango' (Portuguese for 'strawberry') is used metaphorically to refer to the new model released by OpenAI, which has generated significant hype and excitement in the AI community.
Why did the speaker use 'morango' in the title, and what is its relation to the AI model discussed?
-The speaker used 'morango' in the title to create intrigue and to reference the new AI model that was highly anticipated, which was informally named 'morango' due to the hype surrounding it before its official release.
What was the main speculation about Sam Altman's involvement with the 'morango' model?
-There was speculation that Sam Altman, the CEO of OpenAI, was working on a new model, which led to the creation of the 'morango' hype. It was rumored that he was refining this model to improve its reasoning capabilities.
What was the actual change when moving from GPT-3 to GPT-4 in terms of naming and expectations?
-The transition from GPT-3 to GPT-4 was not just a numerical increment but a renaming strategy by the company to reset expectations and create a new hype, moving away from numerical comparisons to focus on the new features and capabilities of the model.
How did the speaker use the new OpenAI model to create a live chat response system?
-The speaker utilized the new OpenAI model to develop a system that consumes data from a websocket, displaying questions and answers in real-time during a live stream, with the AI responding to chat messages and synthesizing audio responses.
What was the speaker's concern regarding the advancement of AI in programming and its potential impact on jobs?
-The speaker expressed a shared concern about the possibility of AI advancements, particularly in programming, potentially leading to job loss or a shift in the role of programmers to become 'prompt engineers'.
What was the outcome when the speaker asked the AI to create a React project without using frameworks?
-The AI successfully provided a detailed guide to create a React project with Twind CSS and without using frameworks, demonstrating its ability to understand and execute complex coding tasks.
How does the speaker describe the AI's capability to reason and its potential impact on problem-solving?
-The speaker describes the AI's capability to reason as a significant leap, suggesting that it can break down complex problems into simpler steps, learn from its mistakes, and refine its strategies, which could drastically improve its problem-solving abilities.
What was the performance comparison between GPT-4 and the new OpenAI model in terms of coding tasks?
-In coding tasks, the new OpenAI model showed a significant improvement over GPT-4, with performance metrics that were 'ridiculously larger,' indicating a substantial leap in its ability to generate code.
What was the speaker's view on the future of AI applications and their integration into various services?
-The speaker believes that there will be a surge in the creation of new websites and applications involving AI, with AI serving as the backend for various services, potentially leading to a new wave of subscription-based or one-time payment services.
Outlines
🤖 Introduction to GPT-4 and Its Impact
The speaker begins by discussing the hype around the new GPT-4 model from OpenAI, which was recently launched. They mention the nickname 'morango' (Portuguese for 'strawberry') used to refer to the model, highlighting the anticipation and excitement in the AI community. The speaker also addresses rumors about Sam Altman, OpenAI's co-founder, and the company's internal dynamics. They express their own experience with the new model, noting its impressive capabilities and the potential impact on programming jobs. The speaker also touches on the broader implications of AI development, including the creation of a 'Tony' project that uses AI to respond to live chat questions in real-time.
🛠️ Building a React Project with GPT-4
In this section, the speaker describes their experience using GPT-4 to create a React project. They outline the process of building the project manually without frameworks, focusing on using React with Tailwind CSS. The speaker provides a detailed account of the steps taken by GPT-4 to understand the project requirements, including setting up the project environment, handling WebSocket connections for real-time messaging, and generating audio playback. They also discuss the AI's ability to reason and adapt its responses, suggesting that GPT-4 is capable of complex problem-solving and decision-making that could rival human experts in certain fields.
📈 GPT-4's Performance and AI's Future in Coding
The speaker delves into the performance metrics of GPT-4, comparing it to its predecessor and highlighting its superior capabilities in coding tasks. They discuss the AI's ability to generate code, solve complex problems, and its potential to revolutionize the field of software development. The speaker also speculates on the future of AI in coding competitions and the possibility of AI systems outperforming human experts. They mention the 'Chain of Thoughts' capability of GPT-4, which allows it to approach problem-solving in a manner similar to human thinking, breaking down complex tasks into simpler steps and refining its strategies through learning and reinforcement.
🧠 GPT-4's Advanced Reasoning and Problem-Solving
This paragraph focuses on GPT-4's advanced reasoning skills, particularly in the context of coding challenges. The speaker provides an example of a matrix transposition task, illustrating how GPT-4 can understand and generate the correct code to solve the problem. They emphasize the AI's ability to handle complex reasoning and its potential to replace or augment human programmers in the future. The speaker also discusses the limitations of previous AI models and how GPT-4's improvements in reasoning and learning algorithms set it apart, suggesting a new paradigm in AI capabilities.
🌐 The Future of AI Applications and Development
In the final paragraph, the speaker speculates on the future of AI applications, predicting a surge in the development of AI-powered websites and applications. They discuss the potential for AI to serve as a backend for various products, offering services or value that users might be willing to pay for. The speaker also mentions their collaboration with OpenAI to enhance the reasoning capabilities of GPT-4 and the potential for AI to take on more complex tasks autonomously. They conclude by highlighting the ongoing hype around AI and the uncertainty of where this technology will lead, suggesting that AI's ability to perform complex reasoning could be a game-changer for various industries.
Mindmap
Keywords
💡GPT
💡OpenAI
💡Hype
💡Code Generation
💡Machine Learning
💡Inference
💡Programming
💡WebSocket
💡React
💡Next.js
💡AI Agents
Highlights
Introduction of the new OpenAI model, referred to as 'morango', which has generated significant hype and expectations within the AI community.
Discussion on the rebranding from GPT-3 to GPT-4 to the new model, suggesting a shift in focus from numerical progression to new capabilities.
Mention of speculations about Sam Altman working on a 'morango' model, indicating a potential significant leap in AI reasoning capabilities.
A detailed account of the author's experience using the new OpenAI model, including its ability to generate code and understand complex instructions.
The author's exploration of the new model's performance in a live chat application, showcasing its real-time response capabilities.
Concerns raised about the potential for AI to replace human programmers, reflecting on the implications of the new model's capabilities.
Analysis of the model's ability to understand context and generate responses, highlighting its advanced natural language processing.
A demonstration of the model's coding capabilities, where it successfully creates a client-side application based on provided specifications.
The author's request for the model to create a React project without frameworks, showcasing the model's flexibility in following instructions.
Explanation of the model's reasoning process, comparing it to human thought patterns and problem-solving strategies.
Discussion on the model's ability to self-correct and learn from its mistakes, improving its reasoning over time.
A comparison of the new model's performance to the GPT-4 in cybersecurity and CTFs, indicating a significant improvement.
The model's success in answering complex scientific questions, outperforming human experts in certain scenarios.
The model's approach to handling simple versus complex questions, demonstrating its ability to discern the level of detail required.
A specific example of the model's coding capabilities, where it correctly transposes a matrix as per user request.
Reflections on the new paradigm of AI and its potential to revolutionize various industries through advanced reasoning and problem-solving.
The author's prediction of a surge in AI-based applications and services, driven by the capabilities of the new model.
Final thoughts on the potential of the new model to redefine AI's role in programming and its impact on the job market.
Transcripts
te liga na evolução dele no Cold forces
cara na na na competição de de gerar
código né ah GPT 4 o olha o quão o quão
mais alto foi o ow One cara a espera
pelo morango finalmente acabou e muitos
de Vocês perguntaram para mim Lucas por
que que tu tá usando morango no título
morango na tamb e não sei se tu percebeu
O o padrão Mas eu sempre usava morango
quando eu ia falar de algum Hype qual
que é esse Hype é o Hype que foi criado
em volta do novo modelo da Open eii o
novo modelo Acaba de ser lançado ele foi
lançado ontem de noite e a Open Ei me
liberou hoje pela madrugada então eu já
tô conseguindo utilizar o novo modelo
deles que seria aqui o famoso morango né
que muita gente estava falando então se
especulava que o o Sam altman tava aí
trabalhando na horta de morango dele e
ele pensou nesse modelo aí que poderia
raciocinar mais em cima da tua Pergunta
antes de te dar uma resposta eu gravei
um vídeo sobre isso se tu não viu o
vídeo eu vou colocar aqui na descrição
mas esse era o Hype eram boatos esse
boato envolvia muito também aquela treta
que aconteceu na Open Ei alguns meses
atrás onde o Sam alom ele foi meio que
expulso da empresa pelo board muito por
conta do que o Willi teria visto e
finalmente então a gente botou a mão no
que o Willi supostamente viu lá dentro
da Open ai e que levantou digamos assim
preocupações a Open ai então não lançou
o GPT s né a gente a gente vinha sempre
imaginando Nossa imagina Lucas como que
vai ser daqui alguns anos porque a gente
tem o gpt3 que já era muito bom aí veio
o GPT 4 um crescimento absurdo imagina
como que vai ser quando vier o GPT 5 né
e bom eu desculpa eu na verdade quebrar
um pouco a tua expectativa mas a gente
foi do GPT 3 pro GPT 4 pro o 1 então
eles basicamente renomearam Normalmente
quando uma empresa renomeia assim o nome
de um produto é que ela quer de novo
gerar uma nova expectativa né ela quer
que tu pare de comparar numericamente o
crescimento a evolução e passe a esperar
pelo novo Hype vamos dar uma lida Hoje
no Que que é o open aio o1 eu usei Hoje
eu fiquei digamos durante a madrugada
aqui ó a gente acorda bem cedo aqui em
casa 5:30 eu tava de pé aí eu saio dou
um passeio com a Chloe aí depois a gente
vai pra academia eu fiquei com a clu em
casa a Sara foi pra academia e nesse
período eu fiquei programando cara
usando o novo modelo da openi fresco
para vocês tudo que ele é capaz de fazer
e eu fiquei bem impressionado e se tu
agora vai me perguntar Lucas tá mas a ia
vai roubar o nosso emprego como
programador eu entendo a tua preocupação
e eu posso dizer que eu até compartilho
da tua preocupação então eu não tenho
uma resposta para ti e eu sei que tu
deve ter ouvisto também de outros
influenciadores eu até preciso trazer
aqui no caso ah várias frases e e e
explicações que a gente ouviu no nos
últimos meses ah de pessoas dizendo que
não cara tipo o crescimento não é
exponencial do do do dos modelos outras
pessoas falando sim tu vai perder o teu
emprego ou tu vai virar um mero
programador de prompt e eu posso te
dizer provavelmente todos eles estão
errados provavelmente a gente vai chegar
no meio-termo e ninguém sabe qual que
vai ser esse meio-termo a gente também
imagina que o modelo né então a gente
tem um modelo aqui que é o o gpt3 a
gente teve um modelo maior que era o GPT
4 e aí agora a gente vai ter um muito
maior e é o tamanho do modelo ou a
probabilidade a a capacidade dele de
entender a próxima palavra é que torna
ele inteligente e útil E pelo que eu tô
vendo já utilizando o o morango aqui não
é bem isso deixa eu te dar um exemplo
deixa eu abrir aqui e depois a gente vai
ler Ah o artigo oficial da da Open ai
mas eu quero te te mostrar como que
basicamente o modelo funciona eu pedi
para ele criar uma versão client do do
do que a gente tá lançando aqui no canal
né não sei se vocês sabem mas aqui no
canal a gente lançou o Tony então a
gente deu vida ao Tony basicamente a
gente tem o streaming de um áudio que é
o Tony respondendo as perguntas que
vocês mandam no chat da Live Então essas
perguntas que estão sendo viadas
enviadas aqui eu tô pegando do chat da
Live que tá programada para hoje então
Aqui nós temos o chat da Live eu mandei
várias perguntas ali de teste durante a
madrugada e essas perguntas são
respondidas pelo GPT e depois a resposta
do GPT ele é sintetizado em áudio e esse
áudio eu crio um broadcast dele e faço
streaming desse áudio então É como se eu
conseguisse ter o GPT respondendo com a
minha voz as perguntas de vocês em tempo
real durante uma live esse projeto a
gente desenvolveu aqui no canal e agora
a gente tá na parte do front end dele o
backend tá todo pronto só que eu fiz a
seguinte pergunta pro pro pro GPT 4 pro
GPT 4 o e pro Cloud sonet tá o que que
eu pedi para ele criar eu quero criar um
projeto com react react com Shed CD Shed
CN ui ah manualmente adicionado porque
eu odeio frameworks né Eu falei que o
projeto ele vai listar mensagens que
estão vindos do websocket da aqui eu dei
o endereço do websocket e essas nós
vamos chamar isso de perguntas e também
tem uma outra lista de mensagens que vem
de um outro web socket que a gente vai
chamar de respostas e vai ter um áudio
sendo tocado que vende tal endp aí eu
coloquei requisitos de interface eu pedi
me dá todos os comandos que eu preciso
rodar e os arquivos que eu preciso criar
ele levou 44 segundos o que que ele fez
primeiro ele tentou entender o que que
eu tava criando ele colocou aqui
montando o projeto Estou construindo um
projeto react ajustando manualmente o
Shed CN ui e evitando frameworks vamos
ver se isso realmente aconteceu depois
desenvolvendo o projeto estou
trabalhando em um projeto que consome
dados do websocket para exibir pergunt
perguntas respostas e uma interface de
áudio centralizada desenvolvendo fluxos
estou listando perguntas e respostas e E
por aí vai configurando ambiente
evaluando alternativas Então olha só
depois que ele desenvolveu o projeto
desenvolveu o fluxo configurou o
ambiente ele dá uma olhada para ver se
teria outra alternativa estou mapeando o
uso do Shed CN com next GS ou react
manualmente buscando evitar frameworks
isso sugere que estamos considerando
abordagens flexíveis e sem vinculação a
um Framework específico então ele
entendeu o que eu queria de fato quando
ele começou a fazer evaluação aqui
evaluation evaluando alternativas
considerando opções estou pensando em
usar componentes shedy com react vamos
verificar a documentação para saber se é
possível sem o nextjs te liga ele
entendeu então que na grande maioria das
vezes as pessoas estão usando react com
nextjs E como eu falei para ele que eu
não quero usar nenhum Framework ele
colocou essa consideração então Aqui
começa a parte que o some altan Diz que
esse modelo é capaz de raciocinar o que
que isso quer dizer quer dizer que muito
se fala quando a gente diz Ah Lucas Ah o
o modelo é só um autocomplete e eu
concordo entendeu tu tem as tuas
palavras e esse modelo ele vai pegar
cada palavra quebrar em tokens então uma
palavra pode virar múltiplos tokens ou
uma imagem pode ter milhões de tokens e
ele pega basicamente isso ele cria um
contexto Então tudo isso está dentro de
um texto e esse contexto ele é colocado
Então como input pro modelo que vai
tentar prever o próximo token o
attention is all you need era sobre o
contexto que é gerado com os tokens
então tu tem uma janela de Window que
ele chama de contexto o context Window
que é o quanto de token ele consegue
manter em memória para saber o contexto
do que tu quer quando alguém falava
assim o o modelo ele é só um aut
complete eu vi uma explicação muito boa
do FBI aquita por exemplo que ele foi no
Flow foi na inteligência limitada e cara
o Fábio aquita ali ele explicou de uma
maneira muito simples e ele contou toda
a história tá ligado até chegar ao
Modelo E por que que esse crescimento da
Inteligência entre aspas do modelo não
vai ser exponencial e eu concordo com
ele mas eu tenho que discordado da
conclusão que eu chego a ouvir o que ele
falou eu concordo que o modelo não vai
fazer isso mas o que eu tô vendo com o
lançamento do Open ai o One é que ele
não é uma atualiz são no modelo então a
gente não tá incrementando na capacidade
do modelo ok uma janela de contexto tá
sendo cada vez maior Gemini já veio com
uma janela de contexto absurda Mas o que
eu tô percebendo é que eles criaram um
sistema de múltiplos agentes que fazem
prompts para atualizar esse contexto pro
modelo então fazer a a conclusão final
antes de te dar a resposta é isso que o
Sam altom queria dizer quando ele falou
que a gente precisa prestar mais atenção
nos testes do que no treinamento o
treinamento do modelo tu pegar a
internet inteira e zipar isso num llm a
a gente já chegou no no num tamanho OK
tá ligado a gente não precisa de um
modelo maior agora como é que a gente
testa o resultado disso e a gente faz o
feed de novo pro próprio modelo do
resultado do que ele tá fazendo isso é
só capaz só é capaz de ser feito cara
através de um sistema então não tem por
exemplo na minha opinião como tu baixar
o openi ou o na tua máquina e usar ele
apenas como modelo porque o que tá por
trás aqui o que a openi deve estar
fazendo e aqui é uma suposição minha é
uma hipótese é um sistema de múltiplos
agentes que vão guiando tá a tua da tua
pergunta até quebrar ela em requisitos
mais inteligentes então como eu tava
falando cara ela tá quebrando aqui o que
eu falei em múltiplos prompts e eu acho
que cada prompt desse tá gerando um
resultado e ela tá olhando o resultado
para gerar um próximo prompt então É
como se eu estivesse usando ela centenas
de vezes para chegar na minha conclusão
então sabe quando tu manda algo para ela
e tu chega e ela te dá um código e aí tu
roda o código e não funciona daí tu fala
ó não funcionou Aí ela te dá o código
certo e tu pensa por que que tu não me
deu o código certo de primeira Bom eu
acho que fazer ela interar em cima das
próprias respostas vai fazer a gente ter
a percepção de que ela é muito mais
inteligente usando o mesmo modelo Vocês
estão entendendo o o que que eu tô
explicando aqui não coloca lá no chat vê
se ele te explica Ah é que eu tô eu tô
confuso na verdade talvez o GPT te
explique melhor mas aí o próximo passo
aqui configurando um projeto react estou
começando a criar um projeto react
usando Vit configurando Twin CSS com
post CSS e Auto prefixer agora estou
ajustando PFS no meu no meu templates
desenvolvendo a configuração importação
de arquivos estou pensando em importar
os arquivos manualmente cara olha olha
is olha olha isso aqui estou pensando em
importar os arquivos manualmente Isso
está me levando a pensar se há
necessidade de ajustes adicionais
criando a interface estou montando a
interface ui reprodutor de áudio
Centralizado com listas verticais e
horizontais de mensagens e componentes
react twind CSS estão sendo preparados
para começar configurando inicializando
primeiramente estou organizando o
diretório de projetos instalando
dependências aí aprimorando conexão
então ele pensou aqui estou pensando em
aprimorar a conexão webs destacando a
criação de variáveis de estado para
armazenar as perguntas e as respostas
analisando compatibilidade estou
refletindo sobre a compatibilidade de
shad Y com nextjs e aqui tu já começa
tipo assim mas a gente não tá usando
nextjs Então por que que tu tá
analisando compatibilidade com algo que
a gente não tá usando instalando
componentes reunindo peças montando a
interface configurando o ambiente de
novo configurando o ambiente de novo
novo estabelecendo conexão Por que que
ele configurou o ambiente múltiplas
vezes eu não sei te dizer o que que ele
quer dizer com isso personalizando o
visual E aí ele me deu a lista de
comandos que eu quero executar então npm
Create Vit last my app aqui npm install
install do tailwind websocket e o Run ok
ele não adicionou o nextjs embora ele
tenha mencionado que ele tava vendo a
compatibilidade com nextjs aqui tá os
arquivos que eu tenho que criar Ok todos
os arquivos aqui e aí depois ah
additional Notes aqui ele colocou
anotações finais e como rodar o projeto
eu rodei o projeto e sim funcionou de
primeira o áudio tocou a lista de
mensagens sendo consumindo websocket
tudo funcionou de primeira eu fiquei bem
impressionado eu sei que tu ia tu ia
falar Tipo tu tava pensando que ia te
dizer tipo assim nossa alguma coisa não
funcionou mas não literalmente eu só
copiei e colei tudo que ele me deu e
funcionou de primeira simples assim ele
não usou o nextjs Ele usou Vit eu não
queria eu queria que ele Us só react
Shed CN eu não sei né se se se tem como
fazer ou se vocês já fizeram isso e
publicaram na internet porque tá muito
difícil convencer uma ia para usar para
usar só react Shed CN mas eu quero usar
ele para algo mais complexo um sistema
completo e eu vou ver se eu faço um
segundo vídeo colocando esse sistema no
ar tá se eu já coloquei no ar eu vou
colocar tudo isso lá no ai kild internet
que é o nosso site nós temos o canal de
vlog ai kild internet da internet mas
tem o nosso domínio também é i kill
internet que eu vou colocar todos esses
projetos lá se tu quiser acessar Talvez
ele já esteja de pé otimizando aqui para
raciocínio né O que que é ser otimização
para raciocínio como é que foi a
Performance em matemática dele versus o
custo de inferência então Aqui nós temos
o custo e a performance vocês podem ver
que o custo aumentou mas a performance
tipo é ridiculamente maior do que o GPT
4 o ridiculamente maior é muito maior
vamos ver programação porque matemática
ele mandou muito bem então aqui tá a
performance deles performando bem melhor
do que o GPT 4 o bom quando se fala de
ctfs de segurança cibernética a gente já
começa a ficar preocupado né porque ele
desempenhou aqui o dobro do que o GPT 4
o tava desempenhando te liga na evolução
dele no cod forces cara na na na
competição de de gerar código né ah GPT
4 o olha o quão o quão mais alto foi o o
One cara e no caso eles nos liberaram só
o ow One preview né a gente não tem eu
não tenho acesso a esse ow One eu tenho
acesso a one preview e ow One mini isso
aqui é um pouco impressionante ó isso
aqui São perguntas tá questões de
ciência para um nível de PHD aqui tá os
experts os humanos experts tá os humanos
experts estava pontuando 69.7 acima do
GPT 4 que a gente tinha 56.1 e One
preview e o One estão pontuando acima de
um Expert humano com phd em ciências
então o pulo do gato tá nisso aqui ó
cadeia de pensamento né o Chain of
thoughts semelhante a como um humano
pode pensar por um longo tempo antes de
responder a uma pergunta difícil o ow
One usa uma cadeia de pensamento a
tentar resolver um problema e pelo que
eu tava vendo eles também conseguiram
resolver a o maior problema de tu ter o
Chain of thoughts que é quando alguém te
perguntar qual que é a capital da
Holanda tu não quer que o modelo comece
a desenvolver uma linha de raciocínio
Porque isso é uma pergunta direta então
o modelo também ser capaz de entender
quando tu tá fazendo uma pergunta
complexa e quando tá fazendo uma
pergunta simples é bem difícil de captar
isso entendeu E não depende só do modelo
cara por isso tô falando provavelmente é
um sistema com múltiplos agentes com
várias etapas digamos de uso desse mesmo
modelo por meio do aprendizado por
reforço o owan aprende a aprimorar sua
cadeia de pensamento e refinar a sua as
estratégias que usa ele aprende a
reconhecer e corrigir seus erros ele
aprende a dividir etapas complicadas em
outras mais simples ele aprende a tentar
uma abordagem diferente quando atual não
está funcionando esse processo melhora
drasticamente a capacidade de raciocínio
do modelo para ilustrar esse salto
adiante mostramos a cadeia de pensamento
do One Preview em vários problemas dif
difíceis abaixo então codificação
Escreva um script B que receba uma
matriz representada como uma string com
formato um 2 3 4 5 6 Imprima a
transposição no mesmo formato a saída
esper entrada para a entrada o script
deve gerar um texto simples e esse aqui
essa saída representa a matriz
transposta usuário né novamente aqui
isso aqui foi com isso aqui foi com qu 4
o Então esse é o modelo antigo o modelo
antigo errou agora o que que o modelo
novo fez o modelo novo basicamente ele
gerou o BES e falou salve o arquivo ele
colocou o que que ele vai reproduzir e
nesse caso ele acertou Tá OK mas ele não
ele não nos disse aqui basicamente qual
que foi a linha de raciocínio tá aqui a
linha de raciocínio então o usuário está
solicitando um script B que pode pegar
uma string representando uma como uma
matriz ah tal vamos primeiro entender o
formato de entrada e saída aqui que tá a
entrada então A entrada é uma série de
linhas cada uma entre com shat separadas
por vírgula a a transposição dessa
Matriz seria essa aqui então a saída
solicitada seria essa tarefa geral
Escreva um script B que pegue um
argumento a string representando a
matriz e Gere sua transposição no mesmo
formato Ok vamos pensar em como analisar
a string de entrada no best construir a
matriz Provavelmente em arris transpô-la
E então gerar a matriz transposta
resultante no formato esperado
restrições como é BES temos que ter
cuidado ao analisar Strings o script
deve aceitar a string de entrada como um
argumento abordagem analisar a string de
entrada Ok Isso faz sentido construir a
Matriz como uma rei de ar Reis transpor
a matriz gerar a matriz transposta Ok
etapas de implementação capturar a
string remover qualquer espaço analisar
string ok daí que ele vai vai vai vai
descrevendo que ele vai fazer possíveis
problemas o best não tem matrizes
multidimensionais nativamente Então
precisamos simular precisamos lidar
precisamos lidar com números que podem
ter mais de um dígito Cara isso aqui é
bem impressionante tá ligado ele
entender a limitação do BH porque o que
acontecia no no 4 o era que ele delirava
né quando tu pedia algo que a linguagem
o Framework tinha uma limitação Ele
criava uma API que não existia tipo Ele
criava uma função um método uma
estrutura de dados que não existe
naquela linguagem que tu tá trabalhando
mas nesse caso aqui esse isso não parece
ser mais um problema bom aí o que o some
altman fala aqui no tweet dele é o
seguinte né Ah ele compartilha aqueles
resultados ali e ele diz que é é o
começo de um novo paradigma a iak pode
fazer raciocínio complexo de propósito
geral ou One preview e ou One mini estão
disponíveis hoje durante algumas horas
no chat IPT para usuários Plus e team e
em nossas apis para usuários de nível 5
basicamente ele escreveu Adi de uma
forma diferente e fica a pergunta então
a gente atingiu a Adi ou não atingimos
porque pelo que ele diz a gente teria
atingido certo maak pode fazer
raciocínio complexo de propósito geral e
isso não significa Adi teve uma outra
pessoa que voltou também nessa conversa
toda de de ontem para hoje que sim cara
o nosso queridinho o mano Devin o dein
tá ligado vocês lembram do davin a ia a
primeira ia programadora que vai
substituir os programadores na verdade
é o mayak que é 100% que programa 100%
sozinha né da da cognition trabalhamos
em em Estreita colaboração colaboração
com a opene nas últimas semanas para
avar as capacidades raciocínios do openi
o One com dayin ah descobrimos que a
nova série de modelos é uma melhoria
significativa para sistemas de Agentes
que liido com código abaixo está um
mergulho profundo com mais resultados de
avaliação e como pensamos sobre avaliar
agentes de codificação daí aqui ele
postou uma uma imagem né do que que o d
vin ele ele conseguia fazer com GPT 4 o
e como ele consegue fazer com o One
preview Então cara o Hype continua a
gente não sabe onde isso vai dar não
adianta me perguntar nem perguntar para
ninguém porque ninguém sabe essa é Real
o que eu de fato acredito que a gente tá
vai viver aí o o novo momento de de
aplicativos Então vai ter muita gente
criando produto com base nessas soluções
aí que envolvem deixar ia como backend
do teu produto e vender algum serviço ou
alguma entrega de valor que alguém vá
pagar uma uma assinatura ou fazer um One
Time ali payment para ti eu acredito que
vai ter uma enxurrada de novos sites
novos aplicativos envolvendo
Inteligência Artificial e depois de um
tempo a gente vai cansar aente Vai
cansar de tudo isso mas confere aqui na
descrição então o link para ver se já tá
de pé o o o site que que o GPT ow One
não GPT não é mais GPT né que o ow One
criou para mim morangos
Weitere ähnliche Videos ansehen
OpenAI’s new “deep-thinking” o1 model crushes coding benchmarks
Google actually beat GPT-4 this time? Gemini Ultra released
GPT Q* Strawberry Imminent, Sam Altman Trolls (Model Already Secretly Live??)
Project Orion (GPT-5 Strawberry) Imminent, Already Shown To FEDS!
AI News : Gpt4o - Mini CRUSHES Claude, Sam Altman's Aggressive New plans , 3 Years Left Until AGI
SHOCKING New AI Models! | All new GPT-4, Gemini, Imagen 2, Mistral and Command R+
5.0 / 5 (0 votes)