OpenAI o1 | GPT-5 | Finalmente 🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓🍓

Lucas Montano
13 Sept 202421:17

Summary

TLDRThe video discusses the recent advancements in AI, focusing on the hype around OpenAI's new model, humorously referred to as 'morango' by the creator. The host, Lucas, shares his first impressions after using the model, which has been rebranded from GPT-4 to GPT-3.5 Turbo. He explores the model's capabilities, particularly in programming tasks, and speculates on its potential to revolutionize the industry. The video also touches on the broader implications for programmers' jobs and the future of AI applications, suggesting a shift towards AI-driven services and products.

Takeaways

  • 😀 The script discusses the evolution of AI models, particularly focusing on the hype around the new OpenAI model referred to as 'morango'.
  • 🎯 The term 'morango' was used to describe the excitement and anticipation around the new AI model's capabilities.
  • 🌟 There was speculation about the new model's potential, including rumors involving Sam Altman and concerns that led to a delay in the release of the GPT-4 model.
  • 🚀 The speaker shares their experience using the new OpenAI model, expressing their positive impressions after testing it out.
  • 🤖 Concerns are raised about AI potentially replacing human jobs, especially in programming, reflecting a common anxiety in the tech community.
  • 🧠 The script touches on the concept of 'Chain of Thoughts' and how the new AI model is capable of complex reasoning, similar to human thought processes.
  • 💡 An example is given where the AI model is asked to create a project with specific requirements, showcasing its ability to understand and execute complex tasks.
  • 📈 The script highlights the performance of the new model in various tests, indicating significant improvements over previous models like GPT-4.
  • 📝 The speaker discusses the practical application of the AI model in creating a real-time audio response system for a live chat, demonstrating its utility.
  • 🔮 The future of AI is pondered, with the speaker predicting a surge in AI-based applications and services, potentially leading to a new era of software development.

Q & A

  • What is the significance of the term 'morango' in the context of the script?

    -In the script, 'morango' (Portuguese for 'strawberry') is used metaphorically to refer to the new model released by OpenAI, which has generated significant hype and excitement in the AI community.

  • Why did the speaker use 'morango' in the title, and what is its relation to the AI model discussed?

    -The speaker used 'morango' in the title to create intrigue and to reference the new AI model that was highly anticipated, which was informally named 'morango' due to the hype surrounding it before its official release.

  • What was the main speculation about Sam Altman's involvement with the 'morango' model?

    -There was speculation that Sam Altman, the CEO of OpenAI, was working on a new model, which led to the creation of the 'morango' hype. It was rumored that he was refining this model to improve its reasoning capabilities.

  • What was the actual change when moving from GPT-3 to GPT-4 in terms of naming and expectations?

    -The transition from GPT-3 to GPT-4 was not just a numerical increment but a renaming strategy by the company to reset expectations and create a new hype, moving away from numerical comparisons to focus on the new features and capabilities of the model.

  • How did the speaker use the new OpenAI model to create a live chat response system?

    -The speaker utilized the new OpenAI model to develop a system that consumes data from a websocket, displaying questions and answers in real-time during a live stream, with the AI responding to chat messages and synthesizing audio responses.

  • What was the speaker's concern regarding the advancement of AI in programming and its potential impact on jobs?

    -The speaker expressed a shared concern about the possibility of AI advancements, particularly in programming, potentially leading to job loss or a shift in the role of programmers to become 'prompt engineers'.

  • What was the outcome when the speaker asked the AI to create a React project without using frameworks?

    -The AI successfully provided a detailed guide to create a React project with Twind CSS and without using frameworks, demonstrating its ability to understand and execute complex coding tasks.

  • How does the speaker describe the AI's capability to reason and its potential impact on problem-solving?

    -The speaker describes the AI's capability to reason as a significant leap, suggesting that it can break down complex problems into simpler steps, learn from its mistakes, and refine its strategies, which could drastically improve its problem-solving abilities.

  • What was the performance comparison between GPT-4 and the new OpenAI model in terms of coding tasks?

    -In coding tasks, the new OpenAI model showed a significant improvement over GPT-4, with performance metrics that were 'ridiculously larger,' indicating a substantial leap in its ability to generate code.

  • What was the speaker's view on the future of AI applications and their integration into various services?

    -The speaker believes that there will be a surge in the creation of new websites and applications involving AI, with AI serving as the backend for various services, potentially leading to a new wave of subscription-based or one-time payment services.

Outlines

00:00

🤖 Introduction to GPT-4 and Its Impact

The speaker begins by discussing the hype around the new GPT-4 model from OpenAI, which was recently launched. They mention the nickname 'morango' (Portuguese for 'strawberry') used to refer to the model, highlighting the anticipation and excitement in the AI community. The speaker also addresses rumors about Sam Altman, OpenAI's co-founder, and the company's internal dynamics. They express their own experience with the new model, noting its impressive capabilities and the potential impact on programming jobs. The speaker also touches on the broader implications of AI development, including the creation of a 'Tony' project that uses AI to respond to live chat questions in real-time.

05:02

🛠️ Building a React Project with GPT-4

In this section, the speaker describes their experience using GPT-4 to create a React project. They outline the process of building the project manually without frameworks, focusing on using React with Tailwind CSS. The speaker provides a detailed account of the steps taken by GPT-4 to understand the project requirements, including setting up the project environment, handling WebSocket connections for real-time messaging, and generating audio playback. They also discuss the AI's ability to reason and adapt its responses, suggesting that GPT-4 is capable of complex problem-solving and decision-making that could rival human experts in certain fields.

10:03

📈 GPT-4's Performance and AI's Future in Coding

The speaker delves into the performance metrics of GPT-4, comparing it to its predecessor and highlighting its superior capabilities in coding tasks. They discuss the AI's ability to generate code, solve complex problems, and its potential to revolutionize the field of software development. The speaker also speculates on the future of AI in coding competitions and the possibility of AI systems outperforming human experts. They mention the 'Chain of Thoughts' capability of GPT-4, which allows it to approach problem-solving in a manner similar to human thinking, breaking down complex tasks into simpler steps and refining its strategies through learning and reinforcement.

15:04

🧠 GPT-4's Advanced Reasoning and Problem-Solving

This paragraph focuses on GPT-4's advanced reasoning skills, particularly in the context of coding challenges. The speaker provides an example of a matrix transposition task, illustrating how GPT-4 can understand and generate the correct code to solve the problem. They emphasize the AI's ability to handle complex reasoning and its potential to replace or augment human programmers in the future. The speaker also discusses the limitations of previous AI models and how GPT-4's improvements in reasoning and learning algorithms set it apart, suggesting a new paradigm in AI capabilities.

20:06

🌐 The Future of AI Applications and Development

In the final paragraph, the speaker speculates on the future of AI applications, predicting a surge in the development of AI-powered websites and applications. They discuss the potential for AI to serve as a backend for various products, offering services or value that users might be willing to pay for. The speaker also mentions their collaboration with OpenAI to enhance the reasoning capabilities of GPT-4 and the potential for AI to take on more complex tasks autonomously. They conclude by highlighting the ongoing hype around AI and the uncertainty of where this technology will lead, suggesting that AI's ability to perform complex reasoning could be a game-changer for various industries.

Mindmap

Keywords

💡GPT

GPT, or Generative Pre-trained Transformer, refers to a class of advanced AI models developed by OpenAI. These models are designed to generate human-like text based on the input they receive. In the context of the video, GPT models are central to the discussion as they represent the cutting-edge in AI technology and are used to illustrate the advancements in AI's ability to generate code and understand complex queries.

💡OpenAI

OpenAI is a research laboratory that focuses on creating AI technologies. It is known for developing models like GPT. In the script, OpenAI is mentioned as the organization that released the new model, which has sparked excitement and speculation within the AI community. The video discusses the hype around OpenAI's new models and their potential impact on programming and AI capabilities.

💡Hype

In the video script, 'hype' refers to the excitement and anticipation surrounding the release of new AI models by OpenAI. The term is used to describe the buzz and speculation that often accompany significant technological advancements. The video discusses how this hype can influence expectations and the perception of AI's capabilities.

💡Code Generation

Code generation is the process by which AI models, like those discussed in the video, are able to write or generate code based on given prompts or requirements. This is a significant aspect of AI development, as it suggests AI's potential to assist or even replace human programmers in certain tasks. The video touches on this topic by discussing the capabilities of the new AI model in generating code.

💡Machine Learning

Machine learning is a subset of AI that focuses on enabling machines to learn from data and improve their performance over time without being explicitly programmed. The video script alludes to machine learning when discussing the training of AI models and their ability to learn from data to improve their responses and reasoning capabilities.

💡Inference

Inference in AI refers to the process of deriving conclusions or making decisions based on existing information or data. The script mentions 'cost of inference,' which relates to the computational resources required to perform these tasks. The video discusses the efficiency and performance of AI models in making inferences, which is crucial for their practical application.

💡Programming

Programming is the process of writing code to create software or instruct machines to perform tasks. The video script discusses the potential impact of AI models on programming, suggesting that advancements in AI could change the nature of programming work and even replace certain programming tasks.

💡WebSocket

A WebSocket is a technology that provides a way to open an interactive communication session between the user's browser and a server. In the context of the video, WebSocket is mentioned as part of the technical setup for a project that involves real-time communication, illustrating the practical application of such technology in modern web development.

💡React

React is a popular JavaScript library for building user interfaces, particularly for single-page applications. The video script mentions React in the context of setting up a project, indicating its widespread use and the preference of developers for creating interactive UIs in web applications.

💡Next.js

Next.js is a framework built on top of Node.js, which enables functionality such as server-side rendering and generating static websites. The video script references Next.js in the context of evaluating compatibility with other technologies, highlighting the importance of considering different tech stacks when developing web applications.

💡AI Agents

AI agents are systems that can perform tasks or services on behalf of users. In the script, the concept of AI agents is discussed in relation to the new AI model's ability to handle complex reasoning and break down tasks into more manageable steps. This suggests a future where AI agents might play a more significant role in assisting with or automating various tasks.

Highlights

Introduction of the new OpenAI model, referred to as 'morango', which has generated significant hype and expectations within the AI community.

Discussion on the rebranding from GPT-3 to GPT-4 to the new model, suggesting a shift in focus from numerical progression to new capabilities.

Mention of speculations about Sam Altman working on a 'morango' model, indicating a potential significant leap in AI reasoning capabilities.

A detailed account of the author's experience using the new OpenAI model, including its ability to generate code and understand complex instructions.

The author's exploration of the new model's performance in a live chat application, showcasing its real-time response capabilities.

Concerns raised about the potential for AI to replace human programmers, reflecting on the implications of the new model's capabilities.

Analysis of the model's ability to understand context and generate responses, highlighting its advanced natural language processing.

A demonstration of the model's coding capabilities, where it successfully creates a client-side application based on provided specifications.

The author's request for the model to create a React project without frameworks, showcasing the model's flexibility in following instructions.

Explanation of the model's reasoning process, comparing it to human thought patterns and problem-solving strategies.

Discussion on the model's ability to self-correct and learn from its mistakes, improving its reasoning over time.

A comparison of the new model's performance to the GPT-4 in cybersecurity and CTFs, indicating a significant improvement.

The model's success in answering complex scientific questions, outperforming human experts in certain scenarios.

The model's approach to handling simple versus complex questions, demonstrating its ability to discern the level of detail required.

A specific example of the model's coding capabilities, where it correctly transposes a matrix as per user request.

Reflections on the new paradigm of AI and its potential to revolutionize various industries through advanced reasoning and problem-solving.

The author's prediction of a surge in AI-based applications and services, driven by the capabilities of the new model.

Final thoughts on the potential of the new model to redefine AI's role in programming and its impact on the job market.

Transcripts

play00:00

te liga na evolução dele no Cold forces

play00:02

cara na na na competição de de gerar

play00:05

código né ah GPT 4 o olha o quão o quão

play00:09

mais alto foi o ow One cara a espera

play00:12

pelo morango finalmente acabou e muitos

play00:14

de Vocês perguntaram para mim Lucas por

play00:15

que que tu tá usando morango no título

play00:17

morango na tamb e não sei se tu percebeu

play00:19

O o padrão Mas eu sempre usava morango

play00:22

quando eu ia falar de algum Hype qual

play00:24

que é esse Hype é o Hype que foi criado

play00:27

em volta do novo modelo da Open eii o

play00:30

novo modelo Acaba de ser lançado ele foi

play00:32

lançado ontem de noite e a Open Ei me

play00:34

liberou hoje pela madrugada então eu já

play00:37

tô conseguindo utilizar o novo modelo

play00:38

deles que seria aqui o famoso morango né

play00:42

que muita gente estava falando então se

play00:44

especulava que o o Sam altman tava aí

play00:47

trabalhando na horta de morango dele e

play00:50

ele pensou nesse modelo aí que poderia

play00:52

raciocinar mais em cima da tua Pergunta

play00:55

antes de te dar uma resposta eu gravei

play00:57

um vídeo sobre isso se tu não viu o

play00:59

vídeo eu vou colocar aqui na descrição

play01:00

mas esse era o Hype eram boatos esse

play01:04

boato envolvia muito também aquela treta

play01:08

que aconteceu na Open Ei alguns meses

play01:10

atrás onde o Sam alom ele foi meio que

play01:12

expulso da empresa pelo board muito por

play01:16

conta do que o Willi teria visto e

play01:18

finalmente então a gente botou a mão no

play01:21

que o Willi supostamente viu lá dentro

play01:24

da Open ai e que levantou digamos assim

play01:26

preocupações a Open ai então não lançou

play01:29

o GPT s né a gente a gente vinha sempre

play01:32

imaginando Nossa imagina Lucas como que

play01:34

vai ser daqui alguns anos porque a gente

play01:36

tem o gpt3 que já era muito bom aí veio

play01:39

o GPT 4 um crescimento absurdo imagina

play01:43

como que vai ser quando vier o GPT 5 né

play01:46

e bom eu desculpa eu na verdade quebrar

play01:49

um pouco a tua expectativa mas a gente

play01:52

foi do GPT 3 pro GPT 4 pro o 1 então

play01:56

eles basicamente renomearam Normalmente

play01:58

quando uma empresa renomeia assim o nome

play02:00

de um produto é que ela quer de novo

play02:02

gerar uma nova expectativa né ela quer

play02:04

que tu pare de comparar numericamente o

play02:07

crescimento a evolução e passe a esperar

play02:09

pelo novo Hype vamos dar uma lida Hoje

play02:11

no Que que é o open aio o1 eu usei Hoje

play02:15

eu fiquei digamos durante a madrugada

play02:17

aqui ó a gente acorda bem cedo aqui em

play02:19

casa 5:30 eu tava de pé aí eu saio dou

play02:22

um passeio com a Chloe aí depois a gente

play02:24

vai pra academia eu fiquei com a clu em

play02:26

casa a Sara foi pra academia e nesse

play02:27

período eu fiquei programando cara

play02:29

usando o novo modelo da openi fresco

play02:32

para vocês tudo que ele é capaz de fazer

play02:34

e eu fiquei bem impressionado e se tu

play02:36

agora vai me perguntar Lucas tá mas a ia

play02:39

vai roubar o nosso emprego como

play02:41

programador eu entendo a tua preocupação

play02:43

e eu posso dizer que eu até compartilho

play02:45

da tua preocupação então eu não tenho

play02:48

uma resposta para ti e eu sei que tu

play02:49

deve ter ouvisto também de outros

play02:51

influenciadores eu até preciso trazer

play02:53

aqui no caso ah várias frases e e e

play02:58

explicações que a gente ouviu no nos

play02:59

últimos meses ah de pessoas dizendo que

play03:02

não cara tipo o crescimento não é

play03:04

exponencial do do do dos modelos outras

play03:07

pessoas falando sim tu vai perder o teu

play03:10

emprego ou tu vai virar um mero

play03:11

programador de prompt e eu posso te

play03:14

dizer provavelmente todos eles estão

play03:15

errados provavelmente a gente vai chegar

play03:16

no meio-termo e ninguém sabe qual que

play03:18

vai ser esse meio-termo a gente também

play03:20

imagina que o modelo né então a gente

play03:22

tem um modelo aqui que é o o gpt3 a

play03:25

gente teve um modelo maior que era o GPT

play03:27

4 e aí agora a gente vai ter um muito

play03:30

maior e é o tamanho do modelo ou a

play03:32

probabilidade a a capacidade dele de

play03:35

entender a próxima palavra é que torna

play03:37

ele inteligente e útil E pelo que eu tô

play03:39

vendo já utilizando o o morango aqui não

play03:42

é bem isso deixa eu te dar um exemplo

play03:44

deixa eu abrir aqui e depois a gente vai

play03:46

ler Ah o artigo oficial da da Open ai

play03:49

mas eu quero te te mostrar como que

play03:52

basicamente o modelo funciona eu pedi

play03:55

para ele criar uma versão client do do

play03:58

do que a gente tá lançando aqui no canal

play04:00

né não sei se vocês sabem mas aqui no

play04:01

canal a gente lançou o Tony então a

play04:04

gente deu vida ao Tony basicamente a

play04:06

gente tem o streaming de um áudio que é

play04:08

o Tony respondendo as perguntas que

play04:10

vocês mandam no chat da Live Então essas

play04:14

perguntas que estão sendo viadas

play04:15

enviadas aqui eu tô pegando do chat da

play04:18

Live que tá programada para hoje então

play04:22

Aqui nós temos o chat da Live eu mandei

play04:25

várias perguntas ali de teste durante a

play04:26

madrugada e essas perguntas são

play04:29

respondidas pelo GPT e depois a resposta

play04:32

do GPT ele é sintetizado em áudio e esse

play04:35

áudio eu crio um broadcast dele e faço

play04:38

streaming desse áudio então É como se eu

play04:40

conseguisse ter o GPT respondendo com a

play04:43

minha voz as perguntas de vocês em tempo

play04:45

real durante uma live esse projeto a

play04:47

gente desenvolveu aqui no canal e agora

play04:48

a gente tá na parte do front end dele o

play04:50

backend tá todo pronto só que eu fiz a

play04:54

seguinte pergunta pro pro pro GPT 4 pro

play04:57

GPT 4 o e pro Cloud sonet tá o que que

play04:59

eu pedi para ele criar eu quero criar um

play05:01

projeto com react react com Shed CD Shed

play05:07

CN ui ah manualmente adicionado porque

play05:10

eu odeio frameworks né Eu falei que o

play05:13

projeto ele vai listar mensagens que

play05:14

estão vindos do websocket da aqui eu dei

play05:17

o endereço do websocket e essas nós

play05:20

vamos chamar isso de perguntas e também

play05:22

tem uma outra lista de mensagens que vem

play05:23

de um outro web socket que a gente vai

play05:26

chamar de respostas e vai ter um áudio

play05:28

sendo tocado que vende tal endp aí eu

play05:31

coloquei requisitos de interface eu pedi

play05:33

me dá todos os comandos que eu preciso

play05:35

rodar e os arquivos que eu preciso criar

play05:38

ele levou 44 segundos o que que ele fez

play05:41

primeiro ele tentou entender o que que

play05:43

eu tava criando ele colocou aqui

play05:45

montando o projeto Estou construindo um

play05:47

projeto react ajustando manualmente o

play05:49

Shed CN ui e evitando frameworks vamos

play05:51

ver se isso realmente aconteceu depois

play05:53

desenvolvendo o projeto estou

play05:55

trabalhando em um projeto que consome

play05:57

dados do websocket para exibir pergunt

play05:59

perguntas respostas e uma interface de

play06:01

áudio centralizada desenvolvendo fluxos

play06:04

estou listando perguntas e respostas e E

play06:07

por aí vai configurando ambiente

play06:09

evaluando alternativas Então olha só

play06:11

depois que ele desenvolveu o projeto

play06:13

desenvolveu o fluxo configurou o

play06:15

ambiente ele dá uma olhada para ver se

play06:17

teria outra alternativa estou mapeando o

play06:20

uso do Shed CN com next GS ou react

play06:23

manualmente buscando evitar frameworks

play06:26

isso sugere que estamos considerando

play06:28

abordagens flexíveis e sem vinculação a

play06:30

um Framework específico então ele

play06:32

entendeu o que eu queria de fato quando

play06:35

ele começou a fazer evaluação aqui

play06:37

evaluation evaluando alternativas

play06:40

considerando opções estou pensando em

play06:42

usar componentes shedy com react vamos

play06:44

verificar a documentação para saber se é

play06:47

possível sem o nextjs te liga ele

play06:49

entendeu então que na grande maioria das

play06:51

vezes as pessoas estão usando react com

play06:53

nextjs E como eu falei para ele que eu

play06:55

não quero usar nenhum Framework ele

play06:57

colocou essa consideração então Aqui

play07:00

começa a parte que o some altan Diz que

play07:02

esse modelo é capaz de raciocinar o que

play07:04

que isso quer dizer quer dizer que muito

play07:07

se fala quando a gente diz Ah Lucas Ah o

play07:10

o modelo é só um autocomplete e eu

play07:12

concordo entendeu tu tem as tuas

play07:14

palavras e esse modelo ele vai pegar

play07:17

cada palavra quebrar em tokens então uma

play07:20

palavra pode virar múltiplos tokens ou

play07:22

uma imagem pode ter milhões de tokens e

play07:24

ele pega basicamente isso ele cria um

play07:27

contexto Então tudo isso está dentro de

play07:28

um texto e esse contexto ele é colocado

play07:32

Então como input pro modelo que vai

play07:35

tentar prever o próximo token o

play07:37

attention is all you need era sobre o

play07:40

contexto que é gerado com os tokens

play07:42

então tu tem uma janela de Window que

play07:44

ele chama de contexto o context Window

play07:47

que é o quanto de token ele consegue

play07:49

manter em memória para saber o contexto

play07:51

do que tu quer quando alguém falava

play07:53

assim o o modelo ele é só um aut

play07:55

complete eu vi uma explicação muito boa

play07:57

do FBI aquita por exemplo que ele foi no

play07:59

Flow foi na inteligência limitada e cara

play08:01

o Fábio aquita ali ele explicou de uma

play08:04

maneira muito simples e ele contou toda

play08:06

a história tá ligado até chegar ao

play08:08

Modelo E por que que esse crescimento da

play08:11

Inteligência entre aspas do modelo não

play08:13

vai ser exponencial e eu concordo com

play08:16

ele mas eu tenho que discordado da

play08:18

conclusão que eu chego a ouvir o que ele

play08:20

falou eu concordo que o modelo não vai

play08:22

fazer isso mas o que eu tô vendo com o

play08:25

lançamento do Open ai o One é que ele

play08:28

não é uma atualiz são no modelo então a

play08:30

gente não tá incrementando na capacidade

play08:32

do modelo ok uma janela de contexto tá

play08:35

sendo cada vez maior Gemini já veio com

play08:37

uma janela de contexto absurda Mas o que

play08:40

eu tô percebendo é que eles criaram um

play08:42

sistema de múltiplos agentes que fazem

play08:45

prompts para atualizar esse contexto pro

play08:48

modelo então fazer a a conclusão final

play08:51

antes de te dar a resposta é isso que o

play08:53

Sam altom queria dizer quando ele falou

play08:56

que a gente precisa prestar mais atenção

play08:59

nos testes do que no treinamento o

play09:02

treinamento do modelo tu pegar a

play09:04

internet inteira e zipar isso num llm a

play09:07

a gente já chegou no no num tamanho OK

play09:09

tá ligado a gente não precisa de um

play09:11

modelo maior agora como é que a gente

play09:13

testa o resultado disso e a gente faz o

play09:16

feed de novo pro próprio modelo do

play09:19

resultado do que ele tá fazendo isso é

play09:21

só capaz só é capaz de ser feito cara

play09:23

através de um sistema então não tem por

play09:26

exemplo na minha opinião como tu baixar

play09:27

o openi ou o na tua máquina e usar ele

play09:31

apenas como modelo porque o que tá por

play09:33

trás aqui o que a openi deve estar

play09:35

fazendo e aqui é uma suposição minha é

play09:37

uma hipótese é um sistema de múltiplos

play09:39

agentes que vão guiando tá a tua da tua

play09:43

pergunta até quebrar ela em requisitos

play09:46

mais inteligentes então como eu tava

play09:49

falando cara ela tá quebrando aqui o que

play09:51

eu falei em múltiplos prompts e eu acho

play09:54

que cada prompt desse tá gerando um

play09:57

resultado e ela tá olhando o resultado

play10:00

para gerar um próximo prompt então É

play10:02

como se eu estivesse usando ela centenas

play10:05

de vezes para chegar na minha conclusão

play10:07

então sabe quando tu manda algo para ela

play10:09

e tu chega e ela te dá um código e aí tu

play10:12

roda o código e não funciona daí tu fala

play10:14

ó não funcionou Aí ela te dá o código

play10:16

certo e tu pensa por que que tu não me

play10:19

deu o código certo de primeira Bom eu

play10:21

acho que fazer ela interar em cima das

play10:23

próprias respostas vai fazer a gente ter

play10:26

a percepção de que ela é muito mais

play10:28

inteligente usando o mesmo modelo Vocês

play10:31

estão entendendo o o que que eu tô

play10:32

explicando aqui não coloca lá no chat vê

play10:35

se ele te explica Ah é que eu tô eu tô

play10:37

confuso na verdade talvez o GPT te

play10:39

explique melhor mas aí o próximo passo

play10:41

aqui configurando um projeto react estou

play10:43

começando a criar um projeto react

play10:44

usando Vit configurando Twin CSS com

play10:48

post CSS e Auto prefixer agora estou

play10:51

ajustando PFS no meu no meu templates

play10:54

desenvolvendo a configuração importação

play10:56

de arquivos estou pensando em importar

play10:58

os arquivos manualmente cara olha olha

play11:00

is olha olha isso aqui estou pensando em

play11:02

importar os arquivos manualmente Isso

play11:05

está me levando a pensar se há

play11:07

necessidade de ajustes adicionais

play11:09

criando a interface estou montando a

play11:11

interface ui reprodutor de áudio

play11:14

Centralizado com listas verticais e

play11:16

horizontais de mensagens e componentes

play11:18

react twind CSS estão sendo preparados

play11:21

para começar configurando inicializando

play11:24

primeiramente estou organizando o

play11:25

diretório de projetos instalando

play11:26

dependências aí aprimorando conexão

play11:29

então ele pensou aqui estou pensando em

play11:30

aprimorar a conexão webs destacando a

play11:33

criação de variáveis de estado para

play11:35

armazenar as perguntas e as respostas

play11:37

analisando compatibilidade estou

play11:39

refletindo sobre a compatibilidade de

play11:41

shad Y com nextjs e aqui tu já começa

play11:45

tipo assim mas a gente não tá usando

play11:46

nextjs Então por que que tu tá

play11:49

analisando compatibilidade com algo que

play11:51

a gente não tá usando instalando

play11:52

componentes reunindo peças montando a

play11:55

interface configurando o ambiente de

play11:57

novo configurando o ambiente de novo

play11:59

novo estabelecendo conexão Por que que

play12:01

ele configurou o ambiente múltiplas

play12:02

vezes eu não sei te dizer o que que ele

play12:04

quer dizer com isso personalizando o

play12:06

visual E aí ele me deu a lista de

play12:08

comandos que eu quero executar então npm

play12:11

Create Vit last my app aqui npm install

play12:15

install do tailwind websocket e o Run ok

play12:19

ele não adicionou o nextjs embora ele

play12:21

tenha mencionado que ele tava vendo a

play12:22

compatibilidade com nextjs aqui tá os

play12:24

arquivos que eu tenho que criar Ok todos

play12:26

os arquivos aqui e aí depois ah

play12:29

additional Notes aqui ele colocou

play12:31

anotações finais e como rodar o projeto

play12:33

eu rodei o projeto e sim funcionou de

play12:36

primeira o áudio tocou a lista de

play12:39

mensagens sendo consumindo websocket

play12:41

tudo funcionou de primeira eu fiquei bem

play12:43

impressionado eu sei que tu ia tu ia

play12:46

falar Tipo tu tava pensando que ia te

play12:47

dizer tipo assim nossa alguma coisa não

play12:49

funcionou mas não literalmente eu só

play12:51

copiei e colei tudo que ele me deu e

play12:53

funcionou de primeira simples assim ele

play12:55

não usou o nextjs Ele usou Vit eu não

play12:58

queria eu queria que ele Us só react

play13:00

Shed CN eu não sei né se se se tem como

play13:03

fazer ou se vocês já fizeram isso e

play13:05

publicaram na internet porque tá muito

play13:07

difícil convencer uma ia para usar para

play13:10

usar só react Shed CN mas eu quero usar

play13:13

ele para algo mais complexo um sistema

play13:15

completo e eu vou ver se eu faço um

play13:17

segundo vídeo colocando esse sistema no

play13:20

ar tá se eu já coloquei no ar eu vou

play13:22

colocar tudo isso lá no ai kild internet

play13:25

que é o nosso site nós temos o canal de

play13:27

vlog ai kild internet da internet mas

play13:29

tem o nosso domínio também é i kill

play13:31

internet que eu vou colocar todos esses

play13:33

projetos lá se tu quiser acessar Talvez

play13:35

ele já esteja de pé otimizando aqui para

play13:38

raciocínio né O que que é ser otimização

play13:40

para raciocínio como é que foi a

play13:41

Performance em matemática dele versus o

play13:44

custo de inferência então Aqui nós temos

play13:47

o custo e a performance vocês podem ver

play13:49

que o custo aumentou mas a performance

play13:53

tipo é ridiculamente maior do que o GPT

play13:55

4 o ridiculamente maior é muito maior

play13:58

vamos ver programação porque matemática

play14:00

ele mandou muito bem então aqui tá a

play14:02

performance deles performando bem melhor

play14:04

do que o GPT 4 o bom quando se fala de

play14:07

ctfs de segurança cibernética a gente já

play14:10

começa a ficar preocupado né porque ele

play14:12

desempenhou aqui o dobro do que o GPT 4

play14:15

o tava desempenhando te liga na evolução

play14:17

dele no cod forces cara na na na

play14:20

competição de de gerar código né ah GPT

play14:23

4 o olha o quão o quão mais alto foi o o

play14:27

One cara e no caso eles nos liberaram só

play14:29

o ow One preview né a gente não tem eu

play14:31

não tenho acesso a esse ow One eu tenho

play14:33

acesso a one preview e ow One mini isso

play14:35

aqui é um pouco impressionante ó isso

play14:36

aqui São perguntas tá questões de

play14:39

ciência para um nível de PHD aqui tá os

play14:42

experts os humanos experts tá os humanos

play14:45

experts estava pontuando 69.7 acima do

play14:48

GPT 4 que a gente tinha 56.1 e One

play14:52

preview e o One estão pontuando acima de

play14:55

um Expert humano com phd em ciências

play14:58

então o pulo do gato tá nisso aqui ó

play15:00

cadeia de pensamento né o Chain of

play15:02

thoughts semelhante a como um humano

play15:04

pode pensar por um longo tempo antes de

play15:06

responder a uma pergunta difícil o ow

play15:08

One usa uma cadeia de pensamento a

play15:10

tentar resolver um problema e pelo que

play15:12

eu tava vendo eles também conseguiram

play15:13

resolver a o maior problema de tu ter o

play15:16

Chain of thoughts que é quando alguém te

play15:18

perguntar qual que é a capital da

play15:20

Holanda tu não quer que o modelo comece

play15:22

a desenvolver uma linha de raciocínio

play15:25

Porque isso é uma pergunta direta então

play15:28

o modelo também ser capaz de entender

play15:30

quando tu tá fazendo uma pergunta

play15:31

complexa e quando tá fazendo uma

play15:33

pergunta simples é bem difícil de captar

play15:36

isso entendeu E não depende só do modelo

play15:38

cara por isso tô falando provavelmente é

play15:39

um sistema com múltiplos agentes com

play15:41

várias etapas digamos de uso desse mesmo

play15:44

modelo por meio do aprendizado por

play15:45

reforço o owan aprende a aprimorar sua

play15:49

cadeia de pensamento e refinar a sua as

play15:51

estratégias que usa ele aprende a

play15:53

reconhecer e corrigir seus erros ele

play15:56

aprende a dividir etapas complicadas em

play15:58

outras mais simples ele aprende a tentar

play16:00

uma abordagem diferente quando atual não

play16:02

está funcionando esse processo melhora

play16:05

drasticamente a capacidade de raciocínio

play16:07

do modelo para ilustrar esse salto

play16:08

adiante mostramos a cadeia de pensamento

play16:11

do One Preview em vários problemas dif

play16:13

difíceis abaixo então codificação

play16:15

Escreva um script B que receba uma

play16:19

matriz representada como uma string com

play16:21

formato um 2 3 4 5 6 Imprima a

play16:25

transposição no mesmo formato a saída

play16:28

esper entrada para a entrada o script

play16:30

deve gerar um texto simples e esse aqui

play16:33

essa saída representa a matriz

play16:36

transposta usuário né novamente aqui

play16:39

isso aqui foi com isso aqui foi com qu 4

play16:42

o Então esse é o modelo antigo o modelo

play16:45

antigo errou agora o que que o modelo

play16:47

novo fez o modelo novo basicamente ele

play16:50

gerou o BES e falou salve o arquivo ele

play16:52

colocou o que que ele vai reproduzir e

play16:55

nesse caso ele acertou Tá OK mas ele não

play16:57

ele não nos disse aqui basicamente qual

play17:00

que foi a linha de raciocínio tá aqui a

play17:02

linha de raciocínio então o usuário está

play17:04

solicitando um script B que pode pegar

play17:06

uma string representando uma como uma

play17:08

matriz ah tal vamos primeiro entender o

play17:11

formato de entrada e saída aqui que tá a

play17:13

entrada então A entrada é uma série de

play17:16

linhas cada uma entre com shat separadas

play17:18

por vírgula a a transposição dessa

play17:21

Matriz seria essa aqui então a saída

play17:23

solicitada seria essa tarefa geral

play17:26

Escreva um script B que pegue um

play17:28

argumento a string representando a

play17:31

matriz e Gere sua transposição no mesmo

play17:33

formato Ok vamos pensar em como analisar

play17:36

a string de entrada no best construir a

play17:38

matriz Provavelmente em arris transpô-la

play17:41

E então gerar a matriz transposta

play17:43

resultante no formato esperado

play17:45

restrições como é BES temos que ter

play17:48

cuidado ao analisar Strings o script

play17:51

deve aceitar a string de entrada como um

play17:53

argumento abordagem analisar a string de

play17:56

entrada Ok Isso faz sentido construir a

play17:58

Matriz como uma rei de ar Reis transpor

play18:01

a matriz gerar a matriz transposta Ok

play18:03

etapas de implementação capturar a

play18:05

string remover qualquer espaço analisar

play18:08

string ok daí que ele vai vai vai vai

play18:12

descrevendo que ele vai fazer possíveis

play18:14

problemas o best não tem matrizes

play18:16

multidimensionais nativamente Então

play18:18

precisamos simular precisamos lidar

play18:21

precisamos lidar com números que podem

play18:22

ter mais de um dígito Cara isso aqui é

play18:25

bem impressionante tá ligado ele

play18:27

entender a limitação do BH porque o que

play18:30

acontecia no no 4 o era que ele delirava

play18:34

né quando tu pedia algo que a linguagem

play18:37

o Framework tinha uma limitação Ele

play18:39

criava uma API que não existia tipo Ele

play18:41

criava uma função um método uma

play18:43

estrutura de dados que não existe

play18:45

naquela linguagem que tu tá trabalhando

play18:47

mas nesse caso aqui esse isso não parece

play18:49

ser mais um problema bom aí o que o some

play18:51

altman fala aqui no tweet dele é o

play18:53

seguinte né Ah ele compartilha aqueles

play18:56

resultados ali e ele diz que é é o

play18:59

começo de um novo paradigma a iak pode

play19:01

fazer raciocínio complexo de propósito

play19:04

geral ou One preview e ou One mini estão

play19:07

disponíveis hoje durante algumas horas

play19:09

no chat IPT para usuários Plus e team e

play19:12

em nossas apis para usuários de nível 5

play19:15

basicamente ele escreveu Adi de uma

play19:17

forma diferente e fica a pergunta então

play19:19

a gente atingiu a Adi ou não atingimos

play19:22

porque pelo que ele diz a gente teria

play19:24

atingido certo maak pode fazer

play19:26

raciocínio complexo de propósito geral e

play19:28

isso não significa Adi teve uma outra

play19:31

pessoa que voltou também nessa conversa

play19:32

toda de de ontem para hoje que sim cara

play19:36

o nosso queridinho o mano Devin o dein

play19:39

tá ligado vocês lembram do davin a ia a

play19:42

primeira ia programadora que vai

play19:44

substituir os programadores na verdade

play19:46

é o mayak que é 100% que programa 100%

play19:50

sozinha né da da cognition trabalhamos

play19:54

em em Estreita colaboração colaboração

play19:56

com a opene nas últimas semanas para

play19:58

avar as capacidades raciocínios do openi

play20:00

o One com dayin ah descobrimos que a

play20:04

nova série de modelos é uma melhoria

play20:05

significativa para sistemas de Agentes

play20:07

que liido com código abaixo está um

play20:09

mergulho profundo com mais resultados de

play20:11

avaliação e como pensamos sobre avaliar

play20:13

agentes de codificação daí aqui ele

play20:15

postou uma uma imagem né do que que o d

play20:17

vin ele ele conseguia fazer com GPT 4 o

play20:21

e como ele consegue fazer com o One

play20:23

preview Então cara o Hype continua a

play20:26

gente não sabe onde isso vai dar não

play20:29

adianta me perguntar nem perguntar para

play20:30

ninguém porque ninguém sabe essa é Real

play20:33

o que eu de fato acredito que a gente tá

play20:35

vai viver aí o o novo momento de de

play20:38

aplicativos Então vai ter muita gente

play20:40

criando produto com base nessas soluções

play20:43

aí que envolvem deixar ia como backend

play20:46

do teu produto e vender algum serviço ou

play20:49

alguma entrega de valor que alguém vá

play20:50

pagar uma uma assinatura ou fazer um One

play20:53

Time ali payment para ti eu acredito que

play20:55

vai ter uma enxurrada de novos sites

play20:57

novos aplicativos envolvendo

play20:58

Inteligência Artificial e depois de um

play21:00

tempo a gente vai cansar aente Vai

play21:01

cansar de tudo isso mas confere aqui na

play21:03

descrição então o link para ver se já tá

play21:06

de pé o o o site que que o GPT ow One

play21:11

não GPT não é mais GPT né que o ow One

play21:14

criou para mim morangos

Rate This

5.0 / 5 (0 votes)

Ähnliche Tags
AI EvolutionGPT-4Machine LearningTech HypeProgrammingInnovationAI CapabilitiesFuture TechCode GenerationIntelligent Agents
Benötigen Sie eine Zusammenfassung auf Englisch?