LLM FREE: Como rodar no seu PC Agentes de IA CrewAI e Ollama

CANAL SANDECO
27 Aug 202414:07

Summary

TLDRProfessor Sandeco Macedo teaches viewers how to run a language model locally on their computers to reduce costs associated with AI agents. He guides through downloading 'olama' software and the Lhama 3.1 model, then demonstrates integrating it with Crew AI to create a love letter agent. The video highlights the benefits of local deployment, such as cost reduction and data protection, and encourages viewers to join a WhatsApp group for further support.

Takeaways

  • 😀 The video is a tutorial by Professor Sandeco Macedo, aimed at teaching viewers how to run a large language model (LLM) locally on their computers.
  • 💻 The tutorial focuses on reducing costs associated with AI agents by using Crew AI with the LLM on a local machine.
  • 🌐 The video mentions downloading necessary software from hama.com for Windows, Linux, or Mac systems.
  • 📚 Sandeco is a professor and researcher at the Federal University of Goiás and an ambassador for Campus in Brazil, promoting the use of intelligent agents in daily life.
  • 🔧 The video provides a step-by-step guide to installing the LLM, starting with downloading the software and proceeding to model installation.
  • 📈 Sandeco demonstrates downloading the 'Lhama 3.1' model, which is one of several available options, highlighting the flexibility in model choice.
  • 💬 The video includes an interactive session where Sandeco converses with the LLM, showcasing its capabilities in understanding and responding to queries.
  • 🔗 Sandeco explains how to connect the LLM with Crew AI, mentioning the installation of 'leng chain' for integration.
  • 💌 A practical example is given where Sandeco instructs the LLM to write a love letter, emphasizing the application of AI in creative tasks.
  • 🔑 The video highlights the benefits of running an LLM locally, such as significantly reduced costs and enhanced data privacy.

Q & A

  • What is the main purpose of the video?

    -The main purpose of the video is to guide viewers on how to run a large language model (LLM) locally on their computer to reduce costs associated with using cloud-based AI services.

  • Who is the presenter of the video?

    -The presenter of the video is Professor Sandeco Macedo, a professor and researcher at the Federal University of Goiás, and an ambassador for Campus Party in Brazil.

  • What is the first step to run an LLM locally as described in the video?

    -The first step is to download the necessary software from hama.com and install it on the user's computer.

  • Which operating systems are supported for the installation of the LLM software?

    -The software supports Windows, Linux, and Mac operating systems.

  • What model of LLM does the video focus on?

    -The video focuses on the Llama 3.1 model, specifically the 2.8b version.

  • How can viewers access the free mentorship on the book 'Crew Ai' mentioned in the video?

    -Viewers can access the free mentorship by following the link provided in the video description.

  • What is the command used to check if the Llama software is installed correctly?

    -The command used to check the installation of Llama is 'olama --version'.

  • How is the Llama model downloaded and installed in the video?

    -The Llama model is downloaded using the command 'olama pull' followed by the exact model name, and then installed by running the downloaded file.

  • What is the benefit of running an LLM locally as mentioned in the video?

    -Running an LLM locally reduces costs significantly and provides data protection by keeping sensitive data within the user's machine.

  • How does the video demonstrate the integration of Llama with Crew AI?

    -The video demonstrates integration by showing the process of installing the 'leng-chain-olama' package, importing necessary libraries, and setting up an agent within the Crew AI framework to perform a task, such as writing a love letter.

  • What task does the agent created in the video perform?

    -The agent created in the video is tasked with writing a love letter to a specified recipient, expressing eternal love and deep affection.

Outlines

00:00

💻 Installing LLM on Local Machine

The speaker, Professor Sandeco Macedo, introduces himself as a professor and researcher at the Federal University of Goiás, and an ambassador for Campus in Brazil. He aims to teach viewers how to use intelligent agents in their daily lives. He addresses a common question about running a large language model (LLM) on one's own computer without using the chat API. He proceeds to demonstrate the process in a free mentorship video about his recently launched book 'Crew AI'. The first step is to access the website 'olama.com' to download the software. The video shows the process of downloading the software for Windows, Linux, or Mac. After downloading, the file is installed through a standard Windows installation process. The next step involves downloading the 'Lhama 3.1' model from the website, which is one of several available models. The process of downloading and installing the model is shown, including using command prompts to check for installation and to pull the model.

05:02

🤖 Interacting with the LLM and Preparing for Integration

Once the LLM is installed, Professor Sandeco demonstrates how to interact with it by running it through the command prompt and conversing with it. He tests the LLM's understanding by asking it to explain 'Transformers,' which initially leads to a humorous misunderstanding as the LLM thinks he's referring to the animated series. He corrects this and asks about 'Transformers' in the context of neural networks, which the LLM correctly identifies as a model for processing sequential data like text, voice, and images. The professor then moves on to discuss how to connect the LLM with 'Crew AI' by installing 'leng chain olama' using either 'pip' or 'poet' commands. He provides a step-by-step guide on importing necessary libraries into code and setting up an agent within 'Crew AI' to write a love letter. The process involves defining the agent's task, connecting to the LLM server running locally, and specifying the model used.

10:04

💌 Writing a Love Letter with Crew AI and LLM

Professor Sandeco continues by detailing the process of creating a Crew within 'Crew AI' that includes the writer agent tasked with composing a love letter. He emphasizes the importance of setting the correct model and server connection details for the LLM. The video then shows the execution of the Crew, which involves inputting the recipient's name and desired sentiments to be included in the love letter. The professor corrects a variable name error and successfully runs the Crew, resulting in the creation of a love letter saved as 'amor.md'. He reviews the letter, which is filled with expressions of eternal love and deep affection. The video concludes with the professor highlighting the benefits of running an LLM locally, such as cost reduction and data protection. He invites viewers to join a WhatsApp group for support and ends with a warm farewell, encouraging viewers to subscribe to his channel.

Mindmap

Keywords

💡LLM

LLM stands for Large Language Model, which refers to advanced AI models designed to understand and generate human-like text based on vast amounts of data. In the context of the video, the speaker discusses running an LLM locally on one's computer to reduce costs associated with AI agents, indicating the practical application of these models in daily tasks.

💡Crew AI

Crew AI seems to be a platform or framework mentioned in the video for integrating and managing AI agents. The speaker talks about configuring Crew AI with an LLM on a local computer, suggesting that it's a tool for enhancing productivity or efficiency through intelligent automation.

💡Local Installation

Local installation refers to the process of downloading and setting up software directly on one's own computer rather than relying on cloud-based services. The video script emphasizes the benefits of installing an LLM locally, such as reduced costs and data protection, showcasing a step-by-step guide on how to do so.

💡Hama

Hama appears to be a specific tool or platform mentioned for downloading models, possibly related to AI or machine learning. The script describes downloading 'olama' from 'hama.com', indicating it as a resource for obtaining necessary components for setting up an LLM locally.

💡Model Download

Model download is a process mentioned in the script where the speaker selects and downloads an LLM model, specifically 'Lhama 3.1', from a repository. This step is crucial for equipping the local setup with the necessary AI capabilities to function as intended.

💡Command Prompt

The command prompt is a Windows-based command-line interface that allows users to execute commands directly. In the video, the speaker uses the command prompt to install and interact with the LLM, demonstrating a technical approach to setting up and using AI tools locally.

💡Data Protection

Data protection is a concept discussed in the video, highlighting the benefits of running an LLM locally. By keeping data and processing on one's own machine, the speaker implies increased control and security over sensitive information, which is a significant advantage over cloud-based solutions.

💡Cost Reduction

Cost reduction is a key benefit mentioned for running an LLM locally. The video suggests that by installing and using AI models on one's own computer, the ongoing costs associated with cloud-based AI services can be significantly reduced, making it a more economical solution.

💡Leng Chain

Leng Chain seems to be a component or tool used in the video for connecting the LLM with the Crew AI platform. The speaker discusses installing 'leng chain olama' to facilitate this connection, indicating it as a necessary step for integrating the local LLM with the broader AI system.

💡Agent

In the context of the video, an 'agent' refers to a functional component within the Crew AI system that performs specific tasks. The speaker configures an 'agent' to write a love letter, illustrating how these agents can be programmed to automate various tasks using the capabilities of the LLM.

💡Sequential Process

A sequential process is mentioned in relation to the setup and execution of tasks within the Crew AI system. The speaker describes a 'sequential basic process' for creating and executing an agent's task, suggesting a step-by-step approach to task automation using the AI system.

Highlights

Professor Sandeco Macedo introduces the concept of running a Large Language Model (LLM) locally to reduce costs associated with AI agents.

Macedo is a professor and researcher at the Federal University of Goiás and an ambassador for Campus in Brazil.

He aims to teach the everyday use of intelligent agents through a free mentorship on his book 'Crew AI'.

The video provides a step-by-step guide to downloading and installing the LLM on a local computer.

Downloading the LLM is done through the hama.com website, with options for Windows, Linux, and Mac.

Macedo demonstrates downloading the Lhama 3.1 model, an 8b model, and explains that other models are also available.

He shows how to verify the installation of the LLM using the command prompt on Windows.

Macedo explains how to interact with the LLM through the command line, showcasing a conversation with the model.

He humorously notes the LLM's confusion between the term 'Transformers' in the context of neural networks and the animated series.

Macedo proceeds to explain the process of connecting the LLM with Crew AI using the leng chain.

He details the installation of leng chain for Lhama, either through Pipe or Poet, depending on the user's preference.

The video includes a coding tutorial on how to import necessary libraries and set up an agent using Crew AI.

Macedo illustrates creating an agent tasked with writing a love letter, demonstrating the practical application of the LLM.

He emphasizes the importance of setting up a local server connection to the LLM for Crew AI to interact with it.

The video concludes with a live demonstration of the LLM writing a love letter, showcasing the successful integration of Crew AI and the LLM.

Macedo highlights the benefits of running an LLM locally, such as reduced costs and enhanced data protection.

The video ends with a call to action for viewers to subscribe to the channel and join a WhatsApp group for support on Crew AI.

Transcripts

play00:00

hoje é dia de fazer uma llm rodar 100%

play00:03

local no seu computador bacana Aí você

play00:07

vai reduzir os seus custos com seus

play00:10

agentes dentro da configuração da sua

play00:12

Crew usando o Crew ai com a LM no seu

play00:16

computador é agora aqui no canal sandeco

play00:18

vamos

play00:25

nessa Olá tudo bem Eu sou Professor

play00:27

sandeco Macedo Eu sou professor e

play00:30

pesquisador pelo Instituto e

play00:32

Universidade Federal de Goiás Além disso

play00:34

eu sou embaixador da Campus para o

play00:35

Brasil e meu objetivo é fazer você usar

play00:38

agentes inteligentes no seu dia a dia

play00:40

bom Isso é uma pergunta que o pessoal

play00:41

sempre me faz sandeco como é que faz

play00:43

para rodar uma llm no meu próprio

play00:46

computador sem usar o chat APT para

play00:49

integrar com o meu Crew eii como é que

play00:51

eu faço isso bom eu vou mostrar Neste

play00:53

vídeo que é a mentoria gratuita sobre o

play00:56

livro de Crew Ai que eu lancei esses

play00:58

dias atrás Volume 1 Crew ai para

play01:01

iniciantes e a gente tem um grupo de

play01:02

mentoria lá que o pessoal que tá

play01:04

acompanhando né Você pode saber mais no

play01:06

link da descrição aqui embaixo beleza

play01:09

muito bem a primeira coisa que você vai

play01:10

fazer é acessar esse site aqui ó

play01:13

hama.com Tá certo e é aqui que a gente

play01:16

vai baixar o olama ó aqui ó eu vou

play01:18

diminuir aqui o zoom e a gente vai

play01:21

baixar aqui ó você vem aqui em downloads

play01:23

tá download clicou aqui em download faz

play01:26

o download para Windows se você tá faz o

play01:29

download para para Windows se você tiver

play01:30

no Windows né ou pra Linux ou pra Mac

play01:33

tem para todos os sistemas operacionais

play01:35

eu tô usando Windows aqui por causa do

play01:37

meu estúdio né Ele é todo de Windows tá

play01:39

bom é estúdio Professor gente estúdio

play01:41

professor é isso mesmo é na

play01:44

pobreza Tá bom depois que você fizer o

play01:47

download aqui ó você vai vir aqui nos

play01:49

seus downloads né vou mostrar aqui meus

play01:51

downloads aqui e aí depois que você faz

play01:53

o download Ó você vai ter esse arquivo

play01:54

aqui basta clicar duas vezes e aí é

play01:57

aquela instalação padrão mesmo do

play01:59

Windows né você vem dá next né install

play02:02

next next next Ok vai tudo ficar

play02:05

maravilhoso ó agora o próximo passo eu

play02:07

vou fazer o seguinte vamos então vir

play02:10

aqui ó nos models tá então aqui nos

play02:12

modelos eu vou baixar o seguinte eu vou

play02:14

olhar aqui ó o o Lhama 3.1 você pode

play02:17

usar outros também ó que legal eu tenho

play02:19

o Lhama 3.1 tá a gente vai usar esse

play02:22

esse 8b aqui mas só para mostrar para

play02:24

vocês que existem outros outros outros

play02:26

modelos tá aqui você pode usar aqui por

play02:28

exemplo o o o o gema né o Mistral eh tem

play02:33

aqui o kwin 2 né o kwin tu aqui ó esse

play02:37

esse modelo desse

play02:39

é 0.5b bem pequenininho tá então faz

play02:43

seus testes aí para todos o padrão para

play02:46

você baixar vai ser a mesma coisa como é

play02:47

que eu vou fazer eu vou voltar aqui em

play02:49

cima no Lhama vou clicar aqui no Lhama

play02:51

pra gente poder baixar né então ele vai

play02:54

abrir aqui ó a biblioteca de modelos tá

play02:57

e eu vou escolher né A biblioteca pra

play03:00

gente vai tá o Lhama 3.1 aqui tá ao invz

play03:04

de você já copiar e colar aqui executa

play03:07

esse mais uma vez clica aqui ó abre aqui

play03:09

e clica mais uma vez tá que ele vai

play03:11

fazer o seguinte ele vai te dar essa

play03:13

opção aqui ó Lhama

play03:15

3.1

play03:18

2.8b é esse Lhama que eu vou baixar aqui

play03:21

no computador e olha como é simples Eu

play03:23

vou copiar aqui vou copiar e vou abrir

play03:26

uma janela aqui eh de comod do Windows

play03:29

né uma janela de comando tá bem simples

play03:31

todo mundo conhece tá então o seguinte ó

play03:33

para requisitar o nosso aqui o o Lhama

play03:37

no nosso computador eu vou usar o olama

play03:39

então

play03:40

olama

play03:44

olama né olama menos menos version você

play03:48

vê se está instalado direitinho então

play03:50

quando eu rodo aqui ó você vai ver que

play03:51

tem o a versão 036 Ok para pegar o Lhama

play03:57

3.1 como é que eu vou fazer vou abrir

play03:59

aqui o lama

play04:00

é pull tá escreve esse comando aqui pull

play04:04

E aí você cola agora exatamente o mesmo

play04:06

nome igualzinho tá que você pegou aqui ó

play04:09

tá você pegou aqui vou aumentar um

play04:11

pouquinho tamanho da tela aqui para

play04:12

vocês verem melhor né aqui ó tá vendo o

play04:15

nome igualzinho copiou e colou lá ó você

play04:17

abre novamente aqui o seu o seu prompt

play04:20

de comando tá E só executa aqui eu já

play04:23

baixei e vai aparecer tudo assim meio

play04:26

que já feito o download né então você

play04:28

faz o seguinte você aguarda esse

play04:30

download acontecer Ele demora um

play04:32

pouquinho porque são 4.7 GB se eu não me

play04:35

engano é um pouquinho grande aí você vai

play04:37

baixar ele inteiro no seu computador e

play04:39

aí você consegue colocar para rodar tá

play04:41

bom muito bem você vê nesse caso aí que

play04:44

eu já baixei né o o Lhama 3.1 aqui no

play04:47

meu computador tá bonitinho aqui como é

play04:50

que eu faço para rodar para brincar com

play04:52

ele aqui na próprio Prom de comando Olha

play04:54

só vou fazer o seguinte vou vir aqui ó

play04:56

vou copiar esse comando aqui para poder

play04:58

executar né o lama Run o nome da da da

play05:02

do nosso modelo então vou executar aqui

play05:04

ó aqui dou enter e você vai ver que ele

play05:07

tá procurando executar aqui eu vou bater

play05:08

um papo com ele já já aqui você vai ver

play05:11

eu vou conversando com essa llm

play05:13

belezinha muito bem agora ele carregou

play05:14

bonitão aqui vamos conversar com ele vou

play05:16

dar um Olá aqui Olá como vai como

play05:20

vai aí ele vai Olá vou bem obrigado e

play05:24

você como está seu dia hoje eu estou

play05:28

ótimo eu estou

play05:30

[Música]

play05:33

maravilhoso não é que Ótimo vou

play05:37

perguntar uma questão técnica para ele

play05:39

aqui vamos ver se ele vai me responder

play05:41

legal né vou perguntar se ele sabe se

play05:43

ele entende sobre rede Transformers né

play05:46

Me fale sobre

play05:50

rede

play05:51

Transformers tá bom fale sobre R

play05:55

Transformers eu vou esperar que ele me

play05:56

explique né ah é o

play05:59

[Risadas]

play06:01

miser veja bem eu não expliquei Ei

play06:04

Professor você não fez uma pergunta

play06:06

muito bem feita aqui né eu falei Me fale

play06:08

sobre rede Transformers ele entendeu que

play06:10

era Transformer dos desenhos animado

play06:12

Transformer do Optimus Prime bab e tudo

play06:15

mais né olha só ela se confundiu ela

play06:18

achou que o Transformers aqui nesse caso

play06:19

é o Transformers desenho animado né Eu

play06:22

quero que você eu quero que ele fale

play06:24

para mim sobre assim ó fale sobre fale

play06:28

sobre as

play06:31

redes

play06:35

neurais

play06:38

Transformers Agora sim as redes neurais

play06:41

Transformers são uma arquitetura de rede

play06:42

neural que Visa melhorar a capacidade de

play06:44

aprender sequênci de dados como texto

play06:47

voz e imagem a rede neural de transforme

play06:50

foi apresentada em 2017 no artigo aten

play06:52

xol Unidos Exatamente isso tudo aí que a

play06:55

gente sabe que aconteceu com as rede

play06:57

transforma Então tá funcionando que é

play06:59

uma beleza aqui o lama 3.1 no meu

play07:01

computador beleza para conectar o lama

play07:05

com o Crew ai eu vou precisar instalar o

play07:07

leng chain olama é simples de fazer

play07:10

tranquilo demais olha só como é que é

play07:12

para instalar você vai fazer o seguinte

play07:14

simplesmente assim ó para instalar o l

play07:16

chain olhamos aqui ó você vai fazer

play07:18

assim ó instalando né se você vai usar o

play07:20

Pipe Basta dar o comando Pipe install

play07:24

certo leng chain olama agora se você

play07:27

quiser instalar o usando o po usando

play07:30

poet você vai usar o comando poet ads L

play07:33

chain olama beleza muito simples

play07:36

primeira coisa que eu vou fazer aqui

play07:37

fazer uma importação ó vou fazer uma

play07:39

importação no meu código aqui vou

play07:41

importar o a biblioteca os e depois eu

play07:44

vou importar a biblioteca do leng chain

play07:47

olama pra gente poder usar o olama aqui

play07:49

beleza lindo demais lindo demais da

play07:52

conta olha só E agora o que que eu vou

play07:55

fazer eu vou adicionar né as bibliotecas

play07:57

do Crew Ai aqui embaixo ó pra gente

play08:00

criar o agente o tesque vai ser um

play08:02

agente simples eu vou pedir simplesmente

play08:03

para para ele construir para mim uma

play08:05

carta de amor muito simples beleza

play08:08

próximo passo aqui é o seguinte ó tem

play08:10

uma treta tem uma treta certo quando

play08:13

você vai vai conectar o o Crew ai com

play08:17

olama você tem que fazer de conta que

play08:19

você tá conectando com o GPT tá fazer de

play08:22

conta então ele precisa que você ative

play08:25

uma chave da openni aqui mais estranha

play08:28

colocando esse na aqui esse na aqui né

play08:31

e ele é tipo mock né uma coisa escondida

play08:35

uma coisa é de mentira para enganar né o

play08:38

própria a própria ferramenta para poder

play08:40

isso funcionar beleza aí o próximo passo

play08:42

o que que é eu vou criar então a conexão

play08:44

com o olama aqui ó e aí eu faço o

play08:48

seguinte vou chamar quem vou chamar a

play08:49

biblioteca né chat olama beleza muito

play08:52

bem abriu e fechou parâmetros aqui ó

play08:54

próximo passo é chamar o modelo então

play08:56

quem é o meu Model aqui o Model tem que

play08:58

ser exatamente o modelo que eu instalei

play09:01

que é o modelo aqui ó Lhama 3.1

play09:05

2.8b certo então esse é o modelo que a

play09:07

gente vai usar porque foi o modelo que

play09:09

eu busquei né que eu busquei para

play09:10

instalar aqui agora uma coisa muito

play09:12

importante quando a gente usa o Lhama

play09:15

ele vai ser e instalado em uma um

play09:18

servidor local na nossa máquina certo

play09:21

então o Creu aí vai enxergar ol Lhama

play09:24

por meio desse servidor Então a gente

play09:26

vai colocar aqui ó

play09:27

http 2 bar barra é como se fosse

play09:30

conectar um site né conectar um um

play09:32

endereço IP então eu vou colocar aqui ó

play09:35

local host tá local host que significa

play09:38

uma conexão com a própria máquina né E e

play09:41

aí depois eu vou conectar com a porta 11

play09:45

434 Beleza então essa aqui é o endereço

play09:49

e a porta de conexão com o Lhama feito

play09:53

isso tudo está pronto agora basta a

play09:56

gente colocar os agentes ó Então vou

play09:57

colocar os agentes aqui vou criar os

play09:59

agentes né Vou colocar aqui agora

play10:01

importantíssimo é o meu agente escritor

play10:03

é um escritor de cartas de amor né então

play10:07

eu vou colocar a llm dele aqui ó sendo

play10:11

exatamente a llm aqui do olama Beleza

play10:14

não esquece fazer isso tá isso aqui é

play10:16

muito importante próximo passo é definir

play10:19

a tarefa do agente Isso você já sabe

play10:21

fazer baseado nas nossas aulas coloquei

play10:23

aqui a tarefa né que é escrever uma

play10:26

carta de amor passando quem o agente

play10:28

escritor mas veja o detalhe aqui né eu

play10:30

vou pedir para que ele escreva essa

play10:32

carta de amor em um arquivo chamado amor

play10:35

pmd esse amor. MD é a carta de amor que

play10:39

eu quero escrever para determinada

play10:41

pessoa né que o agente vai escrever

play10:43

próximo passo o que que é vamos criar a

play10:45

nossa Crew aqui ó criar Crew basicamente

play10:48

aqui onde eu vou colocar aqui o meu

play10:50

Agente né O Agente escritor o a tarefa

play10:53

do Agente né que é escrita da cartas eh

play10:56

de amor e o processo é um processo

play10:59

sequencial básico Beleza o próximo passo

play11:01

vai ser o seguinte ó eu vou executar

play11:04

colocando o destinatário né e as pessoas

play11:07

que vão receber essa carta de amor então

play11:09

vamos lá aqui vou expressar os

play11:11

sentimentos dos destinatários né quem

play11:14

vai receber quem é a pessoa que vai

play11:16

receber eh essa carta de amor Então veja

play11:19

bem que a pessoa que vai receber vai ser

play11:21

o nome destinatário vai ser Maria C e os

play11:24

sentimentos que eu quero que contenha na

play11:26

carta de amor vai ser exatamente isso

play11:28

aqui ó a amor eterno carinho profundo de

play11:30

admiração né essa vírgula não tem não tá

play11:32

galera muito bem corrigir no português o

play11:35

próximo passo o que que é é exatamente

play11:38

ativar o kick off né ativar executando o

play11:41

Nossa Crew então ó eu vou colocar aqui

play11:44

eh o nosso destinatário né destinatário

play11:49

recebe o destinatário e os sentimentos

play11:51

recebe os sentimentos aqui então tá tudo

play11:53

muito lindo tudoo Pronto né e o próximo

play11:55

passo que eu vou fazer eu vou fazer uma

play11:58

impressão né dos os resultados aqui

play11:59

embaixo Então vai sair a impressão dos

play12:02

resultados vamos rodar essa coisa toda

play12:05

aqui para funcionar vai ficar lindo

play12:06

demais o o Lhama 3.1 junto com com o seu

play12:12

chat PT ó com o seu ah a Crew ai rodando

play12:16

tudo local aqui não tá saindo nada pra

play12:19

web vamos rodar agora eu vou falar Tem

play12:21

um errinho aqui o que que é resultados

play12:24

Ah tá o nome da variável aqui tá errado

play12:25

né Beleza agora deu certo agora deu

play12:27

certo né enquanto eu vou rodando aqui eu

play12:29

vou vou rodar para vocês eu vou dizer as

play12:31

vantagens de se usar esse tipo aqui de

play12:34

llm rodando local primeira coisa é o

play12:36

custo cai absurdamente Ou seja você não

play12:39

tem custo nenhum a não ser o custo da

play12:42

execução da sua máquina certo segundo

play12:44

lugar é que você tem uma proteção de

play12:47

dados Tá certo ou seja os dados que você

play12:50

tem por exemplo se você tiver dados

play12:51

sensíveis aqui dentro usando essa llm

play12:55

local tá tudo protegido Beleza então é

play12:58

uma vantagem muito grande que você tem

play13:00

quando você roda essa essa llm junto com

play13:04

o seu Crew ai na sua máquina local ele

play13:07

tá executando aqui o agente tá mandando

play13:09

executar o agente a saída dele vai ser

play13:11

exatamente a carta de amor beleza vamos

play13:14

ver muito bem olha aqui quando ele

play13:16

terminou mandei imprimir a carta de amor

play13:18

ele escreve aqui minha querida Maria

play13:20

quando penso em você meu coração bate

play13:22

com força minha alma se Acende de luz

play13:27

invadido por uma sensação de paz e tal

play13:29

aquela parada todinha né que ele tá

play13:31

dizendo aqui outra coisa também que eu

play13:33

quero fazer aqui ó dar um Reload aqui ó

play13:35

você pode ver que apareceu o arquivo

play13:37

aqui ó amor pmd vou abrir aqui para

play13:39

vocês e olha aqui a minha carta Ó que

play13:41

coisa linda minha querida Maria quando

play13:43

penso em você meu coração bate com força

play13:45

minha alma se enche de luz e

play13:47

B beleza eu espero que você tenha

play13:49

gostado desse vídeo Não esquece de se

play13:51

inscrever no canal aqui na descrição tem

play13:53

um link para um grupo de WhatsApp onde a

play13:55

gente vai te dar suporte sobre dúvidas

play13:57

né sobre o crei e também sobre o livro

play13:59

né de crui que a gente lançou tá bom

play14:01

Espero que você tenha gostado desse

play14:03

vídeo Um grande abraço para você e até a

play14:05

próxima

Rate This

5.0 / 5 (0 votes)

Étiquettes Connexes
AI LocalizationData PrivacyCost EfficiencyMachine LearningCrew AILLM IntegrationTechnical TutorialEducational ContentSoftware InstallationData Protection
Besoin d'un résumé en anglais ?