MISTRAL AI : Comment installer GRATUITEMENT le Chat GPT Français en local ? (WebUI)

Formation facile fr
16 Jan 202415:04

Summary

TLDRCette vidéo présente l'interface web open source Text Generation UI qui permet d'interagir localement avec des modèles d'intelligence artificielle comme Mistral. On explique comment installer et configurer cet outil, choisir un modèle IA parmi ceux proposés sur Hugging Face, et discuter avec lui via l'interface de chat. On montre aussi comment personnaliser les paramètres et créer différents avatars pour avoir des conversations adaptées au contexte.

Takeaways

  • 😀 Présentation de l'interface text generation web UI pour interagir avec le modèle d'IA Mistral
  • 👩‍💻 Installation facile via des scripts préconfigurés pour Windows, Linux ou WSL
  • 🤖 Choix du modèle de langage à utiliser (Mistral, Lama, etc) et chargement dans l'interface
  • ⚙️ Accès à de nombreux paramètres pour personnaliser et spécialiser l'IA selon vos besoins
  • 🗣️ Possibilité de créer différents avatars/personnalités pour l'IA avec des contextes dédiés
  • 🔁 Fonctionnement 100% en local, aucune donnée partagée en ligne
  • ⏱️ Génération de réponses plus lente qu'avec des IA en ligne comme Google Bard
  • 💡 Construire de bons « prompts » est essentiel pour obtenir de bonnes réponses de l'IA
  • 📝 De nombreux cas d'usage : rédaction de contenu, développement, résumés, traduction...
  • ✅ Solution adaptée pour traiter des données sensibles localement avec une IA privée

Q & A

  • Quel est le nom du projet open source présenté dans la vidéo ?

    -Le projet open source présenté est Text Generation Web UI. Il s'agit d'une interface web permettant d'utiliser localement différents modèles de langage comme Mistral.

  • Quelle est la particularité du modèle Mistral par rapport aux autres modèles d'IA ?

    -La particularité de Mistral est qu'il s'agit de 8 modèles en un. Mistral est capable de sélectionner les 2 meilleurs experts parmi les 8 pour répondre à chaque question.

  • Quelle est la différence entre le modèle Mistral 7B et Mistral Mix ?

    -Mistral 7B est un modèle plus léger (5-6 Go) permettant de rivaliser avec des modèles beaucoup plus lourds. Mistral Mix est la version avec les 8 experts fusionnés, plus gourmande en ressources (30 Go).

  • Quels sont les avantages d'utiliser une IA conversationnelle en local ?

    -Les avantages sont : pas besoin de connexion internet, confidentialité des données, possibilité d'installer plusieurs modèles et de les personnaliser sans limite, rapidité une fois configuré.

  • Comment personnaliser le comportement d'une IA conversationnelle ?

    -On peut personnaliser le comportement de l'IA via les paramètres disponibles dans l'interface, mais aussi en rédigeant un pré-prompt, c'est-à-dire des instructions sur le rôle attendu de l'IA dans la conversation.

  • Qu'est-ce que le "prompt engineering" ?

    -Le "prompt engineering" désigne l'art de formuler de bons prompts, c'est-à-dire les questions et les instructions données à l'IA, pour obtenir les meilleures réponses possibles.

  • Quelle est la différence entre cette interface et L.M. Studio présenté précédemment ?

    -Cette interface est plus technique et offre plus de paramètres pour personnaliser finement les modèles d'IA. Elle est destinée aux développeurs contrairement à L.M. Studio qui vise le grand public.

  • Quels sont les inconvénients d'une IA conversationnelle en local ?

    -Les inconvénients sont : nécessite une config PC puissante, temps de génération des réponses plus lent, prise en main plus complexe que des solutions clé en main.

  • Peut-on créer plusieurs avatars d'IA avec des personnalités différentes ?

    -Oui, on peut créer plusieurs avatars d'IA conversationnelle, chacun avec sa propre personnalité et son propre contexte métier par exemple.

  • Quels sont les modèles alternatifs à Mistral?

    -Les principaux modèles alternatifs sont Anthropic, Alphabet, Google Bard. On peut aussi citer Vikuna, Guanako ou L.M.A.

Outlines

00:00

👨‍💻 Présentation de Mistral AI et Text Generation Web UI

Cette vidéo introduit Mistral AI, un modèle d'intelligence artificielle développé en France, et explique comment l'interagir à travers le projet Text Generation Web UI, conçu principalement pour les développeurs et les passionnés de nouvelles technologies. Le narrateur souligne que cette interface offre plus de paramètres et de liberté pour l'utilisateur car elle est open source, permettant le développement de plugins et l'utilisation de Python. Le projet, qui peut être trouvé sur GitHub, est comparé à l'interface automatique 11 11 de stable diffusion, offrant un accès complet au code source et la possibilité d'installer différents mods de langage pour personnaliser l'expérience utilisateur.

05:00

🌐 Installation et utilisation de Text Generation Web UI

La vidéo guide l'utilisateur à travers l'installation de Text Generation Web UI, en commençant par télécharger le projet de GitHub et exécuter le script adapté au système d'exploitation de l'utilisateur. Après le téléchargement et l'extraction du fichier, l'utilisateur doit lancer un script qui initie automatiquement l'installation, nécessitant uniquement la spécification du type de carte graphique utilisé. Une fois l'installation terminée, le narrateur démontre comment accéder à l'interface via un navigateur web et précise que par défaut, l'interface est vide sans aucun modèle d'IA intégré, nécessitant l'installation de modèles de langage pour pouvoir interagir avec un agent conversationnel.

10:02

🔧 Configurer et personnaliser l'IA avec des modèles

Dans ce segment, l'explication se concentre sur la configuration de l'interface pour interagir avec des modèles d'intelligence artificielle spécifiques, tels que Mistral 7b ou le modèle mixte 'mixral'. L'utilisateur est dirigé vers le site de Mistral AI pour choisir et télécharger des modèles de langage. Le processus inclut la navigation sur le site Hugging Face pour copier le nom du modèle souhaité et le coller dans l'interface Web UI pour le téléchargement. Après le chargement des modèles, l'utilisateur peut sélectionner le modèle souhaité, ajuster les paramètres et commencer à interagir avec l'IA, soulignant la flexibilité de créer des personnages fictifs et de personnaliser l'expérience d'interaction.

Mindmap

Keywords

💡intelligence artificielle

L'intelligence artificielle, ou IA, fait référence aux systèmes informatiques capables d'effectuer des tâches normalement réservées à l'intelligence humaine. Dans la vidéo, l'IA est représentée par les modèles de langage comme Mistral qui permettent de converser avec un agent conversationnel.

💡modèle de langage

Un modèle de langage est une intelligence artificielle entraînée sur de grandes quantités de données textuelles, capable de générer du texte de façon autonome. Mistral 7B et Mixral sont des exemples de modèles de langage présentés dans la vidéo.

💡Mistral

Mistral est un modèle de langage français développé par Anthropic. Deux versions sont présentées : Mistral 7B, plus léger, et Mixral, plus puissant car combinant 8 modèles en un.

💡prompting

Le prompting désigne l'art de formuler des instructions, appelées « prompts », destinées à un modèle d'IA afin d'obtenir les meilleures réponses possibles.

💡préprompte

Le préprompte permet de donner des instructions initiales au modèle d'IA pour établir le contexte de la conversation et définir le rôle qu'il doit jouer.

💡paramètres

Les paramètres permettent de régler finement le comportement du modèle d'IA, comme le niveau de créativité ou le style de langage.

💡avatars

Les avatars sont des personnages fictifs que l'on peut créer pour que le modèle d'IA adopte différentes personnalités, comme un développeur web ou un rédacteur de contenus.

💡local

Faire tourner l'IA en local signifie l'utiliser directement sur son ordinateur, sans passer par des serveurs distants, ce qui offre plus de confidentialité.

💡open source

Un logiciel open source a son code source librement accessible, ce qui permet de le modifier ou d'y contribuer. Le projet text generation web UI présenté est open source.

💡datasets

Les datasets sont les quantités massives de données textuelles utilisées pour entraîner les modèles de langage comme Mistral.

Highlights

Présentation de comment interagir avec Mistral AI dans le contexte du projet Text Generation Web UI

Explications sur comment installer le projet Text Generation Web UI

Indications sur le choix du modèle de langage à utiliser avec l'interface

Présentation du modèle Mistral 7B et de ses performances

Introduction du modèle Mistral Mix capable de combiner 8 experts

Explications sur le téléchargement de modèles depuis le site Hugging Face

Démonstration du chargement du modèle Vikuna dans l'interface

Rappel que l'art de poser les bonnes questions à une IA s'appelle le prompt engineering

Présentation du pré-prompt permettant de donner des instructions et un contexte à l'IA

L'interface donne accès à de nombreux paramètres pour personnaliser l'IA

Possibilité de créer différents personnages et avatars pour l'IA

Les IA peuvent être utilisées en local pour traiter des données sensibles

En local, les réponses sont plus lentes mais il n'y a pas besoin de connexion internet

Comparaison avec Google Bard : local est plus lent mais garantit la confidentialité

Invitation à s'abonner, liker et commenter la vidéo

Transcripts

play00:00

bonjour à tous et bienvenue dans cette

play00:02

vidéo dans laquelle je vais vous

play00:03

présenter comment vous allez pouvoir

play00:05

interagir avec Mistral ai donc le modèle

play00:08

d'intelligence artificielle made in

play00:10

France mais cette fois-ci je vais vous

play00:12

présenter ça dans le contexte de du

play00:15

projet text generation web ui j'ai fait

play00:18

une vidéo précédemment sur comment

play00:20

l'utiliser avec LM studio ma vidéo

play00:22

précédente c'est vraiment une vidéo

play00:24

grand public qui s'adresse à tout le

play00:26

monde tous ceux qui veulent discuter

play00:27

avec Mistral et avoir une intell

play00:30

artificielle puissante en local donc sur

play00:33

son ordinateur là ce que je vais faire

play00:35

c'est vous présenter des notions un peu

play00:37

plus avancé puisque l'interface que je

play00:39

vais utiliser est destinée plutôt aux

play00:41

développeurs ou aux passionnés de

play00:43

nouvelles technologies et cette

play00:45

interface l'avantage qu'elle a c'est

play00:46

juste que elle vous offre un petit peu

play00:48

plus de paramètres euh et plus de

play00:51

liberté puisque c'est un projet

play00:53

totalement open source et vous avez la

play00:55

possibilité de développer des plugins et

play00:57

tout un tas d'outils si vous maîtrisez

play00:59

notamment python donc voilà ça va être

play01:02

une vidéo assez similaire mais plus

play01:04

orienté tech que que grand public donc

play01:08

le projet s'appelle text generation web

play01:10

ui vous pouvez le retrouver sur

play01:13

GitHub donc vous recherchez ça sur votre

play01:17

moteur de recherche préféré et vous

play01:19

allez tomber donc sur la page officielle

play01:21

et c'est ici que vous allez pouvoir donc

play01:22

récupérer cet

play01:24

outil pour ceux qui connaissent

play01:26

l'interface automatique 11 11 de stable

play01:30

diffusion et bien là en fait c'est la

play01:32

même chose c'est le même type

play01:34

d'interface donc ici on a tous les

play01:36

dossiers bon ça nous intéresse pas trop

play01:38

mais on a accès à tout tout le code

play01:41

source du projet vous allez retrouver

play01:43

des captures d'écran du logiciel donc

play01:45

c'est ce logiciel que

play01:47

euh que l'on va avoir donc en en local

play01:51

vous avez accès aux

play01:53

fonctionnalités en

play01:55

réalité le le le but de cet outil c'est

play01:58

simplement de pouvoir installer un mode

play01:59

mod de langage par exemple Mistral ai et

play02:03

de pouvoir

play02:05

l'utiliser via une interface

play02:07

conviviale comment installer le projet

play02:10

donc en fait c'est là que ça vafin c'est

play02:12

là que on va rentrer dans le cœur du du

play02:14

sujet Comment installer le projet on

play02:16

vous dit de cloner ou de télécharger le

play02:20

le dossier donc là on va le faire

play02:22

ensemble ensuite il faut lancer le

play02:24

script qui correspond à votre système

play02:26

d'exploitation vous avez des scripts

play02:28

pour Windows Linux et également si vous

play02:31

êtes sur des sur WSL pour ceux qui

play02:35

utilisent docker par exemple donc vous

play02:37

avez un script à lancer qui va gérer

play02:39

l'installation automatiquement pour vous

play02:41

c'est très simple vous n'avez rien à

play02:42

faire si ce n'est juste indiquer votre

play02:45

carte graphique quel est le type de de

play02:47

carte graphique que vous utilisez bon

play02:50

ben moi je vais faire la manipulation

play02:53

bon je vais cliquer sur Download ça va

play02:55

automatiquement me lancer le

play02:56

téléchargement du

play02:58

zip voilà donc donc le zip a été

play03:00

téléchargé c'est assez léger une

play03:02

vingtaine de még 30 même je vais juste

play03:06

extraire ça sur mon ordinateur quelque

play03:09

part où vous voulez ça n'a pas trop

play03:11

d'importance et là j'ai bien récupéré

play03:13

text generation web

play03:15

ui bon une fois que vous êtes là vous

play03:17

devez rentrer dans le dossier et ensuite

play03:19

faire ce que on vous a demandé de faire

play03:21

à savoir lancer le script qui correspond

play03:25

à votre système d'exploitation donc moi

play03:26

je suis sur windows je vais donc lancer

play03:30

windows.bat ça va m'ouvrir une petite

play03:33

fenêtre de commande ici alors je vais

play03:34

essayer de zoomer un peu même si c'est

play03:36

pas forcément très intéressant je vais

play03:38

zoomer un peu et là ça va lancer des

play03:41

téléchargements je vais pas aller au

play03:42

bout des téléchargements parce que c'est

play03:44

très très long ça va télécharger

play03:46

plusieurs gigas de de de données de

play03:49

dépendance donc c'est très très long je

play03:51

vais pas je vais pas le faire comme je

play03:53

vous l'ai dit mais il va falloir laisser

play03:55

tourner tout ça il va falloir laisser

play03:57

tourner l'installeur et à un moment

play03:58

donné on va vous poser la question

play04:00

quelle est votre carte graphique

play04:02

euh il faudra juste choisir le modèle

play04:05

donc vous aurez par exemple a Nvidia B

play04:08

AMD et il faudra juste choisir a si vous

play04:11

êtes sur

play04:13

Nvidia bon voilà grosso modo au niveau

play04:15

de l'installation comme je vous l'ai dit

play04:17

moi je vais arrêter ça parce que là ça

play04:18

va prendre beaucoup de temps sinon je

play04:20

l'ai déjà fait en préparant cette vidéo

play04:22

j'ai déjà installé l'outil avant donc

play04:24

moi euh tout est tout est déjà prêt

play04:28

euh donc je suis dans le dossier text

play04:31

generation web ui c'est le dossier qu'on

play04:34

a téléchargé ensemble et le script a

play04:36

fini de tourner ce que je vais faire

play04:38

c'est que je vais lancer

play04:40

euh start Windows encore une fois je

play04:42

vais relancer le script sauf que cette

play04:44

fois-ci j'aurai pas de téléchargement ou

play04:46

quoi que ce soit ça va juste lancer le

play04:48

logiciel et me donner une URL sur lequel

play04:52

l'interface sera

play04:53

accessible voilà donc après 5 secondes

play04:56

vous avez l'URL qui apparaît le

play05:00

le projet est disponible en local donc

play05:02

vous pouvez mettre

play05:04

127.0.0.1

play05:07

2.7860 78 60 étant le port proposé par

play05:12

par l'interface donc ce que je vais

play05:13

faire c'est tout simplement me rendre

play05:14

dans mon navigateur à cette url

play05:17

là donc je tape

play05:19

127001 78 60 je valide et là l'interface

play05:24

charge et j'arrive sur la Web UI par

play05:29

défaut vous ne pourrez rien faire ici

play05:31

par défaut vous ne pouvez pas parler

play05:32

avec une intelligence artificielle parce

play05:34

que la web ui c'est une coquille vide il

play05:36

y a aucune Ia il y a aucun modèle le

play05:39

modèle c'est vraiment ce qui représente

play05:41

l'intelligence artificielle c'est la

play05:43

masse de données qui a été regroupée

play05:45

dans un fichier c'est une sorte de

play05:46

grosse base de données qui est donc le

play05:49

le modèle de langage et c'est ce modèle

play05:51

qui va vous permettre de de discuter

play05:52

avec un agent conversationnel il y a pas

play05:55

de modèle embarqué dans la web ui vous

play05:57

arrivez vraiment sur une coquille vide

play05:59

vous ne pouvez parler à personne ce qui

play06:01

est bien avec les IA que vous pouvez

play06:02

faire tourner en local c'est que vous

play06:03

pouvez choisir à qui vous voulez parler

play06:05

vous avez le modèle Lama officiel de ma

play06:09

mais vous avez plein de modèles qui sont

play06:11

super connus et assez puissants comme le

play06:13

guanako ou le vikuna euh vous avez des

play06:16

modèles qui sont

play06:17

totalement comment dire absolument pas

play06:20

censurés parce que il y a donc il y a

play06:22

une certaine censure qui s'applique sur

play06:23

les modèles génériques mais il y a des

play06:25

modèles qui sont pas du tout censurés et

play06:27

vous avez le Fame le fameux modèle al

play06:30

qui qui fait beaucoup parler de lui ces

play06:31

derniers temps donc vous pouvez

play06:33

installer ce que vous voulez et vous

play06:34

pouvez potentiellement installer des

play06:35

dizaines de modèles différents sans

play06:36

aucun problème vous faites ce que vous

play06:38

voulez en local c'est juste qu'après les

play06:40

fichiers ont un certain poids et ça sera

play06:43

limité par l'espace sur votre disque dur

play06:45

euh ce que je vais faire c'est que je

play06:47

vais aller sur le site de Mistral ai

play06:49

donc c'est

play06:50

mistral.ai et là je vais aller sur

play06:54

product ici on va retrouver les modèles

play06:57

il y a deux modèles qui sont disponibles

play06:59

il y a le Mistral 7b qui est un modèle

play07:02

très léger euh parce queil faut savoir

play07:05

que les modèles peuvent être plus ou

play07:06

moins lourd ils peuvent avoir été

play07:08

entraînés avec un certain nombre de

play07:10

données quelques milliards quelques

play07:12

dizaines de milliards quelques centaines

play07:14

de milliards forcément au plus il y a de

play07:16

données au plus le modèle est lourd et

play07:18

au plus il vous faudra une configuration

play07:20

vraiment puissante pour pouvoir faire

play07:21

tourner ce

play07:23

modèle pour le grand public comme vous

play07:26

et moi on utilise en général des modèles

play07:27

7b parce que au-delà il faut vraiment

play07:29

avoir des cartes graphiques très très

play07:31

très très puissantes déjà là pour le

play07:33

modèle 7 7b il va vous falloir 4 ou 6 Go

play07:36

de VRAM si vous n'avez pas ça vous ne

play07:38

pourrez pas faire tourner le modèle ou

play07:40

alors ça risque d'être très très très

play07:41

très

play07:42

lent la puissance de Mistral c'est que

play07:45

ils arrivent à rivaliser avec les

play07:47

meilleurs

play07:47

modèles avec leur modèle 7b Mistral 7b

play07:52

est capable de rivaliser avec des

play07:54

modèles euh 30 ou 70b par exemple sur

play07:58

certains points le modèle très léger de

play08:00

Mistral fait mieux que des modèles très

play08:02

lourds de concurrents je vous laisserai

play08:04

vous renseigner sur ça sur internet il y

play08:05

a plein de tableaux comparatif c'est

play08:07

vraiment super puissant et là là où

play08:10

Mistral a fait force c'est qu'ils ont

play08:11

sorti un autre modèle qui s'appelle le

play08:13

mixral donc faites attention c'est pas

play08:16

pareil et là le truc c'est que c'est h

play08:20

modèles en un ils ont réussi à fusionner

play08:23

h experts si vous voulez en un seul

play08:25

modèle et quand vous allez poser une

play08:27

question à ce modèle ça va sélectionner

play08:30

les deux experts parmi les H qui

play08:33

pourront vous apporter la meilleure

play08:34

réponse possible donc c'est vraiment

play08:37

c'est vraiment assez exceptionnel par

play08:38

contre la contrepartie de ça c'est que

play08:40

ça demande un tout petit peu plus de

play08:41

puissance de calcul et le modèle est

play08:43

très très

play08:45

lourd en moyenne vous allez avoir un

play08:47

modèle à 30 Go un peu plus de 30 Go donc

play08:50

c'est assez lourd comparé à Mistral 7b

play08:52

qui fait 5 ou 6 Go on va voir ça tout de

play08:55

suite donc je clique sur le mistral 7b

play08:58

classique je vais aller sur le site

play08:59

hugging face qui qui est un site sur

play09:02

lequel vous allez pouvoir retrouver

play09:03

plein de modèles dont le fameux Mistral

play09:06

ici je suis sur la page officielle on

play09:08

peut avoir des informations mais au

play09:10

final ça nous intéresse pas plus que ça

play09:12

nous ce qu'on veut c'est télécharger le

play09:13

modèle on peut aller sur fileine version

play09:16

et là vous pouvez voir les informations

play09:18

du modèle ainsi que le poids le poids

play09:21

des fichiers vous ce que vous allez

play09:23

devoir faire c'est surtout cliquer ici

play09:26

vous allez cliquer ici sur ce petit

play09:28

icône qui va vous de copier le nom du

play09:30

modèle parce que c'est ça dont on a

play09:33

besoin c'est le nom du modèle je vais

play09:36

retourner sur mon interface web ui et je

play09:40

vais aller sur l'onglet modèle ici sur

play09:43

l'onglet modèle je vais venir ici faire

play09:46

clic droit coller pour coller le nom du

play09:48

modèle donc là je veux récupérer Mistral

play09:51

7b et vous cliquez sur Download je ne

play09:55

vais pas le faire parce que je l'ai déjà

play09:57

fait mais là dans l'idée vous pouvez

play09:58

donc donc télécharger le modèle MISTRAL

play10:02

je vous laisserai regarder sur ING face

play10:04

il y a vraiment plein de modèles

play10:06

différents comme je vous l'ai dit il y a

play10:07

vikuna ou guanako qui sont également

play10:09

assez connus il y a Lama qui est le

play10:11

modèle de méta et puis différentes

play10:13

versions de Mistral comme ça un modèle

play10:15

open source il y a plein de personnes

play10:17

qui peuvent créer leur propre version de

play10:18

Mistral bref vous allez mettre ici le

play10:21

modèle que vous voulez télécharger vous

play10:23

pouvez en télécharger autant que vous

play10:24

voulez ça prend du temps parce que ça

play10:26

fait plusieurs gigas donc vous cliquez

play10:28

sur don ça lancer tout ça une fois que

play10:31

c'est fait une fois que vous avez

play10:32

télécharger le modèle vous avez juste à

play10:34

cliquer ici pour rafraîchir la liste des

play10:37

modèles une fois que la liste est

play10:39

rafraîchie vous avez un menu déroulant

play10:41

ici et dans ce menu déroulant vous allez

play10:44

retrouver les modèles qui sont

play10:47

disponibles sur votre ordinateur donc là

play10:50

pour l'exemple moi

play10:52

j'ai je par exemple le vikuna qui n'a

play10:54

rien à voir avec Mistral mais c'est

play10:55

juste pour l'exemple donc je prends le

play10:58

viuna lorsque je sélectionne le modèle

play11:00

ça me met les paramètres adaptés à ce

play11:03

modèle et je clique sur load donc là ce

play11:06

que ça fait c'est que ça charge le

play11:07

modèle en mémoire pour dire à ma web ui

play11:10

que c'est ce modèle que je veux utiliser

play11:12

et euh et puis une fois que c'est chargé

play11:15

j'ai un message de confirmation je peux

play11:17

ensuite retourner sur le chat et là je

play11:19

peux poser ma question 1 + 1 point

play11:23

d'interrogation je clique sur generate

play11:25

et dans l'idée je veux juste voir que ça

play11:27

marche je veux juste voir que Liam me

play11:28

répond

play11:29

elle me répond de c'est bon on voit

play11:31

qu'on peut commencer à chatter et euh et

play11:35

interagir avec uneia le message que vous

play11:37

écrivez ici ça s'appelle un prompte

play11:39

parler à Unia c'est très facile mais

play11:41

bien lui parler c'est compliqué c'est ça

play11:43

s'appelle le prompt engineering l'art de

play11:46

construire un bon prompte pour avoir une

play11:47

bonne réponse évidemment là j'ai fait

play11:49

l'exemple le plus basique possible avec

play11:50

1+1 mais vous pouvez demander à unea

play11:53

vous rédiger le contenu de votre site

play11:54

web de faire un brain brainstorming pour

play11:56

vous de vous aider à travailler sur des

play11:59

projets

play12:00

euh vous pouvez créer des résumés

play12:02

traduire des textes faire du

play12:05

référencement web bref il y a plein de

play12:08

possibilités l'interface ici à première

play12:11

vue elle est assez simple mais en

play12:12

réalité vous avez pas mal de

play12:14

fonctionnalités vous allez pouvoir créer

play12:15

le préprompte le préprompt c'est un

play12:18

petit peu les instructions que vous

play12:19

donnez à lia en lui expliquant voilà le

play12:22

contexte voilà quel est qu'est-ce que

play12:24

quel est ton rôle qu'est-ce que tu vas

play12:26

faire pour m'aider et cetera vous allez

play12:27

pouvoir euh euh mettre en place un petit

play12:30

contexte vous avez accès à tous les

play12:32

paramètres de liia ça c'est ce que je

play12:34

vous disais par rapport à LM studio que

play12:36

j'avais présenté dans une vidéo

play12:38

précédente là vous avez accès à encore

play12:40

plus de paramètres pour vraiment euh

play12:41

personnaliser très très très précisément

play12:43

votre intelligence artificiel et

play12:46

indiquer comment elle doit se comporter

play12:48

c'est des sujets assez complexes j'ai

play12:50

fais une formation complète sur sur ça

play12:52

mais c'est des sujet assez complexe

play12:53

sachez que vous avez la main sur tous

play12:55

les paramètres euh vous pouvez même

play12:57

créer des petits personnages fictif vous

play12:59

pouvez créer votre propre personnage et

play13:02

puis créer des avatars pour lia de façon

play13:05

à pouvoir chatter avec des personnalités

play13:07

différentes et chaque personnalité peut

play13:09

avoir un contexte différent par exemple

play13:11

moi à titre perso j'ai créé une IA

play13:14

spécialisé dans le développement je lui

play13:16

ai dit tu es un développeur JavaScript

play13:17

tu dois m'aider à écrire des scripts tu

play13:19

fais du code propre commenter et cetera

play13:20

et cetera et dès que je lui pose une

play13:22

question la réponse elle est très

play13:24

adaptée à mon problème après je peux

play13:26

avoir une IA pour spécialiser dans dans

play13:28

la rédaction de contenu pour site

play13:30

e-commerce et quand j'ai une question

play13:33

quand j'ai une demande pour créer une

play13:34

fiche produit je vais plutôt

play13:36

sélectionner cette seconde

play13:38

Ia voilà vous avez donc la possibilité

play13:41

de créer ces petits personnages de gérer

play13:43

les modèles

play13:44

euh et puis c'est à peu près tout

play13:47

finalement ça reste assez simple c'est

play13:49

un peu plus technique que LM studio ça

play13:52

demande un petit peu plus

play13:52

d'investissement de temps pour pour

play13:55

maîtriser tout ça mais une fois que vous

play13:57

savez configurer votre outil i vous avez

play13:59

la possibilité de discuter avec

play14:01

n'importe quel Ia dont

play14:03

Mistral et pouvoir interagir en local il

play14:06

y a pas besoin de connexion internet

play14:08

tout fonctionne en local euh aucune

play14:10

donnée n'est partagée euh donc si vous

play14:13

travaillez sur pour des entreprise sur

play14:15

des sujets sensibles privés vous pouvez

play14:18

utiliser des IA en local pour justement

play14:20

pouvoir lui fournir votre documentation

play14:22

histoire que l'a soit capable de

play14:24

comprendre votre documentation et de

play14:25

vous aider sans que vos données soient

play14:27

publiées en et ensuite vous pouvez donc

play14:29

travailler comme ça sur votre PC la

play14:32

seule contrepartie c'est bah le temps de

play14:34

génération au niveau de la réponse sera

play14:36

plus longent que si vous utilisez par

play14:37

exemple Google Bard parce Queau lieu

play14:39

d'être sur des serveurs super puissants

play14:41

de chez Google vous êtes juste sur votre

play14:42

ordinateur donc la réponse sera plus

play14:45

lente mais voilà il y a des pour il y a

play14:47

des contes moi je vous présente les

play14:48

principaux outils qui existent sur le

play14:50

marché ensuite c'est à vous de à vous de

play14:53

choisir le la meilleure solution selon

play14:55

la situation voilà j'espère que cette

play14:56

vidéo vous aura plu pensez comme

play14:57

d'habitude à vous abonner à liker

play14:59

commenter la cloche et cetera et puis je

play15:01

vous dis à bientôt pour d'autres tutos

Rate This

5.0 / 5 (0 votes)

هل تحتاج إلى تلخيص باللغة الإنجليزية؟