4 logiciels qui devraient être payants (tellement ils sont ouf)

Underscore_
10 Mar 202425:52

Summary

TLDRDans cette vidéo, l'auteur présente plusieurs outils et projets liés à l'intelligence artificielle, notamment Clap pour créer des formats verticaux à partir de vidéos YouTube, Better Dictation pour améliorer la dictée sur Mac, Oliama pour gérer les modèles locaux, RAST pour des raccourcis claviers personnalisés et Floneum, un outil basé sur Rust pour l'automatisation en local. Il insiste sur la facilité d'utilisation de ces outils et leur potentiel pour améliorer la productivité, tout en soulignant l'importance de l'open source et de la communauté dans le développement de modèles IA fine-tunés.

Takeaways

  • 🚀 Des projets d'applications basées sur l'IA sont de plus en plus accessibles et utiles pour le grand public.
  • 📺 L'outil Clap permet de créer des formats verticaux automatisés à partir de vidéos YouTube.
  • 🎥 Des démos impressantes montrent la capacité de Clap à analyser et extraire des segments viraux de vidéos.
  • 💬 L'application BetterDictation aide à gagner du temps dans la gestion des messages privés grâce à la dictée vocale.
  • 🗣️ Whisper V3 est un modèle de transcription de haute qualité, mais son integration dans les workflows peut être complexe.
  • 🖥️ Oliama est un outil qui simplifie l'installation et l'utilisation de modèles locaux d'IA sur un Mac.
  • 🛠️ RAST est une alternative à la barre de recherche de Mac OS, offrant des fonctionnalités de productivité avancées.
  • 🔄 Floneum est une plateforme en alpha qui permet aux développeurs d'utiliser des briques modernes de l'IA de manière locale et optimisée.
  • 🌐 Un nouveau modèle ouvert et gratuit est disponible pour effectuer un détourage de qualité à partir d'images.
  • 📈 Des outils de programmation visuelle comme n8n permettent une automatisation de tâches complexes sans connaissances de programmation.
  • 🤖 Des projets Open Source comme la technique de fine-tuning avec unslotth mettent à disposition des outils pour fine-tuner des modèles d'IA sur des données spécifiques.

Q & A

  • Quel est le projet nommé Clap et comment fonctionne-t-il?

    -Clap est un service Web qui, à partir d'une chaîne YouTube, crée des formats verticaux automatiquement. Il permet de découper une vidéo en petits extraits, d'ajouter des sous-titres et d'analyser le transcript pour extraire des passages viraux. Les utilisateurs peuvent éditer ces extraits en utilisant un éditeur intégré.

  • Comment l'application Better Dictation peut-elle améliorer la productivité des utilisateurs?

    -Better Dictation est une application installable sur Mac qui permet aux utilisateurs d'utiliser la dictée vocale pour gagner du temps dans l'envoi de messages, en particulier les messages privés. Elle offre une expérience de transcription fluide grâce à un modèle de transcription de haute qualité, permettant une intégration agréable dans les messageries et les applications de communication comme Twitter, Discord et Slack.

  • Quel est le rôle d'Oliama dans la gestion des modèles locaux?

    -Oliama est une application qui simplifie la gestion et l'utilisation de modèles locaux en inventant une nouvelle syntaxe pour décrire un modèle. Elle permet aux utilisateurs de lancer n'importe quel modèle en utilisant une simple ligne de commande, sans avoir à se soucier de la gestion des mises à jour ou de l'installation des modèles.

  • Comment RAST améliore-t-il l'expérience utilisateur sur Mac?

    -RAST est un launcher qui offre une alternative à la barre de recherche de Mac OS. Il agit comme une tour de contrôle qui permet aux utilisateurs d'interagir avec toutes leurs applications, de lier des raccourcis clavier et de développer des modules personnalisés pour améliorer leur productivité sur Mac.

  • Quel est le potentiel de l'outil Floneum pour les développeurs?

    -Floneum est un projet en alpha qui offre une plateforme basée sur Rust pour les développeurs. Il permet de créer des applications locales en utilisant des technologies optimisées pour les appareils de tous les utilisateurs. Bien que l'interface utilisateur ne soit pas polie, le potentiel de Floneum réside dans ses briques de base qui sont utilisables par tous les développeurs pour intégrer des fonctionnalités de l'IA dans leurs projets.

  • Comment le projet de fine-tuning mentionné dans le script aide-t-il les utilisateurs à créer leurs propres modèles?

    -Le projet de fine-tuning offre une solution open-source qui guide les utilisateurs, même sans connaissances en intelligence artificielle, pour créer leur propre modèle fine-tuné à partir de zéro. Il fournit des tutoriels détaillés, des scripts préparés pour Google Colab, et des optimisations pour la mémoire GPU, permettant ainsi aux utilisateurs de fine-tuner des modèles sur des tâches précises avec une entrée minimale.

  • Quelle est la solution proposée pour optimiser l'apprentissage des modèles sans GPU puissant?

    -L'optimisation de l'apprentissage des modèles est obtenue grâce à une technique appelée unslotth, qui demande beaucoup moins de mémoire GPU pour effectuer le même entraînement. Cela permet d'optimiser les performances de l'apprentissage et de réduire les coûts liés à l'utilisation de GPU puissants.

  • Comment le projet de fine-tuning compare-t-il en termes de vitesse et de consommation de mémoire par rapport aux méthodes standard?

    -Les benchmarks montrent que le processus de fine-tuning proposé par le projet est 1,5 à 3 fois plus rapide que les méthodes standard et les librairies traditionnelles. De plus, il consomme beaucoup moins de mémoire GPU, ce qui est un facteur clé limitant pour de nombreux utilisateurs.

  • Quels sont les avantages de l'utilisation de Google Colab pour les utilisateurs qui ne possèdent pas d'ordinateur puissant?

    -Google Colab permet aux utilisateurs de faire tourner du code sur des GPU loués facilement, sans avoir besoin d'un ordinateur très puissant. Cela leur donne la possibilité d'effectuer des tâches qui nécessitent des ressources importantes en matière de calcul, comme le fine-tuning de modèles d'IA, sans investissements lourds en matériel informatique.

  • Quel est le rôle de la communauté dans le développement de modèles fine-tunés?

    -La communauté a un rôle clé dans le développement de modèles fine-tunés en créant des modèles spécialisés pour répondre à des besoins précis et variés. Cela permet de diversifier l'offre de modèles disponibles et d'augmenter la portée des applications de l'IA dans différents domaines et langues.

Outlines

00:00

🤖 Introduction aux projets d'IA et applications sélectionnées

Le paragraphe introduit des projets et applications d'IA qui sont encore peu connus mais qui commencent à maturiser technologiquement, devenant ainsi utilisables et intéressantes pour le grand public. Parmi les applications présentées, il y a des services immédiatement installables sur Mac pour gagner du temps, ainsi que des outils plus avancés pour ceux qui souhaitent améliorer ou fine-tuner des modèles. Le présentateur mentionne Clape, un service Web qui crée des formats verticaux automatisés à partir de vidéos YouTube, et Better Dictation, une application pour améliorer l'efficacité de la dictée vocale sur Mac.

05:00

🚀 Utilisation de Better Dictation et d'Oliama pour l'automatisation de tâches

Dans ce paragraphe, l'accent est mis sur l'utilisation de Better Dictation pour améliorer la vitesse d'écriture en utilisant la dictée vocale, et d'Oliama, une application qui permet de gérer et d'utiliser facilement des modèles d'IA localement sur un Mac. L'auteur montre comment ces outils peuvent être intégrés dans le workflow quotidien pour gagner en productivité et en efficacité, en particulier pour les utilisateurs de Mac qui cherchent à optimiser leur gestion de tâches et de communications.

10:02

🎥 Création de contenu avec des outils d'automatisation

Le paragraphe présente des exemples de création de contenu en utilisant des outils d'automatisation, notamment pour rédiger des e-mails formels ou pour corriger des fautes d'orthographe. L'auteur montre comment les outils comme RAST et Oliama peuvent être combinés pour créer des automatisations personnalisées, comme la génération de réponses à des e-mails ou la correction automatique d'erreurs. Il insiste sur la facilité d'utilisation de ces outils et leur potentiel pour améliorer la productivité et la créativité.

15:03

🌐 Détourage d'images et introduction à des outils de programmation visuelle

Dans ce paragraphe, l'auteur discute de l'utilisation de modèles ouverts et gratuits pour le détourage d'images, comparant les résultats obtenus avec des services payants comme Remove BG. Il aborde ensuite des outils de programmation visuelle comme n8n, qui permettent aux utilisateurs de créer des flux de travail en utilisant des graphes logiques et des nœuds, malgré son propre scepticisme quant à leur efficacité et leur fiabilité à long terme.

20:04

🛠️ Présentation de Flonum, un outil de programmation visuelle en Rust

L'auteur présente Flonum, un outil de programmation visuelle développé en Rust, qui permet une utilisation 100% locale et optimisée des technologies. Flonum offre la possibilité de créer des automatisations complexes en utilisant des briques de base de l'IA, telles que la génération de texte, la recherche Google, l'analyse d'images, etc. L'outil est encore en alpha et l'auteur recommande de le surveiller pour voir comment il évoluera à l'avenir. Il souligne l'intérêt pour les développeurs qui pourraient contribuer en publiant leurs propres modules pour l'utiliser avec d'autres applications.

25:05

📈 Fine-tuning des modèles d'IA avec des outils accessibles

Le paragraphe se concentre sur la facilité de fine-tuning des modèles d'IA avec l'aide d'outils comme HL, qui rendent accessible le processus même pour les personnes non spécialistes de l'IA. Les utilisateurs peuvent générer des données formatées, utiliser des GPU de petite taille pour le fine-tuning et bénéficier d'une optimisation significative du processus d'apprentissage. L'auteur mentionne également la version Pro de l'outil, qui offre des fonctionnalités supplémentaires pour les utilisateurs expérimentés. L'accent est mis sur l'Open Source et la communauté, qui est encouragée à créer des modèles spécialisés pour différentes tâches.

🎓 Encouragement à l'exploration et à la création de modèles d'IA par la communauté

Le dernier paragraphe encourage la communauté à explorer et à créer des modèles d'IA spécialisés à l'aide des outils mentionnés précédemment. L'auteur exprime son désir de voir des modèles créés par la communauté, notamment en français, pour répondre à des besoins précis et variés. Il souligne que la barrière à l'entrée a été levée grâce à la facilité d'utilisation des outils de fine-tuning, et invite les utilisateurs à s'engager dans la création de modèles personnalisés.

Mindmap

Keywords

💡Intelligence Artificielle

L'intelligence artificielle (IA) est un domaine de l'informatique qui se concentre sur la création de systèmes capables de réaliser des tâches qui nécessitent normalement l'intelligence humaine. Dans le contexte de la vidéo, l'IA est utilisée pour développer des applications, des outils et des modèles qui peuvent être utilisés dans divers domaines pour améliorer l'efficacité et la productivité.

💡Applications Mobiles

Les applications mobiles sont des programmes informatiques conçus pour être utilisés sur des appareils portables tels que les smartphones et les tablettes. Elles sont souvent optimisées pour la compatibilité avec les écrans tactiles et les fonctionnalités des appareils mobiles. Dans la vidéo, l'accent est mis sur les applications qui utilisent l'IA pour offrir des services innovants aux utilisateurs.

💡Maturité Technologique

La maturité technologique fait référence au stade de développement et de perfectionnement d'une technologie donnée. Elle indique si une technologie est suffisamment avancée pour être utilisée à grande échelle dans des applications commerciales ou industrielles. Dans le script, cela implique que l'IA a atteint un niveau de maturité où elle peut être intégrée dans les applications mobiles de manière efficace.

💡Sélection de Projets

La sélection de projets fait référence au processus par lequel on choisi des projets spécifiques à travailler sur ou à promouvoir. Dans le contexte du script, cela signifie choisir parmi de nombreux projets d'applications mobiles ceux qui utilisent l'IA de manière innovante et qui ont le potentiel d'attirer l'intérêt des utilisateurs.

💡Outil de Productivité

Un outil de productivité est un programme ou une application qui aide les utilisateurs à gérer leur temps, leurs tâches et leur travail de manière plus efficace. Ces outils sont conçus pour optimiser les processus, économiser du temps et améliorer les résultats. Dans le script, les outils de productivité sont ceux qui utilisent l'IA pour aider les utilisateurs à gagner du temps et à améliorer leur travail.

💡Fine Tuning

Le fine tuning est une technique d'apprentissage automatique où un modèle pré-entraîné est ajusté pour qu'il soit plus performant sur une tâche spécifique. Cela implique généralement l'entraînement du modèle avec de nouvelles données qui sont pertinentes pour la tâche cible. Dans le contexte de la vidéo, le fine tuning est utilisé pour améliorer les modèles d'IA pour qu'ils répondent mieux aux besoins spécifiques des utilisateurs.

💡Modèles d'IA

Les modèles d'IA sont des structures de données et d'algorithmes qui sont entraînés pour résoudre des tâches spécifiques. Ils peuvent être utilisés dans des applications pour prédire des résultats, analyser des données ou générer du contenu. Dans le script, les modèles d'IA sont au cœur des applications et outils présentés, car ils sont utilisés pour offrir des fonctionnalités avancées et personnalisées.

💡Découper Vidéos

Le découpage de vidéos est le processus d'édition vidéo où des extraits sont sélectionnés et coupés pour créer de nouveaux morceaux de contenu. Cela peut être fait manuellement ou en utilisant des outils automatisés qui utilisent l'IA pour identifier les parties les plus pertinentes d'une vidéo et les diviser en segments. Dans le contexte de la vidéo, le découpage vidéo est utilisé pour créer des formats verticaux à partir de vidéos YouTube.

💡Sous-Titres Automatiques

Les sous-titres automatiques sont des légendes qui apparaissent sous une vidéo pour transcrire le son en temps réel ou prévu. Ils sont souvent générés à l'aide de l'IA pour la reconnaissance vocale et la transcription de la parole en texte. Dans le script, l'IA est utilisée pour ajouter automatiquement des sous-titres à des vidéos, ce qui facilite l'accès au contenu pour un public plus large.

💡Génération de Contenu

La génération de contenu fait référence au processus de création automatique de textes, d'images, de vidéos ou d'autres types de contenu à l'aide de l'IA. Cela peut inclure la production de textes pour des articles, des descriptions, des résumés, ou la création d'images et de vidéos à partir de descriptions textuelles. Dans le contexte de la vidéo, la génération de contenu est utilisée pour produire des formats verticaux pour les réseaux sociaux et pour améliorer la productivité en automatisant des tâches.

💡Optimisation de la Productivité

L'optimisation de la productivité est le processus d'amélioration de l'efficacité et de l'efficience dans la réalisation de tâches professionnelles ou personnelles. Cela peut inclure l'utilisation de techniques, d'outils ou de technologies pour réduire le temps et les efforts nécessaires à la completion d'un travail. Dans le script, l'IA est utilisée comme un outil pour optimiser la productivité en automatisant des tâches et en fournissant des services plus efficaces.

Highlights

Sélection de projets d'applications pour profiter de la maturité des nouvelles technologies d'intelligence artificielle.

Présentation de quatre projets différents qui pourraient impressionner les utilisateurs.

Clap, un service Web qui crée des formats verticaux automatisés à partir de vidéos YouTube.

Démonstration de l'utilisation de Clap pour extraire des sujets potentiels à partir de podcasts et les classer par ordre de viralité.

Proposition de test en direct pour démontrer la capacité de Clap à générer des clips vidéo.

Présentation de l'application Better Dictation pour améliorer l'efficacité de la dictée sur Mac.

Explication de l'utilisation de Better Dictation avec un raccourci clavier pour transcrire des messages oraux en texte.

Oliama, une application pour gérer et utiliser localement des modèles d'intelligence artificielle.

Démonstration de l'installation et de l'utilisation de modèles avec Oliama en une simple ligne de commande.

Rast, un launcher pour Mac OS qui permet d'interagir avec toutes les applications et de créer des modules personnalisés.

Exploitation de la combinaison d'Oliama et Rast pour créer des automatisations avancées sur Mac.

Présentation de Floneum, un projet en alpha qui permet aux développeurs d'intégrer des fonctionnalités locales优化利用现代的IA技术。

Explication de la création d'un modèle fine-tuned avec des données spécifiques grâce à un projet open-source.

Démonstration de la facilité d'utilisation pour les non-experts en intelligence artificielle grâce à un outil de fine-tuning simplifié.

Mise en évidence de la réduction significative de la mémoire GPU nécessaire grâce à l'optimisation de l'entraînement.

Discussion sur la nécessité de fine-tuning pour améliorer les performances des modèles d'IA sur des tâches spécifiques.

Transcripts

play00:00

vous le savez ici on aime bien

play00:01

sélectionner des projets des applis que

play00:03

les gens ne connaissent pas trop parce

play00:05

que depuis une année on commence à avoir

play00:07

une maturation une maturité de tous ces

play00:08

nouvelles technologie d'intelligence

play00:10

artificielle suffisamment pour que ça

play00:12

commence à devenir utilisable et

play00:13

intéressant pour le commun des mortels

play00:15

dans les applis que je je vous ai

play00:17

sélectionné il y a à la fois des

play00:18

services des applis que vous pouvez

play00:19

installer dès maintenant sur votre Mac

play00:21

pour gagner du temps ainsi que des

play00:23

outils un peu plus avancé si vous voulez

play00:25

pousser le curseur si vous êtes dans la

play00:27

team des gens qui veulent par exemple

play00:28

commencer à améliorer des des modèles

play00:30

vous-même à faire des fine tuning des

play00:32

choses comme ça bon je rentre pas trop

play00:33

dans le détailér mais voilà je je vais

play00:35

vous présenter quatre projets différents

play00:37

qui je pense vont vous faire halluciner

play00:39

le premier il s'appelle clap c'est un

play00:42

service Web à qui vous donnez une chaîne

play00:44

Youtube et à partir de ça il vous créer

play00:46

des formats verticaux tout seul de A à Z

play00:48

c'est ça que j'ai trouve intéressant

play00:49

c'est que j'avais déjà vu des démos avec

play00:51

des petites bribes tu vois le fait de

play00:52

découper une vidéo en en petits extraits

play00:54

ou le fait de rajouter automatiquement

play00:56

des sous-titres j'avais vu toute cette

play00:57

petite brique mais le côté vraiment de A

play01:00

à Z et assez impressionnant et comme

play01:02

vous voyez on peut voir du dans les

play01:04

démos on peut voir du Hugo descrypt je

play01:06

sais pas s'il est c'est parce qu'il est

play01:07

vraiment client ou si c'est juste leur

play01:09

démo je pense c'est leur démo mais en

play01:12

vrai c'est des Français qui font ça et

play01:14

ben voilà Benjamin peut-être que tu ils

play01:16

sont hyper cool c'est deux frenchy qui

play01:17

font ce truc là depuis que je me suis

play01:18

lancé sur mon SAS et tout on est en

play01:20

contact tout le temps on s'envoie des

play01:21

messages tous les jours et tout et je

play01:23

suis un power user de de leur truc de

play01:24

Clape en fait parce que le podcast qu'on

play01:26

a avec William l'ascenseur après moi

play01:27

chaque semaine je l'envoie dans la

play01:29

moulin de Clape comme ça et il m'isole

play01:31

10 potentiels sujets classés par ordre

play01:33

de viralité en fait parce qu'il analyse

play01:35

le le tout le transcript il chope des

play01:37

passages virau en gros il me les sort

play01:39

comme ça après tu as un éditeur si tu

play01:41

veux rajouter un peu d'avant un peu

play01:43

d'après enlever quelques mots et cetera

play01:44

tu peux tout faire et c'est trop trop

play01:46

bien foutu je leurais suggéré des tonnes

play01:47

de de features en tant que Power User je

play01:49

disais est-ce que vous pouvez rajouter

play01:50

si ça et ça et ça et ça c'est trop bien

play01:52

quand c'est des des gens accessibles

play01:53

comme ça c'est que les features que tu

play01:55

demandes elles sont inclus dans

play01:56

le ça ça fait trop plaisir je vais vous

play01:59

dire la la meilleure Fitur qu'ils ont

play02:00

ajouté dernièrement qui qui est vraiment

play02:03

je trouve la clé de leur truc générer un

play02:05

clip par rapport à ce que vous souvenez

play02:06

que vous avez dit en fait donc tu lui

play02:07

dis j'ai parlé de ça vite fait dans le

play02:09

live j'aimerais bien avoir ce passage et

play02:11

lui en fait il va le retrouver il va te

play02:13

faire le truc parce que parfois tu te

play02:14

souviens que tu as parlé d'un truc

play02:15

pendant l'émission tu dis vas-y retrouve

play02:17

ce passage bou bou bou il te fait le

play02:18

truc tu as ton clip qui est fait en 2

play02:19

secondes et là tu fais ah ouais non ce

play02:21

que je trouve génial c'est que c'est ça

play02:23

s'adresse à un problème où c'est très

play02:25

chiant de faire ça en fait il même les

play02:28

monteurs et tout ils ont enfin chiant ça

play02:30

fait ça fait plaisir à personne de

play02:31

monter des clips à partir d'un truc très

play02:32

grand donc c'est cool et c'est

play02:34

d'ailleurs pour ça que nous und nous ne

play02:36

faisons pas de TikTok et c'est vrai ça

play02:39

mais on se fait voler on a la gigafemme

play02:42

exactement tout va bien on est quand

play02:43

même disponible mais c'est pas nous et

play02:45

ben moi je vous propose quelque chose

play02:47

c'est qu'on fasse un test un test en

play02:49

direct oh là là on na pas fait ça depuis

play02:52

2018 wou un test en direct mais je je

play02:54

vous dis leur t marche trop bien on va

play02:55

pouvoir vérifier je vous propose de

play02:57

prendre la deuxè oua la vidéo non avec

play02:59

le le lycéen qui a construit son propre

play03:01

téléphone ouais très bien ça oui c'est

play03:02

en mode podcast trop bien donc là on

play03:04

colle le lien de la vidéo et hop il

play03:05

trouve instantanément la bonne vignette

play03:07

et Cera et nous on va tout cocher on lui

play03:09

dit que c'est du français max une minute

play03:11

de durée et c'est parti et et là nous

play03:12

pant on prend un petit un petit cocktail

play03:16

voilà on attend quoi pendant que c'est

play03:19

en train de faire la génération je vous

play03:20

propose de passer à l'appli suivante qui

play03:23

pour le coup est installable en local

play03:25

sur votre machine elle s'appelle better

play03:27

dictation meilleur trans description OK

play03:30

et ça va vous permettre de gagner

play03:32

énormément de temps sur l'envoi de vos

play03:34

messages notamment de vos messages

play03:36

privés si vous êtes sur votre Mac vous

play03:37

avez le choix entre taper au clavier vos

play03:40

messages ou alors utiliser la dictée

play03:41

vocale mais personne ne fait ça parce

play03:44

que ça marche très mal voilà tout ce qui

play03:46

est mot un petit peu complexe langage

play03:49

métier globalement c'est pas ouf et donc

play03:52

on a pris l'habitude de ne pas utiliser

play03:53

ça sauf que un truc que moi j'ai j'ai

play03:55

réalisé c'est que sur des longs messages

play03:57

genre tu prends à partir de 4 C L ligne

play03:59

à l'oral tu peux mettre jusqu'à 5 fois

play04:02

moins de temps à composer ton message

play04:04

qu'à l'écrit faut vraiment se rendre

play04:06

compte que il y a une différence énorme

play04:08

entre ton temps de dictter et ton temps

play04:10

d'écriture et même si tu es le roi du

play04:12

clavier tu vois oua bien sûr or on sait

play04:13

que depuis on a des modèles de

play04:15

transcription type Whisper V3 qui sont

play04:17

hyper qualis mais jusqu'à présent voilà

play04:19

pour pour les installer pour pour avoir

play04:21

un un workflow une intégration agréable

play04:24

dans tes messageries et dans tes DM

play04:26

Twitter dans voilà dans ton discord ton

play04:28

slack tout ça c'est un peu l'air jusqu'à

play04:30

better transcription le principe est

play04:32

hyper simple vous allez avoir un

play04:34

raccourci clavier que vous pouvez

play04:36

maintenir en même temps que vous parlez

play04:37

ok pour faire une transcription ce qui

play04:39

est cool c'est que c'est un push to talk

play04:40

c'estd que tu es en train de répondre à

play04:42

un DM sur n'importe quel appli tu

play04:43

maintiens ton raccourci clavier et tu te

play04:45

mets à parler et à partir du moment où

play04:46

tu as retiré ton doigt il commence à

play04:48

transcrire ton message ce qu'il fait

play04:50

c'est qu'il va mettre un petit listening

play04:51

avec trois petits points peu importe là

play04:53

où où est ton curseur c'est ça qui est

play04:54

cool c'est que c'est c'est vraiment

play04:55

n'importe quel appli n'importe quel

play04:56

endroit et tu le retires ça affiche

play04:58

transcription rien ne vaut une

play05:00

démonstration pour vous montrer comment

play05:02

c'est ceci est un test je suis

play05:04

actuellement en train de rédiger un très

play05:06

long message qui m'aurait pris vraiment

play05:07

très longtemps à écrire et cette

play05:09

émission vient de commencer et je vois

play05:10

qu'ils sont en train de meubler pendant

play05:12

que moi je prépare mes illustrations

play05:14

voilà ce message est bien long et

play05:16

regardez la qualité il y a pas je crois

play05:18

qu'il y a pas une enfin je vois pas une

play05:19

faute là il y a pas une faute et là vous

play05:20

avez vu il y un petit temps de latence

play05:22

ça vient du fait que j'utilise le plus

play05:24

gros des modèles si vraiment vous êtes

play05:25

quelqu'un de pressé vous pouvez utiliser

play05:27

un modèle plus petit Whisper médium par

play05:29

exemple ou des choses comme ça là moi je

play05:31

veux que mes messages il soient pixel

play05:32

perfect ou mes mails parce que c'est

play05:34

trop bien pour des mails ah oui donc

play05:36

plus ça prend du temps plus c'est

play05:37

efficace ok j'ai exactement ça marche en

play05:40

local sur votre machine il y a pas

play05:41

besoin d'internet exactement du coup le

play05:42

Whisper est téléchargé téléchargé il y a

play05:44

pas besoin d'internet ouis ça marche sur

play05:46

n'importe quel appli c'est combien de G

play05:48

le le modèle 4 4 Go peut-être ou quelque

play05:51

chose comme ça c'est trop bien je crois

play05:52

que la génération est biôt fini mais

play05:54

mais mais je vous propose de faire juste

play05:56

mon application suivante et on ira voir

play05:58

ça juste après la suivante elle

play05:59

s'appelle oliama peut-être que vous en

play06:01

avez entendu parler c'est le modèle de

play06:04

ma un des premiers concurrents de chat

play06:07

GPT qu'on avait couvert qui avait fait

play06:08

beaucoup beaucoup de bruit il y a

play06:09

quelques mois depuis il y a eu un

play06:10

florilège de nouveau modèles c'est très

play06:12

intéressant la plupart d'entre vous je

play06:14

pense sont perdu parce que il y a trop

play06:16

de choses trop de nouveautés tout le

play06:17

temps et vous en avez marre de d'avoir

play06:19

ce train qui avance sans vous et ben

play06:20

dites-vous que oliama c'est l'appli

play06:23

parfaite si vous avez un Mac pour gérer

play06:26

vos modèles justement pour enlever toute

play06:28

la friction sur le d'installer un

play06:30

nouveau modèle et de l'utiliser pourquoi

play06:32

ce qu'il faut bien comprendre c'est que

play06:33

le génie deoliama c'est qu'ils ont

play06:35

inventé une nouvelle syntaxe pour

play06:37

décrire un modèle Unia qui tourne en

play06:39

local c'est un peu une fondation qui

play06:41

leur permet après d'avoir une gestion

play06:43

des modèles si vous n'êtes pas

play06:44

développeur vous demander bien à quoi ça

play06:46

peut servir et ben en une simple ligne

play06:48

de commande on est on fait oliama run

play06:50

Mistral par exemple dans son son

play06:52

terminal et hop on se retrouve à parler

play06:55

avec Mistral c'est tout et c'est lui qui

play06:57

s'est chargé automatiquement d'aller

play06:58

télécharg charger le modèle dans dans sa

play07:01

dernière version de l'installer en local

play07:02

et de garder un serveur toujours ouvert

play07:04

derrière vous pouvez avoir accès à une

play07:06

liste très très longue de modèles qui

play07:08

qui sont mis à jour constamment et le

play07:10

plus intéressant c'est que c'est un

play07:12

service qui tourne toujours en tâche de

play07:15

fond si vous avez testé quelques

play07:16

applications pour utiliser des chat GPT

play07:19

locaux comme il y a studio LM il y en a

play07:21

plusieurs des comme ça qui sont très

play07:22

bien ils ont tous un problème c'est que

play07:24

on est tous en train de réinventer la

play07:25

roue constamment et dans chaque appli

play07:27

télécharger des clones de clones de mod

play07:29

de et d'avoir des des des copies de de

play07:32

de la petite brique qui fait les

play07:33

inférences et ça c'est du gâi c'est

play07:35

hyper dommage et et surtout ça ne permet

play07:37

c'est pas du tout péren comme comme

play07:39

système oliama ils arrivent ils disent

play07:41

non mais on arrête tout ça maintenant

play07:42

maintenant tout passe par nous je sais

play07:44

pas si vous voyez la distinction c'est

play07:46

plutôt que chacun a sa propre brique tu

play07:47

as un service qui tourne constamment tu

play07:49

le vois dans ta dans ta petite barre de

play07:51

menu sur ton mac qui gère les mises à

play07:52

jour de modèles qui gère cette

play07:54

maintenance là et toutes les autres

play07:56

applis se mettent à discuter avec et

play07:57

c'est en train de prendre c'est tous les

play07:58

nouveau modèle un peu cool se mettre à

play08:00

utiliser oliama parce que c'est une

play08:02

fondation super robuste c'est pas un

play08:04

truc pyon un peu crcra c'est fait en Go

play08:07

enfin voilà le truc est est propre stylé

play08:09

et c'est une bonne fondation pour tous

play08:11

les développeurs et les utilisateurs qui

play08:12

veulent l'utiliser de Lia en local vous

play08:14

allez me dire ok c'est cool ton truc

play08:15

mais qu'est-ce queon peut faire

play08:16

maintenant bah ce que je vous propose

play08:18

c'est de combiner oliama avec RAST c'est

play08:20

simplement un launcher une alternative à

play08:23

la barre de recherche sur Mac OS encore

play08:24

une fois vous allez penser que cette

play08:25

barre de recherche sur Mac marche très

play08:27

bien mais faut vraiment voir ras comme

play08:29

une tour de contrôle qui vous permet de

play08:31

d'interagir avec toutes vos applications

play08:33

et de lier des raccourcis clavier de

play08:36

développer des module personnalisé sur

play08:38

votre Mac en fait c'est l'outil de

play08:40

productivité ultime des gens qui veulent

play08:42

être plus fast sur Mac tout simplement

play08:44

moi je l'utilise depuis très longtemps

play08:45

aussi c'est incroyable ne pas faire une

play08:47

erreur c'est vouloir tout comprendre

play08:48

àcast au premier coup il faut se laisser

play08:50

surprendre tu tu vas pouvoir

play08:52

potentiellement découvrir des

play08:53

fonctionnalité dans un an et c'est très

play08:54

bien parce que si tu cherches à tout

play08:55

comprendre au début tu vas être submergé

play08:56

par exemple moi pour écrire mon mail je

play08:59

je peux noter un at at et ça me met la

play09:02

PR adresse mail ça me rempl

play09:04

automatiquement en fait ça ça peut te

play09:05

faire des raccourcis comme ça pour ceux

play09:06

qui connaissent Alfred c'est une

play09:07

alternative moderne qui résout pas mal

play09:09

de problèmes qu'il avait et

play09:10

effectivement tu as des snipettes comme

play09:12

ça où tu peux gagner du temps tes

play09:13

fenêtres tu peux les mettre où tu veux

play09:14

en en un raccourci tuas un historique de

play09:17

ton presspier donc si tu as si tu as

play09:19

écrit tu as copiercollé un truc qui a 3

play09:21

jours c'est incroyable hop tu recherches

play09:23

dansaliste et tu retrouves que si vous

play09:24

êtes du genre à vous créer des petites

play09:26

automatisations perso et CEET mais que

play09:27

vous avez envie d'une belle Inter face

play09:29

par-dessus et ben plutôt que de pareil

play09:31

réinventer la roue vous utilisez recast

play09:33

et ça vous fait une interface parfaite

play09:35

sur toutes vos automatisation vos

play09:36

scripts et potentiellement si vous

play09:38

voulez automatiser des choses avec des

play09:40

modèles locaux vous pouvez combiner

play09:42

recast et oliama et là ça devient dingué

play09:46

je vous fait une petite vidéo de

play09:47

démonstration avec deux exemples

play09:49

vraiment hyper simples premier exemple

play09:50

imaginez vous avez envie de faire

play09:52

rédiger des mail sans avoir o vous

play09:54

emmerder par exemple vous êtes en retard

play09:58

pour vos client où vous êtes en retard

play10:00

au travail et ben vous avez besoin

play10:01

d'écrire un mail formel mais vous vous

play10:03

avez un peu la flemme et vous savez que

play10:04

maintenant ça se fait très bien et ben

play10:06

quel est le moyen le plus rapide de

play10:08

faire ça avec son clavier et ben ce que

play10:09

vous créez c'est un raccourci recast qui

play10:11

va appeler oliama sur un modèle local

play10:15

pour vous fournir une réponse et la et

play10:17

la mettre dans votre pressepier mon

play10:18

cerveau est trop petit pour imaginer

play10:19

tout ce qui est possible de faire avec

play10:21

ça et si vous vous avez des workflow des

play10:23

des idées justement donnez-les nous

play10:24

parce que c'est vraiment c'est un bac

play10:26

àble de fou la première démot que je

play10:27

vous montre donc c'est le process donc

play10:29

ça c'est la fenêtre de recast dans

play10:30

laquelle on peut créer une commande

play10:33

custom c'est la première fonction et

play10:35

donc c'est là où on va pouvoir

play10:36

sélectionner le modèle local qu'on veut

play10:37

utiliser ainsi que un template

play10:40

j'aimerais que tu rédiges un mail avec

play10:41

un ton formel qui explique

play10:44

ceci voilà ça m'a pris 4 secondes à

play10:46

créer ce qui est quand même un argument

play10:49

important et je lu demande juste de de

play10:50

signer mon mail avec une petite

play10:52

signature des

play10:55

familles CEO micor une fois que c'est

play10:58

fait on crée l'extension donc là je je

play11:01

viens de faire un commande entrée et

play11:02

donc ça crée le le raccourci qui que

play11:04

j'appelle rédige un mail please donc là

play11:06

en fait tu paramettre ta commande pour

play11:07

pouvoir l'utiliser plus tard exactement

play11:09

par que j'ai j'ai pas compris ça c'est

play11:11

le paramétrage de la commande une fois

play11:13

que c'est fait je peux à tout moment

play11:15

l'invoquer simplement dans RAST en 4

play11:18

secondes j'écris je suis en retard boss

play11:20

je sélectionne le texte j'invoque

play11:23

rédige-moi un mail et Pam il se met à me

play11:25

rédiger un long mail formel pour

play11:27

expliquer à mon entreprise

play11:29

pourquoi je suis en retard ouais là il y

play11:30

va là il faut dire que il est quand même

play11:33

bien

play11:33

verbeux nous travaillons actuellement

play11:35

avec toutes nos ressources pour résoudre

play11:36

ce problème réduire le temps de retard

play11:38

non mais tu tu le temps que ça m'aurait

play11:40

pris de rédiger cette excuse B là tu te

play11:42

fais virer si tu envoies un mail auss

play11:44

long à ton boss alors que tu es en

play11:45

retard tu es foutu évidemment ce ce

play11:48

template est perfectible vous avez vu il

play11:50

fait que une phrase il suffirait de

play11:51

l'améliorer un petit peu ce qui est cool

play11:53

c'est que une fois que c'est fait c'est

play11:54

fait une fois pour toutes c'estàd toutes

play11:55

les prochaines fois où tu pourras en

play11:57

avoir besoin tu as plus à te souvenir de

play11:59

quel était ton template un deuxième

play12:00

exemple beaucoup plus simple qui va en

play12:01

plus vous parler c'est un système pour

play12:03

corriger vos fautes d'orthographe

play12:04

automatiquement par exemple vous rédigez

play12:06

une phrase pleine de faut d'orthographe

play12:08

pareil juste vous la sélectionnez

play12:10

raccourci ras corrige-moi mes faut

play12:12

d'orthographe voilà la phrase c'était

play12:13

juste plein de fautes il me l'a changé

play12:15

en plein de défauts il se trouve que mon

play12:16

mon prompte est pas très optimisé

play12:18

faudrait que je lui demande de sortir

play12:19

uniquement mon résultat même chose en 4

play12:21

secondes vous pouvez même le le binder

play12:23

sur un raccourci clavier voilà vous êtes

play12:24

en train de rédiger un mail vous faites

play12:26

sélection raccourci clavier toutes vos

play12:28

fautes sont CORG avec une vraie

play12:30

intelligence c'est pas un autocorrecteur

play12:31

de merde tout ça sans aucune friction en

play12:33

local sans internet c'est quand même de

play12:35

la magie noire oui de ouf je vous

play12:37

propose de voir les résultats quand même

play12:39

est-ce queon a eu des TikTok virau

play12:40

est-ce que grâce à cet outil nous allons

play12:42

faire un buzz interplanétaire c'est

play12:45

maintenant les résultats smartphone DIY

play12:47

à l'aide de composant Open Source ok

play12:49

donc il a bien compris le sujet et là il

play12:51

nous met un score de viralité de 80 sur

play12:53

100 est-ce que c'est bien ou pas

play12:53

Benjamin ouais 80 c'est pas mal surtout

play12:55

que en général il dit ouais c'est en

play12:56

français donc déjà de base ton score de

play12:57

viralité il descend un petit peu comme

play12:59

tu es pas américain tu as ça qui descend

play13:01

un peu ah c'est logique par contre à

play13:02

l'heure des charges vous avez un cadrage

play13:04

un peu vraiment spécial pour pour vos

play13:06

trucs donc là son cadrage il l'a fait

play13:08

parce qu'ils ont des cadrages

play13:08

automatiques qui marchent bien la

play13:10

majeure partie du temps mais vous là

play13:11

avec votre layout il y a moyen voyons

play13:13

voir ce que ça donne ça c'est un truc

play13:14

qui est fait avec des composants qui

play13:17

peuvent s'acheter sur internet le projet

play13:19

qui est Open Source donc là

play13:20

théoriquement moi de chez moi si j'ai

play13:21

une imprimante 3D et que j'achète les

play13:24

bons composants je peux refaire le

play13:25

téléphone exactement et normalement il

play13:27

est chargé voà on va voir si jamais il

play13:29

va démarrer trop St W franchement c'est

play13:32

juste très zoomé l'interface est très

play13:34

cool voilà il y a franchement c'est joli

play13:37

il faut alors il faut taper avec des

play13:38

ongles parce que c'est un écran ongles

play13:40

parce que c'est un écran résistif et oui

play13:42

malheureusement alors comment on

play13:44

revientet seulement donc c'est c'est

play13:46

vraiment beaucoup moins cher il arriv ou

play13:49

trop fort bon là je peut-être coupé un

play13:50

peu avantant regarde justement attends

play13:52

cé pas encore non mais clique sur Edit

play13:54

export maintenant là tu vas dans vidéo

play13:56

en fait le tag vidéo là en haut à gauche

play13:59

voilà ici et là du coup Mike tu peux tu

play14:02

peux rajouter du texte au-dessus ou tu

play14:04

peux en enlever en dessous en fait tu

play14:06

viens retravailler un petit peu ton ton

play14:08

script mais sur le texte directement

play14:09

ouais là sur le script clique sur le

play14:10

texte que tu as sélectionné il va te

play14:12

proposer de faire ad par exemple tu vois

play14:13

en bas tu as une timeline tu peux

play14:14

agrandir ou pas le truc ou fait je pense

play14:17

tu dois sélectionner un texte et faire

play14:18

ad dessus et sinon après si tu vois si

play14:20

tu es pas satisfait des des des cadrages

play14:21

qu'il a fait tu vas dans le l'onglet

play14:23

crop là-haut là pour chaque tronçon tu

play14:24

as tes crops et tu peux choisir et ça

play14:26

c'est ça c'est ton cadrage en fait voilà

play14:28

donc tu peux tu peux retravailler chaque

play14:31

chaque plan non mais et surtout pour

play14:32

préciser le choix des phrases de la

play14:34

première phrase du TikTok c'est le

play14:35

moment le plus important c'est ça qui

play14:37

qui fait tout dans dans cet algorithme

play14:39

fou c'est super bien pensé je trouve

play14:41

comme début d'histoire en sachant que

play14:43

nos vidéos s'y prêtent pas forcément

play14:45

parce que souvent on fait des longs

play14:46

tunnels des discussions qui qui évoquent

play14:48

un même sujet pendant très longtemps et

play14:50

j'avoue je suis assez assez épaté du

play14:51

résultat Blant on va le publier sur

play14:53

TikTok moi ce que je dis de mon

play14:55

expérience perso du du truc malgré tout

play14:57

il y a toujours un un petit peu de

play14:59

retravail sur le premier je qui te file

play15:01

mais ça ça te simplifie déjà tellement

play15:03

la tâche de base sans plus attendre je

play15:05

vous propose de passer à l'outil suivant

play15:06

c'est sûr que vous avez déjà eu besoin

play15:08

d'un truc de ce genre par le passé et

play15:10

vous êtes demandé mais où est-ce quel

play15:12

truc je pourrais utiliser pourquoi il y

play15:13

a un paywall partout pour faire ça alors

play15:15

que ça paraît pas si compliqué vous

play15:17

connaissez tous remove BG par exemple ou

play15:19

des trucs comme ça c'est que des

play15:20

services qui vous proposent d'enlever le

play15:22

fond d'une image de faire un détourage

play15:24

de qualité avant c'était horrible

play15:27

maintenant avec lia c'est moins horrible

play15:29

mais j'ai pas compris pourquoi pendant

play15:31

encore des années il y avait beaucoup de

play15:33

services mais ils étaient tous un peu

play15:34

complexes et il te faisaient souvent

play15:35

très payer si tu voulais avoir de la

play15:36

bonne résolution et ben j'ai une annonce

play15:39

à vous faire si vous êtes concerné un

play15:40

modèle ouvert et gratuit est sorti qui

play15:43

permet de faire du détourage super quali

play15:45

et tout le monde peut l'utiliser là de

play15:47

chez vous directement dans votre

play15:49

navigateur avec ce cette petite

play15:50

démonstration de hugging face c'est pas

play15:53

le plus impressionnant dans le sens où

play15:54

bah c'est de l'édition d'image quoi ça

play15:56

fait longtemps qu'on sait le faire c'est

play15:57

quand même bluffant pas par la qualité

play15:59

du résultat donc là vous pouvez voir que

play16:01

les petites ombres tout les les petits

play16:03

cheveux tout ça est super bien détouré

play16:05

j'étais heureux j'ai j'ai vu ça je bah

play16:07

génial encore une une nouvelle brique

play16:09

dans l'arsenal open source que on a on a

play16:12

tous à notre dispo maintenant mon projet

play16:13

suivant pour le coup est bien plus

play16:15

complexe là vous allez voir on commence

play16:17

à à rentrer dans des outils qui vont

play16:20

seulement intéresser les plus motivés

play16:22

d'entre vous et ceux qui ont des grosses

play16:24

grosses envies d'automatisation

play16:26

peut-être que vous avez déjà vu des

play16:27

interfaces nodal qui permettent de créer

play16:30

des sortes de graphes logique entre

play16:32

différents nœuds ok bon c'est de la

play16:34

c'est la fameuse programmation visuelle

play16:36

je vous avis parlé de n8n à une certaine

play16:38

époque mais c'est tous ces systèmes qui

play16:39

permettent à n'importe qui de programmer

play16:42

avec une interface graphique c'est plus

play16:44

joli moi je comprends ça permet d'aller

play16:46

un peu plus vite si on s'est pas

play16:47

développer et cetera même si on sait

play16:48

d'ailleurs et depuis un certain temps

play16:49

des interfaces de ce type là existent

play16:51

pour lia et en gros la promesse et de

play16:53

vous dire on te file une brique chat GPT

play16:55

une brique d'Ali une brique de détection

play16:58

d'objets une brique de transcription et

play17:00

avec tout ça tu peux c'est un bacassable

play17:02

tu fais ce que tu veux tu peux connecter

play17:04

tout tous ces nœuds ensemble euh et pour

play17:07

automatiser ton travail et partir au bas

play17:08

à masse le problème spoiler la plupart

play17:11

de ces outils sont nuls en tout cas moi

play17:15

je ne les aime pas non mais je vais

play17:17

m'expliquer je vais défendre ma te mais

play17:19

typiquement des langes flow ou des

play17:21

choses comme ça on peut vous montrer à

play17:22

quoi ça ressemble ils ont toujours des

play17:24

pages de des landing page super sexy ces

play17:26

gens ils ont toujours des interfaces qui

play17:28

sonts Léchet et pourtant moi je je

play17:31

défends que ça ne me satisfait pas

play17:33

pourquoi parce que en général on va

play17:34

devoir rentrer un petit peu dans la

play17:36

technique mais vous allez voir c'est

play17:37

intéressant ils sont basés sur des gros

play17:39

gros framework comme on appelle c'est

play17:41

des des librairies pour développeurs qui

play17:44

sont en Python et qui qui sont un peu

play17:47

tentaculaires qui essaient de tout faire

play17:48

en même temps comme longchain par

play17:50

exemple c'est très bien c'est un bon

play17:51

bacassable mais le le gros problème de

play17:53

de créer des des systèmes comme ça c'est

play17:56

c'est là vous allez passer du temps vous

play17:57

allez travailler vous vous allez créer

play17:58

des automatisations qui ont

play18:00

potentiellement beaucoup de valeur pour

play18:01

vous pour votre travail pour votre

play18:02

entreprise ou pour juste pour vous pour

play18:04

gérer votre vie et donc vous avez envie

play18:05

de de construire sur du rock quoi pas

play18:08

sur un truc un peu pété qui risque de

play18:10

d'exploser à la prochaine mise à jour ou

play18:12

qui marche une fois sur trois et le

play18:13

problème de la plupart de ces outils

play18:14

c'est que du coup ils sont basés sur

play18:15

Python et pourquoi c'est un problème

play18:17

parce que Python a été utilisé dans lia

play18:20

est devenu le langage par défaut de Lia

play18:22

parce que il est extrêmement

play18:23

compréhensible et facile à prendre en

play18:25

main rien ne ressemble plus à de

play18:26

l'anglais que Python finalement et donc

play18:28

pour une audience de chercheurs en

play18:30

intelligence artificielle qui ne sont

play18:31

pas des développeurs et ben c'est

play18:32

parfait pour qu'il puissent manipuler

play18:34

les concepts qu'ils connaissent

play18:35

mathématique ou de recherche sans avoir

play18:38

la lourdeur des plus des langages plus

play18:40

bas niveau pour faire tourner des

play18:41

modèles d'IA sur des des serveurs dans

play18:43

le Cloud par exemple ça ne pose pas

play18:45

vraiment de problème on sait gérer cette

play18:46

complexité de déployer des modèles de

play18:48

Python des choses comme ça mais mais

play18:49

mais pour l'air d'aujourd'hui qui je le

play18:52

répète est lié à local ce n'est pas

play18:55

adapté du tout python n'est pas du tout

play18:57

fait pour pour être déployé sur des

play18:59

appareils en local à grande échelle ça

play19:01

n'a pas vraiment été pensé pour ça il y

play19:02

a des stratégies qui permettent de la

play19:04

typiquement dans les applis qu'on a cité

play19:06

ils auraient pu essayer de tordre le

play19:08

langage on va dire d'utiliser des des

play19:09

techn spécifiques genre je sais plus

play19:11

comment elle s'appelle pinall ou des des

play19:13

choses comme ça qui permettent voilà de

play19:15

faire une sorte de gros sac où où on met

play19:18

python littéralement le langage entier

play19:19

dedans pas le serpent et et votre code

play19:21

et le trucs c'est en gros c'est

play19:23

dégueulasse c'est possible mais c'est

play19:25

dégueulasse il faut pas faire ça et et

play19:27

donc on se retrouve dans une situation

play19:28

terrible qui doit vous concerner si vous

play19:30

êtes intéressé par lia et lia local il y

play19:33

a plein de nouveaux modèles partout tout

play19:34

le monde a des idées d'applis de choses

play19:36

à faire mais on n pas du tout la base

play19:38

l'architecture qui permet de proprement

play19:40

déployer des applis de ce genre à grande

play19:43

échelle sur des machines de façon

play19:44

optimisée il y a un vrai manque à ce

play19:46

niveau-là aujourd'hui tu veux commencer

play19:48

en tant que développeur à créer une

play19:49

appli révolutionnaire pour Mac ou pas ou

play19:52

sur Windows pour révolutionner je sais

play19:53

pas quoi avec de li local tu es un peu

play19:55

et tu peux pas utiliser des des

play19:57

des applications comme ça des systèmes

play19:58

de graphe qui vont te faciliter la vie

play20:00

cette longue introduction était

play20:01

importante pour vous présenter le projet

play20:03

du jour floneum ça s'appelle alors

play20:06

flonum vous allez voir attention je vous

play20:08

préviens ça ne paye pas de mine donc

play20:09

l'interface est immonde attendez la pire

play20:13

tu l'as tellement non mais objectivement

play20:16

l'interface est assez infamme à utiliser

play20:18

comme vous pouvez le voir on garde ce

play20:19

principe de graphe à gauche sur lesquel

play20:21

on peut éditer des entrées des sorties

play20:23

des choses comme ça donc par exemple tu

play20:24

peux avoir demandé de à un mistral de

play20:26

générer du texte en local après tu peux

play20:29

demander de de faire une recherche sur

play20:30

Google toujours en local c'estàdire que

play20:32

c'est vraiment le logiciel qui fait la

play20:34

recherche en arrière-plan tu peux

play20:36

demander d'ouvrir chrome par exemple et

play20:37

de charger une page si tu as besoin de

play20:38

faire ça tu peux demander d'écouter un

play20:40

son et de faire de la transcription tu

play20:42

peux demander d'analyser une image bref

play20:44

tous les fondamentaux de Lia moderne

play20:47

pourquoi ça c'est différent de tout le

play20:48

reste que je vous ai montré et pourquoi

play20:50

en réalité c'est pas cette interface qui

play20:51

est le plus important mais c'est ce

play20:53

qu'il y a derrière qui je pense pourrait

play20:55

intéresser énormément de développeurs

play20:57

par la suite c'est que tout ça est

play20:59

développé en rust allez ah la passion du

play21:03

rust qui revient tout ça donc se passe

play21:05

de manière 100 % local avec je vous l'ai

play21:07

dit des technologies faites pour être

play21:10

utilisé sur des appareils de tout à

play21:11

chacun de façon optimisée demain toi tu

play21:14

peux peut-être inventer un nouveau

play21:15

module qui permet avec une IA de

play21:17

détecter s'il y a un sponsor dans une

play21:19

vidéo par exemple et ben tu tu pourrais

play21:21

publier un module que tous les

play21:23

utilisateurs de floneum pourraient

play21:25

intégrer dans leur graphe je vous passe

play21:26

les détails mais si vous êtes un

play21:28

développeur sur ce genre de techno il y

play21:30

a tout ce qu'il vous faut des systèmes

play21:32

de base de données qui vous permettent

play21:33

de d'ingérer des articles des PDF des

play21:35

choses comme ça bref c'est un bacassable

play21:37

assez complet je vais pas vous mentir

play21:38

c'est une alpha c'est vraiment une alpha

play21:40

de Alpha ne pensez pas pouvoir

play21:42

l'utiliser là demain c'est un truc à

play21:44

surveiller à se mettre dans les favoris

play21:45

et voir dans 6 mois à quoi ça va

play21:47

ressembler parce que ce qui est le plus

play21:49

intéressant dans le projet ce n'est pas

play21:50

cette interface par-dessus c'est tout ce

play21:51

qui a derrière en gros c'est toutes les

play21:53

briques qui sont utilisables par tous

play21:55

les développeurs et qui mâchent le

play21:56

travail de liia c'est aussi bête que ça

play21:58

mais demain là vous êtes un développeur

play22:00

rust ou ou autre d'ailleurs vous voulez

play22:03

intégrer des fonctionnalités locales d'

play22:06

utiliser son sa librairie à lui et vous

play22:08

allez gagner un temps fou très très

play22:09

chouette ça m fait beaucoup rire de à un

play22:11

moment j'ai regardé le chat et j'ai fait

play22:13

reste incroyable et tout je me suis

play22:14

rappelé quand était le jour de la

play22:15

Saint-Valentin j'ai dit on a quand même

play22:17

B belle audience de geek ils se sont

play22:19

tous exclamés en mode wou il a dit r

play22:21

incroyable ça m'a fait un peu rire

play22:22

peut-être que actuellement vous êtes en

play22:24

train d'attendre gpt5 et que vous

play22:26

trouvez que voilà les LLM ne sont pas au

play22:28

niveau pour telle ou telle tâche que

play22:30

vous voudriez automatiser quand vous

play22:31

arrivez à ce moment-là c'est que il faut

play22:33

commencer à faire des fine tune mais

play22:34

peut-être que vous vous dites que il

play22:36

faut des millions pour faire du fine

play22:37

tuning donc pour prendre un modèle et

play22:39

continuer à l'entraîner sur vos propres

play22:41

données pour qu'il devienneent encore

play22:42

plus fort il y a pas nécessairement

play22:43

besoin de GPU immense notamment grâce à

play22:46

une technique que les gens qui font du

play22:48

stable diffusion ou des choses comme ça

play22:50

connaissent très bien ça s'appelle le

play22:52

culura ça permet sur un GPU de petite

play22:55

taille de faire une amélioration un fine

play22:58

tuning de n'importe quel modèle avec ses

play23:01

propres données le projet dont je vais

play23:02

vous parler là maintenant il vous prend

play23:04

vraiment par la main dès le début

play23:05

c'estàdire que là vous maintenant vous

play23:07

avez jamais fait ça de votre vie vous

play23:08

êtes pas des ingénieurs en intelligence

play23:10

artificielle et pourtant grâce à ça

play23:12

grâce à HL vous allez pouvoir partir de

play23:15

zéro et créer votre propre modèle F tuné

play23:19

sur vos données et beaucoup

play23:20

d'entreprises constatent que parfois

play23:21

fine tuner un petit modèle sur des tâes

play23:24

précises leur donne les mêmes

play23:25

performances que gpt4 mais il y a une

play23:27

barrière l'entrée il y a une complexité

play23:29

qui avec ce projet est complètement

play23:30

enlevé ils vous prennent vraiment par la

play23:32

main même si vous y connaissez rien et

play23:35

vont vous expliquer comment voilà

play23:36

générer des données qui ont le bon

play23:38

format pour entraîner votre proprea ils

play23:40

vous ont préparé des Google collab c'est

play23:42

un système de Google qui permet de faire

play23:44

tourner du code sur des des GPU qui que

play23:47

vous pouvez louer facilement sans même

play23:48

avoir d'ordi très puissant tout ça est

play23:50

préparé pour vous baliser il y a tous

play23:52

les tutos tout est expliqué et surtout

play23:53

ils ont optimisé à mort le processus de

play23:57

fine tuning d'apprentissage trop bien il

play23:59

y a eu pas mal de benchmarks qui ont été

play24:01

fait entre Ben les le le process lambda

play24:04

habituel les librairies standard pour

play24:06

faire du fine tuning et un sloss et ils

play24:07

arrivent à faire des x 1,5 ou x 3 sur

play24:11

les sur les vitesses d'apprentissage

play24:12

combiné à des besoins en VRAM qui sont

play24:15

beaucoup plus petits ce qui vous limite

play24:17

le plus rapidement quand vous faites de

play24:18

Lia en fait c'est la quantité de mémoire

play24:20

de vos GPU pas nécessairement leur

play24:22

puissance parce que à la limite si tu as

play24:24

un GPU qui est un peu moins puissant tu

play24:25

peux juste attendre plus longtemps

play24:26

finalement la mémoire

play24:28

c'est le truc qui limite tout le monde

play24:29

et qui fait qu'on est tous là à pas

play24:31

pouvoir faire tourner les meilleurs

play24:32

modèles parce qu'on a pas des cartes

play24:33

graphiques avec 40 Go la solution pour

play24:36

ça c'est d'optimiser en utilisant

play24:37

unslotth qui vous demandera beaucoup

play24:39

beaucoup moins de mémoire pour faire un

play24:40

même entraînement le chat posa une

play24:42

question importante à savoir le prix et

play24:44

bien tout ça est parfaitement Open

play24:46

Source vous pouvez le faire tourner sur

play24:48

vos propres machines ou alors sur un

play24:49

Google collab ils ont une version pro je

play24:51

crois où ils poussent encore plus loin

play24:53

certaines op faire tourner pour nous non

play24:55

est-ce qu'ils ont des carts graphiques

play24:56

en location ou une voilà c'est le pro

play24:59

justement ils vont pousser encore les

play25:01

les opti et ils vont vous accompagner

play25:03

encore plus loin avec le ripo gitup tout

play25:05

simplement avec leur ça c'est dire tu

play25:07

peux tester avant de exement faire de la

play25:09

faire de la merde avec des petits

play25:11

documents comme ça tu mets comme ça pu

play25:12

vous n'avez plus d'excuses je veux voir

play25:14

des modèles créés par la communauté je

play25:16

veux voir des culoras spécialisés à

play25:18

faire des choses varié faites des trucs

play25:20

par exemple en français je trouve qu'il

play25:22

manque pas mal de modèles français cette

play25:24

barrière à l'entrée a a trop longtemps

play25:26

limité le potentiel de des modèles fine

play25:28

tuné elle a été levée il ne tient qu'à

play25:30

vous maintenant de faire des modèles

play25:32

entraînés sur des taches précises qui

play25:33

explosent open ai c'est parti à vous de

play25:37

jouer si vous avez aimé cette vidéo je

play25:38

vous conseille vivement d'aller voir la

play25:39

chronique que j'ai fait sur azai OS un

play25:42

système d'exploitation alternatif qui va

play25:44

vous faire courir acheter un

play25:51

Mac

Rate This

5.0 / 5 (0 votes)

Related Tags
Intelligence ArtificielleApplications InnovantesProductivitéGénération de ContenuOutils de MarketingFonctionnalités AvancéesDéveloppement PersonnelFonctionnalités Open SourceTechnologies de PointeFonctionnalités de Recherche
Do you need a summary in English?