4 logiciels qui devraient être payants (tellement ils sont ouf)
Summary
TLDRDans cette vidéo, l'auteur présente plusieurs outils et projets liés à l'intelligence artificielle, notamment Clap pour créer des formats verticaux à partir de vidéos YouTube, Better Dictation pour améliorer la dictée sur Mac, Oliama pour gérer les modèles locaux, RAST pour des raccourcis claviers personnalisés et Floneum, un outil basé sur Rust pour l'automatisation en local. Il insiste sur la facilité d'utilisation de ces outils et leur potentiel pour améliorer la productivité, tout en soulignant l'importance de l'open source et de la communauté dans le développement de modèles IA fine-tunés.
Takeaways
- 🚀 Des projets d'applications basées sur l'IA sont de plus en plus accessibles et utiles pour le grand public.
- 📺 L'outil Clap permet de créer des formats verticaux automatisés à partir de vidéos YouTube.
- 🎥 Des démos impressantes montrent la capacité de Clap à analyser et extraire des segments viraux de vidéos.
- 💬 L'application BetterDictation aide à gagner du temps dans la gestion des messages privés grâce à la dictée vocale.
- 🗣️ Whisper V3 est un modèle de transcription de haute qualité, mais son integration dans les workflows peut être complexe.
- 🖥️ Oliama est un outil qui simplifie l'installation et l'utilisation de modèles locaux d'IA sur un Mac.
- 🛠️ RAST est une alternative à la barre de recherche de Mac OS, offrant des fonctionnalités de productivité avancées.
- 🔄 Floneum est une plateforme en alpha qui permet aux développeurs d'utiliser des briques modernes de l'IA de manière locale et optimisée.
- 🌐 Un nouveau modèle ouvert et gratuit est disponible pour effectuer un détourage de qualité à partir d'images.
- 📈 Des outils de programmation visuelle comme n8n permettent une automatisation de tâches complexes sans connaissances de programmation.
- 🤖 Des projets Open Source comme la technique de fine-tuning avec unslotth mettent à disposition des outils pour fine-tuner des modèles d'IA sur des données spécifiques.
Q & A
Quel est le projet nommé Clap et comment fonctionne-t-il?
-Clap est un service Web qui, à partir d'une chaîne YouTube, crée des formats verticaux automatiquement. Il permet de découper une vidéo en petits extraits, d'ajouter des sous-titres et d'analyser le transcript pour extraire des passages viraux. Les utilisateurs peuvent éditer ces extraits en utilisant un éditeur intégré.
Comment l'application Better Dictation peut-elle améliorer la productivité des utilisateurs?
-Better Dictation est une application installable sur Mac qui permet aux utilisateurs d'utiliser la dictée vocale pour gagner du temps dans l'envoi de messages, en particulier les messages privés. Elle offre une expérience de transcription fluide grâce à un modèle de transcription de haute qualité, permettant une intégration agréable dans les messageries et les applications de communication comme Twitter, Discord et Slack.
Quel est le rôle d'Oliama dans la gestion des modèles locaux?
-Oliama est une application qui simplifie la gestion et l'utilisation de modèles locaux en inventant une nouvelle syntaxe pour décrire un modèle. Elle permet aux utilisateurs de lancer n'importe quel modèle en utilisant une simple ligne de commande, sans avoir à se soucier de la gestion des mises à jour ou de l'installation des modèles.
Comment RAST améliore-t-il l'expérience utilisateur sur Mac?
-RAST est un launcher qui offre une alternative à la barre de recherche de Mac OS. Il agit comme une tour de contrôle qui permet aux utilisateurs d'interagir avec toutes leurs applications, de lier des raccourcis clavier et de développer des modules personnalisés pour améliorer leur productivité sur Mac.
Quel est le potentiel de l'outil Floneum pour les développeurs?
-Floneum est un projet en alpha qui offre une plateforme basée sur Rust pour les développeurs. Il permet de créer des applications locales en utilisant des technologies optimisées pour les appareils de tous les utilisateurs. Bien que l'interface utilisateur ne soit pas polie, le potentiel de Floneum réside dans ses briques de base qui sont utilisables par tous les développeurs pour intégrer des fonctionnalités de l'IA dans leurs projets.
Comment le projet de fine-tuning mentionné dans le script aide-t-il les utilisateurs à créer leurs propres modèles?
-Le projet de fine-tuning offre une solution open-source qui guide les utilisateurs, même sans connaissances en intelligence artificielle, pour créer leur propre modèle fine-tuné à partir de zéro. Il fournit des tutoriels détaillés, des scripts préparés pour Google Colab, et des optimisations pour la mémoire GPU, permettant ainsi aux utilisateurs de fine-tuner des modèles sur des tâches précises avec une entrée minimale.
Quelle est la solution proposée pour optimiser l'apprentissage des modèles sans GPU puissant?
-L'optimisation de l'apprentissage des modèles est obtenue grâce à une technique appelée unslotth, qui demande beaucoup moins de mémoire GPU pour effectuer le même entraînement. Cela permet d'optimiser les performances de l'apprentissage et de réduire les coûts liés à l'utilisation de GPU puissants.
Comment le projet de fine-tuning compare-t-il en termes de vitesse et de consommation de mémoire par rapport aux méthodes standard?
-Les benchmarks montrent que le processus de fine-tuning proposé par le projet est 1,5 à 3 fois plus rapide que les méthodes standard et les librairies traditionnelles. De plus, il consomme beaucoup moins de mémoire GPU, ce qui est un facteur clé limitant pour de nombreux utilisateurs.
Quels sont les avantages de l'utilisation de Google Colab pour les utilisateurs qui ne possèdent pas d'ordinateur puissant?
-Google Colab permet aux utilisateurs de faire tourner du code sur des GPU loués facilement, sans avoir besoin d'un ordinateur très puissant. Cela leur donne la possibilité d'effectuer des tâches qui nécessitent des ressources importantes en matière de calcul, comme le fine-tuning de modèles d'IA, sans investissements lourds en matériel informatique.
Quel est le rôle de la communauté dans le développement de modèles fine-tunés?
-La communauté a un rôle clé dans le développement de modèles fine-tunés en créant des modèles spécialisés pour répondre à des besoins précis et variés. Cela permet de diversifier l'offre de modèles disponibles et d'augmenter la portée des applications de l'IA dans différents domaines et langues.
Outlines
🤖 Introduction aux projets d'IA et applications sélectionnées
Le paragraphe introduit des projets et applications d'IA qui sont encore peu connus mais qui commencent à maturiser technologiquement, devenant ainsi utilisables et intéressantes pour le grand public. Parmi les applications présentées, il y a des services immédiatement installables sur Mac pour gagner du temps, ainsi que des outils plus avancés pour ceux qui souhaitent améliorer ou fine-tuner des modèles. Le présentateur mentionne Clape, un service Web qui crée des formats verticaux automatisés à partir de vidéos YouTube, et Better Dictation, une application pour améliorer l'efficacité de la dictée vocale sur Mac.
🚀 Utilisation de Better Dictation et d'Oliama pour l'automatisation de tâches
Dans ce paragraphe, l'accent est mis sur l'utilisation de Better Dictation pour améliorer la vitesse d'écriture en utilisant la dictée vocale, et d'Oliama, une application qui permet de gérer et d'utiliser facilement des modèles d'IA localement sur un Mac. L'auteur montre comment ces outils peuvent être intégrés dans le workflow quotidien pour gagner en productivité et en efficacité, en particulier pour les utilisateurs de Mac qui cherchent à optimiser leur gestion de tâches et de communications.
🎥 Création de contenu avec des outils d'automatisation
Le paragraphe présente des exemples de création de contenu en utilisant des outils d'automatisation, notamment pour rédiger des e-mails formels ou pour corriger des fautes d'orthographe. L'auteur montre comment les outils comme RAST et Oliama peuvent être combinés pour créer des automatisations personnalisées, comme la génération de réponses à des e-mails ou la correction automatique d'erreurs. Il insiste sur la facilité d'utilisation de ces outils et leur potentiel pour améliorer la productivité et la créativité.
🌐 Détourage d'images et introduction à des outils de programmation visuelle
Dans ce paragraphe, l'auteur discute de l'utilisation de modèles ouverts et gratuits pour le détourage d'images, comparant les résultats obtenus avec des services payants comme Remove BG. Il aborde ensuite des outils de programmation visuelle comme n8n, qui permettent aux utilisateurs de créer des flux de travail en utilisant des graphes logiques et des nœuds, malgré son propre scepticisme quant à leur efficacité et leur fiabilité à long terme.
🛠️ Présentation de Flonum, un outil de programmation visuelle en Rust
L'auteur présente Flonum, un outil de programmation visuelle développé en Rust, qui permet une utilisation 100% locale et optimisée des technologies. Flonum offre la possibilité de créer des automatisations complexes en utilisant des briques de base de l'IA, telles que la génération de texte, la recherche Google, l'analyse d'images, etc. L'outil est encore en alpha et l'auteur recommande de le surveiller pour voir comment il évoluera à l'avenir. Il souligne l'intérêt pour les développeurs qui pourraient contribuer en publiant leurs propres modules pour l'utiliser avec d'autres applications.
📈 Fine-tuning des modèles d'IA avec des outils accessibles
Le paragraphe se concentre sur la facilité de fine-tuning des modèles d'IA avec l'aide d'outils comme HL, qui rendent accessible le processus même pour les personnes non spécialistes de l'IA. Les utilisateurs peuvent générer des données formatées, utiliser des GPU de petite taille pour le fine-tuning et bénéficier d'une optimisation significative du processus d'apprentissage. L'auteur mentionne également la version Pro de l'outil, qui offre des fonctionnalités supplémentaires pour les utilisateurs expérimentés. L'accent est mis sur l'Open Source et la communauté, qui est encouragée à créer des modèles spécialisés pour différentes tâches.
🎓 Encouragement à l'exploration et à la création de modèles d'IA par la communauté
Le dernier paragraphe encourage la communauté à explorer et à créer des modèles d'IA spécialisés à l'aide des outils mentionnés précédemment. L'auteur exprime son désir de voir des modèles créés par la communauté, notamment en français, pour répondre à des besoins précis et variés. Il souligne que la barrière à l'entrée a été levée grâce à la facilité d'utilisation des outils de fine-tuning, et invite les utilisateurs à s'engager dans la création de modèles personnalisés.
Mindmap
Keywords
💡Intelligence Artificielle
💡Applications Mobiles
💡Maturité Technologique
💡Sélection de Projets
💡Outil de Productivité
💡Fine Tuning
💡Modèles d'IA
💡Découper Vidéos
💡Sous-Titres Automatiques
💡Génération de Contenu
💡Optimisation de la Productivité
Highlights
Sélection de projets d'applications pour profiter de la maturité des nouvelles technologies d'intelligence artificielle.
Présentation de quatre projets différents qui pourraient impressionner les utilisateurs.
Clap, un service Web qui crée des formats verticaux automatisés à partir de vidéos YouTube.
Démonstration de l'utilisation de Clap pour extraire des sujets potentiels à partir de podcasts et les classer par ordre de viralité.
Proposition de test en direct pour démontrer la capacité de Clap à générer des clips vidéo.
Présentation de l'application Better Dictation pour améliorer l'efficacité de la dictée sur Mac.
Explication de l'utilisation de Better Dictation avec un raccourci clavier pour transcrire des messages oraux en texte.
Oliama, une application pour gérer et utiliser localement des modèles d'intelligence artificielle.
Démonstration de l'installation et de l'utilisation de modèles avec Oliama en une simple ligne de commande.
Rast, un launcher pour Mac OS qui permet d'interagir avec toutes les applications et de créer des modules personnalisés.
Exploitation de la combinaison d'Oliama et Rast pour créer des automatisations avancées sur Mac.
Présentation de Floneum, un projet en alpha qui permet aux développeurs d'intégrer des fonctionnalités locales优化利用现代的IA技术。
Explication de la création d'un modèle fine-tuned avec des données spécifiques grâce à un projet open-source.
Démonstration de la facilité d'utilisation pour les non-experts en intelligence artificielle grâce à un outil de fine-tuning simplifié.
Mise en évidence de la réduction significative de la mémoire GPU nécessaire grâce à l'optimisation de l'entraînement.
Discussion sur la nécessité de fine-tuning pour améliorer les performances des modèles d'IA sur des tâches spécifiques.
Transcripts
vous le savez ici on aime bien
sélectionner des projets des applis que
les gens ne connaissent pas trop parce
que depuis une année on commence à avoir
une maturation une maturité de tous ces
nouvelles technologie d'intelligence
artificielle suffisamment pour que ça
commence à devenir utilisable et
intéressant pour le commun des mortels
dans les applis que je je vous ai
sélectionné il y a à la fois des
services des applis que vous pouvez
installer dès maintenant sur votre Mac
pour gagner du temps ainsi que des
outils un peu plus avancé si vous voulez
pousser le curseur si vous êtes dans la
team des gens qui veulent par exemple
commencer à améliorer des des modèles
vous-même à faire des fine tuning des
choses comme ça bon je rentre pas trop
dans le détailér mais voilà je je vais
vous présenter quatre projets différents
qui je pense vont vous faire halluciner
le premier il s'appelle clap c'est un
service Web à qui vous donnez une chaîne
Youtube et à partir de ça il vous créer
des formats verticaux tout seul de A à Z
c'est ça que j'ai trouve intéressant
c'est que j'avais déjà vu des démos avec
des petites bribes tu vois le fait de
découper une vidéo en en petits extraits
ou le fait de rajouter automatiquement
des sous-titres j'avais vu toute cette
petite brique mais le côté vraiment de A
à Z et assez impressionnant et comme
vous voyez on peut voir du dans les
démos on peut voir du Hugo descrypt je
sais pas s'il est c'est parce qu'il est
vraiment client ou si c'est juste leur
démo je pense c'est leur démo mais en
vrai c'est des Français qui font ça et
ben voilà Benjamin peut-être que tu ils
sont hyper cool c'est deux frenchy qui
font ce truc là depuis que je me suis
lancé sur mon SAS et tout on est en
contact tout le temps on s'envoie des
messages tous les jours et tout et je
suis un power user de de leur truc de
Clape en fait parce que le podcast qu'on
a avec William l'ascenseur après moi
chaque semaine je l'envoie dans la
moulin de Clape comme ça et il m'isole
10 potentiels sujets classés par ordre
de viralité en fait parce qu'il analyse
le le tout le transcript il chope des
passages virau en gros il me les sort
comme ça après tu as un éditeur si tu
veux rajouter un peu d'avant un peu
d'après enlever quelques mots et cetera
tu peux tout faire et c'est trop trop
bien foutu je leurais suggéré des tonnes
de de features en tant que Power User je
disais est-ce que vous pouvez rajouter
si ça et ça et ça et ça c'est trop bien
quand c'est des des gens accessibles
comme ça c'est que les features que tu
demandes elles sont inclus dans
le ça ça fait trop plaisir je vais vous
dire la la meilleure Fitur qu'ils ont
ajouté dernièrement qui qui est vraiment
je trouve la clé de leur truc générer un
clip par rapport à ce que vous souvenez
que vous avez dit en fait donc tu lui
dis j'ai parlé de ça vite fait dans le
live j'aimerais bien avoir ce passage et
lui en fait il va le retrouver il va te
faire le truc parce que parfois tu te
souviens que tu as parlé d'un truc
pendant l'émission tu dis vas-y retrouve
ce passage bou bou bou il te fait le
truc tu as ton clip qui est fait en 2
secondes et là tu fais ah ouais non ce
que je trouve génial c'est que c'est ça
s'adresse à un problème où c'est très
chiant de faire ça en fait il même les
monteurs et tout ils ont enfin chiant ça
fait ça fait plaisir à personne de
monter des clips à partir d'un truc très
grand donc c'est cool et c'est
d'ailleurs pour ça que nous und nous ne
faisons pas de TikTok et c'est vrai ça
mais on se fait voler on a la gigafemme
exactement tout va bien on est quand
même disponible mais c'est pas nous et
ben moi je vous propose quelque chose
c'est qu'on fasse un test un test en
direct oh là là on na pas fait ça depuis
2018 wou un test en direct mais je je
vous dis leur t marche trop bien on va
pouvoir vérifier je vous propose de
prendre la deuxè oua la vidéo non avec
le le lycéen qui a construit son propre
téléphone ouais très bien ça oui c'est
en mode podcast trop bien donc là on
colle le lien de la vidéo et hop il
trouve instantanément la bonne vignette
et Cera et nous on va tout cocher on lui
dit que c'est du français max une minute
de durée et c'est parti et et là nous
pant on prend un petit un petit cocktail
voilà on attend quoi pendant que c'est
en train de faire la génération je vous
propose de passer à l'appli suivante qui
pour le coup est installable en local
sur votre machine elle s'appelle better
dictation meilleur trans description OK
et ça va vous permettre de gagner
énormément de temps sur l'envoi de vos
messages notamment de vos messages
privés si vous êtes sur votre Mac vous
avez le choix entre taper au clavier vos
messages ou alors utiliser la dictée
vocale mais personne ne fait ça parce
que ça marche très mal voilà tout ce qui
est mot un petit peu complexe langage
métier globalement c'est pas ouf et donc
on a pris l'habitude de ne pas utiliser
ça sauf que un truc que moi j'ai j'ai
réalisé c'est que sur des longs messages
genre tu prends à partir de 4 C L ligne
à l'oral tu peux mettre jusqu'à 5 fois
moins de temps à composer ton message
qu'à l'écrit faut vraiment se rendre
compte que il y a une différence énorme
entre ton temps de dictter et ton temps
d'écriture et même si tu es le roi du
clavier tu vois oua bien sûr or on sait
que depuis on a des modèles de
transcription type Whisper V3 qui sont
hyper qualis mais jusqu'à présent voilà
pour pour les installer pour pour avoir
un un workflow une intégration agréable
dans tes messageries et dans tes DM
Twitter dans voilà dans ton discord ton
slack tout ça c'est un peu l'air jusqu'à
better transcription le principe est
hyper simple vous allez avoir un
raccourci clavier que vous pouvez
maintenir en même temps que vous parlez
ok pour faire une transcription ce qui
est cool c'est que c'est un push to talk
c'estd que tu es en train de répondre à
un DM sur n'importe quel appli tu
maintiens ton raccourci clavier et tu te
mets à parler et à partir du moment où
tu as retiré ton doigt il commence à
transcrire ton message ce qu'il fait
c'est qu'il va mettre un petit listening
avec trois petits points peu importe là
où où est ton curseur c'est ça qui est
cool c'est que c'est c'est vraiment
n'importe quel appli n'importe quel
endroit et tu le retires ça affiche
transcription rien ne vaut une
démonstration pour vous montrer comment
c'est ceci est un test je suis
actuellement en train de rédiger un très
long message qui m'aurait pris vraiment
très longtemps à écrire et cette
émission vient de commencer et je vois
qu'ils sont en train de meubler pendant
que moi je prépare mes illustrations
voilà ce message est bien long et
regardez la qualité il y a pas je crois
qu'il y a pas une enfin je vois pas une
faute là il y a pas une faute et là vous
avez vu il y un petit temps de latence
ça vient du fait que j'utilise le plus
gros des modèles si vraiment vous êtes
quelqu'un de pressé vous pouvez utiliser
un modèle plus petit Whisper médium par
exemple ou des choses comme ça là moi je
veux que mes messages il soient pixel
perfect ou mes mails parce que c'est
trop bien pour des mails ah oui donc
plus ça prend du temps plus c'est
efficace ok j'ai exactement ça marche en
local sur votre machine il y a pas
besoin d'internet exactement du coup le
Whisper est téléchargé téléchargé il y a
pas besoin d'internet ouis ça marche sur
n'importe quel appli c'est combien de G
le le modèle 4 4 Go peut-être ou quelque
chose comme ça c'est trop bien je crois
que la génération est biôt fini mais
mais mais je vous propose de faire juste
mon application suivante et on ira voir
ça juste après la suivante elle
s'appelle oliama peut-être que vous en
avez entendu parler c'est le modèle de
ma un des premiers concurrents de chat
GPT qu'on avait couvert qui avait fait
beaucoup beaucoup de bruit il y a
quelques mois depuis il y a eu un
florilège de nouveau modèles c'est très
intéressant la plupart d'entre vous je
pense sont perdu parce que il y a trop
de choses trop de nouveautés tout le
temps et vous en avez marre de d'avoir
ce train qui avance sans vous et ben
dites-vous que oliama c'est l'appli
parfaite si vous avez un Mac pour gérer
vos modèles justement pour enlever toute
la friction sur le d'installer un
nouveau modèle et de l'utiliser pourquoi
ce qu'il faut bien comprendre c'est que
le génie deoliama c'est qu'ils ont
inventé une nouvelle syntaxe pour
décrire un modèle Unia qui tourne en
local c'est un peu une fondation qui
leur permet après d'avoir une gestion
des modèles si vous n'êtes pas
développeur vous demander bien à quoi ça
peut servir et ben en une simple ligne
de commande on est on fait oliama run
Mistral par exemple dans son son
terminal et hop on se retrouve à parler
avec Mistral c'est tout et c'est lui qui
s'est chargé automatiquement d'aller
télécharg charger le modèle dans dans sa
dernière version de l'installer en local
et de garder un serveur toujours ouvert
derrière vous pouvez avoir accès à une
liste très très longue de modèles qui
qui sont mis à jour constamment et le
plus intéressant c'est que c'est un
service qui tourne toujours en tâche de
fond si vous avez testé quelques
applications pour utiliser des chat GPT
locaux comme il y a studio LM il y en a
plusieurs des comme ça qui sont très
bien ils ont tous un problème c'est que
on est tous en train de réinventer la
roue constamment et dans chaque appli
télécharger des clones de clones de mod
de et d'avoir des des des copies de de
de la petite brique qui fait les
inférences et ça c'est du gâi c'est
hyper dommage et et surtout ça ne permet
c'est pas du tout péren comme comme
système oliama ils arrivent ils disent
non mais on arrête tout ça maintenant
maintenant tout passe par nous je sais
pas si vous voyez la distinction c'est
plutôt que chacun a sa propre brique tu
as un service qui tourne constamment tu
le vois dans ta dans ta petite barre de
menu sur ton mac qui gère les mises à
jour de modèles qui gère cette
maintenance là et toutes les autres
applis se mettent à discuter avec et
c'est en train de prendre c'est tous les
nouveau modèle un peu cool se mettre à
utiliser oliama parce que c'est une
fondation super robuste c'est pas un
truc pyon un peu crcra c'est fait en Go
enfin voilà le truc est est propre stylé
et c'est une bonne fondation pour tous
les développeurs et les utilisateurs qui
veulent l'utiliser de Lia en local vous
allez me dire ok c'est cool ton truc
mais qu'est-ce queon peut faire
maintenant bah ce que je vous propose
c'est de combiner oliama avec RAST c'est
simplement un launcher une alternative à
la barre de recherche sur Mac OS encore
une fois vous allez penser que cette
barre de recherche sur Mac marche très
bien mais faut vraiment voir ras comme
une tour de contrôle qui vous permet de
d'interagir avec toutes vos applications
et de lier des raccourcis clavier de
développer des module personnalisé sur
votre Mac en fait c'est l'outil de
productivité ultime des gens qui veulent
être plus fast sur Mac tout simplement
moi je l'utilise depuis très longtemps
aussi c'est incroyable ne pas faire une
erreur c'est vouloir tout comprendre
àcast au premier coup il faut se laisser
surprendre tu tu vas pouvoir
potentiellement découvrir des
fonctionnalité dans un an et c'est très
bien parce que si tu cherches à tout
comprendre au début tu vas être submergé
par exemple moi pour écrire mon mail je
je peux noter un at at et ça me met la
PR adresse mail ça me rempl
automatiquement en fait ça ça peut te
faire des raccourcis comme ça pour ceux
qui connaissent Alfred c'est une
alternative moderne qui résout pas mal
de problèmes qu'il avait et
effectivement tu as des snipettes comme
ça où tu peux gagner du temps tes
fenêtres tu peux les mettre où tu veux
en en un raccourci tuas un historique de
ton presspier donc si tu as si tu as
écrit tu as copiercollé un truc qui a 3
jours c'est incroyable hop tu recherches
dansaliste et tu retrouves que si vous
êtes du genre à vous créer des petites
automatisations perso et CEET mais que
vous avez envie d'une belle Inter face
par-dessus et ben plutôt que de pareil
réinventer la roue vous utilisez recast
et ça vous fait une interface parfaite
sur toutes vos automatisation vos
scripts et potentiellement si vous
voulez automatiser des choses avec des
modèles locaux vous pouvez combiner
recast et oliama et là ça devient dingué
je vous fait une petite vidéo de
démonstration avec deux exemples
vraiment hyper simples premier exemple
imaginez vous avez envie de faire
rédiger des mail sans avoir o vous
emmerder par exemple vous êtes en retard
pour vos client où vous êtes en retard
au travail et ben vous avez besoin
d'écrire un mail formel mais vous vous
avez un peu la flemme et vous savez que
maintenant ça se fait très bien et ben
quel est le moyen le plus rapide de
faire ça avec son clavier et ben ce que
vous créez c'est un raccourci recast qui
va appeler oliama sur un modèle local
pour vous fournir une réponse et la et
la mettre dans votre pressepier mon
cerveau est trop petit pour imaginer
tout ce qui est possible de faire avec
ça et si vous vous avez des workflow des
des idées justement donnez-les nous
parce que c'est vraiment c'est un bac
àble de fou la première démot que je
vous montre donc c'est le process donc
ça c'est la fenêtre de recast dans
laquelle on peut créer une commande
custom c'est la première fonction et
donc c'est là où on va pouvoir
sélectionner le modèle local qu'on veut
utiliser ainsi que un template
j'aimerais que tu rédiges un mail avec
un ton formel qui explique
ceci voilà ça m'a pris 4 secondes à
créer ce qui est quand même un argument
important et je lu demande juste de de
signer mon mail avec une petite
signature des
familles CEO micor une fois que c'est
fait on crée l'extension donc là je je
viens de faire un commande entrée et
donc ça crée le le raccourci qui que
j'appelle rédige un mail please donc là
en fait tu paramettre ta commande pour
pouvoir l'utiliser plus tard exactement
par que j'ai j'ai pas compris ça c'est
le paramétrage de la commande une fois
que c'est fait je peux à tout moment
l'invoquer simplement dans RAST en 4
secondes j'écris je suis en retard boss
je sélectionne le texte j'invoque
rédige-moi un mail et Pam il se met à me
rédiger un long mail formel pour
expliquer à mon entreprise
pourquoi je suis en retard ouais là il y
va là il faut dire que il est quand même
bien
verbeux nous travaillons actuellement
avec toutes nos ressources pour résoudre
ce problème réduire le temps de retard
non mais tu tu le temps que ça m'aurait
pris de rédiger cette excuse B là tu te
fais virer si tu envoies un mail auss
long à ton boss alors que tu es en
retard tu es foutu évidemment ce ce
template est perfectible vous avez vu il
fait que une phrase il suffirait de
l'améliorer un petit peu ce qui est cool
c'est que une fois que c'est fait c'est
fait une fois pour toutes c'estàd toutes
les prochaines fois où tu pourras en
avoir besoin tu as plus à te souvenir de
quel était ton template un deuxième
exemple beaucoup plus simple qui va en
plus vous parler c'est un système pour
corriger vos fautes d'orthographe
automatiquement par exemple vous rédigez
une phrase pleine de faut d'orthographe
pareil juste vous la sélectionnez
raccourci ras corrige-moi mes faut
d'orthographe voilà la phrase c'était
juste plein de fautes il me l'a changé
en plein de défauts il se trouve que mon
mon prompte est pas très optimisé
faudrait que je lui demande de sortir
uniquement mon résultat même chose en 4
secondes vous pouvez même le le binder
sur un raccourci clavier voilà vous êtes
en train de rédiger un mail vous faites
sélection raccourci clavier toutes vos
fautes sont CORG avec une vraie
intelligence c'est pas un autocorrecteur
de merde tout ça sans aucune friction en
local sans internet c'est quand même de
la magie noire oui de ouf je vous
propose de voir les résultats quand même
est-ce queon a eu des TikTok virau
est-ce que grâce à cet outil nous allons
faire un buzz interplanétaire c'est
maintenant les résultats smartphone DIY
à l'aide de composant Open Source ok
donc il a bien compris le sujet et là il
nous met un score de viralité de 80 sur
100 est-ce que c'est bien ou pas
Benjamin ouais 80 c'est pas mal surtout
que en général il dit ouais c'est en
français donc déjà de base ton score de
viralité il descend un petit peu comme
tu es pas américain tu as ça qui descend
un peu ah c'est logique par contre à
l'heure des charges vous avez un cadrage
un peu vraiment spécial pour pour vos
trucs donc là son cadrage il l'a fait
parce qu'ils ont des cadrages
automatiques qui marchent bien la
majeure partie du temps mais vous là
avec votre layout il y a moyen voyons
voir ce que ça donne ça c'est un truc
qui est fait avec des composants qui
peuvent s'acheter sur internet le projet
qui est Open Source donc là
théoriquement moi de chez moi si j'ai
une imprimante 3D et que j'achète les
bons composants je peux refaire le
téléphone exactement et normalement il
est chargé voà on va voir si jamais il
va démarrer trop St W franchement c'est
juste très zoomé l'interface est très
cool voilà il y a franchement c'est joli
il faut alors il faut taper avec des
ongles parce que c'est un écran ongles
parce que c'est un écran résistif et oui
malheureusement alors comment on
revientet seulement donc c'est c'est
vraiment beaucoup moins cher il arriv ou
trop fort bon là je peut-être coupé un
peu avantant regarde justement attends
cé pas encore non mais clique sur Edit
export maintenant là tu vas dans vidéo
en fait le tag vidéo là en haut à gauche
voilà ici et là du coup Mike tu peux tu
peux rajouter du texte au-dessus ou tu
peux en enlever en dessous en fait tu
viens retravailler un petit peu ton ton
script mais sur le texte directement
ouais là sur le script clique sur le
texte que tu as sélectionné il va te
proposer de faire ad par exemple tu vois
en bas tu as une timeline tu peux
agrandir ou pas le truc ou fait je pense
tu dois sélectionner un texte et faire
ad dessus et sinon après si tu vois si
tu es pas satisfait des des des cadrages
qu'il a fait tu vas dans le l'onglet
crop là-haut là pour chaque tronçon tu
as tes crops et tu peux choisir et ça
c'est ça c'est ton cadrage en fait voilà
donc tu peux tu peux retravailler chaque
chaque plan non mais et surtout pour
préciser le choix des phrases de la
première phrase du TikTok c'est le
moment le plus important c'est ça qui
qui fait tout dans dans cet algorithme
fou c'est super bien pensé je trouve
comme début d'histoire en sachant que
nos vidéos s'y prêtent pas forcément
parce que souvent on fait des longs
tunnels des discussions qui qui évoquent
un même sujet pendant très longtemps et
j'avoue je suis assez assez épaté du
résultat Blant on va le publier sur
TikTok moi ce que je dis de mon
expérience perso du du truc malgré tout
il y a toujours un un petit peu de
retravail sur le premier je qui te file
mais ça ça te simplifie déjà tellement
la tâche de base sans plus attendre je
vous propose de passer à l'outil suivant
c'est sûr que vous avez déjà eu besoin
d'un truc de ce genre par le passé et
vous êtes demandé mais où est-ce quel
truc je pourrais utiliser pourquoi il y
a un paywall partout pour faire ça alors
que ça paraît pas si compliqué vous
connaissez tous remove BG par exemple ou
des trucs comme ça c'est que des
services qui vous proposent d'enlever le
fond d'une image de faire un détourage
de qualité avant c'était horrible
maintenant avec lia c'est moins horrible
mais j'ai pas compris pourquoi pendant
encore des années il y avait beaucoup de
services mais ils étaient tous un peu
complexes et il te faisaient souvent
très payer si tu voulais avoir de la
bonne résolution et ben j'ai une annonce
à vous faire si vous êtes concerné un
modèle ouvert et gratuit est sorti qui
permet de faire du détourage super quali
et tout le monde peut l'utiliser là de
chez vous directement dans votre
navigateur avec ce cette petite
démonstration de hugging face c'est pas
le plus impressionnant dans le sens où
bah c'est de l'édition d'image quoi ça
fait longtemps qu'on sait le faire c'est
quand même bluffant pas par la qualité
du résultat donc là vous pouvez voir que
les petites ombres tout les les petits
cheveux tout ça est super bien détouré
j'étais heureux j'ai j'ai vu ça je bah
génial encore une une nouvelle brique
dans l'arsenal open source que on a on a
tous à notre dispo maintenant mon projet
suivant pour le coup est bien plus
complexe là vous allez voir on commence
à à rentrer dans des outils qui vont
seulement intéresser les plus motivés
d'entre vous et ceux qui ont des grosses
grosses envies d'automatisation
peut-être que vous avez déjà vu des
interfaces nodal qui permettent de créer
des sortes de graphes logique entre
différents nœuds ok bon c'est de la
c'est la fameuse programmation visuelle
je vous avis parlé de n8n à une certaine
époque mais c'est tous ces systèmes qui
permettent à n'importe qui de programmer
avec une interface graphique c'est plus
joli moi je comprends ça permet d'aller
un peu plus vite si on s'est pas
développer et cetera même si on sait
d'ailleurs et depuis un certain temps
des interfaces de ce type là existent
pour lia et en gros la promesse et de
vous dire on te file une brique chat GPT
une brique d'Ali une brique de détection
d'objets une brique de transcription et
avec tout ça tu peux c'est un bacassable
tu fais ce que tu veux tu peux connecter
tout tous ces nœuds ensemble euh et pour
automatiser ton travail et partir au bas
à masse le problème spoiler la plupart
de ces outils sont nuls en tout cas moi
je ne les aime pas non mais je vais
m'expliquer je vais défendre ma te mais
typiquement des langes flow ou des
choses comme ça on peut vous montrer à
quoi ça ressemble ils ont toujours des
pages de des landing page super sexy ces
gens ils ont toujours des interfaces qui
sonts Léchet et pourtant moi je je
défends que ça ne me satisfait pas
pourquoi parce que en général on va
devoir rentrer un petit peu dans la
technique mais vous allez voir c'est
intéressant ils sont basés sur des gros
gros framework comme on appelle c'est
des des librairies pour développeurs qui
sont en Python et qui qui sont un peu
tentaculaires qui essaient de tout faire
en même temps comme longchain par
exemple c'est très bien c'est un bon
bacassable mais le le gros problème de
de créer des des systèmes comme ça c'est
c'est là vous allez passer du temps vous
allez travailler vous vous allez créer
des automatisations qui ont
potentiellement beaucoup de valeur pour
vous pour votre travail pour votre
entreprise ou pour juste pour vous pour
gérer votre vie et donc vous avez envie
de de construire sur du rock quoi pas
sur un truc un peu pété qui risque de
d'exploser à la prochaine mise à jour ou
qui marche une fois sur trois et le
problème de la plupart de ces outils
c'est que du coup ils sont basés sur
Python et pourquoi c'est un problème
parce que Python a été utilisé dans lia
est devenu le langage par défaut de Lia
parce que il est extrêmement
compréhensible et facile à prendre en
main rien ne ressemble plus à de
l'anglais que Python finalement et donc
pour une audience de chercheurs en
intelligence artificielle qui ne sont
pas des développeurs et ben c'est
parfait pour qu'il puissent manipuler
les concepts qu'ils connaissent
mathématique ou de recherche sans avoir
la lourdeur des plus des langages plus
bas niveau pour faire tourner des
modèles d'IA sur des des serveurs dans
le Cloud par exemple ça ne pose pas
vraiment de problème on sait gérer cette
complexité de déployer des modèles de
Python des choses comme ça mais mais
mais pour l'air d'aujourd'hui qui je le
répète est lié à local ce n'est pas
adapté du tout python n'est pas du tout
fait pour pour être déployé sur des
appareils en local à grande échelle ça
n'a pas vraiment été pensé pour ça il y
a des stratégies qui permettent de la
typiquement dans les applis qu'on a cité
ils auraient pu essayer de tordre le
langage on va dire d'utiliser des des
techn spécifiques genre je sais plus
comment elle s'appelle pinall ou des des
choses comme ça qui permettent voilà de
faire une sorte de gros sac où où on met
python littéralement le langage entier
dedans pas le serpent et et votre code
et le trucs c'est en gros c'est
dégueulasse c'est possible mais c'est
dégueulasse il faut pas faire ça et et
donc on se retrouve dans une situation
terrible qui doit vous concerner si vous
êtes intéressé par lia et lia local il y
a plein de nouveaux modèles partout tout
le monde a des idées d'applis de choses
à faire mais on n pas du tout la base
l'architecture qui permet de proprement
déployer des applis de ce genre à grande
échelle sur des machines de façon
optimisée il y a un vrai manque à ce
niveau-là aujourd'hui tu veux commencer
en tant que développeur à créer une
appli révolutionnaire pour Mac ou pas ou
sur Windows pour révolutionner je sais
pas quoi avec de li local tu es un peu
et tu peux pas utiliser des des
des applications comme ça des systèmes
de graphe qui vont te faciliter la vie
cette longue introduction était
importante pour vous présenter le projet
du jour floneum ça s'appelle alors
flonum vous allez voir attention je vous
préviens ça ne paye pas de mine donc
l'interface est immonde attendez la pire
tu l'as tellement non mais objectivement
l'interface est assez infamme à utiliser
comme vous pouvez le voir on garde ce
principe de graphe à gauche sur lesquel
on peut éditer des entrées des sorties
des choses comme ça donc par exemple tu
peux avoir demandé de à un mistral de
générer du texte en local après tu peux
demander de de faire une recherche sur
Google toujours en local c'estàdire que
c'est vraiment le logiciel qui fait la
recherche en arrière-plan tu peux
demander d'ouvrir chrome par exemple et
de charger une page si tu as besoin de
faire ça tu peux demander d'écouter un
son et de faire de la transcription tu
peux demander d'analyser une image bref
tous les fondamentaux de Lia moderne
pourquoi ça c'est différent de tout le
reste que je vous ai montré et pourquoi
en réalité c'est pas cette interface qui
est le plus important mais c'est ce
qu'il y a derrière qui je pense pourrait
intéresser énormément de développeurs
par la suite c'est que tout ça est
développé en rust allez ah la passion du
rust qui revient tout ça donc se passe
de manière 100 % local avec je vous l'ai
dit des technologies faites pour être
utilisé sur des appareils de tout à
chacun de façon optimisée demain toi tu
peux peut-être inventer un nouveau
module qui permet avec une IA de
détecter s'il y a un sponsor dans une
vidéo par exemple et ben tu tu pourrais
publier un module que tous les
utilisateurs de floneum pourraient
intégrer dans leur graphe je vous passe
les détails mais si vous êtes un
développeur sur ce genre de techno il y
a tout ce qu'il vous faut des systèmes
de base de données qui vous permettent
de d'ingérer des articles des PDF des
choses comme ça bref c'est un bacassable
assez complet je vais pas vous mentir
c'est une alpha c'est vraiment une alpha
de Alpha ne pensez pas pouvoir
l'utiliser là demain c'est un truc à
surveiller à se mettre dans les favoris
et voir dans 6 mois à quoi ça va
ressembler parce que ce qui est le plus
intéressant dans le projet ce n'est pas
cette interface par-dessus c'est tout ce
qui a derrière en gros c'est toutes les
briques qui sont utilisables par tous
les développeurs et qui mâchent le
travail de liia c'est aussi bête que ça
mais demain là vous êtes un développeur
rust ou ou autre d'ailleurs vous voulez
intégrer des fonctionnalités locales d'
utiliser son sa librairie à lui et vous
allez gagner un temps fou très très
chouette ça m fait beaucoup rire de à un
moment j'ai regardé le chat et j'ai fait
reste incroyable et tout je me suis
rappelé quand était le jour de la
Saint-Valentin j'ai dit on a quand même
B belle audience de geek ils se sont
tous exclamés en mode wou il a dit r
incroyable ça m'a fait un peu rire
peut-être que actuellement vous êtes en
train d'attendre gpt5 et que vous
trouvez que voilà les LLM ne sont pas au
niveau pour telle ou telle tâche que
vous voudriez automatiser quand vous
arrivez à ce moment-là c'est que il faut
commencer à faire des fine tune mais
peut-être que vous vous dites que il
faut des millions pour faire du fine
tuning donc pour prendre un modèle et
continuer à l'entraîner sur vos propres
données pour qu'il devienneent encore
plus fort il y a pas nécessairement
besoin de GPU immense notamment grâce à
une technique que les gens qui font du
stable diffusion ou des choses comme ça
connaissent très bien ça s'appelle le
culura ça permet sur un GPU de petite
taille de faire une amélioration un fine
tuning de n'importe quel modèle avec ses
propres données le projet dont je vais
vous parler là maintenant il vous prend
vraiment par la main dès le début
c'estàdire que là vous maintenant vous
avez jamais fait ça de votre vie vous
êtes pas des ingénieurs en intelligence
artificielle et pourtant grâce à ça
grâce à HL vous allez pouvoir partir de
zéro et créer votre propre modèle F tuné
sur vos données et beaucoup
d'entreprises constatent que parfois
fine tuner un petit modèle sur des tâes
précises leur donne les mêmes
performances que gpt4 mais il y a une
barrière l'entrée il y a une complexité
qui avec ce projet est complètement
enlevé ils vous prennent vraiment par la
main même si vous y connaissez rien et
vont vous expliquer comment voilà
générer des données qui ont le bon
format pour entraîner votre proprea ils
vous ont préparé des Google collab c'est
un système de Google qui permet de faire
tourner du code sur des des GPU qui que
vous pouvez louer facilement sans même
avoir d'ordi très puissant tout ça est
préparé pour vous baliser il y a tous
les tutos tout est expliqué et surtout
ils ont optimisé à mort le processus de
fine tuning d'apprentissage trop bien il
y a eu pas mal de benchmarks qui ont été
fait entre Ben les le le process lambda
habituel les librairies standard pour
faire du fine tuning et un sloss et ils
arrivent à faire des x 1,5 ou x 3 sur
les sur les vitesses d'apprentissage
combiné à des besoins en VRAM qui sont
beaucoup plus petits ce qui vous limite
le plus rapidement quand vous faites de
Lia en fait c'est la quantité de mémoire
de vos GPU pas nécessairement leur
puissance parce que à la limite si tu as
un GPU qui est un peu moins puissant tu
peux juste attendre plus longtemps
finalement la mémoire
c'est le truc qui limite tout le monde
et qui fait qu'on est tous là à pas
pouvoir faire tourner les meilleurs
modèles parce qu'on a pas des cartes
graphiques avec 40 Go la solution pour
ça c'est d'optimiser en utilisant
unslotth qui vous demandera beaucoup
beaucoup moins de mémoire pour faire un
même entraînement le chat posa une
question importante à savoir le prix et
bien tout ça est parfaitement Open
Source vous pouvez le faire tourner sur
vos propres machines ou alors sur un
Google collab ils ont une version pro je
crois où ils poussent encore plus loin
certaines op faire tourner pour nous non
est-ce qu'ils ont des carts graphiques
en location ou une voilà c'est le pro
justement ils vont pousser encore les
les opti et ils vont vous accompagner
encore plus loin avec le ripo gitup tout
simplement avec leur ça c'est dire tu
peux tester avant de exement faire de la
faire de la merde avec des petits
documents comme ça tu mets comme ça pu
vous n'avez plus d'excuses je veux voir
des modèles créés par la communauté je
veux voir des culoras spécialisés à
faire des choses varié faites des trucs
par exemple en français je trouve qu'il
manque pas mal de modèles français cette
barrière à l'entrée a a trop longtemps
limité le potentiel de des modèles fine
tuné elle a été levée il ne tient qu'à
vous maintenant de faire des modèles
entraînés sur des taches précises qui
explosent open ai c'est parti à vous de
jouer si vous avez aimé cette vidéo je
vous conseille vivement d'aller voir la
chronique que j'ai fait sur azai OS un
système d'exploitation alternatif qui va
vous faire courir acheter un
Mac
Browse More Related Video
5 Crucial Steps to Set Up Novelcrafter | A Complete AI Novel Guide
Cet IA est un DANGER pour les devs !? (ACTU IA)
J'ai testé 74 outils IA gratuits et voici les meilleurs
Création d’un Chatbot IA avec Flowise en 10 minutes!
Amazon KDP : Magnet et Cerebro d'Helium 10 payants ! Comment faire ?
IA : Ce qu'on ne vous dit pas ...
5.0 / 5 (0 votes)