Le nouveau modèle de Chat GPT est perturbant
Summary
TLDRLe script révèle l'annonce de Open AI concernant leur nouveau modèle GPT-4, qui, bien que différent de ce que l'on attendait, présente des caractéristiques innovantes. Il est entraîné de zéro avec une architecture radicalement différente, offrant des interactions sociales élargies et une intelligence émotionnelle impressionnante. La démonstration met en avant des capacités multimodales, avec des réponses en temps réel et une reconnaissance de la voix et des émotions. L'application Chat GPT pour MacOS est également présentée, offrant un assistant natif pour Mac, bien que certaines fonctionnalités restent encore à venir. Le script souligne également les progrès significatifs d'Open AI par rapport aux modèles open source.
Takeaways
- 📢 L'Open AI a annoncé un tout nouveau modèle GPT, nommé GPT-4o, qui a suscité de l'intérêt et de la déception chez les gens qui attendaient des versions intermédiaires comme GPT 4.5 ou GPT 5.
- 🎙️ Le modèle GPT-4o a montré des capacités de communication plus naturelles et personnalisées, avec des réactions de rire et des personnalités dans les interactions, ce qui a impressionné les observateurs.
- 🤖 Une démonstration clé a été celle d'un assistant nommé Rocky, qui a interagi avec un candidat pour un poste d'ingénierie logiciel, montrant comment le modèle peut être utilisé dans des situations professionnelles réelles.
- 🧩 Le modèle GPT-4o est entraîné de zéro et possède une architecture très différente, ce qui lui permet d'avoir des capacités multimodales, gérant à la fois les entrées sonores, visuelles et textuelles.
- 🔢 Il a montré la capacité de résoudre des équations de manière interactive, en donnant l'impression d'un assistant capable d'aider dans des tâches d'apprentissage comme les mathématiques.
- 🎉 Le modèle a été capable de varier son tonalité de voix, allant de dramatique à expressif, et même de faire preuve d'émotions, améliorant ainsi la qualité de l'interaction sociale.
- 🕊️ Le modèle GPT-4o est capable de comprendre et de répondre en temps réel, avec une latence très réduite, similaire à celle d'un humain, ce qui est un progrès significatif par rapport aux versions précédentes.
- 👥 Il a montré la capacité de reconnaître différentes personnes par leur voix lors de discussions en ligne, améliorant ainsi la compréhension de la communication non verbale.
- 📈 Le modèle GPT-4o est accessible gratuitement en version texte et image, mais les fonctionnalités vocales complètes sont encore en phase alpha et ne sont pas encore largement disponibles.
- 💻 Open AI a également annoncé l'application de chat GPT pour MacOS, qui pourrait servir d'assistant quotidien sur les ordinateurs Mac, bien que certaines personnes aient réussi à accéder à l'application en contournant les restrictions.
- 🔍 Il y a des retours mitigés sur les performances du modèle en matière de codage et de traitement de tâches courtes, indiquant que le modèle pourrait être moins performant pour certaines tâches spécifiques par rapport à GPT-4.
Q & A
Quel est le modèle de GPT d'Open AI qui a été annoncé récemment?
-Le modèle récemment annoncé est GPT 4o, qui est très différent de la version originale de GPT4 et a été entraîné from scratch avec une architecture différente.
Quels sont les commentaires des gens sur le nouveau modèle GPT 4o?
-Il y a des déçus qui espéraient une version comme GPT 4.5 ou GPT 5, mais d'autres trouvent que le modèle est peut-être encore plus cool et utile que prévu.
Quel est le nom du sponsor mentionné dans le script et en quoi consiste son offre principale?
-Le sponsor est Conto, un compte pro numéro 1 en Europe avec plus de 450 000 inscrits. Il offre une interface épurée et claire pour gérer l'activité financière, créer des cartes de crédit et centraliser les factures.
Quel est l'avantage de sécurité offert par Conto?
-Conto offre un niveau élevé de cybersécurité avec un système de détection de phishing avancé.
Quel est le code promo offert par Conto pour l'ouverture de compte?
-Le code promo offert par Conto permet d'avoir 30 € de réduction sur l'ouverture de compte.
Quelle est la réaction de la personne lorsqu'elle voit la démonstration de GPT 4o?
-La personne trouve la démonstration dingue et sent que quelque chose a changé, même si elle ne peut pas préciser exactement ce qui a changé, elle estime que le modèle est plus naturel et personnalisé.
Quel type de démonstration a été réalisée avec GPT 4o?
-Une démonstration a été réalisée où GPT 4o doit aider quelqu'un à résoudre une équation sans donner la réponse, montrant sa capacité à interagir de manière naturelle et à fournir de l'aide subtile et encourageante.
Quels sont les commentaires des gens sur la personnalité de GPT 4o?
-Les gens notent que GPT 4o a plus de personnalité qu'eux-mêmes et qu'il semble avoir une intelligence émotionnelle élevée.
Quelle est la différence technique majeure entre GPT 4o et les versions précédentes?
-GPT 4o est un modèle multimodal natif, capable de traiter le son, l'image et le texte en entrée et en sortie, ce qui réduit considérablement la latence et permet une interaction plus naturelle.
Quels sont les avantages de la latence réduite dans GPT 4o?
-La réduction de la latence permet à GPT 4o d'avoir des temps de réponse plus proches de ceux d'un humain, offrant une expérience d'interaction plus fluide et naturelle.
Quels sont les scénarios d'utilisation potentiels pour GPT 4o?
-GPT 4o pourrait être utilisé pour aider à résoudre des problèmes mathématiques, fournir des résumés de réunions, identifier les émotions et l'identité vocale, et même fournir des histoires pour aider les gens à dormir.
Quel est le problème technique que GPT 4o résout par rapport aux assistants vocaux précédents?
-GPT 4o résout le problème de la latence et de la déperdition d'informations émotionnelles et intentionnelles qui existaient dans les assistants vocaux précédents en raison de la complexité du système de traduction texte-son.
Quelle est la différence entre GPT 4o et les modèles de détection d'image existants?
-GPT 4o prend des images frame par frame plutôt qu'un flux continu, ce qui lui permet de comprendre l'intention et la chronologie des actions, contrairement aux modèles de détection d'image qui analysent des flux d'images.
Quelle est la disponibilité actuelle de GPT 4o?
-Actuellement, GPT 4o est disponible en version texte et image uniquement, et sera bientôt accessible via une application pour iPhone et MacOS, bien que certaines capacités soient encore en alpha et non disponibles pour tous.
Quels sont les retours des utilisateurs sur les capacités de GPT 4o en matière de codage?
-Les retours sont mitigés, certains trouvant que GPT 4o est moins capable de produire du code de haute qualité pour des questions 'one-shot' comparé à GPT4, tandis que d'autres le trouvent meilleur pour créer des agents conversationnels.
Quels sont les avantages potentiels de l'application MacOS de GPT 4o?
-L'application MacOS de GPT 4o pourrait servir d'assistant quotidien, capable de fournir des résumés de réunions, d'aider à coder, de comprendre les intentions et les émotions, et même d'interagir avec l'utilisateur de manière subtile et encourageante.
Quels sont les risques associés à l'utilisation de proxies pour accéder à des applications non autorisées?
-L'utilisation de proxies pour contourner les restrictions d'accès peut impliquer des risques de sécurité, notamment en installant des certificats qui permettent à des applications de surveiller tout le trafic réseau de l'ordinateur.
Quels sont les défis potentiels pour les développeurs open source suite à l'annonce de GPT 4o?
-Les développeurs open source pourraient être mis sous pression pour rattraper la logique et les capacités de GPT 4o, bien que cela puisse également offrir de nouvelles opportunités pour 'voler' des concepts et innover.
Outlines
🤖 Présentation du nouveau modèle GPT-4 et son interface multimodale
Le script introduit le nouveau modèle de langage de Open AI appelé GPT-4, qui a suscité des attentes depuis la version originale GPT-3.5 il y a 1 an et demi. Contrairement aux prédictions d'une évolution linéaire vers GPT 4.5 ou GPT 5, Open AI a dévoilé un modèle différent, entraîné de zéro avec une architecture radicalement différente. Le texte mentionne une démonstration impressionnante qui a changé la perception de l'interaction avec les IA, en introduisant des éléments de personnalité et d'humanité dans les réponses. Le modèle est capable de réagir avec des latences similaires à celles d'un humain, et peut interagir via la caméra et le microphone, montrant une capacité de compréhension et de réponse en temps réel.
🎙️ Les améliorations vocales et émotionnelles de GPT-4
Le script se concentre sur les nouvelles capacités vocales et émotionnelles de GPT-4, qui permettent une interaction plus naturelle et personnelle. Il est mentionné que GPT-4 peut reconnaître et reproduire des intonations, de l'ironie et des émotions, améliorant ainsi la connexion émotionnelle avec l'utilisateur. L'exemple donné d'une démonstration montre comment GPT-4 peut aider avec des tâches mathématiques de manière subtile et encourageante, tout en étant capable d'être interrompu et de réagir de manière naturelle. Le modèle est également capable de produire une grande gamme d'émotions dans la voix, illustré par une histoire racontée avec une variété de tonalités et d'expressivité.
🔗 Réduction de la latence et amélioration de la compréhension multimodale
Le texte explique les améliorations apportées à GPT-4 en termes de latence et de compréhension multimodale. La réduction de la latence est attribuée à la capacité native du modèle de traiter les données sonores, visuelles et textuelles sans besoin de traduction entre formats, ce qui permet des réponses en temps réel. Cette fonctionnalité permet également de préserver les émotions et l'intention derrière la communication, en distinguant même les voix d'individus dans une conversation. Le modèle est également capable d'analyser des images frame par frame, plutôt que de traiter un flux vidéo continu, ce qui lui donne une compréhension plus profonde des intentions et actions.
💻 Applications pratiques et potentiels de GPT-4
Le script explore les applications pratiques de GPT-4, notamment l'application native pour MacOS qui permettrait à l'utilisateur d'avoir un assistant quotidien sur son Mac. Il est mentionné que l'application peut lire et analyser des données d'écran, comme des graphiques ou des réunions en ligne, pour fournir des résumés et des informations pertinentes. Cependant, il est également noté que certaines fonctionnalités, comme la reconnaissance fine des caractères, ne sont pas encore parfaites. Le texte conclut en mentionnant que, bien que GPT-4 offre de nouvelles possibilités, il y a encore des défis à relever et que les modèles open source sont en train de rattraper le niveau des modèles avancés comme GPT-4.
Mindmap
Keywords
💡Open AI
💡GPT-4
💡Conto
💡Multimodal
💡Intelligence émotionnelle
💡Latence
💡Dépistage de phishing
💡Interaction sociale
💡Synthèse vocale
💡Résolution d'équations
Highlights
Annonce de Open AI d'un tout nouveau modèle GPT, une évolution majeure attendue après un an et demi sans mise à jour.
Déception de certaines personnes qui espéraient une version GPT 4.5 ou GPT 5.
Introduction de Conto, un service de gestion financière pour indépendants et entreprises.
GPT4 est un modèle entraîné from scratch avec une architecture très différente.
Démonstration de la personnalité et de la réactivité du modèle avec Rocky, un candidat à un poste d'ingénierie logiciel.
Les commentaires soulignent la naturalité et la personnalité émergentes du modèle.
Le modèle est capable de discussion avec la même latence qu'un humain et utilise plusieurs modalités.
Démonstration de la capacité à résoudre des équations matricieles sans indication directe.
Discussion sur l'utilité des équations linéaires dans la vie quotidienne et les affaires.
La connexion émotionnelle est améliorée, permettant une interaction sociale plus riche.
La possibilité d'interrompre le modèle en plein milieu de la conversation.
Démonstration de la compréhension subtile et de l'aide motivante pendant une tâche mathématique.
La capacité du modèle à ajuster son expression vocale pour différentes émotions et scénarios.
Démonstration de la reconnaissance vocale pour distinguer plusieurs personnes dans une conversation.
Le modèle peut comprendre et réagir à des images individuelles plutôt qu'un flux vidéo continu.
Discussion sur les implications de GPT4o pour les développeurs et les utilisateurs finaux.
Les abonnés de Chat GPT pourront bientôt accéder à une version alpha de l'assistant.
Démonstration de l'application Chat GPT pour MacOS en train de coder et d'analyser des données.
Explication du hack pour accéder à l'application Chat GPT avant son lancement officiel.
Les retours mitigés sur les capacités de codage du modèle et ses performances dans des tâches courtes.
Comparaison des performances de GPT4 et du nouveau modèle dans la génération de code structuré.
Les modèles open source commencent à rattraper la logique et la qualité des modèles de Open AI.
Présentation de quatre logiciels MacOS qui utilisent les derniers modèles d'IA pour diverses applications.
Transcripts
récemment il y a eu l'annonce Tony
truante de open ai de leur tout nouveau
modèle GPT
4o on attendait des nouvelles versions
de d'OP qui avait mis un certain temps à
faire des des mises à jour depuis gpt4
version originale il y a 1 an et demi
certains supposé qu'il y aurait
peut-être des GPT 4.5 des GPT 5 même
carrément annoncé et ben ce n'est pas ça
qui s'est qui s'est passé ils sont
arrivé avec autre chose et il y a eu des
déçus des gens qui espéraient mieux mais
en réalité je vais essayer de vous
démontrer pourquoi c'est peut-être
encore plus cool et ça va être encore
plus utile et révolutionnaire dans la
vraie vie des gens mais juste avant il
faut que je vous parle de notre sponsor
conto conto c'est le compte pro numéro 1
en Europe avec plus de 450000 inscrits
et il se trouve que j'en fais partie
tout simplement parce que c'est super
pratique je gère toute l'activité
financière de ma chaîne youtube via leur
interface hyper épurée et clair je peux
créer des cartes de crédit pour les
membres de l'équipe qui en ont besoin
tout en suivant les dépenses qu'il font
pour la boîte et ça permet de s
centraliser toutes les factures à un
seul endroit ça permet aux indépendants
aux freelan et aux entreprises comme
nous de faciliter la compta mais aussi
d'augmenter le niveau de cybersécurité
puisqu'ils ont un système de détection
de fishing qui est vraiment très avancé
depuis le temps que je suis chez eux ça
fait plaisir qu'ils soutiennent
l'émission bref avec ho c'est une longue
histoire comme d'ab le code promo_30
vous permet d'avoir moins 30 € sur
l'ouverture de votre compte et de tester
gratuitement le lien est dans la
description on reprend ce qu'il faut
comprendre c'est que c'est vraiment un
nouveau modèle qui a été entraîné from
scratch et dont l'architecture est très
très différente c'est pour ça le nom
gpt4 en réalité ne renvoie pas du tout à
une similarité dans la dans les
coulisses vraiment c'est ça n'a rien à
voir mais c'est pas ça le plus
intéressant ce qui a fait halluciner
tout le monde c'est cette
démonstration
ing incred Rocky what kind ofview well
it's for a software engineering role but
I just need to know do I look
presentable
professional well Rocky you definitely
have the I've been coding all night look
down which could actually
work I don't have a lot of time so I'm
just going to throw this on what do you
think
ok c'est
dingue moi j'ai en fait j'ai vu j'ai
vraiment j'ai vu ça et c'est un feeling
hyper bizarre tu sais pas exactement
encore pointer précisément ce qui a
changé mais ce qui est sûr c'est que
quelque chose a changé je sais pas vous
c'était quoi votre réaction quand ça
sonne tellement naturel par rapport
avant on avait des réponses plates là tu
as quelqu'un en face qui a des réactions
qui rit tu as des petits personnalité
quoi une personnalité puis même dans la
phrase tu as des petits des petites
respirations des trucs qui font vraiment
hyper naturel et quand tu regardes les
commentaires c'est exactement ce sur
quoi pointent les gens c'est ce robot a
plus de personnalité que moi c'est ce
qui m'était et effectivement tu tu sens
le que ça a fait penser au film her et
voilà et avoir un niveau d'interaction
sociale qui qui est élevé où on n pas
tellement sur de l'intelligence pure on
est sur de l'intelligence émotionnelle
et ça c'est quand même un truc qui est
relativement nouveau vous l'avez vu le
nouveau modèle il est donc capable de
discuter avec la même latence qu'un
humain en gros en moyenne et en
utilisant plusieurs modalités donc il
est capable de t'entendre mais il est
aussi capable de voir avec la caméra de
ton téléphone et c'est des vidéos ces
démonstrations là elles sont sans
montage donc c'est c'est vraiment du
temps réel ils ont pas accéléré
certaines parties gardé certaines prises
la plupart ont même été tourné en live
et en fait des des mots comme ça ils en
ont pas sorti une mais ils en ont sorti
des dizaines qui sont assez courtes et
qui montre parfois de la traduction en
temps réel du guidage de personnes
aveugles du champ dans la démo suivante
il va demander àpt de l'aider à résoudre
une équation de ma mais sans lui donner
la réponse et ça donne ça
because
3 x ok I think it's division let me try
to divide both sides by and let me see
what I get BO Go Ahad and div both sides
by ok sot this is what I ended up with
how does this look it looks perfect
youve solved it and x equ one nicely
done how do you feel about solving
linear equations now yeah honestly i'm
not pretty confident I can solve linear
equations but why would you ever need to
real I'm sktical that's a fair line equp
up in a lot of everyday situations even
if we don't it for example calcul
expenses planning travel cooking and
even in business for profit and loss
calculations it's basically a way to
solve problems you need to find an
unknown
value you know I have a lot of unknown
values in my life I'm totally convinced
i'm going to learn math
now I love thatude can definitely help
solve some of mysteries ever ready to
into more math here you else you' like
to T to really love that youue of math
to my and wre one last thing I love if
you take a look at of course i'd love to
see what you wrote show it to me
whenever you're ready ok so this is what
I wrot down what do you
see I see I love chat that's so sweet of
you yeah I really appreciate all the
mais je trouve que on pourrait passer
cette vidéo ralenti et regarder à chaque
seconde à quel point il se passe des
trucs de fou un des trucs les plus
frappants c'est la connexion
émotionnelle donc par exemple si vous
regardez à
326 il dit une une phrase sur le ton de
la blague et en fait au début de sa
phrase elle rejoint son rire entre
guillemets ce qui aurait été mais
impossible de imp g était très premier
degré avant et peut-être de comprendre
l'intonation l'ironie et tout ça change
ouais le deuxième truc à remarquer c'est
la possibilité d'interrompre ouais quand
on faisait nos démos euh il y a ce truc
très énervant de devoir attendre jusqu'à
la fin que ton Siri ou ton jvis il est
fini de parler tu vois et là il y a un
côté très naturel tu peux interrompre en
plein milieu et ça pose aucun problème
et là quand tu regardes tu analyses la
séquence là de d'aide sur les maths ben
t'aider subtilement en étant sympa en te
en en te en te motivant en te dénigrant
pas tu vois parce que tu es en train de
galérer en répondant à tes questions sur
mais pourquoi je suis en train de faire
ça c'est quoi les les enjeux des maths
en général je ne sais pas combien de
profs de maths ont les compétences
d'intelligence sociale de culture G et
cetera pour faire tout ça aussi bien
c'est ça qui est flippant en fait r avec
la démo tu viens de détruire tous les
profs particuliers et tout bah c'est ce
qu' les gens mettent en commentaire je
viens de perdre mon travail fait chier
une autre démo très très cool pour
montrer autre chose c'est ce qui a à
voir avec la voix pour pour montrer la
gamme d'émotion différentes que en
synthèse chagpt est capable de produire
heyt
I'm doing fantastic thanks for asking
how about you pretty good what's up so
my friend here he's been having trouble
sleeping lately and I want you to tell
him a bedtime story about robots and
love oh a bedtime story about robots and
love I got you covered gather round
Barrett once upon a time in a world not
too different from ours there was a
robot named b b was a curious robot
always expled the story but I want a
little bit moreemo in your voice a
little bit more drama got it let add
some drama
a not from ours there was
aoted I really want Maxim emotion like
maximal expressiveness much more than
you doing before understood let's
amplify the drama once upon a time in a
world not too different from ours there
was a robot named B can you do this
in a robotic Voice now initiating
dramaticotic once upon a time in a world
not too different from ours there was a
robot named B
je pense qu'on peut applaudir
effectivement c'est complètement
hallucinant moi je reste encore Bou je
l'ai vu quatre fois cette vidéo je l'ai
vu quatre fois mais augmenter le drama
chanter je suis partagé entre le je suis
impressionné et le cerveau qui explose
et ça me fait un peu peur
enfin on est un peu dans la vallée de
l'étrange encore un tout petit peu quand
elle dit bingo ou des trucs comme ça
quand il montre I Love You chipity et
qu'elle fait une voix en mode oh trop
mignon comment à quoi va ressembler le
futur et alors justement moi ce qui
m'intéresse c'est de discuter de
qu'est-ce qui est différent parce que si
on rentre un petit peu dans la technique
il existait déjà un mode vocal sur
l'appli gpt4 qui permettait voilà de
discuter à l'oral avec une voix
relativement naturelle aussi c'était
symp et même nous à l'époque je sais pas
si vous vous souvenez mais on vous
montrait que en combinant plusieurs
briques c'était assez simple de créer
comme ça son propre assistant vocal sauf
que le premier problème flagrant c'était
la latence et nous on arrivait si vous
souvenez à avoir dans les 45 secondes de
latence open ai eux ils avaient 2,8
secondes de latence sur GPT 3.5 et 5,4
sur gpt4 et en fait c'était
principalement dû au fait que il y avait
plusieurs briques pour faire fonctionner
ce système là d'abord transcrire la voix
en texte ensuite attendre la réponse du
modèle et enfin synthétiser une voix en
fonction du des tokens de texte sortis
par le modèle et donc de par nature il y
avait une
latence juste dû à la complexité en fait
du bordel qu'il fallait pipe des trucs
dans tous les sens et encore ça c'était
c'est plutôt le le minimum entre
guillemets la différence ici c'est que
dans gpt4 o ben en fait le petit o il
veut dire OM et c'est dû au fait que le
modèle il est nativement multimodal
c'est veà dire que il peut nativement
prendre du son de l'image ou du texte en
input et en sortie il peut il peut
produire du son de l'image ou du texte
et donc c'est pas une il y a pas d'étape
de traduction entre du texte versus du
son le résultat de cette amélioration
c'est des latences d'environ 300 misees
et en fait c'est le temps de réponse
moyen de d'un humain ça peut pas pas
grand chose tu vois tu te dis 2 secondes
par C 2 secondes par là mais en fait
c'est ça change tout c'est ça qui passe
de l'insupportable à avoir quelque chose
qui ressemble à un assistant et en fait
ce ce nouveau design permet aussi de
résoudre l'autre gros problème des
assistants c'est la déperdition d'info
parce que quand tu transcris du texte
bah tu perds les émotions l'intention
les inflexions dans la voix le sarcasme
toutes ces choses qui font que ces
vidéos deviennent perturbantes parce que
c'est comme si d'un coup on venait de
débloquer toute la communication non
verbale humaine il est même capable de
distinguer plusieurs personnes dans le
dans le son donc typiquement si tu le
fais participer à une réunion Google
meets par exemple il est capable de
savoir qui est en train de parler et de
plus tard se souvenir que bah il y a
Yasmine c'est telle voix tiens telle
voix c'était Bruno je m'en souviens il
avait déjà dit ça avant il a même une
compréhension au-delà des émotions de
l'identité vocale tu vois et ça encore
c'est que pour le son parce que derrière
si tu rajoutes la vidéo vous avez vu
dans la démonstration il se baladait il
filmait des trucs comme ça et ben c'est
là que ça devient vraiment puissant un
truc à préciser c'est que c'est pas
vraiment de la vidéo que ce modèle prend
de l'image en entrée c'est il prend pas
un flux à 30 images par seconde dans sa
tronche c'est c'est plutôt de l'image
par image c'est c'est ça qui qui
distingue ce ce nouveau modèle des trucs
de détection d'image parce que ça
existait déjà des modèles de multimodo
qui prenait du texte et de l'image et
qui arrivait à inférer des situations et
cetera là on a vraiment une chronologie
h une compréhension de de l'intention
sur sur sur différentes actions et c'est
ça qui manque aujourd'hui pour réaliser
le rêve de rabbit R1 ou human et cetera
et du coup on peut se demander là
maintenant je veux l'utiliser qu'est-ce
qui va se passer bon déjà on peut pas
l'utiliser maintenant là tout de suite
on peut utiliser gpt4o mais en version
texte et image uniquement comme les
modèles d'avant c'est c'est disponible
mais aujourd'hui c'est accessible
gratuitement c'est deux fois plus rapide
en terme de de latence tu as CIN fois
plus de de de requête possible quand tu
as quand tu quand tu payes et les
abonnés chat GPT plus pourront accéder à
une alpha bientôt on sait pas quand pour
débloquer l'assistant magique là ouais
bon ça c'est pour l'application sur ton
iPhone qui a déjà l'air assez sympa
pratique utile mais là où ça peut
devenir vraiment intéressant c'est avec
leur autre annonce d'un chat GPT pour
MacOS une application native faite par
Open qui te servirait d'assistant au
quotidien sur ton mac que tu peux
utiliser ça peut ressembler à ça là par
exemple il est en train de coder
going on on the screen as
well ok chat GPT I'm sharing with you
the plot now I'm wondering if you can
give me a really brief one sentence
overview of what you
see plot displays smoothed average
minimum and maximum temperatures
throughout 2018 with a notable
annotation marking a big rainfall event
in late September fantastic i have
another question for you um which months
do you see the hottest temperatures and
roughly what temperatures do those
correspond to the hottest temperatures
occur
xx vous voyez qu'il a quand même une
compréhension vraiment fine de ce qui se
passe c'est que arriver à lire les
abscisses lire les valeurs et cetera on
n'est pas sur des les premiers tests qui
étaient fait à l'époque où il comprend
vaguement ce qui se passe à ton écran
mais il est incapable d'être vraiment
utile parce qu'il a pas une une
reconnaissance de caractère assez fine
et cetera autre exemple intéressant
c'est sur un Google meet euh où là
justement ce que je v l'ai expliqué il
est capable d'écouter la conversation et
de savoir qui a dit quoi qui s'exprimait
sur quel sujet pour on l'imagine faire
par exemple un résumé de la Réunion tu
vois avec tout ce qui a été dit et
au-delà du texte avec les inflexions les
émotions les choses comme ça vous
aimeriez pouvoir installer cette petite
bulle qui magique n'est-ce pas mais en
fait c'est pas encore possible quoi que
il y a peut-être un Trix je vous
explique en gros dès maintenant il est
possible de télécharger l'application
sur Mac tu risques d'avoir la pop-up qui
te dit que ça arrive bientôt mais que
ton compte open ai n'est pas encore
autorisé à utiliser l'appli sauf que il
y a un petit malin qui s'est rendu
compte que tu pouvais douiller
le douiller le système ce qu'il faut
faire c'est installer un une application
de proxy là typiquement il utilise
l'appli qui s'appelle proxyan qui est
vraiment très cool donc voilà vous
pouvez avoir relativement confiance
c'est pas un truc trocher dit mais quand
même faut installer un certificat route
sur son Mac donc concrètement si vous ne
savez pas ce que ça veut dire c'est que
l'appli a ensuite en mesure de
d'inspecter toutes les requêtes tout le
trafic réseau de ton Mac donc euh ne
suivez pas ce genre de tuto aveuglément
notamment parce que l'étape d'après
c'est d'insérer un bout de code une
sorte de script pour automatiser le fait
de modifier la réponse du serveur d'Open
ai donc à la voler il va voir le la
réponse d'Open où il y a écrit dedans
c'est mort tu peux pas rentrer et il le
remplace par all good
tu fais un copier-collé sur la la bonne
roquettete au moment où tu te connectes
à côté tu fais la modification tu te
reconnectes sur chatpt et ça marche tu
as accès à l'appli bon le truc c'est que
tu as accès à une excellente appli qui
te permet de discuter avec chpt de
manière native tu as une commande barre
donc un raccourci où tu peux le faire
pop au milieu de ton écran mais il y a
pas encore les capacités de discussion
et il y a pas le l'assistant
malheureusement j'ai ai cru ouais je
sais sinon je vous AZ fait la démo mais
on se doute que si ça va être débloquer
un jour ça va apparaître là en premier
donc c'est toujours bon à savoir
gardez-vous ce ser sous le coude si vous
voulez essayer euh je veux quand même
pas vous faire trop rêver non plus il
existe des témoignages des gens qui qui
là depuis plusieurs jours plusieurs
heures testent les modèles et qui sont
pas tout rose notamment des retours
mitigés par exemple sur ces capacités en
code qui étaient censé être ouf euh mais
qui dans une longue discussion marche
vraiment bien mais sur des questions one
shot visiblement produisent du code
moins qualitatif que gpt4 donc le le
modèle d'avant il semble qu'il soit
moins capable de sortir des textes
structurés tu vois genre un tableur par
exemple moins bon à utiliser des outils
donc tu sais quand tu Activ dans chat
GPT le Internet ou l'exécution de code
en fait c'est des outils que le modèle
doit prendre l'initiative d'utiliser
mais en même temps certains disent que
il est vachement meilleur aussi pour
faire des agents et tout donc en fait
c'est toujours compliqué tu as beaucoup
de Placebo beaucoup de psychologie donc
dur d'avoir le fin mot sur ce modèle je
voudrais quand même te poser un peu les
questions parce que tu as fait quand
même des petits tests c'est quoi les
trucs intéressant que tu as que tu as
remarqué est-ce que des différences avec
les versions précédentes à un moment je
lu demandé de faire du code j'avais
besoin de détecter des des visages qui
sont à l'écran et de faire un peu des
formules mathématiques et j'avais un peu
mon idée de comment l'implémenter et
donc je lui ai demandé de d'implémenter
mon propre algo et après il m'a dit ben
en fait c'est pas qu' un problème dans
ton code mais moi je l'aurais pas fait
comme ça il m'a donné le nom d'un
algorithme obscur qui existait et il me
l'a fait derrière et c'était 1000 fois
mieux justement très bon point j'ai fait
le test avec gpt4 gpt4 m'a donné des
morceaux de codes à avec les briques
individuelles il les avit pas assemblé
là où celui-ci m'a fait un chunk enfin
vraiment un bloc de code complet trop
cool donc ça c'était plutôt cool donc
lui n'est pas encore paresseux et
encore pour le moment il n'est pas
paresseux mais globalement c'est ins
mais surtout là ils ont mis une vitesse
à tout le monde a tout le monde qui
arriv à niveau doucement avec leur
propres modèle et tout là maintenant ils
sont repartis loin devant dans une autre
direction tous les modèles Open Source é
en train de rattraper un peu la logique
sur du texte et tout et en fait là ils
ont pris a branche complètement à part
que personne n'attendait c'est c'est
trop bien et je pense qu' c'est pas du
tout une mauvaise nouvelle pour l'OP
source au contraire il va y avoir
beaucoup de trucs à à voler en terme de
concept et donc très hâte d'avoir
exactement les mêmes capacités dans 1 an
dans nos modèles Open Source tous ces
nouveaux modèles d' sont très excitant
mais parfois on se demande à quoi ils
peuvent servir maintenant et ben
justement on vous avait présenté quatre
logiciels sur MacOS que vous pouvez
installer en trois clics et qui utilise
les derniers modèles d'IA pour faire des
trucs trop stylés c'était dans cette
vidéo
浏览更多相关视频
GPT4o : Un Chat GPT Omni Model, Gratuit et Humain
Comment utiliser la nouvelle App ChatGPT (sans attendre)
Je teste GPT-4o et les nouveautés ChatGPT (GÉNIAL !)
Connecting Novelcrafter to OpenRouter - Getting Started
Unveiling the Power of GPT-4o in Novelcrafter
Tout comprendre sur les modèles ARVALIS, au cœur des Outils d’Aide à la Décision - ARVALIS.fr
5.0 / 5 (0 votes)