Doctolib : Déployer une Stratégie IA Générative 🚀🤖 (#127)

DataGen - Robin Conquet
13 May 202433:42

Summary

TLDRIn this engaging podcast episode, Nassim, Senior Director of Data and AI at Doctolib, discusses the challenges and strategies involved in implementing generative AI within the healthcare industry. The focus is on the transformative potential of AI tools like ChatGPT in medical settings, from easing administrative burdens for practitioners to enhancing patient care through advanced documentation and medical record handling. The episode also covers the technical aspects of integrating AI technologies into existing systems, the rapid evolution of AI capabilities, and Doctolib’s proactive approach in leveraging AI to revolutionize healthcare services.

Takeaways

  • 🚀 Nassim, Senior Director of Data and AI at Doctolib, discusses deploying generative AI strategies, highlighting recent developments due to the influence of technologies like ChatGPT.
  • 👥 Doctolib's medical assistant tool is a collection of use cases designed to streamline operations for medical practitioners by leveraging generative AI for tasks like note-taking during consultations.
  • 💻 The team includes founding members and the CEO, demonstrating significant leadership involvement and a direct impact on the project's advancement.
  • 📈 Rapid advancements in AI technology pose challenges as the 'truth of today' may quickly become outdated, necessitating a highly adaptable and flexible approach to project management and implementation.
  • 🔧 The introduction of an internal tool named 'Docto GPT' allows Doctolib staff to access LLM securely, fostering familiarity with the tech and encouraging innovative uses within the company.
  • 🌐 The Working Group formed to explore AI applications at Doctolib includes a diverse mix of roles—from engineering to legal—ensuring comprehensive coverage of ethical, technical, and practical aspects.
  • 📊 Real-world applications of the AI tool at Doctolib include creating more efficient documentation workflows and potentially enhancing diagnostic processes, illustrating the practical benefits of AI in healthcare.
  • 🔍 Challenges in implementing AI involve managing costs, optimizing GPU usage for model training and inference, and integrating new AI technologies with existing data infrastructure.
  • 👨‍⚕️ The medical assistant AI focuses on reducing administrative burdens, allowing practitioners to spend more time on patient care and improving the overall quality of medical documentation.
  • 🔄 Nassim emphasizes the importance of continuous learning and adapting within AI projects to keep pace with rapidly evolving technologies and to maximize their potential impact.

Q & A

  • What is the main focus of the medical assistant project at Doctolib?

    -The medical assistant project at Doctolib is focused on creating a collection of use cases that facilitate the work of medical practitioners. It aims to generate consultation notes from the interaction between the doctor and the patient, thereby reducing administrative tasks and allowing doctors to focus more on patient care.

  • How does Doctolib's CEO contribute to the AI strategy?

    -The CEO of Doctolib is very directly involved in the AI strategy, showing a high level of commitment and regular engagement with the project. He has spent time understanding the intricacies of neural networks and deep learning models, demonstrating a personal enthusiasm that aligns with the company's strategic direction.

  • What is the role of the Working Group in the development of AI at Doctolib?

    -The Working Group at Doctolib was created to understand the use of Large Language Models (LLMs) within their tech stack. It aimed to identify potential use cases for LLMs within the company and has evolved to prioritize use cases that have a significant impact on users while considering the associated risks, especially in the medical field.

  • How does Doctolib ensure the secure and effective use of LLMs by its employees?

    -Doctolib developed an internal tool called Doctolib GPT, which is based on foundational models and allows any Doctolib employee to securely access an LLM. It enables users to choose different types of LLMs for various use cases and to perform prompt engineering in a user-friendly manner.

  • What are some of the use cases that have emerged from the AI strategy at Doctolib?

    -Some of the use cases include generating consultation notes from medical appointments, creating referral letters to specialists, and leveraging LLMs to improve the documentation process for doctors, which can enhance the quality of patient care and free up time for doctors.

  • How does Nassim, the Senior Director of Data and AI at Doctolib, perceive the challenges in deploying a generative AI strategy?

    -Nassim sees the rapid pace of change as a significant challenge, noting that the 'truth' of today can be invalidated weeks later. This requires a highly flexible and agile approach to stay adaptable and iterate quickly based on new insights and developments in the field of AI.

  • What is Nassim's background prior to joining Doctolib?

    -Nassim worked for 15 years in the travel industry, with about half of his career in software engineering and the other half in data-related fields, including data science, analytics, data engineering, and traditional BI. He managed the reservation engine for a part of Expedia and later transitioned into the world of data.

  • How has the COVID-19 pandemic impacted Nassim's previous work in the travel industry?

    -The COVID-19 pandemic had a significant impact on the travel industry, leading to less favorable periods with fewer opportunities for innovation. The part of Expedia where Nassim worked was acquired, and he foresaw several years of system integration work, which he had already experienced in his career.

  • What motivated Nassim to transition from the travel industry to Doctolib?

    -Nassim was motivated by the desire to have a direct impact on users and patients and to contribute to the healthcare system. He was attracted by the opportunities at Doctolib and the chance to work on projects that would directly benefit users, rather than focusing on internal constraints or integration projects.

  • What is Doctolib's approach to integrating AI into its products and services?

    -Doctolib has taken a holistic approach, considering the entire lifecycle of a doctor's day and identifying areas where AI can add value. They have focused on use cases that solve real business problems and have a significant impact on users, while also considering potential risks, especially in the medical context.

  • How does Doctolib ensure that its use of AI aligns with its broader company strategy?

    -Doctolib ensures alignment by involving representatives from various departments, including engineering, product, data science, legal, and ethics, in the development of its AI strategy. This cross-functional approach helps to consider the implications of AI from multiple perspectives and ensure that the technology is used responsibly and effectively.

Outlines

00:00

🚀 Launching Medical Assistant Projects with Doctolib

This segment introduces the development of medical assistant tools aimed at easing the workload for practitioners. The involvement of Doctolib's CEO and founders in this project is highlighted, showcasing their direct commitment to the innovation's progress. The challenge faced is the rapid evolution of technology, which can make today's solutions outdated in mere weeks. Nassim, the senior director of data and AI at Doctolib, is featured, discussing the strategic deployment of generative AI in healthcare to address these challenges.

05:03

🔍 Exploring the Generative AI Strategy at Doctolib

Nassim delves into the specifics of implementing a generative AI (Ji) strategy within Doctolib. The focus is on the impacts and opportunities revealed by AI technologies like ChatGPT. A Working Group was established to explore use cases for LLMs (Large Language Models) in their system, resulting in the creation of 'Docto GPT,' an internal tool. This tool enables employees across the company to access and utilize LLMs securely, promoting a broader understanding and integration of AI within their existing frameworks.

10:04

👨‍⚕️ Enhancing Healthcare with LLMs in Medical Consultations

This section describes how generative AI is used to improve documentation and efficiency in healthcare consultations. LLMs play a pivotal role in generating consultation notes, extracting medical facts, and even creating documentation for patients and referral letters. The discussion emphasizes the potential of LLMs to significantly reduce the administrative burden on practitioners, allowing them to focus more on patient care rather than paperwork.

15:06

📈 Integrating AI Technology in Doctolib's Operations

Nassim provides an overview of the technical and operational challenges in integrating AI into Doctolib's existing infrastructure. He describes the extensive cross-disciplinary team involved, ranging from engineering to legal, all contributing to the project's development. This holistic approach ensures that AI tools are not only technically sound but also fit within the regulatory and ethical frameworks necessary for healthcare applications.

20:08

🌐 Adapting to Rapid Changes in AI Technology

In this segment, the focus shifts to the broader challenges and strategies associated with managing rapidly evolving AI technologies. Nassim discusses the need for flexibility and agility in their AI initiatives, as changes in the field can quickly render current strategies obsolete. He also highlights the importance of ongoing learning and adaptation within the organization to keep pace with technological advancements.

25:09

🌟 Personal Insights and Professional Journey in AI

The final paragraph provides a personal touch, with Nassim sharing insights into his own professional journey and experiences in AI. He reflects on the continuous learning and adaptability required in the field, and shares valuable advice he received from family and mentors about maintaining an open mind and seizing opportunities without self-imposed limitations.

Mindmap

Keywords

💡Medical Assistant

A 'Medical Assistant' in the context of the video refers to a collection of use cases aimed at facilitating the work of medical practitioners. It is a part of the project discussed by the CEO of Doctolib, which involves using AI to streamline administrative tasks and improve patient care. For instance, the script mentions generating consultation notes from exchanges between doctors and patients.

💡AI Generative Strategy

The 'AI Generative Strategy' is a plan to implement and leverage generative AI, such as large language models (LLMs), within Doctolib's services. It is a key challenge discussed by Nassim, the senior director of data and AI at Doctolib, and is central to enhancing the medical assistant project. The strategy involves using AI to create useful outputs like consultation notes and medical documentation.

💡Docto GPT

Docto GPT is an internal tool developed by Doctolib based on foundational models, which allows any Doctolib member to securely access a Large Language Model (LLM). It is designed to familiarize employees with the capabilities and applications of LLMs, as mentioned by Nassim when discussing the company's approach to integrating AI into their workflow.

💡Use Case

A 'Use Case' in this video script refers to specific applications for which Doctolib is considering the implementation of AI and LLMs. The company has identified and prioritized a list of use cases that could potentially benefit from AI, such as generating consultation notes and addressing patient documentation. These use cases are crucial in understanding how AI can solve real-world problems for medical practitioners.

💡Data Science

Data Science is a field that involves extracting knowledge and insights from data, which is a foundational aspect of AI and machine learning. In the video, Nassim's background in data science plays a significant role in his current work with AI at Doctolib. It is used to analyze patterns and make informed decisions that drive the development of AI applications within the company.

💡LLM (Large Language Model)

An 'LLM' refers to a complex AI model designed to process and understand large volumes of language data. In the context of the video, LLMs are central to the AI generative strategy at Doctolib. They are used to generate text-based outputs, such as medical consultation notes, which can significantly reduce administrative burdens on medical practitioners.

💡Prompt Engineering

Prompt Engineering is the process of designing input prompts for LLMs to generate specific outputs. It is mentioned in the script as a technique used to get the most out of LLMs within Doctolib. Prompt engineering is essential for fine-tuning AI models to produce desired results, such as customizing medical letters or documents.

💡Healthcare System

The 'Healthcare System' refers to the organization and management of health services and resources in a country or region. Nassim discusses the potential impact of AI on the healthcare system, particularly in how it can improve the efficiency of medical practitioners and the quality of patient care through tools like the medical assistant.

💡Teleconsultation

Teleconsultation is the process of providing medical consultation and care through telecommunications technology. It is part of Doctolib's platform, which allows patients to book appointments with doctors online and also facilitates virtual consultations. The script mentions teleconsultation as one of the services offered by Doctolib that could be enhanced by AI.

💡Working Group

A 'Working Group' in this context is a team assembled to work on a specific project or challenge, in this case, the integration of AI into Doctolib's services. The group consists of various stakeholders, including engineering, product, data science, legal, and ethical teams, to ensure a comprehensive approach to developing AI applications.

💡GPU (Graphics Processing Unit)

A 'GPU' is a specialized electronic circuit designed to rapidly manipulate and alter memory to accelerate the creation of images in a frame buffer intended for output to a display device. In the video script, GPUs are mentioned as a critical resource for training and running LLMs, which require significant computational power.

Highlights

The creation of a Working Group to explore the use of Large Language Models (LLM) within the company's technology stack and identify potential use cases.

Doctolib's development of an internal tool called 'Docto GPT', allowing secure access to foundational LLM models for various use cases.

The direct involvement of the CEO and a cross-functional team in advancing the AI strategy, reflecting the company's commitment to innovation.

The identification of use cases prioritized by their impact on users, aiming to solve real problems and considering potential risks, especially in the medical field.

The emergence of 'Medical Assistant' as a collection of use cases designed to facilitate the work of medical practitioners.

The use of LLM to generate consultation notes, aiming to reduce the administrative burden on practitioners.

The importance of structured documentation to improve the quality of patient care and medical knowledge extraction.

The integration of various technologies such as speech-to-text and medical fact extraction to create a comprehensive solution.

The monitoring and feedback from internal users of Docto GPT, revealing a range of applications from idea generation to professional tasks.

The construction of an ecosystem around the use cases, including integration with existing tools like Slack and the development of professional offerings.

The challenge of rapidly evolving technology and the need for agility and continuous learning within the team.

The establishment of a core team of 10 to 15 people with diverse skills, supported by a larger group for rapid iteration and innovation.

The strategic importance of AI and LLM for Doctolib's product and the company's proactive approach to staying ahead in the field.

The potential of LLM in the medical field, including anecdotal reports of accurate diagnoses from analyzing patient records.

The future outlook on the use of AI in healthcare, with a focus on administrative relief for practitioners and the possibility of deeper medical applications.

The recommendation to listen to the 'Acquired' podcast, particularly the episodes about Nvidia, for insights into the hardware enabling AI advancements.

The passion for data driven by the constant change and the intellectual stimulation of learning new things every day.

The advice from Nassim's mother about not closing doors on oneself and allowing the environment to determine the right opportunities.

Jeff Bezos' 'regret minimization framework' as a guiding principle for making important decisions without future regrets.

Transcripts

play00:00

pour donner un exemple on a commencé à

play00:03

la sortie de ce Working Group à

play00:04

travailler sur le medical assistant qui

play00:07

est vraiment une collection de use case

play00:09

qui permettent de faciliter la vie des

play00:11

praticiens on a effectivement au sein de

play00:13

l'équipe deux des fondateurs de doct lib

play00:15

qui travaille sur ce projetl pour le

play00:17

faire avancer on a une implication très

play00:20

directe du CEO et de manière très

play00:22

régulière le gros challenge il est

play00:23

évident c'est que c'est c'est pas encore

play00:25

sec les choses bougent très très très

play00:27

vite et donc la vérité du jour va être

play00:30

complètement invalidé de semaines plus

play00:32

tard alors aujourd'hui je reçois Nassim

play00:35

qui est senior director data n ai chez

play00:39

doctolib La Licorne française qu'on ne

play00:41

présente plus qui propose notamment une

play00:44

plateforme de prise de rendez-vous avec

play00:45

des médecin qui permet également de

play00:47

faire de la téléconsultation aujourd'hui

play00:50

Nassim va nous parler d'un de ses plus

play00:51

gros challenges de ces derniers mois à

play00:53

savoir comment déployer une stratégie Ia

play00:56

générative aka j ai pour les

play01:00

connaisseurs pour info on avait déjà eu

play01:02

Kemal qui était anciennement directeur

play01:04

d'Atach et d'ctolip qui était venu sur

play01:06

le Podcast dans l'épisode 11 donc ça

play01:08

remonte un petit peu qui nous avait

play01:10

parlé un peu plus globalement de la data

play01:12

chez doctolib pour ceux qui auraient

play01:14

envie de creuser un peu plus et

play01:15

également plus récemment Lucy qui est

play01:17

venu nous parler du déploiement à

play01:20

l'échelle d'un nouvel outil de Business

play01:22

Intelligence notamment tableau donc je

play01:24

vous mettrai bien sûr les liens en

play01:26

description pour ceux qui veulent aller

play01:27

voir ça hoassim ça va ça va bien Rob et

play01:30

toi super écoute je suis ravi de te

play01:33

recevoir ça doit remonter à 2 ans

play01:34

c'était fait un déj c'est ça quelque

play01:37

chose comme ça oui c'est ça et on

play01:38

s'était dit qu'on ferait un quelque

play01:39

chose ensemble et puis on était resté en

play01:41

contact et puis enfin on arrive à faire

play01:43

cette ép enfin on y est enfin on y est

play01:44

donc je suis trop content peut-être pour

play01:46

commencer est-ce que tu souhaites

play01:47

compléter un peu sur doctoli par rapport

play01:49

à ce que j'ai dit alors il y a quelques

play01:51

points que je souhaiterais rajouter

play01:53

parce que ça va aider en fait à mieux

play01:55

comprendre ce dont on va parler juste

play01:57

après donc ce qu'on connaît de doct lib

play01:59

c'est la plateforme de réservation de

play02:02

rendez-vous médicaux c'est la

play02:03

téléconsultation c'est ce que tu as

play02:05

mentionné mais évidemment de l'autre

play02:07

côté du miroir on a toute une série de

play02:10

logiciels pour les praticiens le plus

play02:13

évident qui est lié à la plateforme de

play02:15

réservation c'est la gestion de l'agenda

play02:18

des praticiens donc pour pouvoir bah

play02:20

gérer leur rendez-vous en fonction de

play02:22

leur propres contrainte en fonction des

play02:24

plages qu'ils souhaitent ouvrir pour

play02:26

pouvoir optimiser leur prise de

play02:27

rendez-vous mais à côté de ça on a aussi

play02:30

ce qu'on appelle le logiciel clinique

play02:31

qui est le logiciel que les praticiens

play02:34

utilisent de façon à gérer leurs

play02:36

consultation donc typiquement tout ce

play02:38

qui se passe entre le moment où le

play02:40

praticien demande la carte vitale et

play02:42

l'insert dans le lecteur et le moment où

play02:44

à la fin de la consultation on clos et

play02:47

on passe à la partie facturation et

play02:48

envoie des informations à la S et aux

play02:50

assurances on a un logiciel qui gère

play02:52

tout ça et en fait c'est plutôt sur

play02:55

cette partie du logiciel doctolib qu'on

play02:58

va travailler avec de l' générative donc

play03:01

je voulais le mentionner parce que c'est

play03:03

la partie que les auditeurs en général

play03:04

ne connaissent pas du tout hormis les

play03:06

praticiens qui nous utilisent excellent

play03:07

bah tu fais bien du coup on va creuser

play03:09

un petit peu justement comment l'

play03:11

générative s'insère dans cette partie là

play03:14

de des solutions de docte lib un petit

play03:16

peu plus tard juste avant ça comment toi

play03:18

tu t'es retrouvé senior director data

play03:21

and AI chez Doct lib alors c'est

play03:23

toujours une longue histoire je vais

play03:25

essayer de la faire quand même assez

play03:26

courte et j'ai travaillé avant de

play03:28

rejoindre Doct lib 15 ans dans le voy

play03:30

avec grosso modo la moitié de ma

play03:32

carrière dans une partie software

play03:34

engineering plus classique et la

play03:36

deuxième partie euh vraiment data en

play03:38

rentrant par la data science Analytics

play03:41

et puis ensuite plus du Data engineering

play03:43

et du BI traditionnel donc j'ai vu un

play03:45

petit peu un petit peu toute la chaîne

play03:47

le passage vers la data c'était

play03:49

intéressant je gérais le moteur de

play03:52

réservation d'une partie d'expédia donc

play03:55

une agence de voyage de voyage en ligne

play03:57

et ont généit énormément de données on

play03:59

se doutait on avait des choses

play04:00

intéressantes à faire et c'est par ce

play04:01

chemin là en fait que je suis arrivé

play04:02

dans le monde de la data après donc je

play04:05

parlais du travel euh donc du monde du

play04:07

Voyage évidemment euh le covid a eu un

play04:10

impact sur ce qu'on était en mesure de

play04:13

faire donc on a eu des périodes qui

play04:14

étaient moins sympas que d'autres euh

play04:16

avec clairement moins de perspective

play04:18

pour pouvoir bah faire des choses

play04:19

intéressantes on a eu aussi d'autres

play04:22

d'autres aspects la la partie d'expédié

play04:24

où je travaille s'est faitre racheté je

play04:26

savais qu'on en avait pour quelques

play04:27

années d'intégration de système à faire

play04:29

fa c'est des projets qui sont très

play04:30

intéressants mais j'avais déjà vu ça

play04:32

dans ma carrière donc j'avais envie de

play04:34

de voir aussi autre chose et c'est à ce

play04:36

moment-là que bah le fameux Kemal de

play04:38

l'épisode 11 m'a passé un coup de fil et

play04:40

donc je me suis dit que ça serait bien

play04:42

de commencer à regarder ce que Doct

play04:44

proposait et ça semblait super

play04:45

enthousiasment énormément d'opportunités

play04:47

et puis le moyen d'avoir un véritable

play04:50

impact sur les utilisateurs sur les

play04:53

patients et en fait sur le système de

play04:55

santé dans les pays où on opère donc

play04:58

c'est assez c'est assez fantastique et

play04:59

j'avais besoin de retrouver ce lien avec

play05:02

l'impact sur les utilisateurs plutôt que

play05:04

de repartir sur des projets

play05:06

d'intégration un peu plus euh presque

play05:10

exactement on est plus centré sur nos

play05:12

propres contraintes plutôt que sur

play05:13

fournir de la voaleur aux utilisateurs

play05:15

ouais ça fait sens aujourd'hui tu as mis

play05:17

en place chez doctolib la stratégie

play05:20

Ji tu peux nous en dire un peu plus sur

play05:23

le contexte autour de ce challenge en

play05:25

fait c'est un un faisau de différentes

play05:27

choses qui sont qui sont arrivées qui

play05:29

sont concentré à peu près en même temps

play05:31

évidemment il y a chat GPT qui a secoué

play05:34

un petit peu tout le monde et qui qui a

play05:36

montré qu'en fait les gérative c'était

play05:38

pas simplement des modèles qui

play05:40

arrivaient à faire des choses mais

play05:41

c'était un produit que des utilisateurs

play05:44

arrivaient à leverager pour faire des

play05:46

choses utiles y compris dans un contexte

play05:48

professionnel euh pour prendre un peu de

play05:50

recul j'avais eu l'occasion d'utiliser

play05:53

gbt3 en avant-première quand j'étais

play05:55

chez expéia parce qu'on avait Sam Altman

play05:57

au board et donc il avait sélectionné

play05:59

quelques data scientist et quelques

play06:00

personnes dans la boîte pour l'utiliser

play06:02

donc les les modèles existent depuis

play06:04

longtemps ils étaient pas aussi bons à

play06:05

l'époque mais la vraie difficulté

play06:07

c'était de trouver un usage et donc je

play06:09

pense que chat GPT a montré que bah

play06:12

finalement le public était sensible à

play06:16

aux nouveaux usages que ce genre d'outil

play06:18

permettait d'avoir donc ça ça a été un

play06:20

premier point de départ évidemment les

play06:21

choses ont commencé à euh à bouillonner

play06:24

un petit peu côté produit on a commencé

play06:26

à se demander ce qu'on pouvait ce qu'on

play06:28

pouvait en faire côté é qu' on essayait

play06:30

de cerner un petit peu parce que ça

play06:31

change très très rapidement cerner un

play06:33

petit peu ce que ça signifiait

play06:35

d'utiliser ce genre d'outil là et donc

play06:36

on a on a créé un Working Group pour

play06:38

essayer de comprendre spécifiquement des

play06:40

LLM comment les utiliser dans notre

play06:41

stack et en parallèle regarder les types

play06:44

de use case qu'on pourrait mettre en

play06:47

place au sein de doctolib et qui

play06:49

lvraerit ses outils c'est vraiment comme

play06:50

ça que ça a avancé on va dire de manière

play06:52

organique et puis on a eu aussi des

play06:55

retours un petit peu plus topd où je

play06:57

pense que tout le monde s'est rendu

play06:58

compte qu'il y avait de grosses

play06:59

opportunités et puis de se dire ben

play07:02

voilà on on sent qu'il y a des des

play07:05

besoins qui peuvent être servis par ce

play07:06

genre d'outil on sent qu'il y a une

play07:08

volonté du leadership d'avancer

play07:11

là-dessus comment on y va c'est

play07:13

intéressant de de de réfléchir à ce qui

play07:15

est sorti de ce Working Group en fait il

play07:17

y avait deux grands points qui en sont

play07:20

sortis le premier c'est que c'est un

play07:22

outil tellement nouveau qu'il faut

play07:23

pouvoir le mettre dans les mains de

play07:25

autant de personnes que possible au sein

play07:27

de l'entreprise pour pouvoir se

play07:28

familiariser et avoir vooir une bonne

play07:30

idée de comment utiliser des LLM ce que

play07:33

ça peut faire ce que ça ne peut pas

play07:34

faire et puis comment tirer un maximum

play07:37

de valeur en fait de de ces outilslà

play07:39

donc pour ça on on a développé un outil

play07:41

interne qui se base évidemment sur des

play07:43

modèles fondationnels qui s'appelle

play07:44

docto GPT et qui permet à n'importe quel

play07:48

docto liber d'avoir accès à un LLM de

play07:51

manière secure et de pouvoir même

play07:53

choisir différents types de LLM en

play07:55

fonction des use case de faire du prompt

play07:57

engineering de façon un peu confortable

play07:58

et donc de commencer à se faire une idée

play08:00

de ce que ça permet de faire et à

play08:01

destination vraiment de tout le monde

play08:03

aussi bien les équipes tech and produit

play08:05

que les équipes business donc ça c'était

play08:09

un outcome comment est-ce qu'on met j

play08:12

entre toutes les mains et comment on

play08:14

permet aux gens de se familiariser avec

play08:15

cetette outil le deuxième outcome qui

play08:18

est sorti c'était vraiment une liste de

play08:20

use case qui était priorisé à la fois

play08:23

par l'impact sur nos utilisateurs donc

play08:25

on voulait vraiment résoudre un problème

play08:27

utilisateur et pas juste se dire B on a

play08:30

un outil c'est cool comment on peut le

play08:32

mettre dans le produit donc comment on

play08:33

résout un problème utilisateur et

play08:35

ensuite quels sont les risques

play08:37

potentiels qui sont associés on

play08:39

travaille dans le domaine médical une

play08:41

hallucination dans le domaine médical

play08:43

c'est pas la même chose qu'une

play08:44

hallucination quand je demande à chat

play08:47

GPT de me sortir quelques idées donc

play08:49

évidemment on a pris cette composante en

play08:52

considération et à la fin du de ce

play08:55

Working Group là on avait quand même une

play08:56

liste assez précise de use case qu'on

play08:58

aimerait qu'on aimerait commencer à la

play08:59

clé euh en se basant sur des vrais

play09:01

problèmes métiers à résoudre tu peux

play09:03

peut-être nous en illustrer un ou deux

play09:05

justement de use case qui qui a commencé

play09:08

à émerger du coup je sais pas quel est

play09:09

le niveau de maturité que vous avez

play09:10

là-dessus mais la manière dont on en

play09:12

parle aujourd'hui est différente de la

play09:14

manière dont on en parlait à la sortie

play09:16

du Working Group où ça ressemblait un

play09:17

petit peu à un patchwork de différents

play09:19

types de use case potentiel maintenant

play09:21

la manière dont on en parle est beaucoup

play09:22

plus holistique donc pour donner un

play09:24

exemple on a commencé à la sortie de ce

play09:28

Working Group à travailler sur le

play09:29

medical assistant qui est vraiment une

play09:31

collection de use case qui permet de

play09:34

faciliter la vie des praticiens donc si

play09:36

on prend euh toute la chaîne donc

play09:39

pendant une consultation médicale l'idée

play09:41

c'est de se dire qu'on peut à partir de

play09:44

l'échange entre le praticien et le

play09:46

patient générer à la fois évidemment un

play09:48

transcript de ce qui s'est passé mais

play09:49

surtout des notes de consultation qui

play09:52

permettent au praticien de documenter ce

play09:55

qui s'est passé aujourd'hui les les

play09:57

praticiens alors ça dépend des pays ça

play09:58

dépend des spécialités ça dépend des

play10:00

contextes mais en en général document

play10:02

assez peu ce qui se passe dans une

play10:04

consultation parce que c'est pénible il

play10:06

préfère bah faire leur métier et

play10:08

travailler avec les patients et et leur

play10:10

apporter le meilleur soin possible

play10:12

plutôt que de passer la journée à taper

play10:14

sur un clavier donc ça va permettre

play10:16

d'avoir de la meilleure documentation ça

play10:18

va leur permettre de leur libérer du

play10:20

temps et puis ensuite ça va être aussi

play10:23

une brique qui nous permet de mieux

play10:25

extraire de la connaissance médicale et

play10:27

de la structurer dans le dossier médical

play10:29

des patients pour qu'à la consultation

play10:32

suivante le soin puisse être d'encore

play10:34

meilleure qualité donc quand on regarde

play10:37

en fait tout ça on a beaucoup de briques

play10:38

une des briques c'est du LLM pour

play10:41

pouvoir générer ces notes de

play10:42

consultation on a d'autres briques plus

play10:45

du speech to text

play10:46

évidemment de l'extraction et de la

play10:48

codification de faits médicaux donc

play10:51

plusieurs types de modèles et c'est

play10:52

vraiment un système c'est pas juste un

play10:53

seul modèle qui permet de résoudre ce ce

play10:55

problème particulier mais le LLM est

play10:57

vraiment au cœur de ça et ensuite si on

play10:59

va un petit peu plus loin on sait qu'on

play11:02

aura d'autres types de documents qu'on

play11:03

souhait régénérer et les LLM vont être

play11:05

évidemment au cœur de la solution à ce

play11:07

type de problème là que ce soit des

play11:10

potentiellement de la documentation à

play11:11

destination des patients potentiellement

play11:13

des lettres d'adressage et cetera et

play11:15

cetera et si je reviens une seconde sur

play11:16

le premier élément dont tu as parlé un

play11:18

peu le Doct GPT donc ça c'est

play11:20

intéressant parce que je pense qu'il y a

play11:22

énormément de boîtes qui ont aussi eu un

play11:24

peu cette stratégie là pour aussi

play11:27

simplement avoir un terrain de jeu et

play11:29

faire émerger des idées peut-être

play11:31

là-dessus tu as une illustration ou deux

play11:33

de

play11:34

d'éléments qui vous ont fait mûir grâce

play11:37

à ce projet là est-ce que vous avez pris

play11:38

du feedback de de vos collaborateurs qui

play11:41

utilisent le plus parce que je suppose

play11:42

que bon tout le monde s'est peut-être

play11:43

pas jeté dessus comme dans tout produit

play11:44

tu as toujours des Orly adopteur

play11:46

d'autres qui mettent un peu plus de

play11:47

temps enfin comment ça s'est passé un

play11:48

peu cette prise en main de d'octogpt en

play11:52

interne donc on a effectivement

play11:53

monitorer l'usage et on se rend compte

play11:55

qu'on a

play11:56

environ un/art de la boîte qui lu

play11:59

utilise de manière régulière donc c'est

play12:01

c'est vraiment pas mal en fait les types

play12:03

d'usage peuvent être très très

play12:04

différents on a beaucoup d'usage de type

play12:08

idéation je pense qu'on le on le fait

play12:09

tous pour pouvoir générer des idées et

play12:12

s'assurer que on rate pas d'opportunités

play12:14

quand on est au début de du défrichage

play12:17

d'un sujet on voit ce genre de use case

play12:19

là qui permet de faire gagner du temps

play12:22

beaucoup de génération de résumé euh

play12:25

donc dans certains cas ça peut être

play12:26

quand on reçoit des emails un petit peu

play12:27

longs on les fait d'abord pass dans la

play12:29

moulinette de docte GPT pour avoir une

play12:31

idée des points saillant ça c'est des

play12:32

types d'usage qui reviennent et puis on

play12:34

a des des usages un petit peu

play12:36

plus directement lié à l'activité

play12:39

professionnelle des collaborateurs qui

play12:40

là implique d'avoir vraiment du prompt

play12:43

engineering et même du templating en

play12:45

fait de prompt qui leur permett de

play12:47

répondre à des problèmes qu'ils ont de

play12:49

manière récurrente rapidement donc on a

play12:51

ces ces trois grands type de use case il

play12:54

y en a sans doute d'autres encore mais

play12:56

c'était vraiment vraiment ce qu'on a vu

play12:58

après pour passer

play12:59

pour passer à l'étape d'après là on

play13:02

parle vraiment de quelque chose à

play13:03

destination d'utilisateur interne pour

play13:05

leur propre efficacité et leur

play13:08

productivité on commence à voir un

play13:10

écosystème se construire autour de ce

play13:11

genre de use case là typiquement on sait

play13:13

que si on veut aller plus loin il va

play13:14

falloir s'intégrer avec différents types

play13:17

d'interfac on a déjà une intégration

play13:18

avec SLAC mais on sait qu'on en aura

play13:20

sans doute d'autres qui pourrai être

play13:21

utile avec tous vos outils que vous

play13:23

utilisez déjà au quotidien quoi dans les

play13:24

différents départements exement

play13:26

complètement donc sur la partie Channel

play13:28

et puis sur la partie contenu euh on a

play13:31

toute la partie de pouvoir bah

play13:32

finalement faire du rag donc retrieval

play13:35

augmented generation euh où on va

play13:37

indexer du contenu pertinent pour les

play13:40

collaborateurs de manière à ce qu'ils

play13:41

puissent l'utiliser à travers d'octogpt

play13:44

et là encore on commence à avoir des

play13:46

offres plus professionnelles qui se

play13:48

structurent donc doctoogpt est super

play13:51

pour nous permettre de comprendre les

play13:53

usages et les anticiper euh et puis

play13:55

ensuite il va falloir qu'on ait une

play13:56

discussion sur comment on passe à une

play13:59

étape un petit peu plus industrielle

play14:00

c'est intéressant je rejumpe une seconde

play14:02

désolé je passe un peu du coocalan sur

play14:05

la vision aussi de ce que tu nous disais

play14:08

des du coup des solutions un peu plus

play14:09

core product si je puis dire c'est

play14:11

celles qui sont un peu plus au cœur du

play14:12

produit est-ce que là-dessus il y a une

play14:14

autre illustration parce que ça permet

play14:15

vraiment de se projeter c'est

play14:16

intéressant je trouve de voir des usages

play14:17

même si c'est très spécifique au monde

play14:19

médical mais c'est intéressant je pense

play14:20

pour pour l'audience et tu tu parlais

play14:22

parle des lettre de d'adressage

play14:24

peut-être tu peux nous réillustrer juste

play14:26

un deuxième exemple pour qu'on l' en

play14:28

fait à la fin d'une consultation

play14:30

médicale en particulier avec un

play14:32

généraliste le l'issue peut être

play14:34

d'adresser euh le patient à un confrère

play14:37

et souvent un spécialiste pour pouvoir

play14:38

faire poser un diagnostic plus avancé

play14:40

des examens complémentaires et cetera et

play14:42

et et en fait une une bonne partie de

play14:45

leur temps peut être consacré à générer

play14:48

ces lettres d'adressage euh donc c'est

play14:50

des choses on se l'imagine pas mais de

play14:53

pouvoir choisir en fonction du féminin

play14:56

masculin euh tutoiement ou

play14:58

vousouvoimement du confrère s'ils se

play15:00

connaissent ou pas et puis tout un

play15:02

certain nombre d'informations

play15:03

pertinentes à transmettre euh dans le

play15:06

courrier d'adressage euh ça peut

play15:08

entraîner une complexité qui est

play15:10

infernale à gérer avec des outils de

play15:12

type formulaire et clickbox euh donc on

play15:15

on sait qu'il y a une opportunité ici

play15:19

d'améliorer l'utilisation des praticiens

play15:21

et puis leur usage en faisant usage de

play15:23

LLM euh pour pouvoir générer quelque

play15:26

chose de plus pertinent plus rapidement

play15:29

potentiellement exhaustif en tout cas le

play15:31

le choix de ce qu'il faudra mettre sera

play15:33

toujours laissé au praticien mais

play15:35

effectivement on sait que c'est quelque

play15:37

chose qu'il va falloir qu'on regarde

play15:40

mais typiquement ça fait partie des

play15:42

types de use case qui à terme font

play15:44

partie de cette galaxie de medéical

play15:46

assistant puisque ça leur permettra de

play15:48

gagner du temps pour euh voilà pour

play15:51

générer leur leur non en fait on peut

play15:53

c'est vrai que sur si on commence à

play15:55

découper vraiment le le cycle de vie

play15:57

entre guillemets d'une consultante ou de

play15:59

en tout cas d'une journée pour un

play16:00

médecin il y en a probablement pas mal

play16:03

effectivement des cas d'usage où le LLM

play16:05

comme ça va pouvoir avoir de l'impact

play16:06

sur du temps gagné pour qu'ils puisse

play16:09

mieux se concentrer aussi sur le côté

play16:10

humain de leur métier complètement c'est

play16:13

c'est exactement l'objectif et en fait

play16:15

la la raison pour laquelle des outils

play16:17

comme les LLM peuvent vraiment aider

play16:19

dans ce dans ce genre de contexte c'est

play16:21

qu'en réalité quand on regarde à la fois

play16:23

ce qui se passe pendant une consultation

play16:24

mais l'industrie médicale énormément de

play16:27

contenus non structuré généré et quand

play16:30

je dis ça c'est finalement bah des notes

play16:32

de consultation des rapports des

play16:33

documents ça peut être de l'imagerie

play16:35

aussi et donc des outils comme les LLM

play16:37

permettent de nativement en fait

play16:39

travailler avec ce contenu avec ces

play16:41

données là et c'est pour ça qu'on a ce

play16:43

genre d'adéquation là on a des

play16:45

inadéquations je mentionnais typiquement

play16:47

le risque d'hallucination dans un

play16:48

contexte médical où bah là non c'est pas

play16:50

top les choses plus déterministes

play16:51

fonctionnent mieux mais c'est c'est

play16:54

vraiment ce qui fait que sans essayer de

play16:57

forcer le cas d'utilisation on se rend

play16:59

compte qu'il y a un match entre le

play17:01

besoin utilisateur et le LLM comme une

play17:04

manière de le résoudre je serais curieux

play17:05

que tu nous expliques un petit peu

play17:07

comment vous êtes organisé pour avancer

play17:09

sur ce sujet tu parlais notamment d'un

play17:12

Working Group de qui il était constitué

play17:15

c'est intéressant il a peut-être des

play17:15

boîtes qui sont voilà un petit peu à ce

play17:17

stade là et qui se demandent un peu qui

play17:19

mettent à la table pour avancer vite sur

play17:20

le sujet et puis maintenant que vous

play17:22

êtes plus mature comment ça se structure

play17:24

comment ça impacte un peu peut-être

play17:26

l'équipe data probablement l'équipe tch

play17:27

l'équipe produit enfin sur le Working

play17:29

Group on a essayé de mettre un petit peu

play17:31

tout le monde donc des représentants

play17:33

d'ingineering product data science on a

play17:37

eu aussi des représentants des équipes

play17:39

légales éthiques parce que ce genre de

play17:42

technologie ouvre aussi de nouvelles

play17:44

questions et donc on veut on veut

play17:45

pouvoir les prendre en compte vraiment

play17:47

dès le départ donc on a essayé de de

play17:50

prendre assez large pour être sûr de

play17:51

pouvoir regarder la question sur toutes

play17:53

ces facettes et pas uniquement sous une

play17:55

facette produit ou technologique euh

play17:57

donc ça ça c'était vraiment au début

play17:59

quand on défrichait le sujet maintenant

play18:01

si on si on parle de la partie medéical

play18:03

assistant où là on est un peu plus

play18:06

mature et en mode ben finalement livrer

play18:08

un produit dont les LLM sont une des

play18:11

composantes là on a une équipe une

play18:13

équipe transverse engineering data et

play18:16

product qui forment le le cœur de

play18:18

l'équipe sur finalement la la création

play18:21

du système mais on a aussi des

play18:23

interlocuteurs dédiés que ce soit chez

play18:26

les équipes sécurité les équipes légales

play18:28

pour s'assurer que comme on est encore

play18:30

en train de de de finalement

play18:33

défricher ce sujet-là qu'on puisse avoir

play18:35

des réponses rapides et des

play18:36

interlocuteurs privilégiés typiquement

play18:39

avoir des points de contact stables au

play18:40

sein des différentes organisations de

play18:43

l'entreprise permet bah de capitaliser

play18:45

et puis de s'assurer qu'on est aussi

play18:47

aussi efficace que possible on sait

play18:48

qu'on veut itérer rapidement on sait

play18:50

qu'on veut avancer vite donc c'est

play18:52

vraiment du all hands on deck et

play18:53

d'ailleurs quand on s'était appelé tu

play18:54

m'avais dit que justement tu avais

play18:56

trouvé ça assez incroyable la manière

play18:58

dont doctolib prenez en main euh des

play19:01

sujets qui comme ça étaient cœur et que

play19:04

quand vous avez ce type de situation euh

play19:06

finalement la boîte a gardé une ADN

play19:09

entre guillemets start-up dans le sens

play19:10

où tout le monde est capable de

play19:11

peut-être se reprioriser et de se mettre

play19:14

comme tu dis hens on deck pour avancer

play19:15

vite y compris même des fondateurs et

play19:18

cetera jeis c'est intéressant peut-être

play19:20

que tu nous racontes ça complètement oui

play19:21

et et en fait venant d'une entreprise un

play19:23

petit peu plus mature et structurée

play19:25

c'est c'est assez impressionnant en fait

play19:26

de voir tout ça tout ça se mettre en

play19:28

branle on a effectivement au sein de

play19:30

l'équipe deux des fondateurs de docte

play19:32

lib qui travaillent sur ce projet-là

play19:34

pour le faire avancer on a une

play19:36

implication très directe du CEO et de

play19:38

manière très régulière déjà je pense que

play19:40

ça l'enthousiasme personnellement mais

play19:42

c'est aussi quelque chose qui est clé

play19:44

pour pour l'entreprise et pour la

play19:45

stratégie de l'entreprise en général il

play19:47

est vraiment à fond sur le sujet donc

play19:49

j'avais passé je pense 2 heures avec lui

play19:53

pour lui expliquer comment fonctionnait

play19:54

un réseau de neuron et je sais qu'il a

play19:56

passé du temps avec des Data scientist

play19:58

de mon é ipe aussi pour rentrer plus

play19:59

dans le détail de comment on F tune un

play20:01

modèle de Deep learning donc donc on va

play20:04

assez loin et puis ça donne aussi une

play20:05

idée du du sponsorship au sein du

play20:07

leadership de la boîte qui nous permet

play20:09

effectivement d'avancer rapidement et

play20:11

côté tech comment ça fonctionne comment

play20:14

ça se passe quel a été l'impact global

play20:17

sur la tech sur la stack data existante

play20:20

comment les nouvelles briques ont été

play20:21

intégrées dans la stack existant je sais

play20:23

pas si tu peux nous parler un petit peu

play20:24

de cet aspect là oui je peux au moins

play20:26

donner un overview parce qu'on on s'est

play20:28

fait effectivement une liste de je crois

play20:30

16 capabilities machine learning sur

play20:32

lesquels on veut avancer on va pas faire

play20:33

l'inventaire ici euh mais on en a

play20:36

quelquesunes qui sont évidentes liées au

play20:37

LLM sur lesquelles il a fallu qu'on

play20:39

qu'on travaille et qu'on avance un petit

play20:41

peu un petit peu plus rapidement de

play20:42

manière évidente on a le fait d'être

play20:44

capable de d'avoir des réservations de

play20:46

GPU euh tout ce qu'on fait avec D LLM

play20:48

que ce soit de l'inférence ou que ce

play20:50

soit du fine tuning c'est des choses qui

play20:52

demandent énormément de ressources et de

play20:53

ressources GPU c'est quelque chose qu'on

play20:55

avait pas forcément l'habitude de

play20:56

manipuler euh chez docteur to lip jusque

play20:59

là donc on on on a dû mettre ça en place

play21:02

de manière à pouvoir à la fois avoir le

play21:04

provisioning nécessaire pour faire de

play21:05

l'inférence et puis pour pouvoir tester

play21:08

de nouveaux modèles de nouveaux LLM

play21:10

chose qu'on avait pas forcément avant

play21:12

quand tu dis de l'inférence pour ceux

play21:13

qui peut-être sont pas famili avec le

play21:14

terme c'est tout simplement quand tu vas

play21:15

vouloir faire un appel au LLM ça demande

play21:17

de la ressource et ça ça s'achète ou ça

play21:20

se paye après il y a différentes

play21:21

manières de l'avoir si tu veux pas faire

play21:23

n'importe quoi faut quand même mettre le

play21:24

nez dedans et comprendre comment ça

play21:25

marche pour pas non plus avoir un coup

play21:27

qui explose et cetera c'est ça alors oui

play21:29

effectivement le coup est quelque chose

play21:30

qu'on surveille qu'on surveille mais

play21:32

même si pour l'instant c'est largement

play21:34

sous contrôle et ça en vaut la peine

play21:36

mais les GPU c'est quelque chose de de

play21:38

nouveau à manipuler et

play21:40

typiquement je pense c'est plutôt en

play21:42

terme

play21:43

d'efficacité qu'on regarde également

play21:45

s'assurer qu'on a les bons outils pour

play21:47

optimiser l'utilisation des GPU qu'on a

play21:49

réservé parce que ça se fait pas tout

play21:50

seul il y a quelques outils à à à

play21:52

manipuler pour s'assurer que ça soit

play21:54

effectivement le cas tu pens CER un ou

play21:56

deux comme ça juste sans qu'on rentre

play21:57

dedans maispiquement le le serveur

play21:59

d'inférence Triton par exemple c'est

play22:01

quelque chose que quelque chose qu'on

play22:02

doit utiliser et qu'on apprend à

play22:05

utiliser de manière à avoir une

play22:06

meilleure utilisation de GPU ensuite on

play22:08

parlait de la partie rag tout à l'heure

play22:11

pour faire super simple bah c'est des

play22:14

documents indexés par un vecteur disons

play22:18

des

play22:19

chiffres il y a des bases de données qui

play22:21

sont spécifiques pour résoudre ce genre

play22:24

de problème là mais on a aussi un

play22:26

certain nombre de bases de données qui

play22:27

existaient déjà et qui font ce genre de

play22:29

chos là là le la question c'était de

play22:31

voir est-ce qu'on a finalement des

play22:32

composants qui existent et qu'on

play22:35

pourrait leverager pour faire du rag et

play22:37

donc pour indexer des documents qu'on

play22:39

souhaiterait utiliser avec des LLM donc

play22:42

là là effectivement on a commencé à

play22:44

implémentter un rag avec des outils

play22:45

qu'on maîtrisait déjà ce qui permet de

play22:48

effectivement d'aller plus vite et de

play22:49

s'insérer mieux dans l'infrastructure

play22:51

qu'on avait actuellement à quel outil tu

play22:53

penses quand tu dis ça là aujourd'hui on

play22:55

utilise du open search qui est quelque

play22:57

chose qu'on qu'on utilise isait déjà

play22:59

pour d'autres types de use case et donc

play23:00

le le passage à l'utilisation dans le

play23:03

cadre du rag était était quelque chose

play23:05

d'assez naturel et et d'assez facile et

play23:08

puis après le le dernier point c'est sur

play23:11

toute la partie llms où là je pense que

play23:13

tout le monde en est au tout début on a

play23:15

pas mal de choses qui sont encore in

play23:16

housee donc il faut qu'on regarde

play23:18

comment est-ce qu'on peut industrialiser

play23:19

ça un petit peu plus le faire de manière

play23:22

qui soit répétable voir les types

play23:24

d'outils qu'on pourrait leverager

play23:25

sachant qu'il y en a pas encore

play23:26

énormément et puis qu' sont aussi dans

play23:28

leur euh dans leur enfance aussi donc là

play23:32

là c'est un champ qui est vraiment en

play23:33

train d'évoluer très très rapidement

play23:35

parce que là l'enjeu pour le LLM h si tu

play23:38

synthétises c'est qu c'est de s'assurer

play23:39

que vous avez tout ce qui est bien en

play23:41

place pour pas pour faire le monitoring

play23:44

qui est lié à ses modèles pour les

play23:46

suivre dans le temps pour les faire

play23:48

évoluer facilement en général quand on

play23:50

parle d'ops j'essaie de synthétiser

play23:52

c'est c'est exactement ça donc il y a

play23:54

effectivement un aspect un aspect

play23:56

monitoring mais disons pour prendre un

play23:57

use case très très TR simple qu'on veut

play23:59

craquer mettons qu'un nouveau modèle est

play24:01

réisé ou qu'on veille tester un nouveau

play24:03

prompt comment on s'assure que en

play24:05

cliquant sur un bouton on est capable de

play24:07

rapidement savoir quelle est la

play24:09

performance de ce nouveau modèle de ce

play24:12

nouveau prompt et ensuite comment est-ce

play24:14

qu'on peut opérationnaliser le fait de

play24:16

pouvoir le mettre en production donc là

play24:18

on a vraiment toute une chaîne qui

play24:19

ressemble finalement à du à du

play24:21

cicd dans du développement exactement

play24:24

exactement quelles ont été les plus

play24:26

grosses difficultés tu dir

play24:28

que vous avez rencontré en tant

play24:31

qu'équipe justement dans le cadre de ce

play24:33

projet le gros challenge il est évident

play24:35

c'est que c'est c'est pas encore sec les

play24:38

choses bougent très très très vite et

play24:40

donc la vérité du jour peut être

play24:41

complètement invalidée de semaines plus

play24:43

tard et pas juste légèrement remise en

play24:45

question invalidé donc ça ça nécessite

play24:49

de mettre en place ce qu'il faut pour

play24:51

être pour être super flexible parce que

play24:53

le brouillard de de guerre il est à 1

play24:55

mois à 2 mois il est pas à 2 ans euh

play24:59

donc donc on a besoin de d'être super

play25:00

agile pour pouvoir pour pouvoir

play25:02

rapidement apprendre etitérer et en

play25:04

réalité c'est un de nos objectifs sur

play25:06

les projets qu'on met en place de voir

play25:07

comment est-ce qu'on peut apprendre le

play25:08

plus rapidement possible et itérer parce

play25:10

que c'est cet apprentissage qui nous

play25:12

permettra ensuite de mieux suivre

play25:13

l'évolution du domain euh plutôt que de

play25:16

se dire on on fige un choix maintenant

play25:18

et et on sait que les choses avancent

play25:20

tellement vite que bah peut-être que on

play25:22

sera complètement obsolète dans 3 mois

play25:24

et une question que je me posais une

play25:25

seconde tu dirais qu'il y a combien de

play25:26

personnes là chez Doct lib qui qui sont

play25:28

dédiés à temps plein sur ce sujet je

play25:31

pense vraiment sur la sur la Core Team

play25:34

on doit parler de 10 à 15 personn ok là

play25:37

encore tout type de de skills confondu

play25:40

data engineering

play25:42

product après on a une équipe un peu

play25:44

plus étendue qui sont peut-être pas à

play25:46

temps plein mais qui comp pas forcément

play25:47

à temps plein mais en tout cas super

play25:49

réactif et dédié au projet et donc donc

play25:51

ça augmente encore un petit peu le on va

play25:53

dire la la taille de l'équipe qui

play25:55

travaille de manière régulière dessus

play25:56

mais c'est un gros effort déjà au final

play25:58

15 personnes c'est une grosse quad quoi

play26:00

donc oui oui oui ben on y met on y met

play26:02

les moyens on pense que c'est c'est

play26:04

quelque chose qui est qui est super

play26:05

important pour nous juste sur les

play26:07

challenges je t'ai un peu coupé tu

play26:08

voulais en rajouter un ou c'est

play26:10

peut-être lié au fait que les choses ne

play26:12

ne ne soient pas encore sèches

play26:14

mais l'intelligence artificielle en

play26:17

général c'est un sujet compliqué et j a

play26:21

rajouté à la fois de la complexité et de

play26:23

la confusion donc ça nécessite beaucoup

play26:26

beaucoup beaucoup de euh training de de

play26:29

formation auprès de l'Organisation que

play26:32

ce soit côté teacin de produit ou que ce

play26:34

soit dans d'autres fonctions métier de

play26:36

l'entreprise pour s'assurer que les les

play26:39

sujets les enjeux soient bien compris et

play26:41

honnêtement on voit avec les les

play26:42

différentes initiatives de formation

play26:44

assez large qui ont été mis en place et

play26:46

qui continuent à être misise en place

play26:47

que la la qualité de la discussion qu'on

play26:50

peut avoir sur ces sujet là a vraiment

play26:54

énormément augmenté et je pense que

play26:56

c'est clé si on voit l'intelligence

play26:59

artificielle et Ji comme un sujet de

play27:01

Data scientist ça fonctionnera pas et

play27:03

quelles sont les prochaines étapes sur

play27:05

ce sujet j ai pour doctolib c'est pas

play27:08

forcément pour doctolib là tout de suite

play27:10

mais pour Ji dans dans le domaine de la

play27:13

santé en général on on a beaucoup parlé

play27:16

en fait de de la

play27:19

partie documentation et soulager les

play27:22

praticiens de leur tâches administrativ

play27:25

qui constitue effectivement beaucoup de

play27:26

temps mais on n'est pas for forcément

play27:28

encore rentrer dans la partie euh

play27:31

médicale à proprement parler et

play27:33

l'utilisation de Ji dans ce cadrelà

play27:36

c'est quelque chose que je vois arriver

play27:38

à quelques années c'est pas quelque

play27:40

chose pour lequel on est prêt tout de

play27:41

suite mais on commence à avoir quelques

play27:45

quelques retours anecdotiqu de personnes

play27:47

qui n'arrivaient pas à être diagnostiqué

play27:50

qui ont balancé leur dossier médical

play27:51

dans chatgbt ce que je ne recommande pas

play27:53

ne le faites pas euh mais qui pour le

play27:56

coup ont eu un diagnostic qui s'est

play27:58

avéré être le bon donc on on sent que il

play28:01

y a quand même quelque chose à explorer

play28:04

dans cette direction aujourd'hui le

play28:06

sujet est clairement pas mature et puis

play28:09

en terme de certification certifier un

play28:11

LLM c'est sout très compliqué mais c'est

play28:14

probablement vers ça vers ça qu'on peut

play28:16

s'orienter plus tard donc sur

play28:18

l'utilisation des LLM dans le domaine de

play28:20

la santé je pense que c'est des choses

play28:22

qui vont qui vont arriver en tout cas

play28:24

qu'il faut surveiller écoute Nassim on

play28:26

arrive sur les dernières questions

play28:27

est-ce que tu as une rec ation de

play28:28

contenu à partager à nos auditeurs alors

play28:31

oui et ça va être un podcast parce que

play28:32

en ce moment je cours beaucoup pour

play28:34

préparer le Marathon de Paris et j'ai

play28:36

besoin de longs podcast pour mes longues

play28:38

sorties et un un très bon long podcast

play28:41

c'est acquired et en particulier je vous

play28:43

recommande les épisodes sur Nvidia ils

play28:46

avaient tellement de choses à dire

play28:47

qu'ils en ont fait trois plus un dédié à

play28:52

Jensen donc le CEO de de Nvidia qui ils

play28:55

viennent d'exploser leurs résultats au

play28:57

jour où on par parle et c'est c'est

play28:59

incroyable de voir comme toute cette

play29:01

révolution a pu être enablée

play29:05

par des

play29:07

révolutions plus scientifiques sur

play29:09

comment on crée des modèles comment on

play29:11

les entraîne comment on construit des

play29:12

modèles à des échelles phénoménal mais

play29:14

aussi bah purement hardware d'avoir la

play29:17

capacité de calcul pour faire ce genre

play29:19

de choslà et donc toute l'histoire de

play29:21

comment Nvidia on est arrivé à pouvoir

play29:23

faire des des GPU ils font les GPU

play29:26

NVIDIA c'est ça exactement ils font les

play29:28

GPU sur lesquels les LLM sont entraînés

play29:30

et sur lesquels les prédictions des LLM

play29:33

sont effectuées donc l'inférence est

play29:34

effectué c'est c'est assez c'est assez

play29:36

fascinant donc je vous le recommande si

play29:38

si vous avez un petit peu de temps je

play29:40

mettrai ça dans la description qu'est-ce

play29:42

que tu aimes dans la data le premier

play29:44

c'est que c'est justement le fait que ce

play29:46

ne soit pas sec et donc sur la partie g

play29:49

c'est évident les choses changent super

play29:51

vite et donc on apprend beaucoup et on a

play29:54

besoin beaucoup de s'adapter et donc

play29:55

c'est c'est super stimulant en fait fait

play29:58

bah intellectuellement de de pouvoir euh

play30:01

de pouvoir apprendre de nouvelles choses

play30:02

tous les jours mais en réalité même sur

play30:04

la partie euh plus Ingineering les

play30:07

choses sont aussi moins stables que sur

play30:10

du software engineering traditionnel où

play30:12

on a quand même quelques grandes

play30:13

recettes qui fonctionnent cette partie

play30:14

vraiment euh alors d'essuyer les plâtres

play30:16

mais au bon sens du terme c'est quelque

play30:18

chose c'est quelque chose qui me

play30:19

passionne euh et le le deuxième point

play30:21

c'est en fait pas lié à l'activité

play30:24

elle-même mais à ce qu'on en fait B cet

play30:25

effet de à partir du moment où on a euh

play30:28

où on a de la donnée ce sentiment que la

play30:30

la lumière s'allume et puis les choses

play30:31

commencent à avoir du sens on comprend

play30:33

euh ce qui se passe que ce soit dans le

play30:35

fonctionnement et le business de notre

play30:37

entreprise euh dans certains phénomènes

play30:39

qui peuvent nous aider ensuite à mettre

play30:41

en place des modèles dans le produit

play30:42

c'est assez euh c'est assez intéressant

play30:45

et puis ça euh ça fonctionne bien avec

play30:47

la méthode scientifique qui est quelque

play30:48

chose qui me tient à cœur en général

play30:49

qu'est-ce qui t'a le plus fait

play30:51

progresser alors pour être honnête à

play30:53

chaque fois qu'on pose cette question je

play30:54

suis un peu un peu sec

play30:56

euh et et quand je suis un peu sec je

play30:59

demande à ma

play31:00

femme et donc là ce qu'elle me disait

play31:04

elle me connaît bien en fait c'est

play31:06

plutôt une attitude générale de

play31:09

d'essayer de systématiquement apprendre

play31:11

des expériences pas uniquement des

play31:12

échecs on a on entend souvent ça mais

play31:14

des expériences en général à partir du

play31:16

moment où je cesse d'apprendre bah j'ai

play31:18

tendance à essayer de bah de faire autre

play31:20

chose où je pourrais continuer à faire

play31:21

ça donc c'est c'est plus que c'est un

play31:23

driver dans dans ce qui me fait avancer

play31:27

que on vare dire euh un un moment un

play31:31

moment clé où je suis dit hop ça

play31:33

débloque quelque chose c'est c'est plus

play31:35

plus diffus plus continuel et voilà

play31:37

c'est cet attrait pour l'apprentissage

play31:39

et pour voir de nouvelles choses et

play31:40

enfin quel est le meilleur conseil qu'on

play31:41

t''est donné est-ce que j'ai droit à

play31:43

deux conseils ouais allez alors un un

play31:45

conseil on a fait ma femme on va faire

play31:47

ma mère un conseil de ma mère sur le

play31:50

fait de en fait ne pas se fermer de

play31:52

portes soi-même et laisser les autres ou

play31:54

l'environnement fermer les portes sur

play31:56

soi souvent je j'avais tendance à me euh

play32:00

mettre moi-même les limites sur les

play32:01

choses à explorer ça peut être

play32:03

différents moments dans ma vie où je

play32:04

cherchais à la fois des opportunités

play32:06

professionnelles et potentiellement

play32:08

partir à l'étranger ou explore toutes

play32:11

les portes tu verras cell qui reste

play32:13

ouvert tu verras celle qui se ferme euh

play32:15

et et en fait c'est un très très bon

play32:17

c'est un très très bon conseil et et le

play32:19

deuxième donc on arrête de faire ma

play32:21

famille c'est Jeff Bezos euh c'est et

play32:24

son fameux regret minimalization

play32:27

framework donc de se dire à la à la fin

play32:29

de ma vie est-ce que je regretterai de

play32:33

ne pas avoir fait ça quand on se

play32:34

retrouve face une décision importante on

play32:37

retrouve un peu l'aspect bah continuer à

play32:38

apprendre mais je pense que c'est

play32:40

quelque chose de très important qui

play32:41

permet de bah voilà de de se poser les

play32:44

bonnes questions quand on est face à des

play32:45

choix qui peuvent parfois être

play32:46

cornéliens et donc celui-là j'essaie

play32:48

j'essaie souvent de l'appliquer B écoute

play32:50

Nassim on arrive sur la fin de cet

play32:52

échange euh B peut-être dites-nous dans

play32:54

l'audience ce que vous avez pensé de

play32:57

cette discussion avec Nassim ce que vous

play32:59

avez pensé plus spécifiquement de voilà

play33:02

de de ce thème des As génératives c'est

play33:05

un thème que on va essayer d'aborder de

play33:06

plus en plus sur le Podcast bien entendu

play33:09

parce que je pense qu'il est intéressant

play33:10

donc si vous avez pensé à d'autres

play33:12

questions que vous voudriez qu'on aborde

play33:14

hésitez pas à me le mettre en

play33:15

commentaire si vous êtes sur Youtube par

play33:17

exemple ou si vous êtes sur les

play33:19

plateformes audio à réagir sur le

play33:21

posting DIN qu'on va faire avec Nassim

play33:23

lorsqu'on sortira cet épisode

play33:25

profitez-en pour vous abonner sur

play33:27

YouTube sur Spotify vous êtes merci

play33:29

beaucoup en tout cas Nassim d'être venu

play33:31

partager ton expérience et nous

play33:32

expliquer voilà un peu comment vous avez

play33:35

pris ce sujet rain chez Doct lip cétait

play33:37

vachement intéressant et puis je te dis

play33:39

à bientôt merci Robin pour l'invitation

play33:41

à bientôt

Rate This

5.0 / 5 (0 votes)

Related Tags
Healthcare AIGenerative AIMedical TechnologyAI StrategyDoctolibData ScienceAI ChallengesHealthcare InnovationAI DeploymentProfessional Podcast