TERATEC24 - Interview d'Hugues Even (BNP Paribas)
Summary
TLDRLe script d'entretien met en avant les initiatives de BNP Paribas dans le domaine de l'IA, avec le Chief Data Officer, HUG, partageant les projets et les défis liés à l'utilisation de modèles de langage génératifs. Il évoque la mise en place d'une Task Force pour explorer des cas d'usage, l'évaluation des clients sur des critères environnementaux avec l'aide de l'IA, et la création de commentaires pour le management d'actifs. L'accent est mis sur la sécurité des données, la gestion des risques et l'importance de l'équilibre entre innovation et contrôle lors de l'adoption de nouvelles technologies.
Takeaways
- 📊 HUG, le Chief Data Officer du groupe BNP Paribas, couvre plusieurs domaines, notamment la gouvernance et la qualité des données, la protection des données, et l'utilisation des données pour soutenir la stratégie de développement durable du groupe.
- 🌐 Le groupe BNP Paribas a déployé des solutions de data et d'IA depuis un certain temps, avec un plan à l'horizon 2025 visant à mettre en production environ un millier de cas d'usage et à générer 500 millions d'euros de valeur.
- 🔮 L'intérêt pour les grandes modèles de langage génératifs (LLM) est en augmentation au sein du groupe, avec la création d'une Task Force dédiée à l'exploration de ces technologies.
- 🛠️ Plus de 700 cas d'usage d'IA traditionnelle sont déjà en production, et une centaine de cas d'usage liés à la génération de langage sont en cours d'expérimentation dans divers métiers de la banque.
- 📈 L'utilisation des génératifs permet d'améliorer la productivité et la créativité dans la banque, en fournissant des résultats prometteurs dans les expérimentations en cours.
- 💡 L'exemple des engagements ESG est donné, où les génératifs sont utilisés pour extraire des informations des rapports environnementaux des clients, améliorant ainsi l'évaluation de ces derniers.
- 📝 Dans le domaine de la gestion d'actifs, les données structurées sont utilisées pour générer des commentaires de performance de fonds, enrichissant ainsi la communication avec les investisseurs.
- 👨💻 L'IT est également concerné par l'IA générative, avec des applications en cours d'expérimentation pour la codification, le débogage et la documentation de code.
- 🤖 L'expérimentation de l'IA générative est menée de manière bottom-up, avec des équipes métier créant des task forces pour identifier et proposer des cas d'utilisation.
- 🛡️ La sécurité des données est une préoccupation majeure, et aucune technologie ne sera déployée si elle présente un risque pour les données sensibles de la banque ou de ses clients.
- 🏢 La stratégie cloud du groupe est axée sur un approche hybride avec un cloud privé, rejetant l'utilisation de solutions cloud public pour des données sensibles.
Q & A
Quel est le rôle de HUG en tant que Chief Data Officer du groupe BNP Paribas ?
-HUG en tant que Chief Data Officer est responsable de plusieurs domaines, notamment la gouvernance et la qualité des données pour répondre aux exigences réglementaires, le suivi des risques du groupe, la protection des données, et l'utilisation des données pour soutenir la stratégie de développement durable du groupe, y compris les données ESG.
Quelle est la taille des équipes de BNP Paribas dédiées à la data et à quel échelle elles opèrent-elles ?
-La taille exacte des équipes n'est pas mentionnée, mais elles sont décrites comme importantes et opèrent à une échelle où elles sont capables de gérer et d'exploiter des cas d'utilisation d'IA à un niveau de maturité élevé, avec des plans à l'horizon 2025 impliquant un millier de cas d'utilisation en production.
Comment BNP Paribas aborde-t-il l'adoption des technologies d'IA génératives telles que les grands modèles de langage (LLM) ?
-BNP Paribas a créé une Task Force dédiée à l'IA générative, qui collabore avec les équipes de données et informatique pour identifier et expérimenter de nouveaux cas d'utilisation à travers l'ensemble du groupe, en s'assurant de la sécurité et de la conformité réglementaire.
Quels sont les défis que BNP Paribas rencontre avec l'utilisation des IA génératives, comme par exemple les 'hallucinations' ?
-Les 'hallucinations' font référence aux erreurs ou aux incohérences que peuvent produire les IA génératives. BNP Paribas cherche à contrôler ce risque en ajustant les paramètres de créativité et en effectuant des tests approfondis avant de passer à la production.
Comment BNP Paribas utilise-t-il l'IA générative pour évaluer les engagements ESG des clients ?
-BNP Paribas utilise l'IA générative pour extraire des informations des documents non structurés tels que les rapports environnementaux des clients, afin de remplir des questionnaires d'évaluation ESG, améliorant ainsi l'efficacité et la précision du processus.
Quel est l'exemple donné concernant l'utilisation de l'IA générative dans le gestion d'actifs ?
-Dans le gestion d'actifs, l'IA générative est utilisée pour créer des commentaires de performance de fonds en utilisant des données structurées, améliorant ainsi la richesse et la créativité des commentaires par rapport aux méthodes traditionnelles de NLG.
Comment BNP Paribas envisage-t-il l'utilisation de l'IA générative pour aider les développeurs informatiques ?
-BNP Paribas explore l'utilisation de l'IA générative pour aider les développeurs à coder plus rapidement, à débugger et à documenter le code, en particulier pour la migration de systèmes historiques vers des technologies plus modernes.
Quelle est la stratégie de BNP Paribas concernant l'utilisation de l'IA générative pour les collaborateurs avec Microsoft Copilot ?
-BNP Paribas teste Microsoft Copilot avec un certain nombre de collaborateurs pour évaluer sa valeur ajoutée dans le quotidien des collaborateurs, en se concentrant sur la sécurité et la formation appropriée avant de l'élargir à une base plus large.
Comment BNP Paribas identifie-t-il et cible-t-il les cas d'utilisation pour l'expérimentation de l'IA générative ?
-La sélection des cas d'utilisation est un processus bottom-up, où les équipes des métiers ou des fonctions proposent des idées, qui sont ensuite validées par une gouvernance groupe en fonction de la valeur attendue et de l'innovation technologique.
Quels sont les défis liés à l'adoption opérationnelle de l'IA générative au sein de BNP Paribas ?
-Les défis comprennent la maîtrise de la technologie, la gestion des données non structurées, la traçabilité des sorties générées, la formation des utilisateurs, l'intégration dans les processus métier et l'élaboration de road maps IT pour l'intégration des API et des solutions.
Comment BNP Paribas gère-t-il l'aspect de la sécurité des données avec les technologies d'IA génératives ?
-La sécurité des données est la priorité absolue pour BNP Paribas. Elles ne déployent pas de technologie qui mettrait en risque les données sensibles et évitent l'utilisation de clouds publics pour ces cas d'utilisation, privilégiant plutôt des solutions sur des infrastructures privées et sécurisées.
Outlines
📊 Responsabilités et rôles du Chief Data Officer au sein de BNP Paribas
Le paragraphe introduit le rôle de HUG, le Chief Data Officer de BNP Paribas, en charge des domaines de gouvernance et qualité des données, notamment pour répondre aux exigences réglementaires et à la protection des données, conformément au RGPD. Il couvre également l'usage des données pour soutenir la stratégie de développement durable du groupe, en particulier les données ESG. L'accent est mis sur l'enthousiasme pour les technologies de l'IA, y compris les modèles de langage génératifs, et la mise en place d'une Task Force dédiée à l'exploration de ces technologies dans le groupe.
🛠️ Applications de l'IA générative dans divers domaines de BNP Paribas
Ce paragraphe détaille les différentes utilisations de l'IA générative au sein de BNP Paribas, allant de l'évaluation ESG des clients à l'aide de questionnaires complexes, en passant par la création de commentaires pour les gestionnaires de fonds dans le domaine de la gestion d'actifs, jusqu'à l'utilisation de l'IA pour aider les développeurs informatiques à coder plus rapidement et à débugger du code. L'objectif est d'améliorer la productivité et la créativité dans divers métiers de la banque, tout en soulignant les défis de maîtrise de l'IA générative et la nécessité de contrôler les 'hallucinations' pour assurer la fiabilité des résultats avant la mise en production.
🔄 Processus d'expérimentation et de déploiement de l'IA générative chez BNP Paribas
Le paragraphe décrit le processus bottom-up d'identification et de ciblage des cas d'utilisation de l'IA générative, impliquant des équipes de métiers et fonctions qui souhaitent s'approprier ces technologies. Il explique la gouvernance du groupe pour valider ces cas d'utilisation et la nécessité de trouver un équilibre entre vélocité et contrôle. Le texte met également en évidence les défis du passage à l'échelle, la maîtrise de la technologie, la gestion des données non structurées et l'importance de l'audit trail, ainsi que la formation et l'insertion opérationnelle des utilisateurs pour assurer une bonne adoption des technologies.
🏢 Stratégie de gestion des changements et de formation liée à l'IA générative
Ce paragraphe traite de la manière dont BNP Paribas gère l'adoption et la formation associées à l'IA générative, impliquant des efforts collectifs de diverses équipes telles que RH, IT, data et métiers. Il mentionne des initiatives de communication de groupe, des modules d'acculturation à l'IA générative, des événements tels que la 'Data Week' et l' 'AI Summer School' pour promouvoir l'apprentissage et l'échange d'expertise. Le texte aborde également la question de la sécurité des données et la décision de ne pas déployer de technologies de l'IA dans le cloud public, privilégiant ainsi des solutions cloud privées hybrides et des modèles plus petits pour réduire l'impact environnemental.
Mindmap
Keywords
💡Responsable de la data
💡Gouvernance des données
💡Qualité des données
💡RGPD
💡Développement durable
💡Modèles de langage génératifs
💡Expérience utilisateur
💡Cas d'utilisation
💡Gestion des changements
💡Sécurité des données
💡Cloud privé
Highlights
HUG, Chief Data Officer du groupe BNP Paribas, discute de l'importance de la gouvernance et de la qualité des données pour les exigences réglementaires.
Le groupe BNP Paribas s'engage dans la protection des données, notamment en conformité avec le RGPD européen.
L'utilisation des données pour soutenir la stratégie de développement durable du groupe, en particulier les données ESG.
La création d'une Task Force dédiée à l'exploration des applications des modèles de langage génératifs dans le groupe.
Plus de 700 cas d'utilisation de l'IA en production et l'objectif de 1000 cas d'utilisation d'ici 2025.
L'expérimentation de centaines de cas d'utilisation avec des modèles de langage génératifs.
Les générateurs IA améliorent la productivité et la créativité dans divers métiers bancaires.
L'extraction d'informations à partir de documents non structurés pour l'évaluation ESG des clients.
Les défis de contrôle des 'hallucinations' des modèles génératifs et la nécessité de validation des résultats.
L'utilisation de données structurées pour générer des commentaires de performance de fonds dans la gestion d'actifs.
L'intérêt pour l'amélioration de la génération de langage naturel avec des modèles génératifs plus riches et moins mécaniques.
L'exploration de l'IA générative pour aider les développeurs à coder, débugger et documenter plus efficacement.
La mise en place de dispositifs de formation et de communication pour acculturer les collaborateurs à l'IA générative.
La préférence pour des solutions d'IA plus petites et moins coûteuses en termes de ressources pour minimiser l'impact environnemental.
La stratégie cloud privée hybride du groupe pour assurer la sécurité des données lors du déploiement de nouvelles technologies.
L'importance de l'équilibre entre la vitesse de déploiement et le contrôle des risques lors de l'adoption de l'IA générative.
La collaboration avec des partenaires pour intégrer des solutions d'IA sur des infrastructures privées ou open source.
Transcripts
[Musique]
bonjour à toutes et à tous je suis avec
HUG ven chief data officer du groupe BNP
pareba bonjour HUG bonjour Julien
bonjour à tous alors BNP pariba groupe
grand groupe français qui déploie des
solutions de datataedia depuis un
certain temps HUG pouvez-vous nous
rappeler ce que vous avez déjà déployé
par le passé quel sont la taille de vos
équipes et juste l'échelle à laquelle
vous opérez oui volontiers alors
peut-être pour donner une précision sur
mon rôle en tant que responsable de la
data de du groupe on couvre plusieurs
domaines notamment les domaines de qui
touchent à la gouvernance et à la
qualité des données notamment pour des
des exigences réglementaires sur le le
suivi des risques du
groupe un tout un plan d'activité autour
de la la protection des données euh
notamment vis-à-vis de la réglementation
européenne du rgpd et puis ensuite euh
des activités qui touchent à l'usage et
à la valeur qu'on peut tirer de nos
données notamment pour accompagner la la
stratégie de développement durable du
Groupe donc on a tout un chantier sur
les données ESG donc les données qui
supportent notre ambition
environnementale sociale et et de
gouvernance et puis bien sûr lia alors
vaste sujet euh ce qui défrait la
cronique on va dire depuis depuis 1 an 2
ans 3 ans c'est lié à générative les les
large language models notamment comment
vous avez pris ce tournant est-ce que
c'est quelque chose sur lequel vous avez
été plutôt est-ce que vous avez été
plutôt pionnier avec déjà
expérimentation est-ce que vous voulez n
détailler tout ce que vous faites et on
va dire à quel niveau de déploiement ou
de maturité vous en êtes alors on n'est
pas sceptique on est plutôt super
enthousiaste par rapport à toutes ces
technologies
forcément je pense et je suis pas le
seul à le penser que l'industrie
financière et un terrain de jeu
fantastique pour pour toutes les
variantes de l'IA que ce soit l'IA
traditionnel et les cas d'usage que je
viens d'évoquer sont plutôt des cas
d'usage d' traditionnel sur lesquels on
travaille depuis quelques années et dans
lesquels on s'est engagé dans le cadre
du plan en cours qui a un plan à horizon
2025 d'avoir à peu près un millier de
cas d'usage en production et de délivrer
500 millions d'euros de valeur en cours
de route au milieu du plan et arrivé
chat GPT et liya générative et et avec
avec toutes les avec toutes les
prouesses qu' sont capables de faire et
donc assez naturellement on a créé ce
qu'on appelle une Task Force dia
générative dans le groupe qui est
collidé avec les équipes data et les
équipes IT du groupe qui vise à recenser
tous les cas d'usage qu'on veut
expérimenter donc aujourd'hui dans le
groupe autant sur l'ya traditionnel on
est déjà en production sur plusieurs
centaines de cas d'usage plus de 700
aujourd'hui autant sur lia générative on
est en expérimentation et on expérimente
une centaine de cas
d'usage qui touche à tous les métiers de
la banque pour le coup li génératif
c'est vraiment un outil
qui va nous aider à améliorer la
productivité la créativité dans dans à
peu près tous les métiers de la banque
en tout cas les expérimentations qu'on
fait sont très très vastes et et
aujourd'hui délivre des résultat assez
intéressant et donc peut-être pour
donner quelques exemples euh peut-être
pour revenir par exemple sur les
engagements ESG du groupe donc
environnementaux on on on on fait ce
qu'on appelle un une évaluation de nos
clients sur des critères
environnementaux et donc c'est un
questionnaire qui fait plusieurs
plusieurs dizaines de questions et qu'on
doit remplir pour dire si le client
combien il aimet de de gaz à effet de
serre est-ce qu'il a une stratégie de
transition énergétique et cetera et
cetera et donc il faut lire le rapport
environnemental du client s'il existe
sinon son rapport annuel sinon son site
corporate et cetera donc c'est une base
documentaire assez large et assez
fouillé parce que c'est souvent des
rapports assez assez denses et donc on
arrive avec des As génératives à les
extraire de ces documents les
informations qu'on recherche dans dans
l'assessment dans les pour remplir le
questionnaire ça c'est intéressant et ça
fournit des résultats très probant ce
qu'il faut arriver c'est maintenant
c'est à à à contrôler encore les
hallucinations et encore des effets un
peu un un de d'hallucination qu'on qu'on
arrive pas toujours à contrôler même si
on peut doser la température ou le
niveau de créativité qu'on attend de ces
outils parfois ils arrivent encore à
nous surprendre donc ça ça c'est le
genre de de risque qu'on veut absolument
contrôler avant de passer en production
et c'est pour des raisons comme celle-ci
on n'est pas encore en production sur
ces cas d'usage un autre exemple c'est
au sein de de l'asset management donc
c'est les équipes qui qui créent des
fonds et qui ces fonds ensuite sont
distribués via des réseaux de
distribution à à à des clients et le
gestionnaire du fond quelque part doit
expliquer la performance de son fond de
manière régulière ça peutêre tous les
mois tous les trimestres et donc il doit
rédiger un commentaire et donc là on
utilise de la donnée structurée pour
créer un commentaire de fond donc c'est
un peu l'inverse de l'exemple précédent
où là on avait une base documentaire non
structuré et on devait extraire des
datapint structurés pour alimenter un
questionnaire là c'est l'exercice
inverse qui est tout aussi intéressant
et là aussi les commentaires sont assez
riches est ce que ça améliore donc on
faisait déjà ce qu'on appelle de du NLG
donc la génération de de langage naturel
mais c'est des approches un peu plus
scriptées et et et finalement la
richesse du langage est moins est moins
bonne et donc les les génératifes sont
quand même beaucoup plus agréables un
peu moins mécanique que les anciennes
méthodes donc ça ça nous intéresse aussi
c'est genre de cas d'usage qu'on regarde
et après bien sûr les équipes IT donc
comment utiliser les i génératives pour
coder plus rapidement pour
débugger pour documenter du code on sait
que les développeurs parfois sont très
assidus pour faire du code propre mais
le documente de manière moins assidue
euh et donc voilà et où où euh nous on
est une banque qui a quand même un
certain nombre de
systèmes historiques et qui peuvent être
écrits dans des langages un peu anciens
et donc on a pas mal de programme de de
migration et et réécrire des des appis
dans des dans un code plus moderne plus
récent ça aussi ça ça aide beaucoup à
transcrire du code euh donc voilà pour
donner des exemples d'IA générative en
cours dans le groupe peut-être ça c'est
les cas d'usage il y a aussi bien sûr
lia générative pour tous quoi donc
quelque part là aussi on travaille sur
des outils comme copilote pour qui est
branché sur le le graphhe de
connaissance de Microsoft pour faire en
sorte qu'on puisse utiliser l'
générative aussi donc là c'est des
phases de de de test aussi on a testé
sur 300 collaborateurs au début et là on
élargit cette phase d'expérimentation à
plusieurs milliers de collaborateurs
toujours dans cette logique de de bien
comprendre la valeur qu'on en attend
d'être sûr que les gens qui utilisent
ces technologie les collaborateurs qui
utilisent sont formés comprennent le
levier de ces techno mais aussi les
risques associés avant de de pouvoir
aller plus vite donc c'est toujours un
exercice entre vélocité et contrôle un
équilibre à trouver pour déployer ces
outils plus la question du coup
évidemment puisque le Copilot
typiquement il a des coups de licence
exactement donc donc Microsoft s'est
amusé à demander si les collaborateurs
préférai un free lunch par mois ou
Copilot et je crois que plus 900 % des
des utilisateurs pas chez BNP pas
forcément dans le groupe mais sur la
base de clients qu'ils ont préfère un
copilote qu'un freelunch al je sais pas
si si c'est que la cantine est pas bonne
ou mais ouais c'est encourageant est-ce
que vous pouvez rapidement juste nous
dire comment vous avez identifié ciblé
ces ces cas d'usage d'expérimentation
vous vees travaillé avec les métiers
est-ce que c'est quelque chose que les
labs ont décidé de même comment ça s'est
choisi
alors c'est très c'est très bottom up
donc c'est vraiment c'est c'est des
équipes au sein des métiers ou des
fonctions qui veulent s'approprier ces
technologies et qui qui créent des des
task forces pour réfléchir et pour
proposer des cas d'usage ensuite là il y
a une gouvernance groupe qui valide les
cas d'usage et en gros un cas d'usage
est validé soit si euh il y a une valeur
attendue don quelque part on a un retour
sur investissement que ce soit en terme
de de de de valeur supplémentaire ou de
coût qu'on peut économiser soit s'il y a
un volet un peu innovation donc une une
forme de de de progrès technologique
qu'on veut tester et prouver à travers à
travers ces
expérimentations voilà et après du coup
on les on les cadre dans le temps donc
c'est une expérimentation doit durer 3
ou 4 mois mais pas beaucoup plus pour
pouvoir livrer des résultats et ensuite
c'est là que le plus dur commence parce
que faire fonctionner une a générative
en mode un peu expérimentation c'est
relativement simple la difficulté résud
ensuite euh dans le passage à l'échelle
et le passage à l'échelle il y a
plusieurs difficultés qu'on entrevoit
déjà la maîtrise de la technologie en
tant que telle et ça on en a parlé un
peu sur les hallucinations tout à
l'heure de comment maîtriser ça euh le
sous-jacent data parce que quelque part
ces illages génératives ce qu'elles
savent faire c'est traiter pour l'essens
de la donnée non
structurée et nous enfin c'est pas que
nous mais historiquement on gère très
bien les données structurées parce que
c'est des bases de données qui sont des
assets it avec des solutions logiciels
derrière qui permettent de maintenir ces
bases de données la donnée non
structurée elle est un peu plus diffuse
et donc il faut commencer à définir des
infrastructures ou des architectures
d'information sur la donnée non
structurée pour reprendre l'exemple du
rapport ESG de tout à l'heure ça veut
dire qu'il faut qu'on ait un un
référentiel de rapports environnementaux
et sociaux de nos clients il faut que ce
référentiel soit maintenu à jour il faut
qu'on ait un audit trail entre ce que
lien va collecter dans ces documents et
et les documents eux-mêmes donc la la la
traçabilité aussi de des des output de
ces générative et important et comment
on génère et comment on stock cette
audit trail et puis après l'insertion
opérationnelle donc ça veut dire quoi ça
veut dire la formation des gens qui vont
utiliser cesia c'est être sûr qu'on
prend pas pour argent comptant euh tout
ce qui sort de l' être sûr qu'on vérifie
à chaque fois donc garder l'humain dans
la boucle c'est un facteur essentiel de
de de de la bonne insertion et puis bien
sûr insérer une IA dans un process enfin
faut pas que ce soit un outil à côté
sinon ça fonctionnera pas que ce soit
intégré dans un process donc dans des
outils et donc il faut qu'il y ait des
road map it aussi qui prévoi ces
insertions des API et cetera et donc
dans le groupe on s'appuie sur plusieurs
actifs groupes qui existent depuis
longtemps c'est le Cloud on a un cloud
privé dans lequel on investit depuis
longtemps on a une Marketplace it dans
laquelle on déploie nos solutions via
des API qui peuvent être consommés par
toutes les équipes IT du groupe et donc
tout ça ça c'est des assets it qui font
partie de la stratégie IT du groupe
depuis un certain temps et qui nous aide
côté i1 à vraiment accélérer et passer à
l'échelle plus rapidement et comment
vous gérez cette conduite du changement
cette formation l'utilisateur je sais
que c'est encore en phase
d'expérimentation mais j'imagine que
vous avez des process déjà en place
est-ce que c'est l'IT qui le fait est-ce
que c'est la partie plutôtin est-ce que
c'est vous au sein de du groupe data
alors c'est un effort très
collectif auquel sont associé bien sur
les équipes RH les équipes IT les
équipes data et les équipes métiers et
la communication groupe aussi on a on a
de plus en plus de une communication
groupe qui s'articule autour de l'a donc
on a par exemple ce qu'on appelle une
série ai in actions euh qui qui publie
tous les mois
euh des exemples de d'expérimentation ou
de mise en production d'1 qui valorise à
la fois les équipes métiers les Data
scientistes et les utilisateurs finaux
qui vont utiliser ces euh on a par
exemple sur l'A générative créer un
module d'acculturation àa générative euh
qui a été déployé il y a il y a à peu
près un mois et qui a rencontré un
succès fantastique dans le groupe parce
que on explique la genèse de li
générative on explique un peu
techniquement comment ça fonctionne et
il y a une vraie appétence de l'ensemble
des collaborateurs du Groupe he sans
niveau d'expertise particulier à
comprendre comment ça fonctionne on
explique comment utiliser un prompte et
puis quels risques sont associés à ça et
puis après ce qu'on appelle les 12 endon
dans ce qu'il faut faire ou ne pas faire
qu'on utilise ce genre de technologie et
donc l'effort
culturation il est assez assez vaste on
a quelques points de passage aussi des
grands événements dans le groupe où euh
on on quelque part on forme aussi on
acculture les collaborateurs on a ce
qu'on appelle la data Week qui va être
début juin et donc c'est une semaine de
de de conférence autour de la data de
lien avec des partenaires qui viennent
témoigner avec d'autres industries qui
vennent expliquer ce qu'elle fait et
avec des expertises internes du groupe
qui Vinent viennent présenter un peu
leurs travaux ou leurs expertises ça
c'est la data week et on a aussi ce
qu'on appelle la ai Summer School qui
existe depuis 6 ans donc c'est pour
illustrer ce que je disais au début
c'est pas c'est pas nouveau mais c'est
là ça va être la 7e édition de la Summer
School dans laquelle là on a de jours de
entiers consacrés dédiés à lia où là
encore on fait intervenir tout un tas
d'experts sous un angle à la fois
technique donc on a des des technical
track et un angle business donc on a des
track pour être sûr que tous les
collaborateurs qui s'intéressent à la
thématique mais quel que soit leur
niveau d'expertise puissent apprendre
des choses et après repartir avec des
enseignements intéressants pour eux dans
leur métier alors c'est un dispositif
très complet euh peut-être pour terminer
vous av qui Copilot de de Microsoft et
on sait que un acteur comme open
typiquement est vraiment en pointe sur
le secteur du générative mais d'un autre
côté dans le milieu bancaire et
financier on sait qu'il y a des données
assez sensibles euh j'ai envie de vous
poser la question qu comment vous vous
jaugez la part de technologie que vous
deviez gérer en interne celle que vous
pouvez gérer avec des partenaires celle
qui peut être dans un cloud public celle
que vous devez garder onprem ou dans
votre cloud privé comment vous faites la
part des choses est-ce que vous avez des
partenaires déjà identifier
ouais c'est un point fondamental que
vous évoquez c'estàdire que la sécurité
des données pour nous c'est le critère
numéro 1 c'estàd que on ne déploierera
jamais une technologie qui serait
susceptible de mettre en risque les
données de nos clients ou les données de
la banque euh donc les cas d'usage dans
les clat de public il y en a pas c'est
pour nous c'est un Nogo euh il est
impossible ou alors c'est sur des
données complètement anonymisées ou des
jeux de test synthétiques mais sur la
donnée de la banque il y en a pas il y
en aura jamais depuis longtemps on a une
stratégie cloud privée hybride sur
laquelle on s'appuie essentiellement
après vous avez raison les LLM pour
beaucoup sont servis dans des solutions
clat donc j'ai évoqué euh un peu ce
qu'on fait sur sur copilote l'intérêt de
copilote c'est qu'il est branché au
graphhe Microsoft Azure mais ça va
rester une application un peu
bureautique ça n'aura pas d'autre usage
que de faciliter le travail des
collaborateurs au quotidiens quand ils
doivent rédiger des minutes d'une
réunion prérédiger une réponse à un
email ou ou naviguer des des données
dans dans dans
Excel maintenant quand il s'agit de
faire tourner des IA au plus proche des
données de la banque sur des cas d'usage
très métier bancaire là effectivement on
va être en prè et enfin du coup sur des
infrastructures privées dans les murs de
la banque et donc effectivement sur la
la logique de partenariat on s'attache
aussi à avoir des des
solutions alors soit Open Source qu'on
utilise dans nos murs et pour ça on a
développé ce qu'on appelle le modè hub
qui nous permet de downloader des
librairies open source de de de de
machine learning
euh et en en ayant passé au crible euh
de tous les standards de sécurité du
groupe et donc il y a certaines
librairies qu'on qu'on utilise pas parce
qu'on estime qu'elles sont pas assez
sécurisées il y a des failles il y a
éventuellement des bacs d'or et cetera
donc un LLM Open Source entrera dans nos
murs uniquement s'il a passé tous les
checks cyber cybécurité et ensuite on va
avoir des partenaires euh alors j'ai pas
cité de nom mais des partenaires qui qui
ont des IA assez
pointu qui ont des modèles plus petits
aussi ce qui nous intéresse c'est
d'avoir le le bon équilibre entre la
performance et et le coût de la solution
et surtout la consommation de ressources
aussi soucieux de de de l'empreinte
environnementale que vont avoir ces
modèles et donc à performance
équivalente on va favoriser des petits
ou des moyens modèles plutôt que des
gros modèle servicés dans des clouds
parce que on estime que c'est inutile de
consommer autant de ressources pour le
cas d'usage qu'on veut traiter donc on
va vraiment avoir une architecture de
solution qui va mixer soit des solutions
dans des dans des clouds mais des clouds
soit des
tenant privés BNP paribain euh soit sur
nos infrastructures à nous euh on
premise open source ou des partenaires
un peu plus dédiés qui vont venir avec
nous dans des logiques de partenariat
installer leurs outils sur sur not
système et nous aider à en tirer le
meilleur écoutez merci beaucoup gevenen
on a hâte de voir ce que ce que vous
allez faire l'avenir bonne journée merci
beaucoup
Voir Plus de Vidéos Connexes
Learning from the Leaders: CD Automation meets CO.RAM
Ce qui se cache derrière le fonctionnement de ChatGPT
Comment Scrum Life fait du management visuel à distance
How DePIN can revolutionize the way AI works (With Jonathan Schemoul from Aleph.im)
L'IMPACT DE L'APPROCHE CAPACITAIRE SUR LA FACON D'EVALUER
Legal implications of the Artificial Intelligence Act for cities, regions, and communities 20240619
5.0 / 5 (0 votes)