Introduction à l’intelligence artificielle - 5 - Apprentissage Automatique

SMC - Your Guide to Artificial Intelligence
7 Nov 202113:59

Summary

TLDRCe script présente les principes de la modélisation prédictive et de l'apprentissage automatique, expliquant comment les modèles statistiques évoluent avec de nouvelles données pour éviter l'obsolescence. Il introduit les concepts de validation croisée et de régularisation pour contrôler le sur-apprentissage et optimiser les modèles. Le texte couvre une variété d'algorithmes, allant des méthodes simples comme KNN et les arbres de décision, aux modèles plus complexes tels que les SVM, les réseaux neuronaux et les forêts aléatoires, mettant en évidence leur utilisation dans divers domaines tels que la finance, la robotique et les jeux.

Takeaways

  • 📊 Le modèle prédictif a pour but de donner une probabilité de mesure ou d'occurrence d'un événement.
  • 📐 L'essence de la création de modèles repose sur le calcul de distances entre observations.
  • 🔍 La classification d'une observation inconnue est basée sur sa proximité avec des observations connues.
  • 📚 L'importance de l'algèbre linéaire et du calcul matricielle est soulignée pour faciliter les mesures de distance.
  • ⏳ Les modèles statiques deviennent obsolètes avec le temps, car les corrélations à leur base évoluent.
  • 🔄 L'évolution automatique des modèles est recherchée pour s'adapter aux nouvelles observations sans intervention manuelle.
  • 🔒 La validation croisée et la régularisation sont des concepts clés pour éviter le sur-apprentissage et améliorer la fiabilité des modèles.
  • 🔄 La validation croisée implique de tester le modèle sur des échantillons différents pour assurer sa validité.
  • 🔧 La régularisation ajuste la fonction de coût pour contrôler l'optimisation et éviter le sur-apprentissage.
  • 🛠️ L'apprentissage automatique est axé sur l'optimisation des hyper-paramètres plutôt que la simple définition des paramètres du modèle.
  • 🌐 Il existe une variété d'algorithmes d'apprentissage, allant des méthodes supervisées à non supervisées et de l'apprentissage par renforcement.
  • 🌳 Les forêts aléatoires sont un exemple d'algorithme composite qui utilise la majorité des décisions pour améliorer la précision.
  • 🤖 Les réseaux neuronaux, y compris les réseaux profonds, sont utilisés pour simuler le fonctionnement du cerveau et l'apprentissage automatique.

Q & A

  • Qu'est-ce que la modélisation prédictive et pourquoi est-elle importante?

    -La modélisation prédictive est une technique qui vise à prévoir la probabilité d'une mesure ou l'occurrence d'un événement en se basant sur des données historiques. Elle est importante car elle permet de prendre des décisions éclairées en anticipant les résultats possibles.

  • Quels sont les principes de base de la modélisation prédictive mentionnés dans le script?

    -Les principes de base incluent la simplicité du modèle, la notion de distance entre observations pour la classification, et l'utilisation d'algèbre linéaire et de calcul matriciel pour faciliter ces mesures de distance.

  • Pourquoi est-il nécessaire de vectoriser l'espace et d'utiliser du calcul matriciel dans l'apprentissage automatique?

    -Vectoriser l'espace et d'utiliser du calcul matriciel facilite les mesures de distance entre observations, en les transformant en vecteurs et en les manipulant via des matrices, ce qui est essentiel pour la comparaison et la classification.

  • Quels sont les défis associés à la création de modèles prédictifs qui ne deviennent pas obsolètes avec le temps?

    -Les défis comprennent la nécessité d'adapter les modèles à un univers en constante évolution, et la gestion des corrélations qui peuvent changer, ce qui peut rendre les modèles obsolètes si ils ne sont pas régulièrement mis à jour.

  • Quel est le rôle de la validation croisée dans l'apprentissage automatique?

    -La validation croisée permet de contrôler le risque de surapprentissage en testant le modèle sur différents échantillons aléatoires et en comparant les résultats pour confirmer la validité de la méthode de modélisation choisie.

  • Comment la régularisation contribue-t-elle à prévenir le surapprentissage?

    -La régularisation pénalise volontairement la fonction de coût pour éviter qu'elle ne soit parfaite, ce qui permet de contrôler les calculs des paramètres du modèle et d'éviter ainsi le surapprentissage.

  • Quels sont les types de modèles mentionnés dans le script?

    -Les types de modèles mentionnés sont les modèles supervisés, les modèles non supervisés, et les modèles d'apprentissage par renforcement.

  • Quels sont les principaux algorithmes utilisés dans les modèles de régression supervisée?

    -Les principaux algorithmes incluent la régression linéaire, la régression logistique, et le support vector machine (SVM).

  • Quel est l'intérêt de l'utilisation de plusieurs algorithmes en même temps dans un ensemble?

    -L'utilisation conjointe de plusieurs algorithmes dans un ensemble permet de prendre le résultat de la majorité, ce qui améliore la précision des prédictions et contribue à éviter les erreurs individuelles des algorithmes.

  • Comment la forêt aléatoire est-elle utilisée dans l'apprentissage automatique?

    -La forêt aléatoire est une technique qui consiste à créer plusieurs arbres de décision de manière aléatoire et à prendre le résultat de la majorité pour améliorer la robustesse et la précision des prédictions.

  • Quel est le but de l'algorithme K-means dans les modèles non supervisés?

    -Le but de l'algorithme K-means est de segmenter les données en plusieurs groupes (segments) homogènes en utilisant un calcul de distance moyenne et en optimisant la fonction de coût pour maximiser la séparation entre les groupes.

Outlines

00:00

📊 Principes de la modélisation prédictive et importance de l'algèbre linéaire

Le paragraphe 1 introduit les concepts de modélisation prédictive à travers l'exemple de la régression linéaire. Il explique que le but d'un modèle est de s'approcher de la réalité et de fournir des probabilités de mesure ou d'occurrence d'un événement. L'importance de la distance dans la création de ces modèles est soulignée, ainsi que la nécessité de la vectorisation de l'espace et de l'utilisation de l'algèbre linéaire et du calcul matriciel pour faciliter ces mesures. Le texte discute également de l'évolution des modèles statiques au fil du temps, de la nécessité de les mettre à jour et de l'introduction de concepts comme l'apprentissage automatique, la validation croisée et la régularisation pour éviter le surapprentissage.

05:01

🔍 Les différents types d'apprentissage automatique et leurs algorithmes

Le paragraphe 2 explore les différents types d'apprentissage automatique, y compris l'apprentissage non supervisé, supervisé et l'apprentissage par renforcement. Il décrit les modèles de classification, de régression et les algorithmes associés tels que la régression linéaire, la régression logistique, KNN, les arbres de décision, le SVM et les réseaux neuronaux. Le paragraphe met en évidence la complexité croissante des modèles et des algorithmes, ainsi que l'évolution vers des approches comme les forêts aléatoires qui utilisent plusieurs algorithmes simultanément pour améliorer la précision des prédictions.

10:03

🌐 L'évolution de l'apprentissage automatique vers l'intelligence artificielle

Dans le paragraphe 3, l'auteur aborde l'idée de l'évolution de l'apprentissage automatique vers l'intelligence artificielle. Il explique comment les algorithmes ont évolué pour permettre aux modèles de s'adapter automatiquement à de nouvelles observations sans intervention humaine, en utilisant des techniques telles que la validation croisée et la régularisation pour éviter le surapprentissage. Le texte mentionne également l'utilisation de différents algorithmes ensemble dans des ensembles pour obtenir des résultats plus fiables. Enfin, il conclut en disant que l'apprentissage automatique est une méthode qui permet de trouver le meilleur modèle possible en utilisant une variété d'algorithmes et en évitant de surajuster les modèles aux données.

Mindmap

Keywords

💡Modélisation prédictive

La modélisation prédictive est une méthode utilisée pour prévoir des événements ou des résultats à l'avenir en s'appuyant sur des données historiques. Dans le script, elle est introduite comme la base de la création de modèles qui, en plus de s'adapter à la réalité, fournissent des probabilités d'occurrence d'un événement. Elle est illustrée par l'exemple de la régression linéaire.

💡Distance

La distance est un concept clé dans la modélisation, servant à comparer et classer des observations. Le script mentionne que même les modèles sophistiqués reposent sur le calcul de distances pour déterminer la classe ou l'appartenance d'une observation inconnu, par exemple en classifiant une observation comme étant plus proche de 'Jean' ou de 'Baie Jean'.

💡Vecteur

Dans le contexte de l'IA, un vecteur est une représentation mathématique d'une observation. Le script explique que chaque observation devient un vecteur, facilitant ainsi les calculs de distance et l'analyse des données, ce qui est crucial pour l'algèbre linéaire et le calcul matriciel.

💡Matrice

Une matrice est un ensemble de vecteurs organisés en lignes et colonnes. Le script indique que l'ensemble des observations est transformé en une matrice, ce qui facilite l'analyse statistique et les calculs de distances.

💡Modèle statique

Un modèle statique est un modèle dont les paramètres ne changent pas une fois qu'il est créé. Le script aborde l'idée que ces modèles peuvent devenir obsolètes au fil du temps, car les corrélations qu'ils utilisent évoluent.

💡Validation croisée

La validation croisée est une technique utilisée pour évaluer la performance d'un modèle de manière à éviter le surapprentissage. Le script décrit le processus de division de la base de données en échantillons d'apprentissage et de test, et la répétition de ce processus pour obtenir une évaluation plus robuste du modèle.

💡Régularisation

La régularisation est une méthode pour contrôler le surapprentissage en ajustant la fonction de coût d'un modèle. Le script explique que cela implique de pénaliser légèrement la fonction de coût pour éviter qu'elle ne soit parfaite et ainsi contrôler la complexité du modèle.

💡Hyperparamètres

Les hyperparamètres sont des paramètres du modèle qui ne sont pas appris à partir des données, mais qui sont définis par le modéliste. Dans le script, ils sont décrits comme un élément clé dans l'apprentissage automatique, servant à équilibrer entre précision et surapprentissage.

💡Apprentissage automatique

L'apprentissage automatique, ou machine learning, est le processus par lequel un modèle s'adapte et évolue sans intervention manuelle. Le script souligne que le but est de permettre à un modèle de s'adapter à de nouvelles observations sans surapprentissage, améliorant ainsi l'efficacité et la précision.

💡Régression linéaire

La régression linéaire est un type de modèle statistique utilisé pour établir une relation linéaire entre une variable dépendante et une ou plusieurs variables indépendantes. Le script l'utilise comme exemple de base pour introduire la modélisation prédictive.

💡Régression logistique

La régression logistique est un algorithme de classification binaire souvent utilisé dans le secteur financier et bancaire. Le script la mentionne comme un outil pour prévoir des événements binaires, comme vrai/faux ou bon/mauvais, en utilisant une fonction sigmoïde.

💡Algorithme KNN

L'algorithme K-NN (K plus proche voisins) est une méthode de classification utilisée pour déterminer l'appartenance d'une observation en se basant sur ses K voisins les plus proches. Le script l'illustre comme un exemple simple d'algorithme de classification.

💡Arbre de décision

Un arbre de décision est un modèle de classification hiérarchique qui sépare la population en fonction de variables spécifiques. Le script le décrit comme un outil populaire pour la modélisation, car il est facile à expliquer et à comprendre.

💡SVM

La SVM (Support Vector Machine) est un algorithme utilisé pour trouver la séparation optimale entre deux groupes de données. Le script la mentionne comme un outil pour trouver la ligne de séparation qui offre le plus grand écart entre les populations.

💡Réseaux neuronaux

Les réseaux neuronaux sont une forme d'apprentissage automatique inspirée du fonctionnement du cerveau humain. Le script les décrit comme composés de plusieurs couches, y compris des couches cachées, et capables de s'adapter à de complexes tâches d'apprentissage profond.

💡Forêt aléatoire

La forêt aléatoire est une technique qui consiste à créer plusieurs arbres de décision aléatoires et à prendre la décision de la majorité. Le script l'illustre comme un exemple d'utilisation d'un ensemble d'algorithmes pour améliorer les performances de prédiction.

💡K-Means

K-Means est un algorithme d'apprentissage non supervisé utilisé pour la segmentation de données en K groupes. Le script le mentionne comme un outil pour créer des segments homogènes en minimisant la distance au sein des groupes et en maximisant la distance entre eux.

Highlights

La modélisation prédictive vise à donner une probabilité de mesure ou d'occurrence d'un événement.

Les modèles reposent sur le calcul de distances, même pour les modèles sophistiqués.

L'observation inconnu est classifié en fonction de sa proximité avec des observations connues.

L'importance de l'algèbre linéaire et du calcul matricielle dans l'étude de l'intelligence artificielle.

Les modèles statiques deviennent obsolètes avec le temps, nécessitant de créer de nouveaux modèles.

Les modèles doivent évoluer automatiquement avec de nouvelles observations sans intervention manuelle.

La validation croisée est utilisée pour éviter le surapprentissage et valider la modélisation.

La régularisation pénalise la fonction de coût pour contrôler l'optimisation et éviter le surapprentissage.

Les hyperparamètres sont utilisés pour ajuster les modèles dans l'apprentissage automatique.

L'apprentissage automatique permet l'évolution des modèles avec de nouvelles observations sans intervention.

Différents types d'apprentissage : supervisé, non supervisé et renforcement.

Les modèles de régression linéaire et logistique sont simples mais importants dans la modélisation.

La régression logistique est utilisée pour la classification binaire et est souvent rencontrée en finance.

L'algorithme KNN est utilisé pour la classification en fonction des voisins les plus proches.

Les arbres de décision sont populaires pour leur simplicité et leur capacité à prédire la probabilité d'appartenance à une classe.

Le SVM (Séparateur à Vaste Marge) est utilisé pour trouver la ligne de séparation optimale entre populations.

Les réseaux neuronaux reproduisent le fonctionnement du cerveau humain avec des couches d'entrée, de sortie et cachées.

L'apprentissage profond implique l'utilisation de réseaux neuronaux avec plus de cinq couches cachées.

Les forêts aléatoires sont créées en combinant plusieurs arbres de décision aléatoires pour une meilleure précision.

L'algorithme K-Means est utilisé pour la segmentation en utilisant le calcul de distance moyenne.

L'apprentissage automatique vise à pénaliser délibérément les fonctions de coût pour permettre une adaptation automatique des modèles.

Transcripts

play00:15

bonjour

play00:17

nous avons vu lors du tour précédent les

play00:21

principes de la modélisation prédictive

play00:23

en général à travers l'exemple simple

play00:26

d'une régression linéaire

play00:32

le but d'un modèle est la simple a sion

play00:35

de la réalité est un modèle prédictif

play00:36

vise à nous donner une probabilité la

play00:39

probabilité d'une mesure où la

play00:41

probabilité d'occurrence d'un événement

play00:44

nous avons également vu que la création

play00:48

de ces modèles reposent sur du calcul de

play00:51

distance même pour les modèles les plus

play00:54

sophistiqués que nous verrons par la

play00:55

suite tout ce que nous faisons est de

play00:58

calculer des distances

play01:00

le principe est simple si j'ai deux

play01:04

observations connu a et b et une

play01:07

troisième observation inconnu s'est

play01:09

soumise à une classification

play01:11

cissé est plus près d'eux à jean

play01:14

conclurait qu'elle appartient

play01:15

probablement à la même classe que

play01:17

1,6 l et plus près de baie jean

play01:20

conclurait qu'elle appartient

play01:22

probablement à la même classe que b

play01:25

c'est la raison pour laquelle nous

play01:27

allons vectorisé notre espace et

play01:30

utiliser du calcul matricielle afin de

play01:33

faciliter ces mesures de distance chaque

play01:35

observation devient un vecteur et

play01:38

l'ensemble des observations devient une

play01:40

matrice ce qui facilite considérablement

play01:43

ces mesures de distance d'où

play01:45

l'importance de l'algèbre linéaire et du

play01:48

calcul matricielle dans l'étude de

play01:50

l'intelligence artificielle

play01:52

pendant des décennies encore aujourd'hui

play01:55

on a fait des modèles statiques c'est à

play01:58

dire que le modèle une fois fait ces

play02:01

paramètres ne change plus pourtant

play02:03

l'univers lui change et les corrélations

play02:06

qui sont à l'origine du modèle évolue un

play02:11

modèle va donc devenir obsolète avec le

play02:13

temps

play02:15

jusqu'à présent lorsqu'un modèle ne

play02:17

fonctionnait plus la seule solution

play02:20

était d'en refaire un autre

play02:21

cela implique une nouvelle base de

play02:24

données un nouveau processus de

play02:27

modélisation avec tout ce que là ce que

play02:30

cela coûte entend et on travaille

play02:33

on a donc recherché un moyen pour que le

play02:37

modèle évolue seul c'est à dire que les

play02:39

paramètres soir calculé lorsque de

play02:42

nouvelles observations sont ajoutés

play02:46

cela présente cependant une difficulté

play02:48

comment faire pour éviter le sur

play02:50

apprentissage sans l'intervention

play02:51

manuelle et le jugement d'un mode aux

play02:53

leurs

play02:55

la solution qui a été trouvée repose sur

play02:58

les concepts de validation croisés et de

play03:00

régularisation qu'ils définissent

play03:03

l'apprentissage automatique

play03:05

la validation croisé repose sur le

play03:09

principe de validation que nous avons

play03:11

déjà vu précédemment et qui consiste à

play03:14

tester notre modèle sur un échantillon

play03:16

qui n'a pas servir sa réalisation la

play03:19

volonté d'automatisation nous a même

play03:21

cependant à une approche légèrement

play03:23

différente un échantillon de tests de

play03:26

20% de notre base de travail est extrait

play03:29

de manière aléatoire un modèle est

play03:32

construit sur l'échantillon

play03:33

d'apprentissage que sont les 80%

play03:35

restants est testé sur l'échantillon de

play03:38

test

play03:39

mais nous retournons alors à notre base

play03:42

de travail initial et recommençons avec

play03:44

un autre échantillon de tests aléatoires

play03:46

qui sera forcément différent et par

play03:49

conséquent nous obtiendrons aussi un

play03:50

modèle différent

play03:52

cette étape sera répétée de 5 à 10 fois

play03:55

au final nous aurons dix modèles

play03:58

différents testé sur dix échantillons de

play04:00

tests aléatoires

play04:02

la comparaison des résultats obtenus sur

play04:05

la variété des échantillons permet de

play04:08

contrôler le risque de sur apprentissage

play04:10

et de confirmer la validité de la

play04:13

méthode de modélisation choisi

play04:16

la régularisation est plus complexe elle

play04:20

consiste à analyser l'optimisation de la

play04:23

fonction de coo nous l'avons vu au début

play04:26

du cours précédant la fonction de coo

play04:29

d'une régression linéaire par exemple

play04:31

est la minimisation de la somme des

play04:34

distances entre chaque observation et la

play04:36

droite représentant notre modèle

play04:39

si la fonction de coo en l'occurrence la

play04:43

minimisation des distances et pousser

play04:45

trop loin je cours le risque de sur

play04:49

apprentissage si pour cela que je vais

play04:52

volontairement

play04:54

pénaliser la fonction de coo afin

play04:56

qu'elle ne soit jamais parfaite

play04:59

cette régularisation a donc une

play05:01

dimension mathématiques supplémentaire

play05:03

qui permet de contrôler leurs calculs

play05:06

des paramètres du modèle cette

play05:08

régularisation est elle même une

play05:10

fonction dont les paramètres sont

play05:13

appelés hyper paramètres

play05:15

dans le contexte de l'apprentissage

play05:18

automatique

play05:19

le travail du mode l'heure est donc à

play05:21

présent non plus de calculs et des

play05:23

paramètres mais de choisir et de définir

play05:26

des hypers paramètres afin que le modèle

play05:29

reste constamment dans l'espace contre 1

play05:32

entre précisions et rappelle et sous

play05:35

apprentissage et sur apprentissage

play05:38

comme nous l'avons vu précédemment le

play05:41

but de l'apprentissage automatique

play05:43

l évolution du modèle avec l'ajout de

play05:47

nouvelles observations sans

play05:49

l'intervention du mot de l'heure on a

play05:51

donc un gain considérable en efficacité

play05:55

en temps et en précision sur la durée

play06:00

résumons le monde de l'apprentissage

play06:03

automatique grâce à cette image

play06:06

on y retrouve les modèles non supervisé

play06:09

avec en particulier leur utilisation

play06:12

dans le domaine de la segmentation

play06:15

puis nous avons les modèles supervisait

play06:18

c'est à dire que l'on à une vérité une

play06:20

référence observé dans le passé

play06:23

nous y retrouvons les modèles de

play06:25

classification réduction de

play06:28

l'appartenance à une classe et les

play06:30

modèles de régression prédiction d'une

play06:32

dimension

play06:34

nous voyons aussi une troisième famille

play06:37

de modèles non nous n'avons pas encore

play06:39

parlé qui sont les modèles

play06:41

d'apprentissage parents renforcement ces

play06:45

modèles sont essentiellement utilisés

play06:47

dans les domaines des jeux et de la

play06:49

robotique il consiste en un

play06:52

apprentissage qui repose sur la punition

play06:54

est la récompense

play06:56

si ma fonction de coo consiste par

play06:59

exemple à optimiser un nombre de points

play07:02

je vais pénalisé l'algorithme pour toute

play07:05

mauvaise action en lui retirant des

play07:06

points et le récompenser pour toute

play07:08

bonne action en ajouter des points

play07:10

l'algorithme va apprendre très vite à

play07:13

favoriser les bonnes actions et éviter

play07:15

les mauvaises

play07:17

voyons à présent les principaux

play07:20

algorithmes que nous pourrons rencontrer

play07:23

on retrouve dans ce tableau la même

play07:26

classification à présent bien connue des

play07:29

modèles superviser ou non supervisé des

play07:32

régressions et des classifications

play07:34

dans les modèles de régression

play07:37

superviser nous allons retrouver la

play07:40

régression linéaire que nous avons vu

play07:42

précédemment

play07:43

très souvent utilisé simple mais qu'il

play07:46

ne faut pas sous-estimer

play07:48

nous avons également la régression

play07:51

logistique la régression logistique a

play07:54

été et est encore le cheval de trait de

play07:56

la modélisation financière et bancaire

play07:58

entre autres bien que ce soit une

play08:00

régression elle est souvent utilisée

play08:02

comme classification binaire en effet on

play08:06

utilise principalement lorsque la

play08:08

prédiction recherché n'a que deux

play08:10

valeurs possibles bon ou mauvais vrai ou

play08:12

faux et ses

play08:13

possibilités résumé par les deux

play08:16

chiffres 0 et 1

play08:19

dans ce cas il est impossible d'utiliser

play08:21

une droite infinie sous peine d'avoir

play08:23

plus vrai que vrai est plus faux que fo

play08:27

on a donc trouvé le moyen mathématiques

play08:30

de contraindre la droite de régression

play08:32

entre les deux valeurs limites et on

play08:34

obtient ainsi une sigmoïde

play08:36

caractéristiques on utilise pour cela le

play08:39

logarithme naturel de la probabilité

play08:42

d'où le nom de régression logistique

play08:45

dans la catégorie des classifications

play08:47

l'algorithme le plus simple et le knm

play08:51

pour qui n'est ni

play08:54

l'appartenance d'une nouvelle

play08:56

observation à une classe et décider en

play08:58

fonction de l'appartenance de ses

play09:00

voisins les plus proches cas étant une

play09:02

variable on décidera si l'on prend les

play09:04

trois quatre ou cinq plus proche voisin

play09:08

sika nn et le plus simple les arbres de

play09:11

décision sont les plus populaires en

play09:14

effet ils sont faciles à expliquer on

play09:16

parle de l'ensemble de la population que

play09:19

l'on sépare au fur et à mesure en

play09:21

fonction de variables et de ce de

play09:23

séparation on crée ainsi des branches

play09:26

des parents et des enfants les notes

play09:30

terminaux sont appelés des feuilles le

play09:33

but de l'algorithme est d'obtenir la

play09:35

population la plus pure au sein d'une

play09:37

feuille on pourra ainsi prédire la

play09:40

probabilité d'appartenance à une classe

play09:42

en fonction d'une série de conditions

play09:45

faciles à expliquer

play09:47

dans les modèles plus sophistiqués et

play09:50

plus complexe on trouvera le svn support

play09:54

vecteur machine ou séparateur avast

play09:57

marge en français cet algorithme

play09:59

consiste à trouver la ligne optimale de

play10:02

séparation entre deux populations il le

play10:06

fait en trouvant la ligne qui offre

play10:07

l'espace le plus large entre les deux

play10:10

populations à séparer

play10:12

encore plus complexes sont les réseaux

play10:14

neuronaux ceux ci sont composés de

play10:17

neurones agencés en couches

play10:19

le but est de reproduire le

play10:22

fonctionnement du cerveau humain et la

play10:24

transmission du signal de neurones en

play10:27

europe il y à une couche d'entrée et une

play10:30

couche de sortie entre lesquels sont

play10:32

plusieurs couches caché au delà de cinq

play10:36

couches cacher on parle de réseau

play10:39

neuronal profond et donc d'apprentissage

play10:41

profond ou diplôme le diplôme ning et

play10:45

donc une méthode d'apprentissage

play10:47

automatique qui repose sur l'utilisation

play10:50

de réseaux neuronaux à plus de cinq

play10:53

couches cacher

play10:55

la question récurrente est toujours

play10:58

celle de savoir quel modèle utilisé est

play11:00

de trouver le meilleur modèle possible

play11:04

au début des années 2000 un groupe de

play11:07

chercheurs s'est posé la question

play11:08

suivante

play11:09

pourquoi chercher l'unique arbre de

play11:13

décisions le plus efficace ne

play11:15

pourrait-on pas créer de manière

play11:17

aléatoire plusieurs arbres de décision

play11:19

médiocre et prendre le résultat de la

play11:22

majorité et cela fonctionne

play11:24

merveilleusement bien parce qu il y a

play11:27

plusieurs arbres cela c'est appeler une

play11:29

forêt et parce que les arbres sont créés

play11:31

de façon aléatoire cela c'est appeler

play11:33

une forêt aléatoire aux hommes

play11:37

le principe s'est étendue au delà des

play11:40

arbres de décision et aujourd'hui il

play11:42

n'est pas rare d'utiliser plusieurs

play11:43

algorithmes en même temps dans ce que

play11:46

l'on appelle un ensemble et prendre le

play11:49

résultat de la majorité

play11:50

cela fonctionne certes mais reste

play11:53

cependant très gourmands en capacités de

play11:56

calcul

play11:57

dans la catégorie des algorithmes non

play12:00

supervisé le plus souvent utilisés à des

play12:04

fins de segmentation le plus connu est

play12:06

le cas mills qui utilise un calcul de

play12:10

distance moyenne en fonction de centre

play12:12

aux ide positionné au hasard au début

play12:14

puis enr positionnée en fonction de

play12:16

l'optimisation de la fonction de coûts

play12:18

qui vise à réduire au maximum la

play12:21

distance entre des observations du même

play12:23

segment est d'augmenter au maximum la

play12:26

distance entre les centre-villes je vous

play12:28

propose de regarder une animation qui

play12:30

illustre la séparation d'une population

play12:33

en quatre segments

play12:35

les centres aux ide sont initialement

play12:37

définie au hasard les distances avec

play12:42

chaque observation sont calculés la

play12:44

fonction de coo va ensuite modifier la

play12:48

position des centres aux ide afin

play12:50

d'optimiser les distances au sein d'un

play12:53

segment et entre les segments on obtient

play12:56

ainsi quatre segments les plus homogène

play12:58

possible et les plus séparé possible

play13:00

facile

play13:03

ce que nous devons retenir c'est que

play13:07

l'apprentissage automatique ou machine

play13:09

learning est une pénalisation volontaire

play13:12

de notre fonction coûts afin de

play13:15

permettre un recul automatique des

play13:17

paramètres d'un modèle après ajout de

play13:20

nouvelles observations tout en évitant

play13:22

le sur apprentissage

play13:24

qu'il existe toute une variété

play13:26

d'algorithmes de modélisation parmi

play13:29

lesquels il nous faudra choisir ou pas

play13:31

si nous décidons de les utiliser tous

play13:33

ensemble

play13:35

lors du prochain court no achèverons

play13:38

notre cheminement qui nous amenait de la

play13:40

décision humaine aux statistiques et à

play13:43

la modélisation prédictive et nous

play13:46

enverrons l'aboutissement qu'ils aient

play13:47

l'intelligence artificielle h à bientôt

Rate This

5.0 / 5 (0 votes)

Related Tags
Modélisation PrédictiveApprentissage AutomatiqueRégularisationValidation CroiséeRéseaux NeuronauxAnalyse de DonnéesAlgorithmesMachine LearningModèle StatiqueModèle Dynamique
Do you need a summary in English?