Week 5 -- Capsule 3 -- Learning representations

MATH-ML1
22 Sept 202013:40

Summary

TLDRCette conférence présente le concept de représentations dans les réseaux de neurones profonds. Elle explique comment l'ajout de couches cachées dans un réseau permet de représenter des fonctions de complexité croissante. L'orateur introduit le concept de l'apprentissage de représentations, montrant comment transformer les données pour simplifier la classification. Il souligne l'importance des transformations et du rôle historique de l'apprentissage profond dans la popularisation de ce concept. L'accent est mis sur la capacité des réseaux de neurones à apprendre des représentations abstraites à travers plusieurs couches, facilitant des tâches complexes comme la traduction automatique et la reconnaissance d'images.

Takeaways

  • 🧠 La notion de représentation est cruciale dans les réseaux neuronaux profonds, car elle permet de modéliser des fonctions de plus en plus complexes en ajoutant des couches cachées.
  • 🌟 Les réseaux neuronaux profonds sont capables de représenter des fonctions plus complexes grâce à un nombre accru de couches ou d'unités.
  • 🔄 La transformation des données (changement de représentation) peut simplifier la tâche de classification, permettant d'utiliser des classifieurs plus simples.
  • 🤖 L'apprentissage de bonnes représentations peut réduire la quantité de données nécessaires pour former un modèle efficace.
  • 🛠 L'ingénierie des caractéristiques, ou feature engineering, est une tâche traditionnelle qui consiste à définir manuellement des transformations pour améliorer les performances d'un modèle.
  • 📈 Le deep learning propose d'apprendre automatiquement les représentations de caractéristiques à partir des données, plutôt que de les définir manuellement.
  • 🌐 Les représentations universelles, telles que les représentations de phrases en traduction automatique, peuvent être utilisées pour effectuer des tâches dans plusieurs domaines.
  • 🔧 Les réseaux neuronaux profonds apprennent des représentations de niveaux croissants d'abstraction à travers leurs couches, passant de filtres de bordure à des parties de visage, par exemple.
  • 👥 Les réseaux neuronaux peuvent apprendre à assembler des représentations de niveau inférieur pour former des représentations de niveau supérieur, comme l'assemblage de parties de visage pour reconnaître des visages complets.
  • 🌐 L'apprentissage de représentations est un concept plus large que le deep learning et peut être appliqué à d'autres méthodes d'apprentissage automatique.

Q & A

  • Qu'est-ce qu'une représentation dans le contexte des réseaux de neurones ?

    -Une représentation dans les réseaux de neurones fait référence à la manière dont les données sont modifiées ou transformées par le réseau pour faciliter l'apprentissage et l'analyse. C'est un processus par lequel les réseaux apprennent à comprendre et à gérer les données.

  • En quoi consiste la différence entre un réseau de neurones simple et un réseau de neurones profond ?

    -Un réseau de neurones simple a généralement une seule couche cachée, tandis qu'un réseau de neurones profond possède plusieurs couches cachées. Les réseaux profonds ont plus de capacité de représentation et peuvent apprendre des fonctions plus complexes.

  • Pourquoi les couches cachées additionnelles sont-elles importantes dans les réseaux de neurones profonds ?

    -Les couches cachées additionnelles augmentent la capacité de représentation du réseau, permettant ainsi de modéliser des fonctions plus complexes. Elles permettent également d'améliorer les performances du modèle en apprenant des représentations de plus haut niveau à travers les données.

  • Quelle est la relation entre l'apprentissage de représentations et la séparation des données ?

    -L'apprentissage de bonnes représentations peut simplifier la séparation des données, en permettant de trouver des frontières de décision plus simples pour séparer les différentes classes ou groupes dans les données.

  • Comment le changement de représentation des données peut-il rendre la classification plus facile ?

    -En changeant la représentation des données, on peut transformer une classe de problème difficile en un problème plus simple. Par exemple, en utilisant des coordonnées polaires au lieu de coordonnées cartésiennes, on peut séparer des données qui ne sont pas séparables linéairement dans l'espace original.

  • Quel est le rôle de l'apprentissage dans le domaine de l'ingénierie des caractéristiques ?

    -Dans l'ingénierie des caractéristiques, l'apprentissage est utilisé pour automatiser la sélection et la combinaison des transformations de données qui sont utiles pour résoudre un problème spécifique, plutôt que de compter sur les experts du domaine pour définir manuellement ces transformations.

  • Pourquoi les réseaux de neurones profonds sont-ils particulièrement adaptés pour apprendre des représentations ?

    -Les réseaux de neurones profonds sont particulièrement adaptés pour apprendre des représentations因为他们可以通过多个层次的抽象来捕捉和学习数据中的复杂模式和结构。Au fur et à mesure que les données passent par les différentes couches du réseau, les représentations deviennent de plus en plus abstraites et de plus haut niveau, ce qui facilite l'apprentissage de tâches spécifiques.

  • Quels sont les avantages de l'apprentissage des représentations universelles dans la traduction automatique ?

    -Les représentations universelles permettent de coder le sens d'une phrase sans inclure d'informations spécifiques à une langue. Cela rend possible la traduction d'une phrase d'une langue à une autre en utilisant la même représentation intermédiaire, ce qui peut améliorer la qualité de la traduction et réduire la complexité du processus.

  • Comment les représentations peuvent-elles être réutilisées pour d'autres tâches après qu'elles aient été appris ?

    -Une fois que les bonnes représentations ont été apprises, elles peuvent être réutilisées pour d'autres tâches similaires ou même différentes. Par exemple, des représentations apprises pour la reconnaissance d'images peuvent également être utilisées pour la détection d'objets ou la segmentation d'images.

  • Quelle est la signification de la transformation des représentations de plus en plus abstraites à mesure qu'elles passent par les couches d'un réseau de neurones profond ?

    -La transformation vers des représentations plus abstraites signifie que le réseau apprend à capturer des concepts de plus haut niveau à partir des données d'entrée brutes. Cela permet au réseau de comprendre et de gérer des tâches de plus haut niveau, telles que la compréhension du langage ou la reconnaissance d'images complexes.

Outlines

00:00

🧠 Introduction aux représentations dans les réseaux neuronaux

Le paragraphe introduit l'idée de représentations dans le contexte des réseaux neuronaux profonds. Il explique que l'ajout de couches cachées ou l'élargissement de ces couches augmente la capacité du réseau à représenter des fonctions de plus en plus complexes. L'auteur souligne que, avec suffisamment de données, d'optimisation et de matériel adéquat, un réseau profond peut outperformer un réseau simple. L'introduction des représentations est présentée comme une autre perspective de l'apprentissage profond, où l'on peut transformer les données pour faciliter la classification, par exemple en utilisant des coordonnées polaires au lieu de coordonnées cartésiennes.

05:01

🔍 L'importance de l'apprentissage des représentations

Ce paragraphe met l'accent sur l'importance des représentations dans l'apprentissage automatique. Il compare l'approche traditionnelle du feature engineering, où des experts définissent des transformations manuelles, à l'apprentissage profond qui apprend automatiquement ces transformations à partir des données. L'auteur explique que les réseaux neuronaux profonds sont particulièrement adaptés pour apprendre des représentations, qui peuvent ensuite être utilisées pour des tâches telles que la traduction automatique, où des représentations universelles de phrases pourraient faciliter la traduction dans de nombreuses langues.

10:03

🌐 La progression vers des représentations plus abstraites

Le dernier paragraphe explore comment les réseaux neuronaux profonds apprennent des représentations de plus en plus abstraites à mesure qu'ils passent par plusieurs couches. Il utilise l'exemple de la reconnaissance d'objets dans des images, où les premières couches peuvent apprendre à détecter des bords, et les couches ultérieures à reconnaître des parties de visages, jusqu'à ce que les couches les plus élevées puissent identifier des visages complets. L'auteur conclut que ces représentations appprises peuvent être très utiles pour des tâches telles que la reconnaissance faciale dans les images.

Mindmap

Keywords

💡Réseaux neuronaux profonds

Les réseaux neuronaux profonds sont des réseaux de neurones artificiels avec plusieurs couches cachées. Dans le script, ils sont mentionnés comme étant capables de représenter des fonctions de plus en plus complexes en ajoutant des couches cachées ou en les rendant plus larges. Cela est crucial pour la capacité de modélisation des réseaux neuronaux pour résoudre des problèmes plus complexes.

💡Représentation

La représentation fait référence à la manière dont les données sont traitées et interprétées par un modèle, comme un réseau neuronal. Dans le script, l'importance de la représentation est soulignée pour la séparation de données non linéaires et pour la transformation des données pour simplifier la tâche de classification.

💡Classification binaire

Il s'agit d'un type de problème de classification où les données doivent être séparées en deux groupes. Le script utilise l'exemple d'une séparation entre des points bleus et des triangles verts pour illustrer la nécessité d'un classifieur complexe ou d'une transformation de représentation des données.

💡Transformation de données

La transformation de données est le processus de modification de la représentation des données pour faciliter une analyse ou une classification. Dans le script, l'exemple des coordonnées polaires est utilisé pour montrer comment transformer les données peut simplifier le problème de classification.

💡Ingénierie des caractéristiques

L'ingénierie des caractéristiques est le processus de sélection et de transformation des données pour améliorer la performance d'un algorithme. Le script mentionne que traditionnellement, les transformations étaient fixées par des experts du domaine, mais que les réseaux neuronaux profonds apprennent ces transformations à partir des données.

💡Apprentissage de représentations

L'apprentissage de représentations est la capacité d'un modèle à découvrir des représentations de données qui sont utiles pour une tâche donnée. Le script explique que les premiers couches d'un réseau neuronal profond apprennent des représentations qui simplifient la tâche de classification ou d'analyse pour les couches suivantes.

💡Traduction automatique

La traduction automatique est l'un des exemples donnés dans le script où l'apprentissage de représentations universelles peut être utilisé pour traduire une phrase d'une langue à une autre. Cela montre comment les représentations peuvent être réutilisées pour différentes tâches.

💡Classification linéaire

La classification linéaire est une méthode de classification où les données sont séparées par une frontière linéaire. Le script mentionne que dans un espace de représentation transformé, une classification linéaire peut devenir suffisante pour séparer des données qui ne sont pas séparables de manière linéaire dans leur représentation originale.

💡Filtres de contour

Les filtres de contour sont des types de noyaux utilisés dans les premiers niveaux d'un réseau neuronal pour détecter les bords dans les images. Le script les mentionne comme l'un des premiers types de représentations appris par un réseau neuronal pour la reconnaissance d'objets.

💡Représentations abstraites

Les représentations abstraites sont des représentations de données qui sont de plus haut niveau et qui encapsulent des concepts plus généraux. Dans le script, l'idée est que les couches supérieures d'un réseau neuronal profond apprennent des représentations de plus en plus abstraites, comme l'assemblage de parties de visages pour former des visages complets.

Highlights

Introduction to the concept of representations in neural networks

Deep neural networks are capable of representing more complex functions due to additional hidden layers

The capacity of a neural network increases with more layers and units, allowing for the representation of increasingly complex functions

Representations are a key aspect of deep learning and are crucial for handling complex data sets

The importance of representations is demonstrated through a binary classification example

Data transformation through representations can simplify the classification process

Traditional feature engineering versus learning representations in deep learning

Deep learning automates the feature representation process, reducing the need for manual feature engineering

The role of representations in machine translation and how they can be used for language decoding

Representation learning is a broader concept than just deep learning, applicable to various machine learning techniques

Representations learned by deep neural networks can be reused for different tasks, showcasing their versatility

The progression of representations through the layers of a deep neural network becomes more abstract and high-level

An example of how representations evolve from edge detection to parts of faces and then to full faces in a neural network trained on facial data

Deep neural networks are well-suited for learning representations, which can then be applied to various tasks

The ability of deep neural networks to learn complex functions and high-level representations is illustrated through the example of image captioning

Transcripts

play00:00

in this lecture i wanted to introduce

play00:02

this idea of representations

play00:04

so far we've talked about neural nets

play00:06

but i've never mentioned the term

play00:07

representation

play00:09

so let's go back to our neural network

play00:11

and let's first try to think of what a

play00:13

deep neural network is

play00:15

okay so on the left hand side you should

play00:17

now be familiar with this

play00:18

it's a simple neural network with one

play00:21

hidden layer

play00:22

okay now if we have multiple hidden

play00:25

layers

play00:25

effectively we obtain a deep neural

play00:28

network

play00:29

okay so you could say well you know

play00:32

is a whole field really built from

play00:34

adding layers or hidden layers

play00:37

and yes that's definitely one way to

play00:39

think of it

play00:40

perhaps a slightly more formal way of

play00:42

thinking of it is by looking

play00:44

at the deep learning textbook okay and

play00:47

what it says here is by adding more

play00:49

layers

play00:49

and more units within a layer okay so

play00:52

either

play00:53

adding extra hidden layers these yellow

play00:55

layers here

play00:56

or making these layers more wide right

play00:59

adding units to each one

play01:01

a deep network can represent functions

play01:03

of increasing complexity

play01:05

okay so basically we are adding we are

play01:09

this neural network on the right hand

play01:10

side has more capacity than this

play01:13

neural network on the left hand side

play01:15

okay

play01:16

so that's one way of thinking about by

play01:19

adding layers

play01:20

or hidden layers by making the network

play01:22

deep

play01:23

we obtain a network that's capable of

play01:26

representing more complex functions

play01:28

okay and so if we are able to train this

play01:31

network

play01:32

so if we have enough data if we have the

play01:34

right optimization

play01:35

algorithm if we have the right hardware

play01:37

for it then it's possible that

play01:39

this type of model can do a lot better

play01:42

than the simple neural network

play01:45

so that's one view um that does not use

play01:48

the term representation

play01:49

so now let's think a little bit about

play01:51

let's introduce actually representations

play01:54

okay so that's really it's really

play01:57

another view of deep learning

play01:59

but also of other methods that do what

play02:01

we call the representation learning

play02:04

so first let's motivate why

play02:05

representations are important

play02:07

okay so imagine that you are given this

play02:10

data set here on the left

play02:12

okay and so this is a binary

play02:14

classification data set

play02:16

and you are asked to

play02:19

separate the the blue dots from the

play02:22

green triangles

play02:24

okay so you'd imagine that you'd need a

play02:27

somewhat complex classifier to be able

play02:28

to do this right

play02:30

so one thing is that this data is not

play02:32

linearly separable so you need a

play02:33

classifier

play02:34

that says that everything sort of within

play02:38

this decision boundary which is more or

play02:40

less circular

play02:41

would be blue everything outside would

play02:42

be green okay so that's one way of doing

play02:45

it

play02:45

keep the data as is and have a fairly

play02:47

complex classifier

play02:49

another way of doing it is to say what

play02:52

if

play02:54

we could transform our data so in other

play02:56

words what if we could change a

play02:57

representation

play02:58

of our data that's what we have on the

play03:00

right hand side

play03:02

on the right hand side the data set is

play03:04

the same but the representation is

play03:05

different

play03:06

in particular instead of representing my

play03:09

data using x

play03:10

y coordinates i represent my data in

play03:14

a new um using new coordinates using the

play03:17

radius

play03:18

and the theta right and this this

play03:21

uh this is these are just polar

play03:23

coordinates right so in polar

play03:24

coordinates

play03:25

i look at a point and i see what is the

play03:27

angle

play03:28

right between some reference axis and

play03:31

this point

play03:32

and then i say how far according to the

play03:35

the vector at this angle

play03:36

is it okay this is how i get the radius

play03:38

that's how far

play03:39

and theta is my angle okay

play03:42

so we could see of course that all the

play03:45

green points

play03:46

are much further from the center of the

play03:49

universe which maybe is somewhere here

play03:52

right then the blue points and we see

play03:54

that here a simple linear classifier

play03:56

right that does something like this

play03:58

could perfectly classify this data set

play04:01

okay so here we have a bit of a

play04:02

trade-off we said

play04:04

either we have a more complex classifier

play04:08

either we transform the data and have a

play04:11

more

play04:11

a simpler classifier okay so of course

play04:14

the story on the right is

play04:16

appealing right because you'd imagine

play04:17

that perhaps you need less data because

play04:19

you only have a simple classifier

play04:22

but of course the big question is how do

play04:25

you

play04:26

learn or how do you find this

play04:28

transformation right that will allow you

play04:30

to make classification

play04:31

easier okay so

play04:34

it used to be that um

play04:38

you would fix these transformations okay

play04:40

so this is a task commonly known as

play04:42

feature engineering

play04:43

you have for example your input image

play04:46

right and you're

play04:47

imagining here you're trying to do

play04:48

object detection and try to figure out

play04:50

there's a staple in this image

play04:52

and then you would have a set of filters

play04:55

or

play04:56

set of transformation which you would

play04:57

apply to this image

play04:59

okay for example here we have a set of

play05:01

transformation that allows us to find

play05:03

the the contours of this particular

play05:07

object okay and

play05:10

typically speaking these these um this

play05:13

feature engineering

play05:14

would not be learned okay so basically

play05:16

you would have domain experts for

play05:18

example computer vision experts

play05:20

that uh would work or would have thought

play05:22

a lot for

play05:23

you know for a long time about this and

play05:24

would have said here are good

play05:26

transformations

play05:27

that work really well for a particular

play05:29

task and our field of expertise

play05:31

okay and of course once you have these

play05:33

transformations then you can learn

play05:35

something on top of it right this could

play05:37

be a neural network or this could be

play05:39

something like a support vector machine

play05:41

okay what deep learning instead

play05:45

says is instead of having a fixed

play05:48

feature

play05:49

representation we're going to learn this

play05:52

feature representation

play05:54

based on our data okay so maybe then the

play05:57

story becomes more like this

play05:59

we have data we learn this feature

play06:03

represents feature representation or

play06:05

this sort of feature engineering

play06:07

right is now a learned operation so we

play06:10

learn it

play06:10

using the first few hidden layers and

play06:13

then the last hidden layer is simply a

play06:15

classifier

play06:16

that allows us to say that there's a

play06:18

stapler in this image

play06:22

okay so when i talk about learning

play06:25

representations and representations and

play06:27

you would imagine that the weights

play06:29

yeah you've learned at the initial

play06:31

layers of your deep neural net these are

play06:34

in fact

play06:35

a representation that you've learned

play06:37

okay

play06:38

and this representation then allows you

play06:40

to have simple simpler

play06:42

classifier which is the last perhaps the

play06:44

last

play06:45

um or the last few hidden layers of your

play06:48

of your knowledge okay

play06:52

of course this is one examples once you

play06:54

have really good

play06:55

representations there's lots of other

play06:57

things you could try to do with them

play06:58

here's a particular example with machine

play07:00

translation okay so in machine

play07:02

translation what you're

play07:04

what you aim to do is to take a sentence

play07:06

in a particular

play07:07

language and to translate it into

play07:09

another language

play07:11

okay if you can learn representations

play07:14

and if these representations are

play07:17

universal sentence representation right

play07:19

so they do not

play07:20

they um they encode what's in the

play07:23

sentence but they don't code they don't

play07:25

include anything

play07:26

language specific once you have this

play07:29

representation

play07:30

you might be able to use this

play07:31

representation to then decode or then

play07:34

translate the original sentence into

play07:37

whatever language you want okay

play07:40

so this is an example of if you were

play07:42

able to to learn

play07:44

these universal sentence representation

play07:45

then there's lots of things you could do

play07:47

with them such as

play07:48

translating in many languages okay so

play07:52

um i would say that historically um

play07:55

deep learning and deep neural nets

play07:58

they've

play07:58

been perhaps one of the first ones or

play08:01

they've been the ones to pop this

play08:02

community has been the one to popularize

play08:05

this idea of representation learning but

play08:08

of course representation learning

play08:09

is somewhat more general than just deep

play08:13

learning

play08:13

right so if we think of this outer

play08:15

circle here as being machine learning

play08:17

this inner pink circle as being deep

play08:19

learning then you could think of

play08:20

representation learning as being

play08:22

something

play08:24

something a little bit bigger than deep

play08:26

learning right where you could

play08:27

definitely learn representation using

play08:29

non-deep learning techniques although

play08:32

deep neural networks

play08:33

are very well suited to learn

play08:36

representations

play08:37

and as i said these representation can

play08:40

allow you to

play08:41

one do the tasks that you have in mind

play08:44

but two also

play08:46

generalize more easily to other tasks

play08:48

right so representations

play08:50

ideally could be reused to other tasks

play08:53

okay so maybe let's look at a uh one

play08:57

one or two last example so if you

play08:59

imagine of a deep

play09:00

if you imagine a deep neural net um here

play09:03

we sort of flipped instead of being

play09:04

going from sort of left input to right

play09:06

output we're going from

play09:08

bottom input we have a image here of

play09:10

actually yoshi avengious sitting

play09:12

and we have an output and we'd imagine

play09:15

that

play09:15

here we have several layers hidden

play09:19

layers

play09:20

and at each one of these layers the

play09:22

representation

play09:23

changes a little bit okay so the idea is

play09:27

we apply one first set of transformation

play09:30

we obtained an initial representation

play09:33

that's slightly higher level

play09:35

than what was encoded by this image

play09:38

okay and then if we do that over and

play09:40

over and over through

play09:42

multiple hidden layers then we could

play09:44

obtain something perhaps at the top that

play09:46

is a very high level representation

play09:48

right

play09:48

so here perhaps the um the goal of this

play09:52

network could be something like

play09:54

um you know describe what's in this

play09:57

image or write the caption in this

play09:59

particular image

play10:00

which could be uh you know man sitting

play10:02

on the ground

play10:04

in front of you know in a sort of a

play10:07

non-city landscape okay so there's a few

play10:11

things that are important here

play10:12

um the mo the most important thing is

play10:14

this idea of representations of course

play10:16

the second idea which i've introduced

play10:18

here is this this idea that

play10:20

as you go through different layers of

play10:22

representation

play10:23

the representation becomes more abstract

play10:25

right

play10:26

because sort of higher level compared to

play10:28

the input

play10:29

image that you have here's a very um

play10:32

i think good example of that here we

play10:35

imagine that

play10:36

we've trained a neural net so we're

play10:38

going back from the left to right

play10:40

right to recognize maybe objects in

play10:43

images okay um and then

play10:47

on the right hand side there is a

play10:49

repetition of what is that we've learned

play10:51

so effectively these are the

play10:52

representations that that we've learned

play10:54

exactly how we come to this isn't too

play10:56

important here

play10:58

okay so we see that at the beginning

play11:01

right effectively we've learned what

play11:03

we've called what we called edge filters

play11:05

okay so basically differentiation in

play11:07

colors right so basically when you're

play11:09

trying to

play11:10

put when you're trying to recognize

play11:12

objects when the first thing you want to

play11:14

find

play11:14

is where are the objects and one thing

play11:17

you may want to do

play11:18

that is to be able to segment different

play11:20

objects in the scene okay i'm still

play11:21

finding

play11:22

sort of where an object stops and where

play11:24

another object starts that could be very

play11:26

useful

play11:26

you can think of these by finding these

play11:28

as finding these edges so these are sort

play11:30

of edge detectors

play11:31

then we see that a slightly higher level

play11:33

of representation

play11:35

combines these edge detectors into

play11:39

into parts of faces okay so we see here

play11:42

like

play11:42

a bit of a nose there's a bit of an eye

play11:45

there's perhaps

play11:46

some teeth and a nose here there are

play11:48

other noses

play11:49

you know and so on and so forth okay so

play11:52

for this data set what i should have

play11:53

said is

play11:54

this this reputation of um

play11:57

a neural network that was trained on a

play11:59

face data set okay so we see we that we

play12:01

go from

play12:02

edges to parts of faces to

play12:05

full prototypical faces okay so

play12:08

basically

play12:09

in this part we the network has learned

play12:12

to assemble these different faces okay

play12:16

um to combine these different lower

play12:19

level representations into some higher

play12:21

level representations

play12:22

which now include full faces

play12:26

okay and so you see that it seems like

play12:28

in this data set anyway

play12:30

there were uh probably different uh

play12:33

different

play12:33

people from different genders um and

play12:36

there were people with

play12:38

um facial hair um it seemed like most

play12:41

people were sort of looking forward but

play12:43

they're perhaps not everybody was right

play12:45

in the center of this

play12:46

of this image okay now

play12:50

this may not work for in all domains in

play12:53

particular

play12:54

uh looking at these these filters that

play12:57

what was learned by the deep neural net

play12:59

is often much easier in computer

play13:01

computer um

play13:02

vision type domains right where we were

play13:04

dealing explicitly with images

play13:06

it may not always be feasible to do this

play13:09

and things may not always

play13:10

work all that well right but this is the

play13:13

intuition you have you may have

play13:15

so deep neural nets allow you to learn

play13:18

more complex functions

play13:20

and through their layers they're

play13:22

learning higher and higher levels of

play13:25

representations now at the end of the

play13:27

day these representations that a neural

play13:29

net has learned

play13:30

can then be very helpful to for example

play13:33

have a simple classifier

play13:35

that allows you to recognize people in

play13:37

these images

Rate This

5.0 / 5 (0 votes)

Etiquetas Relacionadas
Apprentissage ProfondRéseaux NeuronauxReprésentationsClassification BinaireTransformation de DonnéesIngénierie de CaractéristiquesTraduction AutomatiqueVision par OrdinateurRéseau de ConnaissancesGénéralisation des Tâches
¿Necesitas un resumen en inglés?