Neural Networks and Deep Learning: Crash Course AI #3

CrashCourse
23 Aug 201912:23

Summary

TLDREn este episodio de CrashCourse AI, se explica cómo los neuronales artificiales, que imitan las neuronas del cerebro humano, pueden resolver tareas complejas como el reconocimiento de imágenes. Se destaca la importancia de las capas ocultas y la belleza matemática de las redes neuronales, que han revolucionado la tecnología de aprendizaje automático. Se menciona el trabajo pionero de Fei-Fei Li y la creación de ImageNet, una gran base de datos de imágenes etiquetadas, y cómo AlexNet, una red neuronal con múltiples capas ocultas, cambió el juego en el reconocimiento de imágenes en el concurso anual de ImageNet en 2012. Además, se explora la arquitectura de las redes neuronales y cómo se utilizan para clasificar imágenes, resaltando la necesidad de computadoras rápidas para procesar la cantidad masiva de datos involucrados.

Takeaways

  • 🧠 Los cerebros humanos toman decisiones con 100 mil millones de neuronas y trillones de conexiones entre ellas.
  • 💡 Las redes neuronales están compuestas de capas ocultas que permiten mejorar la eficacia en tareas como el reconocimiento de imágenes.
  • 🐶 La dificultad en el reconocimiento de imágenes reales por parte de las computadoras se debe a su capacidad limitada para comparaciones literales.
  • 🌐 ImageNet es una gran base de datos de fotos etiquetada creada para ayudar a desarrollar AI en el reconocimiento de imágenes.
  • 🏆 AlexNet, una red neuronal desarrollada por Alex Krizhevsky, logró un gran avance al ganar el concurso ImageNet en 2012.
  • 📊 Las redes neuronales están formadas por una capa de entrada, capas ocultas y una capa de salida.
  • 🔢 Cada neurona en la capa de entrada representa una característica o dato que se convierte en número.
  • 👥 La etiquetadura de datos por humanos es crucial para el entrenamiento de las redes neuronales.
  • 📊 Las capas ocultas combinan los datos recibidos para identificar componentes específicos dentro de los datos de entrada.
  • 📉 Las capas ocultas pueden ser profundas y cada una puede estar entrenada para buscar componentes más complejos dentro de los datos.
  • 🔑 La clave de las redes neuronales y del aprendizaje automático en general es la matemática, que permite realizar cálculos complejos para predecir resultados.

Q & A

  • ¿Qué es un perceptrón y cómo se relaciona con las redes neuronales?

    -Un perceptrón es un programa que imita la función de un neurona biológica y es la base de las redes neuronales. Las redes neuronales son una colección de perceptrones conectados que permiten a la máquina aprender y hacer decisiones complejas, como el reconocimiento de imágenes.

  • ¿Por qué son importantes las capas ocultas en las redes neuronales?

    -Las capas ocultas son esenciales en las redes neuronales porque permiten que la red aprenda y modele patrones complejos de datos. Estas capas ocultas son donde se realizan las combinaciones matemáticas y se extraen características abstractas que son fundamentales para el rendimiento de las redes en tareas como el reconocimiento de imágenes.

  • ¿Qué fue el desafío principal en el reconocimiento de imágenes antes de la IA?

    -Antes de la IA, los ordenadores no podían realizar comparaciones literales más allá de la coincidencia de ceros y unos, lo que les dificultaba reconocer imágenes de objetos diferentes pero similares, como distintos perros o gatos.

  • ¿Quién fue Fei-Fei Li y qué contribución realizó al campo de la IA?

    -Fei-Fei Li es una profesora y una investigadora líder en la IA y la visión por computadora. Su principal contribución fue la creación de ImageNet, una vasta base de datos de fotos etiquetadas que ha permitido a los científicos de todo el mundo desarrollar y probar diferentes algoritmos de reconocimiento de imágenes.

  • ¿Qué innovaciones introdujo Alex Krizhevsky en su red neuronal llamada AlexNet?

    -Alex Krizhevsky innovó al utilizar muchas capas ocultas en su red neuronal, lo que permitió un aprendizaje más profundo, y también utilizó hardware de cómputo más rápido para manejar las complejas matemáticas que requiere la red neuronal.

  • ¿Cómo se representan los datos en la capa de entrada de una red neuronal?

    -En la capa de entrada, los datos se representan como números. Cada neurona de entrada representa una característica única, que puede ser una cantidad numérica directa o una característica convertida en un número, como la frecuencia de una palabra en un texto o la luminosidad de un píxel en una imagen.

  • ¿Qué es el papel de las neuronas en las capas ocultas de una red neuronal?

    -Las neuronas en las capas ocultas combinan matemáticamente los números que reciben de la capa de entrada. Su objetivo es medir si los datos de entrada tienen ciertas características o componentes, como colores, formas o texturas específicas.

  • ¿Cómo se determina la respuesta final de una red neuronal en un problema de clasificación?

    -La capa de salida combina matemáticamente las salidas de la última capa oculta para determinar la respuesta final. Si se trata de una clasificación binaria, como determinar si una imagen es de un perro, un neurona de salida representa la probabilidad de esa respuesta. Para múltiples respuestas, se utilizan múltiples neuronas de salida, cada una correspondiente a la probabilidad de una etiqueta específica.

  • ¿Por qué es importante la velocidad del hardware en el procesamiento de redes neuronales?

    -La velocidad del hardware es crucial porque cada píxel en una imagen color se representa con tres números, lo que significa que para procesar una imagen de 1000 por 1000 píxeles, una red neuronal necesita examinar 3 millones de características, lo que requiere una gran cantidad de cálculos matemáticos.

  • ¿Cuál es el desafío al usar redes neuronales profundas con muchas capas ocultas?

    -Las redes neuronales profundas con muchas capas ocultas pueden combinar datos de maneras más complejas para resolver problemas más difíciles, pero a medida que se van profundizando, se vuelven más matemáticamente exigentes y difíciles de interpretar, lo que puede complicar la comprensión de por qué dan las respuestas que ofrecen.

Outlines

00:00

🤖 Introducción a las Redes Neuronales

Jabril nos presenta CrashCourse AI, donde explica que mientras un perceptrón imita un neurón, las redes neuronales artificiales son sistemas complejos que imitan el comportamiento del cerebro humano, conectando múltiples perceptrones. Estas redes son especialmente útiles en tareas como el reconocimiento de imágenes, gracias a sus capas ocultas y su diseño matemáticamente elegante. La dificultad histórica de la computadora para realizar comparaciones literales y el éxito de las redes neuronales en competencias de reconocimiento de imágenes, como la del conjunto de datos ImageNet, son mencionados como ejemplos de su utilidad y eficacia.

05:01

🐶 Reconocimiento de Imágenes y Redes Neuronales

Se profundiza en cómo las redes neuronales procesan la información para el reconocimiento de imágenes. Se describe la arquitectura de las redes neuronales, incluyendo capas de entrada, ocultas y salida, y cómo las neuronas en las capas ocultas buscan patrones específicos en los datos de entrada. Se ilustra con un ejemplo práctico cómo una red neuronal entrenada puede reconocer si una imagen contiene a un perro, utilizando la foto de un perro como ejemplo. Además, se discute la importancia de la potencia de procesamiento para manejar las complejidades matemáticas de las redes neuronales y se menciona la evolución hacia redes más profundas, conocidas como deep learning, que permiten abordar problemas más complejos.

10:03

🧠 Desafíos y Aplicaciones de las Redes Neuronales

Se aborda la complejidad de las redes neuronales profundas y sus desafíos, como la dificultad para comprender las razones detrás de sus decisiones y la necesidad de más potencia de cómputo. Se discute la importancia de entender cómo funcionan estas redes, especialmente en contextos donde influyen en decisiones importantes, como en el sistema financiero o la medicina. Se menciona el uso de redes neuronales en la detección de fraudes bancarias, la identificación de cáncer y en servicios de inteligencia artificial como Alexa y Facebook. Finalmente, se anuncia que en el próximo episodio se explorará el proceso de aprendizaje de las redes neuronales y la importancia de los datos para su entrenamiento.

Mindmap

Keywords

💡Perceptrón

Un perceptrón es un modelo de red neuronal artificial que imita el funcionamiento de un neurona biológico. Se utiliza para aprender y hacer predicciones a partir de datos de entrada. En el guion, se menciona que el perceptrón es la base de los neurales artificiales y que, al conectar varios perceptrones, se crean redes neuronales más complejas.

💡Redes neuronales artificiales

Son una extensión de los perceptrones que consisten en una serie de capas de neuronas artificiales conectadas. Estas redes son capaces de aprender y realizar tareas complejas, como el reconocimiento de imágenes. En el video, se destaca cómo las redes neuronales han revolucionado el campo de la inteligencia artificial, especialmente en áreas como el reconocimiento de imágenes.

💡Imagenet

Imagenet es una base de datos de imágenes etiquetadas creada por Fei-Fei Li y otros investigadores. Contiene millones de imágenes clasificadas en varias categorías y ha sido fundamental para el desarrollo de algoritmos de reconocimiento de imágenes. En el guion, se menciona cómo Imagenet desafió a los científicos a mejorar sus algoritmos de reconocimiento de imágenes.

💡AlexNet

AlexNet es una red neuronal desarrollada por Alex Krizhevsky que utilizó Imagenet para entrenarse y que marcó un hito en el reconocimiento de imágenes. Se destaca por su uso de múltiples capas ocultas y hardware de cómputo rápido. En el guion, AlexNet se presenta como un ejemplo de cómo las redes neuronales pueden superar a otros métodos en tareas específicas.

💡Capas ocultas

Las capas ocultas son una parte esencial de las redes neuronales que se encuentran entre la capa de entrada y la capa de salida. Estas capas son donde se procesan y se extraen características relevantes de los datos de entrada. En el video, se enfatiza cómo las capas ocultas son clave para el éxito de las redes neuronales en tareas de aprendizaje supervisado.

💡Aprendizaje supervisado

El aprendizaje supervisado es un tipo de aprendizaje automático donde el algoritmo aprende a predecir un resultado a partir de datos etiquetados. En el guion, se explica cómo el aprendizaje supervisado es fundamental para el funcionamiento de las redes neuronales, que aprenden a partir de ejemplos de datos etiquetados para realizar tareas como el reconocimiento de imágenes.

💡Características

Las características son atributos numéricos que representan datos de entrada en una red neuronal. Por ejemplo, en el reconocimiento de imágenes, las características podrían ser los valores de brillo de los píxeles. En el guion, se menciona cómo las características son fundamentales para que las redes neuronales puedan procesar y aprender de los datos.

💡Función de activación

Las funciones de activación son funciones matemáticas que limitan el valor de la salida de una neurona a un rango específico, como entre 0 y 1. Estas funciones son esenciales para controlar el flujo de información en las redes neuronales. Aunque no se menciona directamente en el guion, son un componente clave en el proceso de aprendizaje de las redes neuronales.

💡Detección de fraudes

La detección de fraudes es una aplicación práctica de las redes neuronales en el sector financiero. Se utilizan para identificar transacciones sospechosas y prevenir el fraude. En el guion, se menciona cómo las redes neuronales están siendo utilizadas en aplicaciones prácticas de nuestra vida diaria, como la detección de fraudes en bancos.

💡Derechos legales

Los derechos legales se refieren a la necesidad de que los sistemas de inteligencia artificial, como las redes neuronales, puedan ser explicables y justificables, especialmente cuando se utilizan para tomar decisiones importantes que afectan a las personas. En el guion, se discute la importancia de entender cómo funcionan los sistemas de IA para poder garantizar la transparencia y la responsabilidad en sus decisiones.

Highlights

Introducción a la inteligencia artificial (AI) y cómo se pueden conectar múltiples perceptrones para crear una red neuronal artificial.

Las redes neuronales son superiores a otros métodos en tareas específicas como el reconocimiento de imágenes.

La clave del éxito de las redes neuronales es su uso de capas ocultas y su elegancia matemática.

Los desafíos históricos de la IA en el reconocimiento de imágenes del mundo real, como distinguir entre un perro y un gato.

Creación de ImageNet, un dataset público de fotos etiquetadas para fomentar el desarrollo de AI en el reconocimiento de imágenes.

Alex Krizhevsky y su red neuronal AlexNet, que revolucionó el reconocimiento de imágenes en el concurso ImageNet 2012.

AlexNet utilizó múltiples capas ocultas y hardware de cómputo más rápido para manejar las matemáticas de las redes neuronales.

La arquitectura de las redes neuronales, compuesta de capas de entrada, salida y capas ocultas intermedias.

La representación de datos en la capa de entrada y cómo se convierten en números para ser procesados por la red neuronal.

La función de las capas ocultas en la combinación matemática de los datos para detectar patrones en la entrada.

Cómo la capa de salida utiliza la información de las capas ocultas para dar una respuesta al problema de clasificación.

La importancia de la matemática en las redes neuronales y cómo funciona un ejemplo simple de reconocimiento de imágenes.

La necesidad de computadoras rápidas para procesar las grandes cantidades de datos involucrados en las redes neuronales.

La tendencia hacia las redes neuronales más profundas, conocidas como deep learning, para resolver problemas más complejos.

Los desafíos de crear redes neuronales muy profundas debido a la complejidad y la dificultad de interpretar sus resultados.

Las aplicaciones prácticas de las redes neuronales en la toma de decisiones en la vida real, como en el fraude bancario y la detección de cáncer.

La importancia de comprender cómo funcionan las redes neuronales para ser un ser humano en el mundo actual.

Vista previa del contenido del próximo episodio, que abordará el proceso de aprendizaje de las redes neuronales y por qué requieren tanta data para funcionar adecuadamente.

Transcripts

play00:04

Hi, I’m Jabril, and welcome to CrashCourse AI!

play00:07

In the supervised learning episode, we taught John Green-bot to learn using a perceptron,

play00:11

a program that imitates one neuron.

play00:14

But our brains make decisions with 100 billion neurons, which have trillions of connections

play00:19

between them!

play00:20

We can actually do a lot more with AI if we connect a bunch of perceptrons together, to

play00:25

create what’s called an artificial neural network.

play00:28

Neural networks are better than other methods for certain tasks like, image recognition.

play00:32

The secret to their success is their hidden layers, and they’re mathematically very

play00:37

elegant.

play00:38

Both of these reasons are why neural networks are one of the most dominant machine learning

play00:41

technologies used today.

play00:43

[INTRO]

play00:52

Not that long ago, a big challenge in AI was real-world image recognition, like recognizing

play00:57

a dog from a cat, and a car from a plane from a boat.

play01:00

Even though we do it every day, it’s really hard for computers.

play01:04

That’s because computers are good at literal comparisons, like matching 0s and 1s, one

play01:09

at a time.

play01:10

It’s easy for a computer to tell that these images are the same by matching the pixels.

play01:14

But before AI, a computer couldn’t tell that these images are of the same dog, and

play01:20

had no hope of telling that all of these different images are dogs.

play01:24

So, a professor named Fei-Fei Li and a group of other machine learning and computer vision

play01:28

researchers wanted to help the research community develop AI that could recognize images.

play01:33

The first step was to create a huge public dataset of labeled real-world photos.

play01:38

That way, computer scientists around the world could come up with and test different algorithms.

play01:43

They called this dataset ImageNet.

play01:45

It has 3.2 million labeled images, sorted into 5,247 nested categories of nouns.

play01:52

Like for example, the “dog” label is nested under “domestic animal,” which is nested

play01:57

under “animal.”

play01:59

Humans are the best at reliably labeling data.

play02:02

But if one person did all this labeling, taking 10 seconds per label, without any sleep or

play02:08

snack breaks, it would take them over a year!

play02:11

So ImageNet used crowd-sourcing and leveraged the power of the Internet to cheaply spread

play02:16

the work between thousands of people.

play02:18

Once the data was in place, the researchers started an annual competition in 2010 to get

play02:23

people to contribute their best solutions to image recognition.

play02:26

Enter Alex Krizhevsky, who was a graduate student at the University of Toronto.

play02:31

In 2012, he decided to apply a neural network to ImageNet, even though similar solutions

play02:37

hadn’t been successful in the past.

play02:38

His neural network, called AlexNet, had a couple of innovations that set it apart.

play02:43

He used a lot of hidden layers, which we’ll get to in a minute.

play02:47

He also used faster computation hardware to handle all the math that neural networks do.

play02:51

AlexNet outperformed the next best approaches by over 10%.

play02:55

It only got 3 out of every 20 images wrong.

play02:58

In grade terms, it was getting a solid B while other techniques were scraping by with a low

play03:03

C.

play03:04

Since 2012, neural network solutions have taken over the annual competition, and the

play03:07

results keep getting better and better.

play03:10

Plus, AlexNet sparked an explosion of research into neural networks, which we started to

play03:14

apply to lots of things beyond image recognition.

play03:17

To understand how neural networks can be used for these classification problems, we have

play03:22

to understand their architecture first.

play03:24

All neural networks are made up of an input layer, an output layer, and any number of

play03:28

hidden layers in between.

play03:29

There are many different arrangements but we’ll use the classic multi-layer perceptron

play03:34

as an example.

play03:35

The input layer is where the neural network receives data represented as numbers.

play03:40

Each input neuron represents a single feature, which is some characteristic of the data.

play03:45

Features are straightforward if you’re talking about something that’s already a number,

play03:49

like grams of sugar in a donut.

play03:50

But, really, just about anything can be converted to a number.

play03:54

Sounds can be represented as the amplitudes of the sound wave.

play03:57

So each feature would have a number that represents the amplitude at a moment in time.

play04:02

Words in a paragraph can be represented by how many times each word appears.

play04:06

So each feature would have the frequency of one word.

play04:09

Or, if we’re trying to label an image of a dog, each feature would represent information

play04:14

about a pixel.

play04:15

So for a grayscale image, each feature would have a number representing how bright a pixel

play04:20

is.

play04:21

But for a color image, we can represent each pixel with three numbers: the amount of red,

play04:27

green, and blue, which can be combined to make any color on your computer screen.

play04:31

Once the features have data, each one sends its number to every neuron in the next layer,

play04:37

called the hidden layer.

play04:38

Then, each hidden layer neuron mathematically combines all the numbers it gets.

play04:43

The goal is to measure whether the input data has certain components.

play04:47

For an image recognition problem, these components may be a certain color in the center, a curve

play04:52

near the top, or even whether the image contains eyes, ears, or fur.

play04:56

Instead of answering yes or no, like the simple Perceptron from the previous episode, each

play05:01

neuron in the hidden layer does some slightly more complicated math and outputs a number.

play05:06

And then, each neuron sends its number to every neuron in the next layer, which could

play05:11

be another hidden layer or the output layer.

play05:14

The output layer is where the final hidden layer outputs are mathematically combined

play05:19

to answer the problem.

play05:20

So, let’s say we’re just trying to label an image as a dog.

play05:23

We might have a single output neuron representing a single answer - that the image is of a dog

play05:28

or not.

play05:29

But if there are many answers, like for example if we’re labeling a bunch of images, we’ll

play05:33

need a lot of output neurons.

play05:36

Each output neuron will correspond to the probability for each label -- like for example,

play05:41

dog, car, spaghetti, and more.

play05:43

And then we can pick the answer with the highest probability.

play05:46

The key to neural networks -- and really all of AI -- is math.

play05:50

And I get it.

play05:52

A neural network kind of seems like a black box that does math and spits out an answer.

play05:56

I mean, those middle layers are even called hidden layers!

play05:59

But we can understand the gist of what’s happening by working through an example.

play06:03

Oh John Green Bot?

play06:06

Let’s give John Green-bot a program with a neural network that’s been trained to

play06:13

recognize a dog in a grayscale photo.

play06:23

When we show him this photo first, every feature will contain a number between 0 and 1 corresponding

play06:30

to the brightness of one pixel.

play06:32

And it’ll pass this information to the hidden layer.

play06:35

Now, let’s focus on one hidden layer neuron.

play06:38

Since the neural network is already trained, this neuron has a mathematical formula to

play06:42

look for a particular component in the image, like a specific curve in the center.

play06:47

The curve at the top of the nose.

play06:48

If this neuron is focused on this specific shape and spot, it may not really care what’s

play06:54

happening everywhere else.

play06:55

So it would multiply or weigh the pixel values from most of those features by 0 or close

play07:01

to 0.

play07:02

Because it’s looking for bright pixels here, it would multiply these pixel values by a

play07:06

positive weight.

play07:08

But this curve is also defined by a darker part below.

play07:11

So the neuron would multiply these pixel values by a negative weight.

play07:15

This hidden neuron will add all the weighted pixel values from the input neurons and squish

play07:20

the result so that it’s between 0 and 1.

play07:22

The final number basically represents the guess of this neuron thinking that a specific

play07:27

curve, aka a dog nose, appeared in the image.

play07:30

Other hidden neurons are looking for other components, like for example, a different

play07:35

curve in another part of the image , or a fuzzy texture.

play07:38

When all of these neurons pass their estimates onto the next hidden layer, those neurons

play07:42

may be trained to look for more complex components.

play07:46

Like, one hidden neuron may check whether there’s a shape that might be a dog nose.

play07:50

It probably doesn’t care about data from previous layers that looked for furry textures,

play07:54

so it weights those by 0 or close to 0.

play07:58

But it may really care about neurons that looked for the “top of the nose” and “bottom

play08:02

of the nose” and “nostrils”.

play08:04

It weights those by large positive numbers.

play08:06

Again, it would add up all the weighted values from the previous layer neurons, squish the

play08:11

value to be between 0 and 1, and pass this to the next layer.

play08:15

That’s the gist of the math, but we’re simplifying a bit.

play08:19

It’s important to know that neural networks don’t actually understand ideas like “nose”

play08:23

or “eyelid.”

play08:24

Each neuron is doing a calculation on the data it’s given and just flagging specific

play08:29

patterns of light and dark.

play08:31

After a few more hidden layers, we reach the output layer with one neuron!

play08:36

So after one more weighted addition of the previous layer’s data, which happens in

play08:41

the output neuron, the network should have a good estimate if this image is a dog.

play08:46

Which means, John Green-bot should have a decision.

play08:49

John Green-bot: Output neuron value: 0.93.

play08:53

Probability that this is a dog: 93%!

play08:57

Hey John Green Bot nice job!

play09:05

Thinking about how a neural network would process just one image makes it clearer why

play09:10

AI needs fast computers.

play09:12

Like I mentioned before, each pixel in a color image will be represented by 3 numbers --- how

play09:17

much red, green, and blue it has.

play09:20

So to process a 1000 by 1000 pixel image, which in comparison is a small 3 by 3 inch

play09:25

photo, a neural network needs to look at 3 million features!

play09:30

AlexNet needed more than 60 million neurons to achieve this, which is a ton of math and

play09:35

could take a lot of time to compute.

play09:37

Which is something we should keep in mind when designing neural networks to solve problems.

play09:42

People are really excited about using deeper neural networks, which are networks with more

play09:47

hidden layers, to do deep learning.

play09:49

Deep networks can combine input data in more complex ways to look for more complex components,

play09:55

and solve trickier problems.

play09:57

But we can’t make all networks like a billion layers deep, because more hidden layers means

play10:02

more math which again would mean that we need faster computers.

play10:06

Plus, as a network get deeper, it gets harder for us to make sense of why it’s giving

play10:11

the answers it does.

play10:13

Each neuron in the first hidden layer is looking for some specific component of the input data.

play10:18

But in deeper layers, those components get more abstract from how humans would describe

play10:22

the same data.

play10:24

Now, this may not seem like a big deal, but if a neural network was used to deny our loan

play10:28

request for example, we’d want to know why.

play10:32

Which features made the difference?

play10:35

How were they weighed towards the final answer?

play10:37

In many countries, we have the legal right to understand why these kinds of decisions

play10:41

were made.

play10:42

And neural networks are being used to make more and more decisions about our lives.

play10:46

Most banks for example use neural networks to detect and prevent fraud.

play10:50

Many cancer tests, like the Pap test for cervical cancer, use a neural network to look at an

play10:55

image of cells under a microscope, and decide whether there’s a risk of cancer.

play10:59

And neural networks are how Alexa understands what song you’re asking her to play and

play11:03

how Facebook suggests tags for our photos.

play11:05

Understanding how all this happens is really important to being a human in the world right

play11:09

now, whether or not you want to build your own neural network.

play11:12

So this was a lot of big-picture stuff, but the program we gave John Green-bot had already

play11:17

been trained to recognize dogs.

play11:20

The neurons already had algorithms that weighted inputs.

play11:23

Next time, we’ll talk about the learning process used by neural networks to get to

play11:27

the right weights for every neuron, and why they need so much data to work well.

play12:02

Crash Course Ai is produced in association with PBS Digital Studios.

play12:07

If you want to help keep all Crash Course free for everyone, forever, you can join our

play12:10

community on Patreon.

play12:12

And if you want to learn more about the math behind neural networks, check out this video

play12:16

from Crash Course Statistics about them.

Rate This

5.0 / 5 (0 votes)

関連タグ
Redes NeuronalesAprendizaje SupervisadoIAPerceptrónImagenetAlexNetFei-Fei LiReconocimiento de ImágenesMachine LearningCiencia de la Computación
英語で要約が必要ですか?