8. Redes neuronales

José Miguel Castillo
15 Jun 201618:45

Summary

TLDRLa clase magistral se centra en las redes neuronales, un paradigma de computación y aprendizaje que permite clasificar y tomar decisiones de manera más eficiente. Se explora la historia y evolución de las redes neuronales, desde la idea inicial de Frank Rosenblatt hasta el desarrollo del perceptrón multicapa por Paul Werbos. Se destaca la importancia de la retropropagación, un algoritmo clave para el entrenamiento de estas redes. Además, se discuten las características fundamentales de las redes neuronales, como su alta paralelismo, robustez frente a fallos y capacidad de generalización. La clase también aborda la aplicación de estas tecnologías en diversos campos, como la banca y la bolsa, destacando su eficacia en el manejo de variables heterogéneas y su potencial para predecir tendencias en entornos con valores continuos.

Takeaways

  • 🧠 Las redes neuronales son un paradigma de computación y aprendizaje que permite la clasificación y toma de decisiones en diferentes patrones.
  • 📈 El aprendizaje en las redes neuronales ocurre durante las fases de entrenamiento y permite a la red extrapolar decisiones a situaciones no vistas anteriormente.
  • 🤖 El perceptrón multicapa es una de las redes neuronales más utilizadas y se centra en la clasificación de patrones complejos.
  • 📚 La historia de las redes neuronales comienza en la mitad del siglo pasado con el primer modelo formal de una neurona.
  • 🔄 El entrenamiento de una red neuronal implica un ciclo iterativo que puede requerir cambios en la estructura de la red para mejorar soluciones.
  • 🔄 La retropropagación es un algoritmo clave en el entrenamiento de redes neuronales, permitiendo la modificación de pesos para minimizar errores.
  • 💡 Las neuronas en las redes neuronales funcionan a través de la recepción de impulsos, conexión con otras neuronas y amplificación de estos impulsos.
  • 🔗 La robustez de las redes neuronales frente a fallos se debe a su capacidad para mantener aceptables salidas incluso cuando algunas neuronas fallan.
  • 🧐 Las redes neuronales son adaptables y generalizan su conocimiento a nuevos elementos, lo que las hace útiles para la clasificación de patrones heterogéneos.
  • 🔍 El diseño de una red neuronal implica la definición de su topología, elección de patrones de entrenamiento y validación, y posible implementación en hardware o software.
  • 📉 Las aplicaciones de las redes neuronales son variadas, incluyendo la predicción de valores en el mercado de valores y la clasificación de patrones en entornos con variables heterogéneas.

Q & A

  • ¿Qué son las redes neuronales y cómo se definen en el ámbito de la computación y el aprendizaje?

    -Las redes neuronales son un paradigma de computación y aprendizaje que permite clasificar de una mejor manera cualquier patrón en el que se trabaje, siendo fundamentales en la toma de decisiones y capaz de aprender y extrapolar a decisiones en las cuales no ha sido entrenada anteriormente.

  • ¿Cuál es el propósito principal de las redes neuronales?

    -El propósito principal de las redes neuronales es emular el comportamiento de las neuronas del cerebro humano para la clasificación y el aprendizaje de patrones, con la capacidad de generalizar y extrapolar conocimientos a nuevos patrones.

  • ¿Qué es el perceptrón multicapa y cómo se relaciona con las redes neuronales?

    -El perceptrón multicapa es una de las redes neuronales que tiene mayor aplicación, capaz de clasificar patrones de tipo heterogéneo y sin limitaciones. Es una evolución del primer perceptrón y permite la interconexión de múltiples neuronas en varias capas para obtener una salida deseada después del entrenamiento.

  • ¿Cómo se aborda el diseño de una red neuronal?

    -El diseño de una red neuronal implica definir su topología y arquitectura, elegir los patrones de entrada y salida, y seguir un ciclo que puede ser recursivo para modificar la estructura de la red y mejorar las soluciones.

  • ¿Qué es la retropropagación y cómo se utiliza en el entrenamiento de redes neuronales?

    -La retropropagación es un algoritmo utilizado en el entrenamiento de redes neuronales que consiste en modificar los pesos iniciales en función de la diferencia entre la salida esperada y la salida obtenida, con el objetivo de corregir el error y mejorar la precisión de la red.

  • ¿Por qué son importantes las redes neuronales en el manejo de variables heterogéneas?

    -Las redes neuronales son importantes en el manejo de variables heterogéneas porque pueden tratar y generalizar patrones complejos que involucran diferentes tipos de datos, lo que es especialmente útil en áreas como la banca, donde se consideran variables como la edad, el salario y el historial crediticio.

  • ¿Cómo son las redes neuronales aplicadas en problemas con valores de carácter continuo?

    -Las redes neuronales son adecuadas para problemas con valores continuos, como la predicción de valores económicos o la evolución de indicadores en el tiempo, ya que pueden manejar y generalizar patrones en espacios de alta dimensionalidad y proporcionar respuestas dentro de un dominio específico.

  • ¿Qué es la función de un neurona en una red neuronal y cómo se relaciona con los pesos y el término independiente?

    -La función de un neurona en una red neuronal es recibir impulsos, conectarse con otras neuronas y amplificar estos impulsos. Los pesos modulan los valores de las entradas y el término independiente, o bias, modifica el sumatorio de las entradas, lo que da lugar a la salida de la neurona, que es el resultado de la multiplicación de las entradas por los pesos más el término independiente.

  • ¿Cuáles son algunos de los tipos de redes neuronales mencionados en el script?

    -En el script se mencionan varios tipos de redes neuronales, incluyendo el perceptrón multicapa, las redes de Hopfield, las redes co-ligaduras funcionales y las memorias auto-asociativas.

  • ¿Cómo se aborda la fase de validación en el diseño de una red neuronal?

    -La fase de validación se aborda utilizando patrones que no han sido utilizados en la fase de entrenamiento para verificar que la red funcione adecuadamente con datos nuevos, lo que permite validar su capacidad de generalización y su rendimiento óptimo.

  • ¿Por qué las redes neuronales son consideradas robustas frente a fallos?

    -Las redes neuronales son consideradas robustas frente a fallos porque, incluso si una de las neuronas falla, las salidas de la red siguen siendo aceptables debido a su alta capacidad de generalización y su naturaleza adaptativa.

  • ¿Cómo se relaciona el concepto de aprendizaje en las redes neuronales con la capacidad de la red para extrapolar información a nuevos patrones?

    -El aprendizaje en las redes neuronales se relaciona con su capacidad de extrapolación porque, después de entrenarse con un conjunto de patrones, la red es capaz de aplicar lo aprendido a nuevos patrones que no forman parte del conjunto de entrenamiento, lo que demuestra su habilidad para generalizar y prever soluciones adecuadas.

Outlines

00:00

🧠 Introducción a las Redes Neuronales y el Perceptrón Multicapa

En esta introducción a las redes neuronales, se explica cómo estas funcionan como un paradigma de computación y aprendizaje, capaces de clasificar patrones y tomar decisiones. Se detalla el funcionamiento de la red durante su entrenamiento y su capacidad para generalizar decisiones en escenarios no entrenados. Se hace especial énfasis en el perceptrón multicapa, repasando su historia, desde los primeros modelos de neurona en la década de 1940, hasta las mejoras significativas como la introducción de la retropropagación en 1986 que permitieron superar limitaciones anteriores.

05:01

🔍 Tipos y Características de las Redes Neuronales

Este segmento aborda los diferentes tipos de redes neuronales y sus aplicaciones específicas, como las redes de Hopfield o las memorias autoasociativas, destacando su utilidad en la clasificación de patrones. Las redes neuronales se describen como robustas y altamente paralelas, lo que facilita su implementación tanto en hardware como en software. Se resalta su naturaleza adaptativa mediante el uso del algoritmo de retropropagación, crucial para ajustar los pesos de las conexiones neuronales en función de los errores observados durante el entrenamiento.

10:02

🧩 Diseño y Entrenamiento de Redes Neuronales

Este párrafo explica el proceso de diseño y entrenamiento de redes neuronales utilizando el algoritmo de retropropagación. Se inicia definiendo la arquitectura de la red, incluyendo el número de capas y neuronas, y se seleccionan patrones de entrada y salida para el entrenamiento. El entrenamiento se ajusta según los resultados, modificando algoritmos o patrones si es necesario. Finalmente, se valida la red con nuevos patrones no utilizados en el entrenamiento para asegurar su funcionamiento óptimo.

15:04

🌐 Aplicaciones y Validación de Redes Neuronales

El último párrafo destaca la aplicación práctica de las redes neuronales, particularmente en áreas donde se manejan datos heterogéneos y continuos, como en la concesión de créditos bancarios. Se discute la necesidad de un gran volumen de patrones de entrenamiento para lograr una generalización efectiva y se menciona la fase de validación, crucial para asegurar que la red funcione adecuadamente con patrones nuevos. Se concluye enfatizando la relevancia de estas tecnologías en la clasificación y predicción en dominios específicos.

Mindmap

Keywords

💡Redes neuronales

Las redes neuronales son una tecnología de aprendizaje y computación inspirada en el funcionamiento del cerebro humano. Se compone de múltiples nodos, llamados neuronas, que se conectan y trabajan en conjunto para procesar información y realizar tareas complejas, como la clasificación de patrones. En el video, se discute cómo las redes neuronales pueden ser utilizadas para mejorar la toma de decisiones y la clasificación de patrones en diversos contextos.

💡Perceptrón multicapa

El perceptrón multicapa es un tipo específico de red neuronal que consta de múltiples capas de neuronas. Este modelo es capaz de aprender y clasificar patrones complejos, incluso aquellos que no son linealmente separables. Se destaca en el video como una de las redes neuronales con mayor aplicación, destacando su capacidad para generalizar y su uso en la clasificación de patrones heterogéneos.

💡Aprendizaje supervisado

El aprendizaje supervisado es un método en el que el algoritmo de aprendizaje recibe información sobre los resultados esperados para cada conjunto de datos de entrada. En el contexto del video, las redes neuronales utilizan aprendizaje supervisado a través del entrenamiento con patrones de entrada y sus correspondientes salidas esperadas, lo que permite a la red ajustar sus pesos y mejorar su capacidad predictiva.

💡Retropropagación

La retropropagación, o backpropagation, es un algoritmo utilizado en el entrenamiento de redes neuronales. Funciona calculando el error entre la salida de la red y la salida esperada, y luego propagando este error hacia atrás a través de la red para ajustar los pesos de las conexiones. En el video, se menciona como un elemento fundamental en el proceso de entrenamiento de las redes neuronales.

💡Pesos

En las redes neuronales, los pesos son coeficientes asociados con las conexiones entre las neuronas que determinan la intensidad del impacto de una neurona en otra. El ajuste de estos pesos es crucial para el aprendizaje de la red. En el video, se describe cómo los pesos son modificados durante el entrenamiento para mejorar la precisión de las predicciones de la red.

💡Función de activación

Las funciones de activación son funciones matemáticas que determinan la salida de una neurona en una red neuronal basándose en su input. Estas funciones son esenciales para introducir no linealidad en el modelo, lo que permite a las redes neuronales modelar patrones complejos. En el video, se hace referencia a funciones de activación como parte del proceso de aprendizaje y clasificación en las redes neuronales.

💡Generalización

La generalización en las redes neuronales se refiere a la capacidad de una red entrenada para hacer predicciones precisas sobre datos que no vio durante su entrenamiento. Es un aspecto clave para que las redes neuronales sean útiles en la práctica, ya que permite que se apliquen a situaciones nuevas y no previstas. El video destaca la importancia de la generalización en el rendimiento de las redes neuronales.

💡Topología de red

La topología de red se refiere a la estructura de conexión entre las neuronas en una red neuronal, incluyendo el número de capas y el número de neuronas en cada capa. La elección de la topología adecuada es crucial para el rendimiento de la red. En el video, se discute cómo se define la arquitectura o topología de la red neuronal al diseñar el modelo.

💡Validación de la red

La validación de la red es el proceso de probar el rendimiento de una red neuronal con un conjunto de datos que no se utilizó durante el entrenamiento. Este paso es crucial para asegurar que la red no esté sobreajustada y tenga la capacidad de generalizar a nuevos datos. En el video, se menciona la fase de validación como un paso importante en el diseño de una red neuronal.

💡Aplicaciones de las redes neuronales

Las redes neuronales tienen una amplia gama de aplicaciones en diferentes campos, desde la clasificación de imágenes hasta la predicción del comportamiento del mercado financiero. En el video, se discuten aplicaciones específicas como la concesión de créditos bancarios y la predicción de valores en la bolsa, resaltando la versatilidad y el potencial de las redes neuronales en la toma de decisiones y el análisis de datos complejos.

💡Heterogeneidad de datos

La heterogeneidad de datos se refiere a la diversidad y la variedad en el tipo y la naturaleza de los datos que se utilizan en un modelo de aprendizaje automático. Las redes neuronales son particularmente útiles para manejar datos heterogéneos debido a su capacidad para aprender relaciones complejas entre diferentes tipos de variables. En el video, se destaca cómo las redes neuronales pueden manejar variables heterogéneas, como la edad, el salario y el historial crediticio en el contexto de la concesión de créditos.

Highlights

Las redes neuronales se definen como un paradigma de computación y aprendizaje que mejora la clasificación de patrones.

La red neuronal es capaz de aprender y extrapolar decisiones para patrones no vistos anteriormente.

Se centrará en la red neuronal multicapa, una de las redes con mayor aplicación.

La historia de las redes neuronales comienza en mediados del siglo pasado con el primer modelo formal de una neurona.

Frank Rosenblatt en 1958 dio la idea del perceptrón, un concepto clave en el aprendizaje de patrones.

Paul Werbos en 1974 resolvió los límites del perceptrón con la introducción de la retropropagación.

Las neuronas en las redes reciben impulsos, se conectan y amplifican, similar al cerebro humano.

El aprendizaje en las redes neuronales implica la modificación de pesos y términos independientes.

Las redes neuronales son paralelas, robustas frente a fallos y poseen una gran capacidad de generalización.

El perceptrón multicapa es capaz de clasificar patrones de tipo heterogéneo sin limitaciones.

El algoritmo de retropropagación es fundamental para el entrenamiento de redes neuronales.

La fase de diseño de una red neuronal incluye la definición de su estructura y la elección de patrones de entrenamiento y validación.

Las redes neuronales son adaptables y aprenden a partir de un conjunto de patrones para luego generalizar soluciones.

Las redes neuronales son especialmente útiles en problemas con variables heterogéneas y de carácter continuo.

Se pueden utilizar en áreas como la concesión de créditos bancarios, donde se manejan múltiples variables heterogéneas.

También son aplicables en la bolsa de valores para predecir la evolución de ciertos valores a través del análisis de redes neuronales.

El éxito de las redes neuronales depende de la cantidad y calidad de los patrones utilizados para su entrenamiento.

Después de la validación, las redes neuronales pueden ser implementadas en hardware o como sistemas de apoyo a la toma de decisiones.

Transcripts

play00:00

bienvenidos a la clase magistral sobre

play00:02

redes neuronales las redes neuronales se

play00:06

definen como paradigma de computación y

play00:09

aprendizaje en realidad es uno de los

play00:11

elementos que nos permite

play00:15

clasificar de una mejor manera cualquier

play00:19

patrón en la cual vayamos a trabajar

play00:21

dentro del mundo de la toma de

play00:23

decisiones y a la vez la propia red es

play00:26

capaz de aprender y en ese aprendizaje

play00:29

que ahora veremos durante las fases de

play00:32

entrenamiento él posteriormente va a

play00:35

poder extrapolar a decisiones en las

play00:39

cuales no ha sido entrenada

play00:40

anteriormente es decir a clasificaciones

play00:43

para las cuales no les hemos enseñado un

play00:46

patrón especial

play00:48

esta clase la vamos a dedicar aunque

play00:50

veremos una clasificación de algunos

play00:53

tipos de redes nos vamos a centrar más

play00:56

bien

play00:57

en una de las redes neuronales que

play00:59

tienen mayor aplicación que es el

play01:01

perceptor multicapa

play01:05

veremos un poco de historia e

play01:06

introducción a lo que son las redes

play01:08

neuronales algunos tipos de redes las

play01:11

características fundamentales que tienen

play01:13

las redes veremos lo que es el

play01:15

percepción y concretamente el perceptor

play01:17

multicapa como evolución de ese primer

play01:19

pc el perfecto e importante haré

play01:22

hincapié en las fases de diseño de una

play01:25

red neuronal cómo se diseña y cómo

play01:28

veremos que metodológicamente vamos a

play01:31

seguir un ciclo que a veces es recursivo

play01:33

puesto que tendremos que modificar

play01:35

aparte de lo que va a ser la propia

play01:40

estructura de la red para mejorar las

play01:43

soluciones y por último veremos algunas

play01:45

aplicaciones

play01:48

pues las redes neuronales no son tan

play01:51

antiguas estamos hablando de mediados

play01:53

del siglo pasado en el cual ya aparece

play01:55

un primer modelo formal de lo que es una

play01:58

neurona como intentando emular lo que

play02:02

hacen las neuronas del cerebro humano

play02:03

las neuronas de las redes neuronales y

play02:06

concretamente la neurona lo que hace

play02:08

recibir en nuestro cerebro un impulso y

play02:11

ese impulso le permite conectarse con

play02:14

otras neuronas y ese impulso puede ser

play02:16

amplificado y eso es lo que da lugar

play02:18

pues a recuerdos a experiencias etcétera

play02:22

que son almacenadas dentro de nuestro

play02:24

cerebro el gp en el año 49 ya anunció lo

play02:28

que podría ser el ajuste por pesos que

play02:31

es fundamental a la hora de la

play02:33

implementación de una red neuronal o de

play02:36

un entrenamiento de la red ya rosenblatt

play02:39

en el 58 dio la idea de lo que podía ser

play02:43

el perceptor ya se critica en el 69 casi

play02:48

10 10 años después que ese percepción

play02:51

puede clasificar cosas pero no todas

play02:54

esa crítica con la función x org y ya en

play02:59

el año 74 paul verbos pues da la

play03:03

solución a esa a esa percepción y

play03:07

enuncia lo que se denomina el percepción

play03:09

multicapa de manera que da solución a

play03:13

esa clasificación intentando poder

play03:15

clasificar patrones de tipo heterogéneo

play03:18

sin tener ningún tipo de limitación para

play03:22

esa misma solución en el año 86 llegaron

play03:24

en raml jari y maxilar

play03:26

aplicando ya la retro pop retro

play03:29

propagación lo que ocurre es que por

play03:31

curiosidad en el caso de paul verbos el

play03:34

labio publicado en su tesis doctoral que

play03:36

se habían leído pocos entonces pues

play03:39

parece que

play03:41

el avance es más de remediar y maxilar

play03:44

cuando en realidad ya la base estaba

play03:46

apuesta por volver vos

play03:50

una neurona en la evolución en la forma

play03:55

de emular la neurona cómo funciona en el

play03:57

cerebro en esa conexión neuronal que

play04:00

tenemos en nuestra nuestro cerebro pues

play04:03

es lo que hacemos es intentar

play04:08

hacer entradas y esas entradas vamos a

play04:12

analizarlas y en ese análisis lo único

play04:14

que vamos a hacer es un sumatorio de los

play04:16

valores de las entradas lo que ocurre es

play04:19

que vamos a modular es esos valores de

play04:22

las entradas mediante unos factores que

play04:25

denominamos pesos

play04:26

estas v dobles son las que los pesos que

play04:30

van a modular los valores de las

play04:33

entradas y además le vamos a añadir lo

play04:35

que se denomina un término independiente

play04:37

y en ese término independiente es un

play04:40

valor que va a modificar como sumatorio

play04:43

lo que va a ser esta salida luego la

play04:46

salida de la neurona va a ser el

play04:49

resultado de los productos de las

play04:52

entradas por sus términos independientes

play04:54

más

play04:56

de las entradas por sus pesos más el

play04:59

término independiente y todo esto

play05:01

modulado con una función determinada

play05:03

bueno pues este este es el elemento

play05:06

básico de la neurona tipos de redes pues

play05:10

hay muchas desde la de line el perfecto

play05:13

nos manda line el perfecto multicapa las

play05:15

redes de hoop field en las redes de

play05:19

redes co ligadura funcional todos van

play05:22

alrededor del mismo concepto y cada una

play05:25

tiene aplicaciones diferentes

play05:28

de lo que puede ser las memorias auto

play05:31

asociativas en las cuales a partir d

play05:34

parte de la información queremos

play05:36

extrapolar la toda después del

play05:38

aprendizaje o bien a lo que puede ser la

play05:41

propia el propio perceptor multicapa que

play05:44

vamos a utilizar como clasificador y es

play05:46

al que me voy a referir principalmente

play05:49

en esta clase magistral

play05:52

las características que tienen las redes

play05:54

neuronales como las he definido al

play05:58

principio son un paradigma un modelo de

play06:00

computación y de aprendizaje a la vez no

play06:03

porque debido a su alto paralelismo es

play06:06

decir vamos a estar con

play06:10

computacionalmente tratando de manera

play06:12

paralela todo lo que los sumatorios que

play06:15

están entrando a cada una de esas

play06:18

neuronas desde el punto de vista

play06:20

hardware son fácilmente implementables

play06:23

aunque la mayoría de las veces el

play06:25

laboratorio las simulamos con software y

play06:28

lo que hacemos es ver cuál sería su

play06:30

funcionamiento y cómo podríamos obtener

play06:34

la red óptima entrenarla y una vez que

play06:37

ya está ahí sabemos cuál es la topología

play06:41

que va a tener esa red pues la

play06:43

implementamos desde el punto de vista

play06:47

el hardware

play06:48

son robustas frente a fallos es decir

play06:51

que en un momento determinado en un

play06:52

percepción multicapa si nos falla alguna

play06:55

de las neuronas

play06:58

normalmente las salidas siguen siendo

play07:01

aceptables y tienen gran capacidad de

play07:05

generalización es decir nos permiten

play07:08

extrapolar su conocimiento

play07:12

a otros elementos en los cuales estamos

play07:15

no han sido entrenados y nos pueden dar

play07:19

una solución y generalizar esa solución

play07:21

para una entrada determinada que no ha

play07:23

visto previamente tienen naturaleza

play07:26

adaptativa y ahora veremos cómo se

play07:29

implementa a través del algoritmo de

play07:31

retro propagación el back tracking lo

play07:33

que vamos a hacer es ese ese algoritmo

play07:35

en el cual vamos a ir realimentando con

play07:40

las salidas hasta que al final

play07:41

consigamos

play07:44

entrenar en lo que es la red neuronal

play07:48

bueno vamos a ver la base de ese

play07:50

perceptor como he dicho fue desarrollado

play07:54

por rosenblatt y lo que intenta es

play07:57

dividir clasificar a partir del

play08:00

aprendizaje de patrones sencillos

play08:03

puede haber una función de adaptación a

play08:05

esa función que lo que hace es adaptar

play08:08

el sumatorio de las entradas por los

play08:11

pesos más ese término independiente

play08:15

podría ser una función de tipo sismo y

play08:17

dar una función de tipo tangencial y se

play08:20

demuestra mediante la aplicación del

play08:23

perceptor simple es decir esa neurona

play08:26

que hemos estado viendo y su aplicación

play08:27

pues que tiene ese par habilidad lineal

play08:30

es decir si imaginemos la función porque

play08:33

tenemos expresada a por entradas y

play08:36

salidas aquí a la derecha en el cual y

play08:39

representadas aquí a la izquierda pues

play08:41

podríamos ver que es capaz de buscar esa

play08:44

separa bilidad es decir decirnos que es

play08:47

está en un extremo y que se está en otro

play08:50

esto en realidad lo que está buscando es

play08:52

un clasificador estos pertenecen a esta

play08:55

parte de este conjunto esto pertenece a

play08:58

este otro conjunto lo podría hacer

play09:00

de manera automática una vez que

play09:02

tuviéramos entrenado el perceptor

play09:05

bien bueno pues a la crítica de

play09:10

percepción está en esa en esa función

play09:14

x horno si intentamos el percepción

play09:17

entrenarlo para que solucione la función

play09:19

x ahora resulta que nos encontramos esa

play09:23

función x es representada en el plano

play09:27

enlaces así ordenadas pues tendríamos

play09:28

los unos y los ceros aquí y ahora como

play09:31

separamos pues cualquier función lineal

play09:35

que intente separar los ceros y los 1

play09:37

veremos que es imposible pues es la

play09:39

crítica fundamental a que el perceptor

play09:42

nos soluciona

play09:45

bien la solución ya la dio paul verbos y

play09:48

es el perceptor multicapa en el cual

play09:51

podremos hacer una separada de esas

play09:54

regiones que son convexas mediante no la

play09:57

utilización de un solo percepción sino

play10:00

la utilización de un perfecto que es

play10:02

multicapa podemos tener varias neuronas

play10:04

en varias capas y entre ellas que estén

play10:08

interconectadas con lo cual podríamos

play10:10

conseguir justo la salida después de lo

play10:14

que es el entrenamiento de la red

play10:15

neuronal

play10:19

para entrenar esa red neuronal

play10:20

necesitamos utilizar el algoritmo de

play10:22

retro propagación ese algoritmo de retro

play10:26

propagación lo que va a hacer es

play10:28

modificar los pesos iniciales en los

play10:32

cuales vamos a sacar lo que es la salida

play10:36

de esa neurona modificarla dependiendo

play10:39

del resultado que tengamos en ese

play10:41

entrenamiento es decir ese peso que

play10:45

vamos a obtener después de ese

play10:47

entrenamiento es función del peso

play10:50

anterior y es función de la salida que

play10:54

estamos esperando viendo con la

play10:57

diferencia que hemos obtenido la salida

play11:00

esperada menos la diferencia de la

play11:02

salida obtenida de manera que intentemos

play11:05

corregir este error mediante la

play11:09

modificación del peso mediante esa

play11:12

modificación del peso

play11:15

bien de una manera gráfica lo que vamos

play11:17

a hacer en ese algoritmo de retro

play11:19

propagación es vamos a inicialmente

play11:23

definir su topología cuál es su

play11:26

arquitectura tendrá unas neuronas que

play11:29

son las neuronas de entrada tendrá unas

play11:32

neuronas de la capa intermedia tendrá

play11:34

neuronas en la capa de salida y estará

play11:37

funcionando el algoritmo de retro

play11:39

propagación de manera que lo que vamos a

play11:41

hacer es a partir de unas entradas esas

play11:44

entradas van a alimentar a otras

play11:47

neuronas multiplicadas por sus pesos

play11:50

correspondientes nuevamente se

play11:53

modificarían por los pesos y por sus

play11:55

términos independientes hasta obtener la

play11:58

función de salida esa función de salida

play12:01

se va a comparar con la salida esperada

play12:05

y lo que vamos a hacer es modificar por

play12:09

retro propagación los valores de los

play12:11

pesos

play12:13

el próximo patrón así sucesivamente

play12:15

hasta que al final consigamos que dentro

play12:19

del rango que hayamos definido pues

play12:22

tengamos por comparativa la salida

play12:25

esperada con la salida que hemos

play12:26

proporcionado esté ya dentro del rango

play12:30

aceptable y estemos viendo que para

play12:32

todos los patrones en los cuales estamos

play12:35

entrenando la red pues ya obtenemos la

play12:38

solución esperada es decir consiste en

play12:41

elegir una serie de patrones de entrada

play12:44

una serie de patrones de salida y

play12:46

entrenar la red para que dados esos

play12:50

patrones nos dé la salida adecuada

play12:56

como diseñamos esa esa red neuronal

play13:00

inicialmente definimos su topología su

play13:03

arquitectura en la cual pues vemos el

play13:07

número de capas el número de neuronas

play13:09

que va a tener y elegimos cuáles son los

play13:13

patrones y las salidas para un problema

play13:16

concreto que conocemos que a través de

play13:19

un conjunto de patrones vamos a obtener

play13:21

una salida determinada pues escogemos

play13:25

esa elección de patrones hay que tener

play13:28

en cuenta que en esa elección vamos a

play13:31

dejar una serie de patrones para el

play13:34

entrenamiento y una serie de patrones

play13:36

para la validación las fase de

play13:38

validación lo que nos va a permitir es

play13:40

comprobar que la red está funcionando

play13:43

adecuadamente con patrones que no ha

play13:46

sido entrenado previamente con ella es

play13:49

decir que esos patrones no han sido

play13:51

utilizados en la fase de entrenamiento y

play13:54

lo que nos va a hacer es validar ese

play13:58

funcionamiento óptimo de la red

play14:00

elementos que nunca ha visto por eso las

play14:04

redes se dice que está aprendiendo es

play14:07

uno de los paradigmas de aprendizaje

play14:09

aprende con unos patrones patrones y es

play14:12

capaz de extrapolar y dar una solución

play14:15

adecuada con otros que no ha conocido

play14:16

previamente bueno pues una vez que hemos

play14:20

elegido los patrones empezamos elegimos

play14:23

el algoritmo de entrenamiento que son

play14:25

múltiples y pasamos a la fase de

play14:27

entrenamiento esa fase de entrenamiento

play14:29

pues con el algoritmo de retro

play14:33

propagación hasta que consigamos

play14:35

entrenar la red adecuadamente una vez

play14:37

que ya tenemos entrenada la red pues

play14:39

entraríamos en la fase de validación en

play14:42

cualquiera de estos escalones del diseño

play14:46

del del perceptor multicapa o de la red

play14:49

neuronal nos podemos encontrar que pues

play14:53

resulta que tras la fase de

play14:55

entrenamiento pues no llegamos a una

play14:57

solución adecuada y necesitamos

play14:59

modificar el algoritmo de entrenamiento

play15:01

o bien necesitamos modificar la elección

play15:04

de patrones porque son pocos o son

play15:06

muchos no solo

play15:07

adecuados tenemos que redefinir la

play15:10

arquitectura puesto que no estamos

play15:12

consiguiendo soluciones con un número de

play15:14

capas o con un número de neuronas tanto

play15:18

en la fase entrenamiento como en la fase

play15:19

de validación una vez que ya tengamos

play15:21

aprobada la fase de validación

play15:23

pasaríamos directamente a la explotación

play15:25

de la red y posiblemente a su

play15:27

implementación desde el punto de vista

play15:29

hardware si fuera necesario es decir

play15:31

hacer el microchip adecuado para el

play15:34

dispositivo en el cual queremos que

play15:36

funcione o bien dejarla como sistema

play15:38

software que nos sirva dentro de un

play15:40

sistema de apoyo a la toma de decisiones

play15:44

bueno como para finalizar incidir en que

play15:48

son elementos fundamentales para lo que

play15:51

va a ser la clasificación de patrones

play15:54

que a partir de algo que ya conoce y

play15:57

entrenamos la red es capaz de extrapolar

play16:01

dentro de un dominio muy concreto que se

play16:05

aplican especialmente cuando las

play16:07

variables en las cuales vamos a trabajar

play16:10

son variables de tipo heterogéneo es

play16:13

decir imagínense ustedes qué

play16:16

una aplicación puede ser para

play16:19

a conceder un crédito en banca y para la

play16:23

concesión de la banca pues el banco

play16:25

utiliza variables como por ejemplo puede

play16:28

ser la edad o como puede ser el salario

play16:30

o como por ejemplo puede ser el tener o

play16:34

haber tenido otro tipo de créditos

play16:36

anteriores si se hagan ustedes cuenta

play16:39

las variables de entrada son

play16:41

absolutamente heterogéneas qué tiene que

play16:43

ver la edad con el número de hipotecas

play16:47

que haya tenido uno antes o con el

play16:49

salario pues ese es a tratamiento en ese

play16:54

número de patrones de tipo heterogéneo

play16:57

lo facilita la red neuronal también

play17:01

resuelve bien en problemas en los cuales

play17:04

esos valores son de carácter continuo

play17:06

porque una clasificación por ejemplo en

play17:09

la cual estuviéramos en un entorno

play17:10

discreto pequeño no necesitamos una red

play17:13

neuronal podemos utilizar una tabla si

play17:16

esto ocurre entonces la salida es tal

play17:18

otra para este valor conceda se no

play17:21

conceda se pero claro cuando ya estamos

play17:24

hablando de valores

play17:25

continuo como puede ser tiempo que

play17:28

estamos viviendo en valores continuos

play17:31

como pueden ser distancias que estamos

play17:33

viviendo en valores continuo como puede

play17:35

ser valores económicos en valores

play17:37

continuos pues la red neuronal es idónea

play17:41

para poder aplicarlo

play17:43

necesitamos un conocimiento de gran

play17:46

número de patrones para poder entrenar y

play17:48

poder tener una respuesta y esa

play17:51

interpolación pues va a tener su

play17:54

respuesta dentro de un dominio concreto

play17:56

no para la red no resuelve cualquier

play17:58

dominio si no está siendo entrenada para

play18:00

ese dominio concreto no nos vale para

play18:02

todo tipo de clasificadores y nos vale

play18:05

para hacer predicciones podríamos tener

play18:07

como valores de entrada algo que ha

play18:10

ocurrido en el pasado como valores de

play18:12

salida lo que está ocurriendo en el

play18:15

presente de manera que en un momento

play18:17

determinado cuando metamos como valores

play18:19

de entrada lo que tenemos en el presente

play18:21

podamos intentar predecir el futuro

play18:24

por eso son de aplicación también por

play18:26

ejemplo en temas de bolsa los cuales

play18:28

intentamos ver cómo evolucionan

play18:30

determinados valores a través de su

play18:32

tratamiento con redes neuronales bueno

play18:35

pues nada más agradecerle eso a su

play18:37

atención y asistencia a esta clase

play18:38

magistral y espero verles en próximas

play18:41

clases magistrales muchísimas gracias

Rate This

5.0 / 5 (0 votes)

Related Tags
Redes NeuronalesAprendizaje AutomáticoTomada de DecisionesPerceptrón MulticapaAlgoritmo RetropropagaciónClasificación de PatronesNeuronas CerebroEmulación CerebralPesos y FuncionesAjuste por PesosGeneralizaciónTecnología de IA
Do you need a summary in English?