Redes Neuronales RECURRENTES (RNN) explicación

Atecnea
15 Apr 202114:59

Summary

TLDREl video ofrece una introducción a las redes neuronales recurrentes, destacando su importancia en el avance de la inteligencia artificial. Estas redes son esenciales para manejar secuencias de datos y predecir información temporal, como palabras en una oración. Se discuten los desafíos en la predicción de secuencias con redes neuronales tradicionales y cómo las redes recurrentes resuelven estos problemas a través de bucles temporales que permiten mantener un conocimiento del contexto. El video también explora las diversas aplicaciones de estas redes, incluyendo el procesamiento del lenguaje natural, la predicción de texto y la traducción de idiomas. Además, se menciona el problema de las redes neuronales recurrentes de dar mayor peso a la información más reciente y cómo se aborda con la implementación de una memoria a corto plazo llamada STM. Finalmente, el video invita a los espectadores a suscribirse para aprender más sobre la inteligencia artificial.

Takeaways

  • 🧠 Las redes neuronales recurrentes (RNN) son una tecnología clave en el avance de la inteligencia artificial, permitiendo el análisis de secuencias de datos y la predicción de eventos futuros.
  • 📈 Las RNN son especialmente útiles en el procesamiento del lenguaje natural, donde pueden predecir palabras o entender el contexto de una oración.
  • 🔄 Una característica distintiva de las RNN es su capacidad de realimentación, lo que les permite recordar y procesar información de estados anteriores en una secuencia.
  • 📚 El lóbulo temporal del cerebro, responsable de la memoria a largo plazo, es un comportamiento que las RNN intentan imitar para retener información importante.
  • 🔗 Las RNN están diseñadas para manejar relaciones temporales en los datos, lo que las hace ideales para tareas que involucran secuencias, como la predicción de texto o la síntesis de habla.
  • 💡 Existen cuatro arquitecturas principales de RNN: one-to-many, many-to-one, many-to-many y many-to-many sincronizada, cada una con aplicaciones específicas en procesamiento del lenguaje natural, traducción y análisis de secuencias.
  • 🔍 Una desventaja de las RNN es el problema del 'efecto de desvanecimiento', donde la información más reciente tiene un peso más grande en la predicción que la información pasada.
  • 📱 Las aplicaciones de las RNN son variadas y comunes en la tecnología actual, desde la auto-completación de texto en aplicaciones de mensajería hasta la generación de contenido creativo.
  • 🧐 Las RNN pueden entender y predecir sin importar el orden de las palabras, lo que es crucial para la comprensión del lenguaje humano y la generación de respuestas coherentes.
  • 🔄 El 'bucle temporal' es un componente fundamental de las RNN, permitiéndoles procesar la información de manera iterativa y mantener un estado interno que representa el contexto.
  • 🔧 El problema del 'efecto de desvanecimiento' puede ser mitigado mediante técnicas como el uso de memorias a corto plazo (STM), que mejoran la capacidad de las RNN para recordar información de largo plazo.

Q & A

  • ¿Qué es una red neuronal recurrente?

    -Una red neuronal recurrente es un tipo de red neuronal que utiliza un bucle temporal para recordar información de secuencias pasadas, lo que permite que el modelo tenga una memoria a corto plazo y pueda predecir o clasificar en función de la relación temporal de los datos.

  • ¿Por qué son importantes las redes neuronales recurrentes en el procesamiento del lenguaje natural?

    -Las redes neuronales recurrentes son importantes en el procesamiento del lenguaje natural porque pueden captar la relación temporal entre las palabras en una secuencia, lo que es crucial para tareas como la predicción de texto, la generación de diálogos y la traducción.

  • ¿Cuáles son los problemas que presenta una red neuronal tradicional al manejar secuencias de datos?

    -Una red neuronal tradicional puede tener problemas para manejar secuencias de datos debido a que no puede recordar el contexto de manera efectiva, requiere un número fijo de entradas y no puede manejar fácilmente el cambio en el orden o la longitud de las secuencias.

  • ¿Qué es la arquitectura one-to-many en el contexto de las redes neuronales recurrentes?

    -La arquitectura one-to-many implica una única entrada y múltiples salidas. Se utiliza en tareas donde se requiere generar múltiples respuestas a partir de una sola entrada, como en la generación de texto a partir de una idea o tópico dado.

  • ¿Cómo funcionan las redes neuronales recurrentes para predecir la siguiente palabra en una oración?

    -Las redes neuronales recurrentes procesan una oración palabra por palabra, manteniendo un estado interno que se actualiza con información de las palabras anteriores. Este estado interno permite que la red prediga la siguiente palabra en la secuencia teniendo en cuenta el contexto.

  • ¿Qué es la arquitectura many-to-one y cuáles son sus aplicaciones comunes?

    -La arquitectura many-to-one implica múltiples entradas y una única salida. Una de sus aplicaciones comunes es la predicción de la siguiente palabra en una secuencia, como en los sistemas de autocompletado de texto o en la generación de sentimientos a partir de un texto.

  • ¿Cómo resuelven las redes neuronales recurrentes el problema de la longitud variable de las secuencias?

    -Las redes neuronales recurrentes resuelven el problema de la longitud variable de las secuencias al utilizar una estructura de bucle temporal que les permite procesar secuencias de diferentes longitudes y still mantener el contexto necesario para la predicción o clasificación.

  • ¿Qué es la arquitectura many-to-many y cuáles son sus usos típicos?

    -La arquitectura many-to-many tiene múltiples entradas y múltiples salidas. Un uso típico es en traductores de idiomas, donde se requiere que la secuencia de entrada en un idioma se traduzca en una secuencia de salida en otro idioma manteniendo el contexto y el sentido original.

  • ¿Cuál es el problema que las redes neuronales recurrentes pueden presentar al manejar información de secuencias largas?

    -Un problema que pueden presentar las redes neuronales recurrentes es el degradado del gradiente, donde la información de las palabras que están más lejanas en la secuencia tienen menos peso en la predicción, lo que puede llevar a errores en el modelo.

  • ¿Cómo se resuelve el problema del degradado del gradiente en las redes neuronales recurrentes?

    -El problema del degradado del gradiente se resuelve a menudo utilizando técnicas como el uso de una memoria a corto plazo, como el STM (State-Tied Memory), que mejora la capacidad de las redes para recordar información de pasos anteriores en la secuencia.

  • ¿Qué es la arquitectura many-to-many synchronized y en qué se utiliza?

    -La arquitectura many-to-many synchronized mantiene el mismo número de entradas y salidas y requiere que estén sincronizadas. Se utiliza en tareas que involucran secuencias temporales, como la clasificación de frames en un vídeo o el análisis de series temporales.

  • ¿Por qué son las redes neuronales convolucionales adecuadas para captar relaciones espaciales en los datos?

    -Las redes neuronales convolucionales son adecuadas para captar relaciones espaciales debido a su estructura que permite identificar patrones locales en los datos de entrada, lo que es esencial para tareas de procesamiento de imágenes o de señales donde la posición de los elementos es importante.

Outlines

00:00

🤖 Introducción a las Redes Neuronales Recurrentes

El primer párrafo introduce el tema de las Redes Neuronales Recurrentes (RNR) y su importancia en los avances recientes en el campo de la inteligencia artificial. Se menciona que estas redes son utilizadas en aplicaciones diarias, como en computadoras y teléfonos móviles. Se destaca la especialidad de las RNR para manejar relaciones temporales en secuencias de datos, lo que las diferencia de otras redes neuronales. Además, se plantea el desafío de predecir palabras en función de una secuencia de palabras previas y cómo las RNR pueden resolver este problema, a diferencia de las redes neuronales tradicionales.

05:02

🔄 Ventajas y Aplicaciones de las Redes Neuronales Recurrentes

Este párrafo profundiza en las capacidades de las RNR, destacando su habilidad para entender y procesar la información temporal, lo que es esencial en el procesamiento del lenguaje natural. Se discute cómo las RNR son útiles en tareas que involucran secuencias, como la predicción de texto, y cómo estas redes son capaces de recordar y relacionar información de una secuencia para hacer predicciones o clasificaciones. Además, se exploran diferentes arquitecturas de RNR, como One-to-Many, Many-to-One, Many-to-Many y Many-to-Many Sincronizadas, y se dan ejemplos de sus aplicaciones, incluyendo chatbots, generadores de texto, descripción de imágenes y traductores.

10:02

🔍 Desafíos y Soluciones en Redes Neuronales Recurrentes

El tercer párrafo aborda uno de los principales desafíos de las RNR, que es el problema del 'efecto de desvanecimiento', donde la información más reciente tiene un peso mayor en la predicción, lo que puede llevar a errores. Se describe cómo las RNR dan más importancia a las palabras más recientes en una secuencia y cómo esto puede afectar la precisión de las predicciones. Sin embargo, se menciona que este problema está siendo abordado mediante el uso de una 'memoria a corto plazo' llamada STM (Short-Term Memory), que se integrará en las redes para mejorar su rendimiento. Se cierra el párrafo animando a los espectadores a suscribirse al canal si están interesados en la inteligencia artificial.

Mindmap

Keywords

💡Redes neuronales recurrentes

Las redes neuronales recurrentes son un tipo de modelo de aprendizaje profundo que se utilizan para procesar secuencias de datos. Estas redes se caracterizan por tener una capacidad de memoria que les permite recordar información de una secuencia anterior. En el video, se menciona que estas redes son fundamentales para el procesamiento del lenguaje natural y la predicción de texto, y son la base para la creación de aplicaciones como los chatbots y los sistemas de traducción automática.

💡Procesamiento del lenguaje natural

El procesamiento del lenguaje natural (PLN) es la habilidad de las máquinas para entender y generar lenguaje humano. En el contexto del video, el PLN es esencial para las redes neuronales recurrentes, ya que estas redes se utilizan para analizar y predecir el lenguaje en secuencias, como en la generación de texto o la traducción de idiomas.

💡Conexión temporal

La conexión temporal es la habilidad de una red neuronal para recordar y aprovechar la información de una secuencia temporal para tomar decisiones o realizar predicciones. En el video, se destaca que las redes neuronales recurrentes son capaces de manejar la relación temporal en los datos, lo que es crucial para la predicción de la siguiente palabra en una oración o la comprensión del contexto en una conversación.

💡Bucle temporal

Un bucle temporal es un mecanismo en redes neuronales recurrentes donde la salida de una neurona se utiliza como entrada para la misma neurona en una iteración posterior. Este bucle permite que la neurona tenga una memoria de su estado anterior, lo que es esencial para el manejo de secuencias de datos. En el video, se explica que este bucle temporal es una característica clave que permite a las redes neuronales recurrentes recordar información a lo largo de una secuencia.

💡STM (Memoria a corto plazo)

La memoria a corto plazo, a menudo referida como STM, es una parte del sistema de memoria que almacena información por un corto período de tiempo. En el video, se menciona el STM como una solución para el problema de que las redes neuronales recurrentes dan más peso a la información más reciente, lo que puede llevar a errores en la predicción. La incorporación de un modelo de memoria a corto plazo ayuda a equilibrar el peso de la información a lo largo de la secuencia.

💡Arquitecturas de redes neuronales

El video describe cuatro arquitecturas principales de redes neuronales recurrentes: one-to-many, many-to-one, many-to-many y many-to-many sincronizada. Cada arquitectura se adapta a diferentes tipos de tareas, como la generación de texto, la predicción de la siguiente palabra en una oración, la traducción de idiomas y la clasificación de secuencias en un vídeo. Estas arquitecturas son fundamentales para la diversidad de aplicaciones que las redes neuronales recurrentes pueden abarcar.

💡Chatbots

Los chatbots son programas de computadora diseñados para simular una conversación con un usuario humano a través de texto o voz. En el video, se menciona que las redes neuronales recurrentes son la base para la creación de chatbots, ya que estas redes pueden procesar y entender el lenguaje natural, lo que permite a los chatbots interactuar de manera natural con los usuarios.

💡Predicción de texto

La predicción de texto es la capacidad de un sistema de anticipar y sugerir la siguiente palabra o frase en una secuencia de texto. Este concepto es fundamental en aplicaciones como los teclados inteligentes de los teléfonos móviles y los sistemas de redacción auxiliar. En el video, se destaca cómo las redes neuronales recurrentes son esenciales para la predicción de texto debido a su capacidad para manejar la relación temporal en las secuencias de palabras.

💡Traducción automática

La traducción automática es la capacidad de un sistema de convertir texto de un idioma a otro de manera automática. En el video, se discute cómo las redes neuronales recurrentes pueden ser utilizadas para la traducción automática, ya que son capaces de mantener el contexto y el sentido de las oraciones al traducir de un idioma a otro.

💡Clasificación de secuencias

La clasificación de secuencias es la tarea de asignar una etiqueta o categoría a una secuencia de elementos. En el video, se menciona que las redes neuronales recurrentes pueden clasificar secuencias de imágenes dentro de un vídeo, lo que es útil para la detección de eventos o la identificación de contenido en una secuencia temporal.

💡Inteligencia artificial

La inteligencia artificial (IA) es la rama de la informática que se dedica a la creación de sistemas capaces de realizar tareas que generalmente requieren inteligencia humana. En el video, la IA es el tema central, ya que las redes neuronales recurrentes son una tecnología clave en el campo de la IA, especialmente en el manejo del lenguaje y la generación de contenido.

Highlights

Redes neuronales recurrentes han permitido grandes avances en Deep Learning.

Las redes neuronales convolucionales capturan la relación espacial entre entradas.

Las redes neuronales tradicionales no son eficientes para predecir secuencias de datos temporales.

Las redes neuronales recurrentes (RNN) son especiales y se utilizan en aplicaciones diarias.

Las RNNs son capaces de manejar secuencias de diferentes longitudes.

Las RNNs imitan el comportamiento del lóbulo temporal humano, responsable de la memoria a largo plazo.

Las RNNs se realimentan n veces para mantener un conocimiento de la secuencia.

Las redes neuronales recurrentes son fundamentales en el procesamiento del lenguaje natural.

Existen cuatro arquitecturas principales de RNNs: one-to-many, many-to-one, many-to-many y many-to-many sincronizada.

Las arquitecturas one-to-many se utilizan para generar texto a partir de una entrada.

Las arquitecturas many-to-one son útiles para la predicción de la siguiente palabra en una secuencia.

Las arquitecturas many-to-many se aplican comúnmente en traductores de idiomas.

Las arquitecturas many-to-many sincronizadas son ideales para la clasificación de secuencias temporales, como en videos.

Las RNNs pueden tener problemas al dar mayor peso a la información más reciente.

El STM (Short-Term Memory) es una solución para el problema de la ponderación excesiva de la información reciente en las RNNs.

Las redes neuronales recurrentes son clave en aplicaciones como chatbots, predicción de texto y generación de guiones.

Las RNNs también se utilizan en la descripción de imágenes y la subtitulación.

Las predicciones de emociones en textos son posibles con las arquitecturas many-to-one de RNNs.

Transcripts

play00:00

hola que tal hoy vamos a ver una red

play00:02

neuronal que ha permitido que el deep le

play00:05

tenga grandes avances en los últimos

play00:07

tiempos y que después de este vídeo te

play00:10

darás cuenta que actualmente la tienes

play00:13

en diversas aplicaciones tanto en tu

play00:16

computadora como en tu teléfono celular

play00:18

y es una red bastante especial que si no

play00:22

la conoces aún te invito a que te quedes

play00:25

en este vídeo vamos a ver las redes

play00:27

neuronales recurrentes

play00:29

[Música]

play00:35

visto lo poderosas que son las redes

play00:37

neuronales convolución al es para poder

play00:40

captar la relación espacial que existen

play00:43

entre las entradas de nuestra red

play00:46

neuronal y poder dar una predicción o

play00:49

una clasificación en función de esta

play00:51

relación espacial sin embargo qué pasa

play00:55

con la relación temporal con la relación

play00:58

que existe en una secuencia de datos por

play01:01

así decirlo si yo quisiera predecir la

play01:03

palabra que voy a decir en función de

play01:06

una cierta connotación de palabras o una

play01:09

cierta connotación de sentencia que

play01:12

estoy diciendo qué pasaría si yo utilizo

play01:15

una red neuronal por ejemplo si yo

play01:17

quisiera predecir cuál es la palabra que

play01:21

continúa y que completa la siguiente

play01:24

secuencia

play01:25

si te gusta la inteligencia artificial

play01:27

suscríbete a mí si seguramente tú ya

play01:31

sabes cuál es la palabra que quiero

play01:34

decir canal suscríbete a mi canal sin

play01:38

embargo para una red neuronal

play01:40

tradicional predecir esta palabra no

play01:44

necesariamente va a ser una tarea

play01:47

sencilla imaginemos que tenemos una red

play01:50

neuronal tradicional para hacer esta

play01:51

predicción primero que tendríamos que

play01:53

hacer es conocer el número de palabras

play01:57

que tiene mi sentencia en este caso

play02:00

vamos a contar las sería si te gusta la

play02:05

inteligencia artificial suscríbete a mí

play02:10

tendríamos 9 palabras es decir yo

play02:13

tendría que hacer una red neuronal con

play02:16

nuevas neuronas en la capa de entrada

play02:18

colocando en cada entrada una de las

play02:20

palabras y esta red neuronal tendría que

play02:23

pasar por todas las capas ocultas y al

play02:27

final saber

play02:28

que a la salida la palabra predicha

play02:31

tiene que ser canal pero ahora qué pasa

play02:34

si yo quiero utilizar esta misma red

play02:36

neuronal para predecir cualquier palabra

play02:39

después de cualquier oración o cualquier

play02:42

sentencia que yo diga es decir yo he

play02:45

entrenado ámbito neuronal para que sepa

play02:47

que cuando yo digo si te gusta la

play02:50

inteligencia artificial suscríbete a mi

play02:52

sepa que la palabra que continúa es

play02:55

canal qué pasa si yo digo esta frase de

play02:59

una forma diferente si solamente digo

play03:01

suscríbete a mí estoy teniendo un menor

play03:04

número de letras o también puedo decir

play03:07

algo mucho más largo como por ejemplo si

play03:11

te gusta la inteligencia artificial el

play03:12

machine la net y el the planet

play03:14

suscríbete a mi es entonces estamos

play03:17

observando que incluso para una misma

play03:20

predicción

play03:21

el tamaño de la entrada va a ser

play03:23

completamente diferente entonces va a

play03:26

ser imposible poder saber el número

play03:30

exacto de palabras que va a tener la

play03:32

oración de una persona o la sentencia de

play03:35

una persona para poder predecir la

play03:37

palabra final una forma que se puede con

play03:40

la cual se podría solucionar esto si

play03:41

utilizamos una red neuronal normal sería

play03:45

poner una gran cantidad de neuronas en

play03:48

la capa de entrada y que solamente estén

play03:52

activadas las neuronas cuando tienen una

play03:55

palabra en ellas y en el resto de

play03:57

neuronas que estén vacías indican que

play04:00

justamente no tenemos una palabra en esa

play04:03

entrada sin embargo pues esto no es nada

play04:06

eficiente porque cuando sabes o cuando

play04:09

puedes asumir que ya tienes el número de

play04:11

neuronas suficientes para predecir

play04:14

cualquier posible combinación de la

play04:16

sentencia que yo haga bastante

play04:19

complicado es saber además si

play04:21

simplemente ponemos muchísimas neuronas

play04:23

a la entrada estaríamos generando un

play04:25

costo computacional en nuestra

play04:27

computadoras que probablemente no puedan

play04:30

ser funcional ni pueda ser realista aquí

play04:34

tenemos un primer problema el segundo

play04:37

problema es que yo quiero que sin

play04:41

importar el orden de mis palabras sea

play04:44

capaz el algoritmo de predecir la

play04:46

palabra que continúa es decir yo he

play04:50

estado dando el ejemplo de la sentencia

play04:52

si te gusta la inteligencia artificial

play04:54

suscríbete a mí pero qué pasa si lo digo

play04:57

de otra forma por ejemplo si eres un

play04:59

apasionado de la inteligencia artificial

play05:01

dale click y suscríbete a mí aquí yo

play05:05

estoy usando incluso otras letras

play05:07

independientemente de que el tamaño de

play05:09

la oración ha cambiado he utilizado

play05:11

palabras diferentes por ejemplo eres un

play05:14

apasionado en vez de si te gusta y

play05:17

entonces estoy cambiando la sentencia

play05:21

pero el contexto de mi sentencia es el

play05:24

mismo y yo quiero que la red neuronal

play05:27

sea capaz de entender

play05:30

ese contexto y saber que el contexto es

play05:34

el mismo ya sea que lo diga de una forma

play05:37

o que lo diga de la otra una red

play05:40

neuronal normal las redes neuronales

play05:42

tradicionales que usamos no será capaz

play05:45

de poder entender que una secuencia es

play05:50

igual al contexto de la otra secuencia

play05:54

entonces para poder solucionar estos dos

play05:57

grandes problemas que tenemos surge lo

play06:00

que se conoce como redes neuronales

play06:02

recurrentes todos los algoritmos de

play06:05

machine learning están basados en

play06:07

intentar imitar alguna parte del

play06:10

comportamiento del ser humano podríamos

play06:12

asumir entonces que las redes neuronales

play06:14

recurrentes intentan imitar el

play06:17

comportamiento del lóbulo temporal que

play06:19

tenemos en el cerebro el cual se encarga

play06:21

de que los humanos tengamos la capacidad

play06:24

de poder tener una memoria a largo plazo

play06:27

es decir el lóbulo temporal se va a

play06:29

encargar de que la información

play06:31

importante que hemos adquirido en un día

play06:33

no se pierda con el paso del tiempo

play06:36

en ese sentido las redes neuronales

play06:38

recurrentes son algoritmos de deep

play06:41

learning que se realimentan n veces para

play06:46

poder tener un conocimiento de lo que ha

play06:48

pasado a lo largo de cada secuencia es

play06:51

decir la entrada que se le da a una

play06:55

neurona recurrente va a generar una

play06:58

salida pero esta salida va a volver a

play07:00

realimentar la entrada de esta misma

play07:02

neurona es decir la salida de una

play07:04

neurona recurrente se va a devolver a la

play07:07

entrada y se va a repetir este proceso

play07:10

una cierta cantidad de veces a lo cual

play07:12

se le va a conocer como bucle temporal

play07:14

estas características de la red neuronal

play07:17

recurrente es lo que ayuda a que

play07:20

actualmente se pueda utilizar en

play07:22

innumerables aplicaciones uno de los

play07:24

campos en los que más se suele utilizar

play07:26

es en el procesamiento del lenguaje

play07:28

natural y esto nos abre las

play07:31

posibilidades a grandes aplicaciones

play07:33

desde lo que se conoce como chat box

play07:36

predicción de texto generar todo un

play07:38

guión a partir de una sola palabra

play07:41

con todo esto es importante decir que

play07:43

vamos a tener cuatro tipos de

play07:45

arquitecturas diferentes que se pueden

play07:47

formar utilizando redes neuronales

play07:49

recurrentes la primera se llama one to

play07:52

man y que significa que tenemos una

play07:55

entrada y muchas salidas aplicaciones de

play07:58

esto pueden ser muchísimas una

play08:00

aplicación muy interesante de esto son

play08:03

las redes neuronales a las cual solemos

play08:05

darle una clasificación y a partir de

play08:08

eso nos puede generar todo un texto es

play08:11

decir por ejemplo podemos decirle darle

play08:13

como entrada ciencia-ficción

play08:15

y a la salida nos genera todo un texto

play08:17

en donde nos puede estar contando una

play08:20

historia que sea acerca de la ciencia

play08:23

ficción otra aplicación muy común de one

play08:26

two man y es poder describir o

play08:29

subtitular una imagen es decir hemos

play08:33

visto que con las redes neuronales

play08:35

convolución a les podemos clasificar una

play08:37

imagen en la que podemos observar que si

play08:41

metemos

play08:43

la imagen de un perro a la salida de la

play08:47

red neuronal convolución al nos puede

play08:48

dar la clasificación y decir la etiqueta

play08:51

de que es un perro sin embargo con una

play08:54

red neuronal recurrente no solo podría

play08:57

estar nos diciendo que es un perro sino

play08:59

además de esto a la entrada podría tener

play09:02

justamente la imagen pero a la salida

play09:03

podría tener toda la descripción de lo

play09:06

que está haciendo el perro por ejemplo

play09:08

el perro color marrón jugando con una

play09:12

pelota entonces esto sería otra posible

play09:15

aplicación de one to man y la segunda

play09:18

arquitectura importante de las redes

play09:20

neuronales recurrentes es manny to want

play09:23

en este caso significa que tenemos

play09:25

muchas entradas y una sola salida

play09:28

ejemplos de esto hay varios uno puede

play09:31

ser justamente el predecir la siguiente

play09:34

palabra de la sentencia como el ejemplo

play09:37

que estábamos hablando inicialmente si

play09:39

te gusta la inteligencia artificial

play09:41

suscríbete a mí y la predicción sería

play09:44

canal estamos utilizando una

play09:47

a partir de toda una sentencia que

play09:50

estamos haciendo esto se suele utilizar

play09:53

muchísimo ya cuando ustedes intentan

play09:56

escribir un email a través de gmail por

play09:59

ejemplo justamente es empiezas a

play10:02

escribir y te predice lo que puede ser

play10:05

que quieras escribir a continuación lo

play10:08

mismo pasa con tu teléfono celular con

play10:10

tu teléfono móvil en el cual estás

play10:12

escribiendo un mensaje y te producto te

play10:14

predice la posible palabra que completa

play10:18

la sentencia que estás escribiendo con

play10:21

anterioridad esto se hace con redes

play10:23

neuronales recurrentes utilizando

play10:25

arquitecturas many to one otra

play10:28

aplicación de magnitud one es una

play10:31

predicción de sentimientos es decir

play10:34

puedo generar todo un texto y este texto

play10:37

va a ser la entrada de mi red neuronal

play10:41

recurrente y a la salida puede generar

play10:43

me la predicción en la cual me va a

play10:46

decir 7 si este texto refleja tristeza

play10:49

refleja alegría

play10:51

refleja entusiasmo refleja cualquier

play10:55

tipo de emoción que se les pueda ocurrir

play10:57

la tercera arquitectura importante de

play11:00

las redes neuronales recurrentes es

play11:02

magnitud manny que significa muchas

play11:05

entradas muchas salidas y cuando una de

play11:08

las aplicaciones más comunes de esta es

play11:10

los traductores es decir yo por ejemplo

play11:13

género una sentencia en en español y

play11:16

quiero traducirla al inglés yo no puedo

play11:20

ir traduciendo palabra por palabra

play11:22

porque no me va a dar el mismo sentido

play11:25

de la oración cuando nosotros buscamos

play11:28

hacer una traducción buscamos que se

play11:30

mantenga el mismo contexto de la oración

play11:33

que se mantenga el mismo sentido no que

play11:35

me vaya traduciendo palabra por palabra

play11:37

porque eso sería una mala traducción eso

play11:40

estaría mal puede ser que a lo mejor

play11:42

nuestra frase a la entrada tenga diez

play11:45

palabras si lo queremos en español pero

play11:48

lo queremos traducir al inglés ya lo

play11:50

mejor el inglés va a tener sólo siete

play11:52

palabras pero al final de cuentas lo

play11:54

importante es que el conteo

play11:55

de la sentencia sea el mismo y esto se

play11:59

suele utilizar en los traductores que

play12:01

encontramos por internet en donde te

play12:03

analiza justamente toda la entrada en el

play12:06

idioma original que le has escrito y te

play12:09

pone una sentencia en el idioma que

play12:13

buscas manteniendo el contexto de la

play12:15

sentencia original la cuarta

play12:17

arquitectura es manny to man y

play12:19

sincronizada en este caso al igual que

play12:22

la arquitectura anterior vamos a tener

play12:24

una arquitectura de muchas entradas y

play12:26

muchas salidas pero en este caso sí es

play12:28

importante que el mismo número de

play12:30

entrada sea el mismo número de salidas y

play12:32

que además estén sincronizadas entre sí

play12:35

como bien sabemos los vídeos no son más

play12:38

que una serie temporal de diversas

play12:40

imágenes que se van modificando ciertos

play12:43

elementos de esas imágenes a través del

play12:46

tiempo una de las aplicaciones que

play12:48

podemos tener es ir clasificando cada

play12:50

una de estas imágenes de una secuencia

play12:54

completa en un vídeo y poder tener la

play12:57

clasificación de cada una de éstas

play13:00

de estos bloques del vídeo bueno ya

play13:03

tenemos claras las innumerables

play13:04

aplicaciones que tenemos con las redes

play13:06

neuronales recurrentes pero hay algo que

play13:09

aún no les he dicho y esto es que las

play13:11

redes neuronales recurrentes también

play13:13

tienen un problema bastante serio y este

play13:16

problema es que a medida que se va

play13:20

realimentando cada neurona recurrente de

play13:24

la información que está recibiendo para

play13:27

la neurona va a pesar más la información

play13:30

del estado anterior que la información

play13:33

de 10 estados anteriores es decir

play13:36

regresando al ejemplo en el que teníamos

play13:38

como sentencia si te gusta la

play13:40

inteligencia artificial suscríbete a mí

play13:43

en este caso neurona recurrente elevado

play13:45

en más peso a las últimas palabras como

play13:48

a mí y suscríbete va a tener menos peso

play13:53

que a mí además de que si nos vamos cada

play13:57

vez más atrás por ejemplo si nos vamos a

play13:59

la frase artificial va a tener aún

play14:02

muchísimo más peso

play14:04

la neurona esto nos puede generar

play14:06

diversos problemas ya que si yo quisiera

play14:08

cambiar el sentido de la oración pero

play14:10

quiero que me siga prediciendo la

play14:12

palabra canal cuando diga esta sentencia

play14:15

puede que al estar dando mayor peso a

play14:19

las últimas palabras y dejando con menor

play14:23

peso a las primeras palabras puede que

play14:25

genere ciertos errores pero no se

play14:27

preocupen esto ya está más que estudiado

play14:29

y se resuelve con algo que se conoce

play14:31

como el stm que no es más que una

play14:35

memoria a corto plazo que se añade de

play14:38

personas que imita que se le añade a

play14:40

nuestra red neuronal recurrente y que

play14:43

soluciona justamente este problema pero

play14:45

eso lo vamos a ver con más detalle en

play14:47

otro vídeo así que si te gusta la

play14:49

inteligencia artificial

play14:50

no olvides suscribirte a mi canal

play14:52

[Música]

Rate This

5.0 / 5 (0 votes)

Related Tags
Redes NeuronalesInteligencia ArtificialProcesamiento del LenguajeMachine LearningDeep LearningAprendizaje AutomáticoTecnologíaInnovaciónPredicción de TextoTraducción AutomáticaMemoria a Corto Plazo
Do you need a summary in English?