El Perceptrón a detalle

Irving Vasquez
25 Oct 202229:00

Summary

TLDREl script proporciona una introducción detallada al perceptrón, una pieza clave en la construcción de redes neuronales. Se destaca la importancia del perceptrón como unidad básica para generar arquitecturas complejas y profundas en el campo de las redes neuronales. El precursor del perceptrón, Frank Rosenblatt, es mencionado por su contribución fundamental. La analogía del perceptrón con las neuronas del cerebro se explora, y se describe cómo el perceptrón utiliza pesos y una función de activación para convertir entradas en una salida binaria. El script también aborda los límites del perceptrón simple, que solo resuelve problemas lineales, y hace alusión a la capacidad de resolver problemas más complejos a través de perceptrones multicapa y redes neuronales, lo que se profundizará en futuras lecciones.

Takeaways

  • 🤖 El perceptrón es una piedra angular en la construcción de redes neuronales y actúa como la unidad básica para generar arquitecturas complejas.
  • 👨‍💼 Frank Rosenblatt fue el precursor del perceptrón, inspirado en su conocimiento previo en neurociencias y su trabajo para la Marina de Estados Unidos.
  • 🧠 La inspiración del perceptrón viene de la forma en que las neuronas funcionan, recibiendo información a través de las dendritas, procesándola en el núcleo y enviando impulsos a través del axón.
  • 📈 El perceptrón realiza una combinación lineal de entradas usando pesos y un sesgo, y luego aplica una función de activación para producir una salida.
  • ⚙️ La función de activación del perceptrón es crucial, ya que decide si se ha encontrado un patrón en las entradas, activándose o no.
  • 📉 Una función de activación común utilizada en el perceptrón es la función escalón, que produce una salida de 1 o 0 dependiendo del valor de la combinación lineal.
  • 🔢 El perceptrón mapea un conjunto de entradas a un valor de salida, que puede ser una aproximación o una predicción del comportamiento deseado.
  • 🔴🔵 El perceptrón simple tiene limitaciones y solo puede resolver problemas lineales, lo que lo hace incapaz de manejar tareas como la operación lógica XOR.
  • 🚧 A pesar de sus limitaciones, el perceptrón puede ser extendido a través de la creación de redes neuronales multicapas para resolver problemas no lineales.
  • 📚 La programación y el entrenamiento inicial del perceptrón eran manuales y complicados, lo que llevó a la búsqueda de métodos más eficientes de aprendizaje automático.
  • 🧐 Los pesos y el sesgo del perceptrón son parámetros clave que deben ser determinados para que el modelo funcione correctamente, y aunque existen múltiples combinaciones posibles, algunas son más efectivas que otras.

Q & A

  • ¿Qué es el perceptrón y por qué es importante en las redes neuronales?

    -El perceptrón es una unidad básica utilizada en las redes neuronales. Es importante porque actúa como la piedra angular o la base desde la cual se construyen las redes neuronales, pudiendo ser la unidad a partir de la cual se generan las arquitecturas y redes que pueden ser muy profundas y complejas.

  • ¿Quién fue Frank Rosenblatt y qué contribuyó a la inteligencia artificial?

    -Frank Rosenblatt fue un precursor en el campo de las redes neuronales y propuso el perceptrón. Aunque no era matemático ni computólogo por formación, su estudio de psicología y posterior posgrado en neurociencias le permitieron replicar lo que ocurre en las neuronas en un modelo matemático.

  • ¿Cómo funciona una neurona y cómo se relaciona con el funcionamiento del perceptrón?

    -Una neurona obtiene información a través de las conexiones llamadas dendritas, procesa esta información en su núcleo y transfiere un impulso de salida a través del axón hacia otras neuronas. El perceptrón, inspirado en esto, utiliza circuitos y conexiones que representan resistencias para simular este proceso de activación y transferencia de información.

  • ¿Cómo se define matemáticamente un perceptrón?

    -Un perceptrón se define como un mapeo que convierte un conjunto de entradas (un vector de características) en un valor de salida. Internamente, realiza una combinación lineal de las entradas con un conjunto de pesos y luego pasa el resultado intermedio por una función de activación para generar la salida.

  • ¿Qué es la función de activación en un perceptrón y cuál es su propósito?

    -La función de activación en un perceptrón es una función que determina si se ha encontrado un patrón en las entradas. Su propósito es establecer si se debe o no generar una salida, funcionando como una decisión de 'sí' o 'no', similar a decidir si un perro está presente en una imagen o no.

  • ¿Cómo se representa un perceptrón en términos de entradas, pesos y sesgo?

    -Un perceptrón se representa con un vector de entradas (x1, x2, ..., xn), un vector de pesos (W1, W2, ..., Wn) y un sesgo (b). La salida del perceptrón se calcula a partir de la combinación lineal de las entradas y los pesos más el sesgo, y luego se pasa por una función de activación.

  • ¿Por qué un perceptrón simple no puede resolver el problema del XOR?

    -Un perceptrón simple no puede resolver el problema del XOR porque este problema no es linealmente separable. El perceptrón solo puede resolver problemas que se pueden separar mediante una combinación lineal de entradas, y el XOR requiere una separación que no sigue una línea recta o hiperplano.

  • ¿Cómo se resuelve el problema de la no resolución de XOR por parte de un perceptrón simple?

    -El problema de la no resolución de XOR por parte de un perceptrón simple se resuelve a través del uso de redes neuronales que incluyen múltiples capas de perceptrones, conocidas como perceptrones multicapas o redes neuronales. Estas capas adicionales permiten resolver problemas no lineales.

  • ¿Cómo se puede entrenar un perceptrón para que aprenda los pesos adecuados?

    -Un perceptrón se puede entrenar presentando un conjunto de datos de entrenamiento y ajustando los pesos de acuerdo con un algoritmo de aprendizaje, como el método de gradiente descendente. El objetivo es minimizar la diferencia entre la salida esperada y la salida real del perceptrón.

  • ¿Qué es el sesgo en un perceptrón y cómo afecta la línea de decisión?

    -El sesgo en un perceptrón es un parámetro adicional que permite desplazar la línea de decisión vertical o horizontalmente. Es útil para ajustar la línea de decisión para que mejor se adapte a los datos de entrenamiento y mejore la capacidad del perceptrón para separarlos.

  • ¿Cómo se puede visualizar la separación que realiza un perceptrón en un problema binario de clasificación?

    -La separación que realiza un perceptrón en un problema binario de clasificación se puede visualizar gráficamente mediante un diagrama en el que las entradas se representan en los ejes X e Y. Las regiones donde el perceptrón predice una salida de 1 se separan de las regiones donde predice una salida de 0 por una línea de decisión (o hiperplano en casos multidimensionales).

Outlines

00:00

🔬 Introducción al perceptrón y su importancia en las redes neuronales

El primer párrafo introduce el perceptrón como una pieza clave en la construcción de redes neuronales, destacando su papel como unidad básica para generar arquitecturas complejas. Se menciona a Frank Rosenblatt como el precursor del perceptrón, quien no tenía formación en matemáticas o computación, sino en psicología y neurociencias. Se describe cómo su conocimiento en neurociencias influyó en la creación del modelo matemático del perceptrón, inspirado en el funcionamiento de las neuronas. Además, se contextualiza la propuesta de Rosenblatt en la década de 1950, destacando su publicación del artículo sobre el perceptrón en 1959.

05:01

🤖 Funcionamiento y representación gráfica del perceptrón

Este párrafo describe cómo el perceptrón actúa como un mapeo de entradas a una salida, utilizando una función que puede ser representada gráficamente. Se explica que el perceptrón toma un conjunto de entradas (x1, x2, ..., xn), las combina linealmente mediante un conjunto de pesos (W1, W2, ..., Wn) y produce una salida (y). La salida se obtiene a través de una función de activación que determina si se cumple un patrón en las entradas. Se utiliza la función escalón como ejemplo de activación, que proporciona una salida de 1 o 0 dependiendo de si el valor intermedio (h) es positivo o negativo.

10:03

📶 Operaciones lógicas y decisiones del perceptrón

Se discute cómo el perceptrón puede ser utilizado para realizar operaciones lógicas simples, como OR, AND o NOT, a través de la combinación de entradas y pesos. Se menciona la importancia del sesgo (bias) en la función del perceptrón, el cual permite desplazar la línea de decisión y afectar los resultados. Se proporciona una ecuación para el perceptrón que incluye el sesgo y se describe cómo el perceptrón toma un vector de características, lo convierte en un valor de decisión binario (0 o 1), y cómo esto se relaciona con la definición de una línea recta en el espacio de características.

15:04

🔍 Ejemplo práctico de un perceptrón realizando una operación OR

Este párrafo presenta un ejemplo práctico de cómo configurar un perceptrón para que realice una operación OR en dos entradas. Se describen las entradas (x1, x2) y las salidas esperadas para diferentes combinaciones de estas entradas. Se utiliza una función de activación definida por el usuario, donde la salida es 0 si el valor intermedio (h) es menor o igual a 0 y 1 si h es mayor que 0. Se invita al espectador a intentar encontrar valores para los pesos (w1, w2) y el sesgo (b) que produzcan las salidas correctas para cada caso de entrada. Luego, se sugieren valores para los pesos y el sesgo y se evalúa si cumplen con las expectativas para cada caso de entrada.

20:07

📉 Limitaciones del perceptrón y su capacidad para resolver problemas

Se exploran las limitaciones del perceptrón simple y se muestra que no puede resolver problemas no lineales, como el XOR, que requiere una separación que no puede lograrse con una única línea. Se discute cómo, a pesar de las expectativas iniciales de Rosenblatt, el perceptrón simple tiene una capacidad limitada y se destaca la necesidad de combinar múltiples perceptrones para resolver problemas más complejos. Se menciona que la combinación de perceptrones en capas secuenciales o paralelas puede dar lugar a una red neuronal capaz de manejar problemas no lineales.

25:10

🚀 Perspectivas futuras para el entrenamiento y la extensión del perceptrón

El último párrafo se enfoca en las lecciones futuras que abordarán el entrenamiento del perceptrón y su extensión para resolver problemas más complejos. Se sugiere que la formación de redes neuronales a través de la combinación de múltiples perceptrones permitirá abordar problemas que no pueden ser resueltos por un perceptrón simple. Se establece una pausa para que el espectador reflexione y se anima a continuar explorando el tema en futuras sesiones.

Mindmap

Keywords

💡Perceptrón

El perceptrón es una unidad básica utilizada en la construcción de redes neuronales. Es importante porque actúa como la piedra angular desde la cual se generan arquitecturas complejas y profundas en el campo de la inteligencia artificial. En el video, se discute cómo el perceptrón fue propuesto por Frank Rosenblatt y cómo funciona a partir de una combinación lineal de entradas y pesos.

💡Redes Neuronales

Las redes neuronales son sistemas informáticos inspirados en el funcionamiento del cerebro humano, compuestos por múltiples unidades llamadas neuronas. Estas redes son capaces de aprender y realizar tareas complejas, como el reconocimiento de patrones. En el contexto del video, las redes neuronales se construyen a partir de múltiples perceptrones.

💡Frank Rosenblatt

Frank Rosenblatt fue un precursor en el desarrollo del perceptrón y una figura clave en la historia de las redes neuronales. No era matemático o computólogo por formación, sino que su trasfondo era en psicología y neurociencias, lo que influyó en su enfoque al replicar el comportamiento de las neuronas biológicas en una máquina.

💡Función de Activación

La función de activación es un componente esencial del perceptrón que define si una neurona se activa o no en función de una combinación lineal de entradas. En el video, se utiliza la función escalón, que produce una salida de 1 o 0 dependiendo de si el valor intermedio es positivo o negativo.

💡Combinación Lineal

La combinación lineal es un proceso mediante el cual se multiplican los valores de entrada de un perceptrón por sus pesos correspondientes y se suman para obtener un valor intermedio. Este concepto es fundamental para el funcionamiento del perceptrón y se ilustra en el video con la ecuación que involucra los pesos y las entradas del perceptrón.

💡Pesos

En el contexto del perceptrón, los pesos son parámetros que se asocian con cada entrada y determinan la importancia de cada una en la combinación lineal. Los pesos son cruciales para el aprendizaje y la capacidad del perceptrón para generalizar a partir de los datos de entrada.

💡Sesgo

El sesgo, también conocido como el término de desplazamiento, es un parámetro adicional en el modelo del perceptrón que permite ajustar la línea de decisión vertical o horizontalmente. En el video, se discute cómo el sesgo se puede incorporar como un peso multiplicado por un valor de entrada fijo, generalmente 1.

💡XOR

El problema XOR (o exclusivo) es un ejemplo que muestra los límites de un perceptrón simple. En el video, se menciona que el perceptrón no puede resolver el problema XOR, ya que este problema no es lineal y requiere una red neuronal más compleja para ser resuelto.

💡Problemas Lineales

Los problemas lineales son aquellos que pueden ser resueltos mediante la separación de datos mediante una línea recta o un hiperplano en espacios de alta dimensionalidad. El video destaca que el perceptrón simple es capaz de resolver solamente problemas lineales, lo que limita su capacidad para abordar tareas más complejas.

💡Redes Neuronales Multicapa

Las redes neuronales multicapa, también conocidas como perceptrones multicapa, son una extensión del perceptrón simple que incluye múltiples capas de unidades de procesamiento. Estas capas adicionales permiten a la red resolver problemas no lineales, como se discute hacia el final del video.

💡Entrenamiento del Perceptrón

El entrenamiento del perceptrón implica ajustar los pesos y el sesgo para que el perceptrón pueda mapear correctamente las entradas a las salidas deseadas. A lo largo del video, se aborda la importancia del aprendizaje automático en el ajuste de estos parámetros, aunque no se profundiza en los algoritmos específicos de entrenamiento.

Highlights

El perceptrón es una piedra angular en la construcción de redes neuronales y actúa como la unidad básica para generar arquitecturas complejas.

Frank Rosenblatt es considerado el precursor del perceptrón y su desarrollo se inspiró en las funciones de las neuronas.

Rosenblatt no era matemático ni computólogo, sino que su formación era en psicología y neurociencias.

El perceptrón fue ideado para desarrollar máquinas capaces de percibir su ambiente, partiendo de conocimientos en neurociencias.

El perceptrón se basa en la creación de un modelo matemático que intenta replicar el comportamiento de las neuronas.

El artículo de Rosenblatt sobre el perceptrón fue publicado en 1959, estableciendo las bases para futuras investigaciones.

Las neuronas biológicas obtienen información a través de dendritas, procesan esta información en su núcleo y transmiten impulsos a otras neuronas a través de su axón.

El perceptrón de Rosenblatt utiliza circuitos y resistencias para simular la activación o inactivación de las neuronas.

El perceptrón se define como un mapeo de entradas a una salida, utilizando una función de activación para decidir la activación.

Las entradas del perceptrón se representan con un vector y se combinan linealmente mediante pesos para generar una salida.

La función de activación del perceptrón es crucial para establecer si se ha encontrado un patrón en las entradas.

El perceptrón original de Rosenblatt utilizaba una función escalón para obtener una salida de 1 o 0.

El perceptrón puede ser visto como una decisión binaria que toma un vector de características y decide si se activa o no.

El concepto de sesgo (bias) en el perceptrón es similar al desplazamiento en una línea recta y permite ajustar la salida.

El perceptrón es capaz de resolver operaciones lógicas como OR, AND y NOT, pero tiene limitaciones frente a problemas no lineales como XOR.

El perceptrón simple no puede resolver problemas no lineales, pero la combinación de múltiples perceptrones en capas puede abordar estos problemas.

La extensión del perceptrón a redes neuronales multicapas permite resolver problemas más complejos, incluyendo aquellos no lineales.

El entrenamiento del perceptrón y su expansión a redes neuronales profundas son temas que se explorarán en futuras lecciones.

Transcripts

play00:00

Hola estimadas y estimados colegas En

play00:02

esta sesión vamos a ver una de las

play00:04

piedras angulares de las redes

play00:05

neuronales y como ya se imaginarán es el

play00:08

perceptrón este perceptrón es importante

play00:10

porque resulta que es la base para

play00:14

construir las redes neuronales es decir

play00:16

puede ser la unidad básica a partir de

play00:19

la cual se empiezan a generar todos

play00:20

estos grafos arquitecturas y redes que

play00:23

terminan siendo muy profundas y muy

play00:25

complejas Por lo cual Pues a lo largo de

play00:28

esta sesión lo que vamos a hacer es

play00:30

entrar en todos los detalles del

play00:32

perceptrón así que pues bueno no se

play00:34

pierdan de estos detalles y pues vamos a

play00:36

comenzar

play00:38

siempre es importante hablar de las

play00:40

personas que hacen estos desarrollos

play00:41

porque bueno todas estas tecnologías que

play00:44

se van generando nos generan a partir

play00:45

del aire si no hay personas que están

play00:48

trabajando en desarrollar Pues todos

play00:50

estos conocimientos y pues en este caso

play00:53

Necesitamos hablar de Frank quien fue el

play00:56

precursor y que propuso el perceptrón

play00:59

entonces para hablar algo de Rosa

play01:01

podemos decir que él no es digamos

play01:03

matemático de formación O computólogo

play01:06

sino el estudio psicología Y a partir de

play01:09

sus estudios de psicología hace después

play01:11

un posgrado en neurociencias una vez que

play01:15

realizó sus estudios pasa digamos a

play01:18

elaborar en cornel y también empieza a

play01:22

hacer proyectos para la Marina de

play01:23

Estados Unidos uno de esos proyectos era

play01:25

este proyecto del perceptrón en donde lo

play01:28

que querían era desarrollar máquinas que

play01:32

pudieran percibir su ambiente entonces

play01:36

pues

play01:38

su conocimiento previo acerca de las

play01:40

neurociencias Pues en lo que trató es

play01:43

una de cierta forma replicar lo que pasa

play01:46

en las neuronas después se convierte un

play01:49

modelo matemático diferente que veremos

play01:51

más adelante Pero bueno digamos que esa

play01:54

es digamos el comienzo del perceptor

play01:56

para poner digamos en contexto de tiempo

play01:58

esto pues

play02:00

Frank hizo de estas propuestas en los

play02:02

50s y pues por allá del 56 estaba

play02:06

trabajando en el perceptrón en estos

play02:08

proyectos incluso su Artículo en donde

play02:10

se publican todas estas cosas está me

play02:13

parece fechado en el 59

play02:15

entonces Bueno pues ese sería nuestra

play02:18

introducción con Frank rosenblatt y como

play02:21

dijimos Pues sí había cierta semejanza o

play02:24

Inspiración en la parte neuronal y para

play02:28

eso pues vamos a poner aquí la figura de

play02:30

una neurona y lo que podemos ver Es que

play02:33

estas neuronas lo que hacen es adquirir

play02:36

información en estas conexiones que se

play02:38

conocen como dendritas y estas dendritas

play02:42

pues reciben la información toda esta

play02:44

información se procesa en el núcleo y

play02:46

luego digamos un impulso de salida se

play02:49

transfiere a través del axón Y este axón

play02:52

tiene terminales que van a ir a otras

play02:55

neuronas Entonces tenemos digamos un

play02:57

proceso en donde la información que

play03:01

proviene de las dendritas pasa por el

play03:05

núcleo y después se traslada a otras

play03:08

neuronas Entonces se supone que hay una

play03:10

cierta combinación de toda esta

play03:13

información para generar nuevos impulsos

play03:16

por su parte el perceptrón que propone

play03:19

Frank rosenblatt pues termina siendo

play03:21

algo parecido pero ya en términos

play03:24

eléctricos y electrónicos entonces Esta

play03:28

es una de las figuras de su propuesta y

play03:31

lo que podemos ver Es una cierta

play03:33

semejanza no tenemos un conjunto de

play03:37

observaciones que están aquí en la parte

play03:39

de la izquierda y estas observaciones

play03:42

van a pasar por un cierto marco de

play03:45

conexiones es decir pues bueno no todas

play03:48

las percepciones o no todas las

play03:50

observaciones son relevantes solo

play03:52

algunas de ellas se toman en cuenta y

play03:55

cuando estas que se están tomando en

play03:57

cuenta cumplen con un determinado patrón

play04:00

es lo que produce una determinada salida

play04:04

ya cuando se construye este perceptrón

play04:07

digamos en términos de una máquina pues

play04:09

este termina siendo un conjunto de

play04:11

circuitos y todas estas conexiones van a

play04:15

terminar siendo

play04:16

resistencias que nos permiten saber

play04:19

cuándo debe pasar un impulso y cuando no

play04:22

debe pasar un impulso

play04:25

Pero bueno Pues ese es digamos la

play04:27

instanciación que en ese momento se hizo

play04:28

del perceptrón

play04:31

y ahora lo que vamos a hacer es pasar al

play04:33

modelo matemático que nos explica este

play04:36

perceptor Ok no sin antes hablar incluso

play04:40

de lo que decía Frank rosen plata acerca

play04:43

de su perceptrón que había propuesto y

play04:46

bueno lo que él decía es que pues iba a

play04:48

terminar siendo una máquina capaz de

play04:50

percibir reconocer e identificar todos

play04:54

sus alrededores sin que tuviera el

play04:58

entrenamiento explícito o el control de

play05:01

un humano entonces pues parecía bastante

play05:04

aventurado eso que nos estaba diciendo

play05:07

Frank rosenblatt y que en ese momento

play05:08

pues no era tan fácil de comprobar pero

play05:11

pues a nuestros días podemos decir que

play05:13

pues de cierta forma tenía razón en lo

play05:15

que estaba proponiendo

play05:17

Más allá de las expectativas pues

play05:20

podemos decir que el perceptrón termina

play05:22

siendo un mapeo a través de una función

play05:25

que convierte un conjunto de entradas a

play05:28

un valor de salida Ok entonces podemos

play05:30

resumir ya el perceptrón como un mapeo

play05:34

que nos está convirtiendo estas entradas

play05:36

en una determinada salida que es de

play05:39

nuestro interés y aquí lo que tenemos es

play05:42

una representación gráfica del

play05:43

perceptrón en donde tenemos un conjunto

play05:47

de valores de entrada llamemos de inputs

play05:51

este conjunto de valores de entrada pasa

play05:55

por una serie de operaciones y estas

play05:59

operaciones generan una salida esta

play06:02

salida también se le conoce como la

play06:04

predicción o la estimación y como en

play06:07

muchos casos Pues bueno es una

play06:09

aproximación resulta que también se le

play06:12

puede escribir como ya es ir compleja

play06:14

haciendo notar que es la predicción

play06:17

y pasemos a más detalles de este

play06:19

percepto Pues resulta que este conjunto

play06:23

de entradas

play06:24

se representa con un vector llamémosle x

play06:30

mayúscula que está compuesto por x1 x2

play06:35

hasta x n que podemos tener en ese

play06:39

vector de entrada

play06:41

internamente lo que hace el perceptrón

play06:45

es tomar estas entradas y generar una

play06:48

combinación lineal de ellas para hacer

play06:51

esta combinación lineal lo que necesita

play06:53

es un conjunto de parámetros o también

play06:56

se denominan pesos y llamémosle W

play06:59

mayúscula como un vector W 1 w2 así

play07:03

hasta wn entonces en una primera etapa

play07:07

lo que hace el perceptrón es generar

play07:10

digamos este valor intermedio que

play07:13

denominaremos con h que es el resultado

play07:16

de

play07:17

y multiplicar elemento por elemento y

play07:20

sumarlos después Este valor intermedio

play07:24

de H pasa por una función F que se

play07:27

denomina función de activación una vez

play07:31

que pasa por la función de activación se

play07:34

genera la salida que es Jay circuito

play07:38

entonces bueno anotemos aquí que estas

play07:40

son inputs

play07:43

y esto serían los parámetros

play07:49

en cuanto a la función de activación

play07:50

podemos decir que el rol que juega es

play07:54

tratar de establecer de si se

play07:58

encontraron ciertas combinaciones o si

play08:01

se encontró un patrón en esas entradas

play08:03

Entonces al igual que nosotros cuando

play08:06

nos piden tomar una cierta decisión pues

play08:09

tenemos que decir sí o no Verdad

play08:11

Entonces esta función de activación

play08:13

tiene un rol similar de tratar de decir

play08:16

sí o tratar de decir no nos encontró el

play08:20

patrón si un poco lo extrapolaramos si

play08:23

tuviéramos una imagen de entrada pues

play08:26

Queremos saber si dentro de esa imagen

play08:28

de entrada existe un perro o no existe

play08:30

un perro

play08:32

entonces para eso en la propuesta

play08:34

original del perceptrón lo que se

play08:36

utiliza es una función escalón en donde

play08:39

nos permite obtener un valor de salida 1

play08:41

o 0 tal cual lo tenemos en esta gráfica

play08:45

por lo que tendríamos es el valor de h y

play08:48

tendríamos F de H

play08:52

y para los valores de H que tengamos

play08:55

aquí positivos Pues resulta que nuestra

play08:58

salida va a ser uno y para estos valores

play09:01

negativos pues la salida va a ser 0

play09:04

entonces podríamos definir

play09:07

nuestra función de activación Pues de

play09:10

esta forma

play09:12

en donde vamos a tener un cero

play09:16

si resulta que H es menor que cero o

play09:20

vamos a tener un 1 si resulta que H es

play09:22

mayor o igual a cero no en algunas

play09:26

variaciones Pues el cero puede

play09:28

considerarse en el en el uno o puede

play09:31

considerarse en el cero no Pero bueno

play09:33

así definamos lo por ahora

play09:36

entonces lo que podemos también notar es

play09:39

que vamos a estar convirtiendo nuestras

play09:42

entradas a un valor cero o uno si ya lo

play09:46

quisiéramos formalizar Pues resultaría

play09:49

que nuestro perceptrón Vamos a ponerle

play09:52

aquí p mayúscula que recibe como

play09:54

entradas x convierte estos valores de

play10:00

entrada no decíamos que x tiene n

play10:03

elementos y probablemente los elementos

play10:06

son reales Entonces los va a convertir

play10:08

simplemente a un valor cero o un 1 y esa

play10:13

es una de las funciones principales que

play10:15

tiene el perceptor agarrar este vector

play10:17

de características este vector de

play10:20

entrada y tomar una decisión se activa o

play10:24

no se activa y bueno ahora vamos a

play10:27

mencionar que existen digamos varias

play10:30

definiciones que podemos dar al

play10:31

perceptrón también en cuanto a si le

play10:35

agregamos un extra que es el sesgo o

play10:39

vayas en inglés

play10:41

bueno para eso vamos a recordar un

play10:44

poquito este Cuál es la definición de

play10:47

una línea recta No si sigue si

play10:49

recordamos que es igual a MX + b y

play10:52

cuando nosotros escribimos esta línea

play10:54

recta Pues resulta que tendríamos por un

play10:59

lado la pendiente que está determinada

play11:02

por m Pues nos va a indicar si la recta

play11:04

va así o así o tiene una cierta

play11:07

inclinación pero cuando queremos mover

play11:09

esa recta hacia arriba o hacia abajo

play11:11

hacia abajo Lo que utilizamos es este

play11:14

desplazamiento en b

play11:17

y por otro lado en el caso del

play11:19

perceptrón Pues estamos haciendo la

play11:21

combinación lineal de las entradas y los

play11:24

pesos por lo tanto También estamos

play11:26

generando pues una línea recta o un

play11:30

hiperplan entonces una primera

play11:32

definición que le podemos dar a nuestro

play11:35

perceptrón sería que la salida es F de

play11:39

simplemente la combinación de las

play11:42

entradas con los pesos tendremos la

play11:45

sumatoria de w

play11:48

por x y si queremos agregar este

play11:54

desplazamiento entonces podemos escribir

play11:58

la sumatoria de W y por x y más B pero

play12:05

en muchos casos a veces se simplifica la

play12:08

programación incluso las definiciones o

play12:12

el entrenamiento

play12:14

Si colocamos esta B de una forma

play12:16

diferente entonces podríamos colocar

play12:19

esta B como

play12:22

B que multiplica a un valor 1 Ok

play12:26

tendremos la misma B pero resulta que

play12:29

esto pues tiene la misma forma aquí de

play12:32

la multiplicación de un peso por la

play12:36

entrada entonces podríamos utilizar esta

play12:38

anotación agregando una nueva entrada

play12:41

que sea igual a 1 y simplemente

play12:44

podríamos escribir el perceptrón como F

play12:47

de w por

play12:50

x mayúscula no entonces representando un

play12:55

producto punto y recordando que el

play12:57

producto punto pues es precisamente la

play13:00

sumatoria de las multiplicaciones de

play13:01

elemento por elemento Entonces tenemos

play13:03

todas estas formas para escribir nuestro

play13:06

perceptrón incluyendo este parámetro de

play13:10

sesgo o de desplazamiento Bueno entonces

play13:14

podemos llegar finalmente a

play13:18

nuestra fórmula completa del perceptrón

play13:21

ya su gráfica aquí en donde tenemos F de

play13:24

este conjunto de entradas que va a

play13:27

terminar siendo un cero o un 1 si

play13:30

resulta que esto pues es menor o mayor o

play13:34

igual que ser y aquí en nuestra figura

play13:36

pues lo que podemos ver Es que tenemos

play13:37

las entradas que se están multiplicando

play13:39

por estos pesos y luego aquí en la parte

play13:42

de abajo tenemos una entrada igual 1 que

play13:44

se multiplica por el sesgo B todo esto

play13:48

se suma

play13:50

se convierte en este valor intermedio al

play13:53

que llamaremos h y esta función que

play13:56

depende de H pues convierte finalmente a

play14:00

un 0 1 es decir se activa o no se activa

play14:03

nuestro perfil

play14:05

y con esto pues tendríamos la definición

play14:07

digamos completa de nuestro perceptor

play14:11

Así que pues lo que vamos a hacer ahora

play14:12

es poner algunos ejemplos de cómo es que

play14:14

funcionan estos perceptones ya para

play14:18

determinadas entradas y pues también los

play14:20

valores que tenemos internamente

play14:23

entonces pues vamos a hacer algunos

play14:24

ejercicios

play14:26

aquí tenemos varios no por ejemplo

play14:30

construir un perceptrón para que nos

play14:32

realice una operación or de las entradas

play14:35

o una operación and o una operación no

play14:40

vamos a tomar el primer caso que sería

play14:43

un or para poder extenderlo y ver cómo

play14:46

está funcionando y perceptor

play14:48

entonces para eso pues vamos a cambiar

play14:49

un poquito de esta presentación a

play14:54

nuestro pizarrón

play14:57

Ya estamos aquí entonces dijimos que

play15:00

queremos replicar el comportamiento de

play15:04

una operación lógica y para eso vamos a

play15:07

utilizar el oro esta operación tiene dos

play15:11

entradas vamos a llamarlas x1 x2 y tiene

play15:17

una determinada salida vamos a llamar y

play15:20

entonces cuando las entradas son 0 y 0

play15:22

pues la salida debe ser 0 cuando las

play15:26

entradas son 0 1 la salida debe ser uno

play15:29

cuando tenemos 1 0 la salida es uno y

play15:33

cuando tenemos 11 la salida debe ser uno

play15:36

entonces este es el comportamiento que

play15:38

nos interesa replicar en nuestro

play15:40

perceptor No ya después veremos que esto

play15:43

es como un conjunto de datos también

play15:45

pero bueno no nos preocupemos de eso

play15:47

esto es el comportamiento que queremos

play15:49

replicar en el preceptor

play15:51

Entonces si dibujáramos nuestro

play15:53

perceptrón de acuerdo a lo que vimos en

play15:56

la lección una entrada x1

play16:00

x2 esto pasa

play16:05

aquí y habíamos puesto también una

play16:09

entrada 1 con un sesgo B

play16:13

Y tenemos aquí una w1

play16:15

w2 y H se convierte en la sumatoria de

play16:21

esas cosas

play16:22

y entonces como salida tenemos fdh eso

play16:27

sería lo que nosotros vimos en la

play16:29

lección también podemos especificar aquí

play16:32

Qué tipo de función de activación vamos

play16:35

a utilizar siempre es importante

play16:37

especificar Cuál es la función de

play16:39

activación Porque pueden tener

play16:40

variaciones etcétera Bueno vamos a meter

play16:44

un poquito de variación en nuestra

play16:47

función de activación y vamos a poner

play16:49

que F de H

play16:52

es igual a cero cuando H es menor o

play16:59

igual a cero así lo estamos definiendo

play17:01

ahora y uno cuando H Es mayor que 0

play17:06

verdad Bueno entonces ya hicimos una

play17:08

definición de nuestra función de

play17:10

activación conocemos

play17:13

Cuáles son las entradas que las tenemos

play17:15

aquí en estos cuatro casos y conocemos

play17:17

la salida que corresponde a esas

play17:20

entradas lo que en este momento no

play17:23

conocemos es precisamente estos valores

play17:27

que tenemos aquí que son los parámetros

play17:29

del perceptrón no sabemos Cuáles son

play17:33

esos valores y precisamente ese era uno

play17:35

de los problemas iniciales con el

play17:37

perceptrón porque

play17:39

pues manualmente tenían que ajustar los

play17:42

circuitos para que pues se codificaran

play17:45

esos valores y se obtuviera una salida

play17:48

espera pues era bastante complicado no

play17:51

si ya de por sí era complicado estar

play17:54

haciendo las conexiones eléctricas Pues

play17:56

bueno determinar Cuáles son los valores

play17:58

de forma manual es un poco complicado

play18:01

este caso no es tan complicado por lo

play18:03

tanto pues lo que les va a pedir es que

play18:05

pues ustedes este como están viendo el

play18:08

vídeo pues le pongan pausa al vídeo

play18:11

y que traten de estimar unos valores ahí

play18:13

w1 w2 y b tal que nos producen las

play18:19

salidas que nosotros estamos esperando

play18:21

para cada uno de esos casos Ok entonces

play18:25

bueno traten de resolverlo y ahorita

play18:27

vemos cómo nos va

play18:30

esperando que ya ustedes hayan propuesto

play18:32

algunos valores pues vamos a tratar de

play18:35

resolverlo y después comparan con lo que

play18:38

yo voy a poner acá mis valores muy

play18:41

simples Pues voy a poner w1 igual con

play18:45

uno

play18:48

w2 igual con 1 y b lo voy a poner como

play18:53

cero Entonces vamos a ver si estos

play18:55

valores funcionan para que nuestro

play18:58

perceptrón imite este comportamiento que

play19:00

nosotros queremos entonces tendríamos el

play19:03

caso

play19:04

número uno

play19:09

en el caso número uno lo que tenemos es

play19:13

x1 y x2 iguales con cero verdad entonces

play19:18

podemos decir que H es igual a 1 que se

play19:23

multiplica con 0 más 1 que se multiplica

play19:27

con la otra entrada de 0

play19:30

más cero verdad para ponerlo aquí

play19:32

completo Pues estamos escribiendo w1 por

play19:36

x1 más w2 por x2 + pH nos da el valor de

play19:44

0

play19:46

y de acuerdo a esta función de

play19:48

activación que tenemos aquí

play19:50

fdh termina siendo 0 esto si nos damos

play19:55

cuenta

play19:56

pues ya cumple con lo que nosotros

play19:58

habíamos dicho acá le ponemos una

play20:00

palomita y vamos por el caso

play20:03

número 2 Qué es lo que está pasando

play20:06

Entonces primero H ya cambian los

play20:09

valores de las x verdad Entonces

play20:10

tendríamos las W siguen siendo las

play20:12

mismas vamos a ver x2 es igual a 1

play20:17

entonces tendríamos uno por cero más uno

play20:20

por uno más cero H sería igual a esto es

play20:26

0 esto es uno Este es 0 1 y fdh sería

play20:31

igual a 1 y eso pues parece que está

play20:37

cumpliendo con lo que nosotros dijimos

play20:38

hasta la otra vez palomita a nuestro

play20:40

segundo caso

play20:42

vamos a pasarlo por acá

play20:44

y vamos a hacer el caso número 3 en

play20:48

donde tenemos que H es igual a 1 que

play20:51

multiplica en este caso x1 es 1 + 1 * 0

play20:55

+ 0h es igual a 1 entonces F de H es

play21:02

igual a 1 verdad

play21:06

Entonces esto cumple también con el

play21:09

tercer caso y vamos para el caso número

play21:13

4

play21:14

en donde tenemos que H es igual a 1 que

play21:19

multiplica a uno más uno uno más cero

play21:24

que es B H termina siendo uno más uno

play21:27

pues dos y F de H resulta que esto es

play21:32

uno

play21:33

Ok entonces podemos ver que

play21:36

tanto el caso 3 como el caso 4 para

play21:40

estas entradas también se cumple

play21:42

entonces bueno para ponerlo aquí más

play21:45

completo de cómo nos resultó vamos a

play21:48

poner aquí

play21:51

una columna y lo que nosotros estamos

play21:53

obteniendo es Yes compleja en donde pues

play21:57

ya vimos que para el primer caso nos dio

play22:00

0 nos dio uno nos dio uno nos dio uno en

play22:03

nuestro perceptor entonces pues para

play22:06

este pequeño ejemplo en donde estamos

play22:08

tratando de imitar el comportamiento de

play22:11

un or Pues resulta que el perceptrón lo

play22:14

está haciendo bien para estos valores

play22:17

que yo coloqué aquí tanto de pesos como

play22:21

del sesgo y esta función de activación

play22:24

tal vez ustedes hayan propuesto otros

play22:26

valores y que igual esté cumpliendo con

play22:29

esto que nosotros tenemos aquí no

play22:31

entonces pueden existir más de una

play22:34

combinación de valores que nos permite

play22:36

replicar este comportamiento entonces

play22:38

para terminar nuestro ejemplo

play22:41

Hagamos una pequeña gráfica de que es lo

play22:44

que está pasando entonces resulta que

play22:46

tenemos dos variables x1

play22:50

Y tenemos la otra que es x2 y voy a

play22:54

poner cuando tengamos un valor de cero

play22:57

pues una x y cuando tengamos un valor de

play23:02

1 una palomita Verdad Entonces para el

play23:06

caso Cuando tenemos cero y cero Pues el

play23:09

resultado debe ser una x vamos a ponerla

play23:12

de otro color para que se note en rojo

play23:15

una x roja cuando tenemos el caso de 11

play23:19

Entonces eso nos da uno pongamos

play23:22

palomita

play23:23

continuamos 1 0 eso nos da palomita

play23:26

cuando ponemos 0 1

play23:28

palomita verdad

play23:30

veamos estas combinaciones en el caso

play23:34

este aquí 0 y 0 tendríamos

play23:39

una x

play23:50

[Música]

play24:07

lo que está haciendo nuestro perceptrón

play24:09

es

play24:11

generar una división en estos ejemplos

play24:14

no lo no no lo estamos viendo a través

play24:18

de este tan gráfico pero lo que está

play24:21

pasando Es que se está generando una

play24:23

separación de estos ejemplos por un lado

play24:27

estamos poniendo todos los casos que

play24:30

deben de ser cero y por otro lado el

play24:33

perceptrón está poniendo todos los casos

play24:35

en donde deben de ser uno entonces esta

play24:38

línea nos permita nos permite hacer Esta

play24:41

división esta línea pues puede quedar un

play24:43

poquito más arriba un poquito más abajo

play24:44

siempre y cuando haga la división

play24:46

correcta y pues bueno da dependerá de

play24:49

los parámetros que nosotros coloquemos

play24:51

bueno limpiamos esto y pasemos a un caso

play24:55

especial de El perceptrón

play25:01

dejemos ahí como tarea al resolver para

play25:04

adelante y para el not pero vayamos un

play25:09

caso especial

play25:11

el X por y que va a terminar siendo uno

play25:16

de los cocos del perfecto pero bueno el

play25:19

xor tiene dos entradas igual x1 y x2

play25:25

y tiene también igual 01 Perdón 0 0 1 1

play25:31

0 y 1 1

play25:34

y lo que nosotros esperaríamos es que

play25:36

cuando tenemos 0 0 el resultado sea 0

play25:40

Cuando tenemos 0 1 resultado sea uno

play25:42

cuando tengamos uno cero tengamos uno

play25:45

pero cuando tengamos un 11 esto es ser

play25:49

podríamos poner nuestro perceptrón

play25:53

gráfico tratar de encontrar esos valores

play25:55

pero resultaría que el perceptrón no es

play26:01

capaz de encontrar la solución y sí

play26:04

dijimos que el perceptrón y de hecho lo

play26:07

dijo rosenblatt que podía hacer muchas

play26:09

cosas pero resulta que el perceptrón

play26:13

simple Pues solo puede resolver

play26:15

problemas lineales

play26:18

y vamos a ver por qué y bueno quitemos

play26:22

nuestro meme del día

play26:26

veamos Qué es lo que está pasando con el

play26:28

xor pongamos es igual una gráfica Cuando

play26:32

tenemos un cero cero

play26:35

tendríamos una x

play26:37

Cuando tenemos

play26:39

el 11 también tendríamos una x cuando

play26:44

tenemos un 01 pues tendremos uno que lo

play26:48

representamos con una palomita y cuando

play26:51

Tenemos uno con cero También tenemos uno

play26:54

que lo representamos con una palomita

play26:56

en este problema

play26:59

resulta que no podemos hacer una

play27:03

separación lineal de las cosas no

play27:06

vamos a suponer que ponemos una línea

play27:08

aquí no estamos separando bien los casos

play27:11

aquí estamos cometiendo errores porque

play27:15

no estamos separando las x de las

play27:18

palomitas no como estamos separando los

play27:20

unos de los ceros

play27:21

podemos poner la línea así podemos

play27:23

ponerla así podemos darle buscando y

play27:27

resulta que no podríamos resolver este

play27:29

problema porque no es un problema que se

play27:33

pueda resolver mediante una combinación

play27:36

lineal

play27:37

Entonces porque resultó que pues mucha

play27:40

gente dijo pues hoy Esto del perceptrón

play27:43

sonaba bien pero resulta que no está

play27:45

resolviendo un problema que parece

play27:47

bastante básico no

play27:49

Ok pues bueno pues este Pues digamos que

play27:53

eso mostraría Cuáles son los límites de

play27:54

un perceptrón sencillo

play27:57

pero resulta que tenemos una ventaja que

play28:02

podemos apilar estos perceptores tanto

play28:06

en capas secuenciales como en capas

play28:10

paralelas y cuando nosotros hacemos la

play28:14

combinación de varios de estos

play28:16

perceptones ya estaríamos formando un

play28:19

perceptrón multicapa o una red neuronal

play28:22

y resulta que ya cuando tenemos estas

play28:25

combinaciones si podemos resolver los

play28:27

problemas no lineales como es el Xbox

play28:30

entonces pues eso sería lo que vamos a

play28:32

estar viendo en las siguientes lecciones

play28:34

en Cómo es que este perceptrón primero

play28:38

Cómo es que lo vamos a poder entrenar y

play28:41

luego cómo es que lo vamos a estar

play28:43

extendiendo para resolver problemas más

play28:45

complicados y una vez que se extiende

play28:47

pues como lo entrenamos una vez que pues

play28:50

tiene muchas capas así que pues bueno

play28:52

Esto es lo que correspondería al

play28:55

perceptrón y nos vemos en la siguiente

play28:58

sesión

Rate This

5.0 / 5 (0 votes)

Related Tags
PerceptrónRedes NeuronalesFrank RosenblattFunción de ActivaciónAprendizaje AutomáticoTecnología de IAMatemáticas AplicadasProyectos de la MarinaLógica ORLógica ANDLógica XOR
Do you need a summary in English?