El Perceptrón a detalle
Summary
TLDREl script proporciona una introducción detallada al perceptrón, una pieza clave en la construcción de redes neuronales. Se destaca la importancia del perceptrón como unidad básica para generar arquitecturas complejas y profundas en el campo de las redes neuronales. El precursor del perceptrón, Frank Rosenblatt, es mencionado por su contribución fundamental. La analogía del perceptrón con las neuronas del cerebro se explora, y se describe cómo el perceptrón utiliza pesos y una función de activación para convertir entradas en una salida binaria. El script también aborda los límites del perceptrón simple, que solo resuelve problemas lineales, y hace alusión a la capacidad de resolver problemas más complejos a través de perceptrones multicapa y redes neuronales, lo que se profundizará en futuras lecciones.
Takeaways
- 🤖 El perceptrón es una piedra angular en la construcción de redes neuronales y actúa como la unidad básica para generar arquitecturas complejas.
- 👨💼 Frank Rosenblatt fue el precursor del perceptrón, inspirado en su conocimiento previo en neurociencias y su trabajo para la Marina de Estados Unidos.
- 🧠 La inspiración del perceptrón viene de la forma en que las neuronas funcionan, recibiendo información a través de las dendritas, procesándola en el núcleo y enviando impulsos a través del axón.
- 📈 El perceptrón realiza una combinación lineal de entradas usando pesos y un sesgo, y luego aplica una función de activación para producir una salida.
- ⚙️ La función de activación del perceptrón es crucial, ya que decide si se ha encontrado un patrón en las entradas, activándose o no.
- 📉 Una función de activación común utilizada en el perceptrón es la función escalón, que produce una salida de 1 o 0 dependiendo del valor de la combinación lineal.
- 🔢 El perceptrón mapea un conjunto de entradas a un valor de salida, que puede ser una aproximación o una predicción del comportamiento deseado.
- 🔴🔵 El perceptrón simple tiene limitaciones y solo puede resolver problemas lineales, lo que lo hace incapaz de manejar tareas como la operación lógica XOR.
- 🚧 A pesar de sus limitaciones, el perceptrón puede ser extendido a través de la creación de redes neuronales multicapas para resolver problemas no lineales.
- 📚 La programación y el entrenamiento inicial del perceptrón eran manuales y complicados, lo que llevó a la búsqueda de métodos más eficientes de aprendizaje automático.
- 🧐 Los pesos y el sesgo del perceptrón son parámetros clave que deben ser determinados para que el modelo funcione correctamente, y aunque existen múltiples combinaciones posibles, algunas son más efectivas que otras.
Q & A
¿Qué es el perceptrón y por qué es importante en las redes neuronales?
-El perceptrón es una unidad básica utilizada en las redes neuronales. Es importante porque actúa como la piedra angular o la base desde la cual se construyen las redes neuronales, pudiendo ser la unidad a partir de la cual se generan las arquitecturas y redes que pueden ser muy profundas y complejas.
¿Quién fue Frank Rosenblatt y qué contribuyó a la inteligencia artificial?
-Frank Rosenblatt fue un precursor en el campo de las redes neuronales y propuso el perceptrón. Aunque no era matemático ni computólogo por formación, su estudio de psicología y posterior posgrado en neurociencias le permitieron replicar lo que ocurre en las neuronas en un modelo matemático.
¿Cómo funciona una neurona y cómo se relaciona con el funcionamiento del perceptrón?
-Una neurona obtiene información a través de las conexiones llamadas dendritas, procesa esta información en su núcleo y transfiere un impulso de salida a través del axón hacia otras neuronas. El perceptrón, inspirado en esto, utiliza circuitos y conexiones que representan resistencias para simular este proceso de activación y transferencia de información.
¿Cómo se define matemáticamente un perceptrón?
-Un perceptrón se define como un mapeo que convierte un conjunto de entradas (un vector de características) en un valor de salida. Internamente, realiza una combinación lineal de las entradas con un conjunto de pesos y luego pasa el resultado intermedio por una función de activación para generar la salida.
¿Qué es la función de activación en un perceptrón y cuál es su propósito?
-La función de activación en un perceptrón es una función que determina si se ha encontrado un patrón en las entradas. Su propósito es establecer si se debe o no generar una salida, funcionando como una decisión de 'sí' o 'no', similar a decidir si un perro está presente en una imagen o no.
¿Cómo se representa un perceptrón en términos de entradas, pesos y sesgo?
-Un perceptrón se representa con un vector de entradas (x1, x2, ..., xn), un vector de pesos (W1, W2, ..., Wn) y un sesgo (b). La salida del perceptrón se calcula a partir de la combinación lineal de las entradas y los pesos más el sesgo, y luego se pasa por una función de activación.
¿Por qué un perceptrón simple no puede resolver el problema del XOR?
-Un perceptrón simple no puede resolver el problema del XOR porque este problema no es linealmente separable. El perceptrón solo puede resolver problemas que se pueden separar mediante una combinación lineal de entradas, y el XOR requiere una separación que no sigue una línea recta o hiperplano.
¿Cómo se resuelve el problema de la no resolución de XOR por parte de un perceptrón simple?
-El problema de la no resolución de XOR por parte de un perceptrón simple se resuelve a través del uso de redes neuronales que incluyen múltiples capas de perceptrones, conocidas como perceptrones multicapas o redes neuronales. Estas capas adicionales permiten resolver problemas no lineales.
¿Cómo se puede entrenar un perceptrón para que aprenda los pesos adecuados?
-Un perceptrón se puede entrenar presentando un conjunto de datos de entrenamiento y ajustando los pesos de acuerdo con un algoritmo de aprendizaje, como el método de gradiente descendente. El objetivo es minimizar la diferencia entre la salida esperada y la salida real del perceptrón.
¿Qué es el sesgo en un perceptrón y cómo afecta la línea de decisión?
-El sesgo en un perceptrón es un parámetro adicional que permite desplazar la línea de decisión vertical o horizontalmente. Es útil para ajustar la línea de decisión para que mejor se adapte a los datos de entrenamiento y mejore la capacidad del perceptrón para separarlos.
¿Cómo se puede visualizar la separación que realiza un perceptrón en un problema binario de clasificación?
-La separación que realiza un perceptrón en un problema binario de clasificación se puede visualizar gráficamente mediante un diagrama en el que las entradas se representan en los ejes X e Y. Las regiones donde el perceptrón predice una salida de 1 se separan de las regiones donde predice una salida de 0 por una línea de decisión (o hiperplano en casos multidimensionales).
Outlines
🔬 Introducción al perceptrón y su importancia en las redes neuronales
El primer párrafo introduce el perceptrón como una pieza clave en la construcción de redes neuronales, destacando su papel como unidad básica para generar arquitecturas complejas. Se menciona a Frank Rosenblatt como el precursor del perceptrón, quien no tenía formación en matemáticas o computación, sino en psicología y neurociencias. Se describe cómo su conocimiento en neurociencias influyó en la creación del modelo matemático del perceptrón, inspirado en el funcionamiento de las neuronas. Además, se contextualiza la propuesta de Rosenblatt en la década de 1950, destacando su publicación del artículo sobre el perceptrón en 1959.
🤖 Funcionamiento y representación gráfica del perceptrón
Este párrafo describe cómo el perceptrón actúa como un mapeo de entradas a una salida, utilizando una función que puede ser representada gráficamente. Se explica que el perceptrón toma un conjunto de entradas (x1, x2, ..., xn), las combina linealmente mediante un conjunto de pesos (W1, W2, ..., Wn) y produce una salida (y). La salida se obtiene a través de una función de activación que determina si se cumple un patrón en las entradas. Se utiliza la función escalón como ejemplo de activación, que proporciona una salida de 1 o 0 dependiendo de si el valor intermedio (h) es positivo o negativo.
📶 Operaciones lógicas y decisiones del perceptrón
Se discute cómo el perceptrón puede ser utilizado para realizar operaciones lógicas simples, como OR, AND o NOT, a través de la combinación de entradas y pesos. Se menciona la importancia del sesgo (bias) en la función del perceptrón, el cual permite desplazar la línea de decisión y afectar los resultados. Se proporciona una ecuación para el perceptrón que incluye el sesgo y se describe cómo el perceptrón toma un vector de características, lo convierte en un valor de decisión binario (0 o 1), y cómo esto se relaciona con la definición de una línea recta en el espacio de características.
🔍 Ejemplo práctico de un perceptrón realizando una operación OR
Este párrafo presenta un ejemplo práctico de cómo configurar un perceptrón para que realice una operación OR en dos entradas. Se describen las entradas (x1, x2) y las salidas esperadas para diferentes combinaciones de estas entradas. Se utiliza una función de activación definida por el usuario, donde la salida es 0 si el valor intermedio (h) es menor o igual a 0 y 1 si h es mayor que 0. Se invita al espectador a intentar encontrar valores para los pesos (w1, w2) y el sesgo (b) que produzcan las salidas correctas para cada caso de entrada. Luego, se sugieren valores para los pesos y el sesgo y se evalúa si cumplen con las expectativas para cada caso de entrada.
📉 Limitaciones del perceptrón y su capacidad para resolver problemas
Se exploran las limitaciones del perceptrón simple y se muestra que no puede resolver problemas no lineales, como el XOR, que requiere una separación que no puede lograrse con una única línea. Se discute cómo, a pesar de las expectativas iniciales de Rosenblatt, el perceptrón simple tiene una capacidad limitada y se destaca la necesidad de combinar múltiples perceptrones para resolver problemas más complejos. Se menciona que la combinación de perceptrones en capas secuenciales o paralelas puede dar lugar a una red neuronal capaz de manejar problemas no lineales.
🚀 Perspectivas futuras para el entrenamiento y la extensión del perceptrón
El último párrafo se enfoca en las lecciones futuras que abordarán el entrenamiento del perceptrón y su extensión para resolver problemas más complejos. Se sugiere que la formación de redes neuronales a través de la combinación de múltiples perceptrones permitirá abordar problemas que no pueden ser resueltos por un perceptrón simple. Se establece una pausa para que el espectador reflexione y se anima a continuar explorando el tema en futuras sesiones.
Mindmap
Keywords
💡Perceptrón
💡Redes Neuronales
💡Frank Rosenblatt
💡Función de Activación
💡Combinación Lineal
💡Pesos
💡Sesgo
💡XOR
💡Problemas Lineales
💡Redes Neuronales Multicapa
💡Entrenamiento del Perceptrón
Highlights
El perceptrón es una piedra angular en la construcción de redes neuronales y actúa como la unidad básica para generar arquitecturas complejas.
Frank Rosenblatt es considerado el precursor del perceptrón y su desarrollo se inspiró en las funciones de las neuronas.
Rosenblatt no era matemático ni computólogo, sino que su formación era en psicología y neurociencias.
El perceptrón fue ideado para desarrollar máquinas capaces de percibir su ambiente, partiendo de conocimientos en neurociencias.
El perceptrón se basa en la creación de un modelo matemático que intenta replicar el comportamiento de las neuronas.
El artículo de Rosenblatt sobre el perceptrón fue publicado en 1959, estableciendo las bases para futuras investigaciones.
Las neuronas biológicas obtienen información a través de dendritas, procesan esta información en su núcleo y transmiten impulsos a otras neuronas a través de su axón.
El perceptrón de Rosenblatt utiliza circuitos y resistencias para simular la activación o inactivación de las neuronas.
El perceptrón se define como un mapeo de entradas a una salida, utilizando una función de activación para decidir la activación.
Las entradas del perceptrón se representan con un vector y se combinan linealmente mediante pesos para generar una salida.
La función de activación del perceptrón es crucial para establecer si se ha encontrado un patrón en las entradas.
El perceptrón original de Rosenblatt utilizaba una función escalón para obtener una salida de 1 o 0.
El perceptrón puede ser visto como una decisión binaria que toma un vector de características y decide si se activa o no.
El concepto de sesgo (bias) en el perceptrón es similar al desplazamiento en una línea recta y permite ajustar la salida.
El perceptrón es capaz de resolver operaciones lógicas como OR, AND y NOT, pero tiene limitaciones frente a problemas no lineales como XOR.
El perceptrón simple no puede resolver problemas no lineales, pero la combinación de múltiples perceptrones en capas puede abordar estos problemas.
La extensión del perceptrón a redes neuronales multicapas permite resolver problemas más complejos, incluyendo aquellos no lineales.
El entrenamiento del perceptrón y su expansión a redes neuronales profundas son temas que se explorarán en futuras lecciones.
Transcripts
Hola estimadas y estimados colegas En
esta sesión vamos a ver una de las
piedras angulares de las redes
neuronales y como ya se imaginarán es el
perceptrón este perceptrón es importante
porque resulta que es la base para
construir las redes neuronales es decir
puede ser la unidad básica a partir de
la cual se empiezan a generar todos
estos grafos arquitecturas y redes que
terminan siendo muy profundas y muy
complejas Por lo cual Pues a lo largo de
esta sesión lo que vamos a hacer es
entrar en todos los detalles del
perceptrón así que pues bueno no se
pierdan de estos detalles y pues vamos a
comenzar
siempre es importante hablar de las
personas que hacen estos desarrollos
porque bueno todas estas tecnologías que
se van generando nos generan a partir
del aire si no hay personas que están
trabajando en desarrollar Pues todos
estos conocimientos y pues en este caso
Necesitamos hablar de Frank quien fue el
precursor y que propuso el perceptrón
entonces para hablar algo de Rosa
podemos decir que él no es digamos
matemático de formación O computólogo
sino el estudio psicología Y a partir de
sus estudios de psicología hace después
un posgrado en neurociencias una vez que
realizó sus estudios pasa digamos a
elaborar en cornel y también empieza a
hacer proyectos para la Marina de
Estados Unidos uno de esos proyectos era
este proyecto del perceptrón en donde lo
que querían era desarrollar máquinas que
pudieran percibir su ambiente entonces
pues
su conocimiento previo acerca de las
neurociencias Pues en lo que trató es
una de cierta forma replicar lo que pasa
en las neuronas después se convierte un
modelo matemático diferente que veremos
más adelante Pero bueno digamos que esa
es digamos el comienzo del perceptor
para poner digamos en contexto de tiempo
esto pues
Frank hizo de estas propuestas en los
50s y pues por allá del 56 estaba
trabajando en el perceptrón en estos
proyectos incluso su Artículo en donde
se publican todas estas cosas está me
parece fechado en el 59
entonces Bueno pues ese sería nuestra
introducción con Frank rosenblatt y como
dijimos Pues sí había cierta semejanza o
Inspiración en la parte neuronal y para
eso pues vamos a poner aquí la figura de
una neurona y lo que podemos ver Es que
estas neuronas lo que hacen es adquirir
información en estas conexiones que se
conocen como dendritas y estas dendritas
pues reciben la información toda esta
información se procesa en el núcleo y
luego digamos un impulso de salida se
transfiere a través del axón Y este axón
tiene terminales que van a ir a otras
neuronas Entonces tenemos digamos un
proceso en donde la información que
proviene de las dendritas pasa por el
núcleo y después se traslada a otras
neuronas Entonces se supone que hay una
cierta combinación de toda esta
información para generar nuevos impulsos
por su parte el perceptrón que propone
Frank rosenblatt pues termina siendo
algo parecido pero ya en términos
eléctricos y electrónicos entonces Esta
es una de las figuras de su propuesta y
lo que podemos ver Es una cierta
semejanza no tenemos un conjunto de
observaciones que están aquí en la parte
de la izquierda y estas observaciones
van a pasar por un cierto marco de
conexiones es decir pues bueno no todas
las percepciones o no todas las
observaciones son relevantes solo
algunas de ellas se toman en cuenta y
cuando estas que se están tomando en
cuenta cumplen con un determinado patrón
es lo que produce una determinada salida
ya cuando se construye este perceptrón
digamos en términos de una máquina pues
este termina siendo un conjunto de
circuitos y todas estas conexiones van a
terminar siendo
resistencias que nos permiten saber
cuándo debe pasar un impulso y cuando no
debe pasar un impulso
Pero bueno Pues ese es digamos la
instanciación que en ese momento se hizo
del perceptrón
y ahora lo que vamos a hacer es pasar al
modelo matemático que nos explica este
perceptor Ok no sin antes hablar incluso
de lo que decía Frank rosen plata acerca
de su perceptrón que había propuesto y
bueno lo que él decía es que pues iba a
terminar siendo una máquina capaz de
percibir reconocer e identificar todos
sus alrededores sin que tuviera el
entrenamiento explícito o el control de
un humano entonces pues parecía bastante
aventurado eso que nos estaba diciendo
Frank rosenblatt y que en ese momento
pues no era tan fácil de comprobar pero
pues a nuestros días podemos decir que
pues de cierta forma tenía razón en lo
que estaba proponiendo
Más allá de las expectativas pues
podemos decir que el perceptrón termina
siendo un mapeo a través de una función
que convierte un conjunto de entradas a
un valor de salida Ok entonces podemos
resumir ya el perceptrón como un mapeo
que nos está convirtiendo estas entradas
en una determinada salida que es de
nuestro interés y aquí lo que tenemos es
una representación gráfica del
perceptrón en donde tenemos un conjunto
de valores de entrada llamemos de inputs
este conjunto de valores de entrada pasa
por una serie de operaciones y estas
operaciones generan una salida esta
salida también se le conoce como la
predicción o la estimación y como en
muchos casos Pues bueno es una
aproximación resulta que también se le
puede escribir como ya es ir compleja
haciendo notar que es la predicción
y pasemos a más detalles de este
percepto Pues resulta que este conjunto
de entradas
se representa con un vector llamémosle x
mayúscula que está compuesto por x1 x2
hasta x n que podemos tener en ese
vector de entrada
internamente lo que hace el perceptrón
es tomar estas entradas y generar una
combinación lineal de ellas para hacer
esta combinación lineal lo que necesita
es un conjunto de parámetros o también
se denominan pesos y llamémosle W
mayúscula como un vector W 1 w2 así
hasta wn entonces en una primera etapa
lo que hace el perceptrón es generar
digamos este valor intermedio que
denominaremos con h que es el resultado
de
y multiplicar elemento por elemento y
sumarlos después Este valor intermedio
de H pasa por una función F que se
denomina función de activación una vez
que pasa por la función de activación se
genera la salida que es Jay circuito
entonces bueno anotemos aquí que estas
son inputs
y esto serían los parámetros
en cuanto a la función de activación
podemos decir que el rol que juega es
tratar de establecer de si se
encontraron ciertas combinaciones o si
se encontró un patrón en esas entradas
Entonces al igual que nosotros cuando
nos piden tomar una cierta decisión pues
tenemos que decir sí o no Verdad
Entonces esta función de activación
tiene un rol similar de tratar de decir
sí o tratar de decir no nos encontró el
patrón si un poco lo extrapolaramos si
tuviéramos una imagen de entrada pues
Queremos saber si dentro de esa imagen
de entrada existe un perro o no existe
un perro
entonces para eso en la propuesta
original del perceptrón lo que se
utiliza es una función escalón en donde
nos permite obtener un valor de salida 1
o 0 tal cual lo tenemos en esta gráfica
por lo que tendríamos es el valor de h y
tendríamos F de H
y para los valores de H que tengamos
aquí positivos Pues resulta que nuestra
salida va a ser uno y para estos valores
negativos pues la salida va a ser 0
entonces podríamos definir
nuestra función de activación Pues de
esta forma
en donde vamos a tener un cero
si resulta que H es menor que cero o
vamos a tener un 1 si resulta que H es
mayor o igual a cero no en algunas
variaciones Pues el cero puede
considerarse en el en el uno o puede
considerarse en el cero no Pero bueno
así definamos lo por ahora
entonces lo que podemos también notar es
que vamos a estar convirtiendo nuestras
entradas a un valor cero o uno si ya lo
quisiéramos formalizar Pues resultaría
que nuestro perceptrón Vamos a ponerle
aquí p mayúscula que recibe como
entradas x convierte estos valores de
entrada no decíamos que x tiene n
elementos y probablemente los elementos
son reales Entonces los va a convertir
simplemente a un valor cero o un 1 y esa
es una de las funciones principales que
tiene el perceptor agarrar este vector
de características este vector de
entrada y tomar una decisión se activa o
no se activa y bueno ahora vamos a
mencionar que existen digamos varias
definiciones que podemos dar al
perceptrón también en cuanto a si le
agregamos un extra que es el sesgo o
vayas en inglés
bueno para eso vamos a recordar un
poquito este Cuál es la definición de
una línea recta No si sigue si
recordamos que es igual a MX + b y
cuando nosotros escribimos esta línea
recta Pues resulta que tendríamos por un
lado la pendiente que está determinada
por m Pues nos va a indicar si la recta
va así o así o tiene una cierta
inclinación pero cuando queremos mover
esa recta hacia arriba o hacia abajo
hacia abajo Lo que utilizamos es este
desplazamiento en b
y por otro lado en el caso del
perceptrón Pues estamos haciendo la
combinación lineal de las entradas y los
pesos por lo tanto También estamos
generando pues una línea recta o un
hiperplan entonces una primera
definición que le podemos dar a nuestro
perceptrón sería que la salida es F de
simplemente la combinación de las
entradas con los pesos tendremos la
sumatoria de w
por x y si queremos agregar este
desplazamiento entonces podemos escribir
la sumatoria de W y por x y más B pero
en muchos casos a veces se simplifica la
programación incluso las definiciones o
el entrenamiento
Si colocamos esta B de una forma
diferente entonces podríamos colocar
esta B como
B que multiplica a un valor 1 Ok
tendremos la misma B pero resulta que
esto pues tiene la misma forma aquí de
la multiplicación de un peso por la
entrada entonces podríamos utilizar esta
anotación agregando una nueva entrada
que sea igual a 1 y simplemente
podríamos escribir el perceptrón como F
de w por
x mayúscula no entonces representando un
producto punto y recordando que el
producto punto pues es precisamente la
sumatoria de las multiplicaciones de
elemento por elemento Entonces tenemos
todas estas formas para escribir nuestro
perceptrón incluyendo este parámetro de
sesgo o de desplazamiento Bueno entonces
podemos llegar finalmente a
nuestra fórmula completa del perceptrón
ya su gráfica aquí en donde tenemos F de
este conjunto de entradas que va a
terminar siendo un cero o un 1 si
resulta que esto pues es menor o mayor o
igual que ser y aquí en nuestra figura
pues lo que podemos ver Es que tenemos
las entradas que se están multiplicando
por estos pesos y luego aquí en la parte
de abajo tenemos una entrada igual 1 que
se multiplica por el sesgo B todo esto
se suma
se convierte en este valor intermedio al
que llamaremos h y esta función que
depende de H pues convierte finalmente a
un 0 1 es decir se activa o no se activa
nuestro perfil
y con esto pues tendríamos la definición
digamos completa de nuestro perceptor
Así que pues lo que vamos a hacer ahora
es poner algunos ejemplos de cómo es que
funcionan estos perceptones ya para
determinadas entradas y pues también los
valores que tenemos internamente
entonces pues vamos a hacer algunos
ejercicios
aquí tenemos varios no por ejemplo
construir un perceptrón para que nos
realice una operación or de las entradas
o una operación and o una operación no
vamos a tomar el primer caso que sería
un or para poder extenderlo y ver cómo
está funcionando y perceptor
entonces para eso pues vamos a cambiar
un poquito de esta presentación a
nuestro pizarrón
Ya estamos aquí entonces dijimos que
queremos replicar el comportamiento de
una operación lógica y para eso vamos a
utilizar el oro esta operación tiene dos
entradas vamos a llamarlas x1 x2 y tiene
una determinada salida vamos a llamar y
entonces cuando las entradas son 0 y 0
pues la salida debe ser 0 cuando las
entradas son 0 1 la salida debe ser uno
cuando tenemos 1 0 la salida es uno y
cuando tenemos 11 la salida debe ser uno
entonces este es el comportamiento que
nos interesa replicar en nuestro
perceptor No ya después veremos que esto
es como un conjunto de datos también
pero bueno no nos preocupemos de eso
esto es el comportamiento que queremos
replicar en el preceptor
Entonces si dibujáramos nuestro
perceptrón de acuerdo a lo que vimos en
la lección una entrada x1
x2 esto pasa
aquí y habíamos puesto también una
entrada 1 con un sesgo B
Y tenemos aquí una w1
w2 y H se convierte en la sumatoria de
esas cosas
y entonces como salida tenemos fdh eso
sería lo que nosotros vimos en la
lección también podemos especificar aquí
Qué tipo de función de activación vamos
a utilizar siempre es importante
especificar Cuál es la función de
activación Porque pueden tener
variaciones etcétera Bueno vamos a meter
un poquito de variación en nuestra
función de activación y vamos a poner
que F de H
es igual a cero cuando H es menor o
igual a cero así lo estamos definiendo
ahora y uno cuando H Es mayor que 0
verdad Bueno entonces ya hicimos una
definición de nuestra función de
activación conocemos
Cuáles son las entradas que las tenemos
aquí en estos cuatro casos y conocemos
la salida que corresponde a esas
entradas lo que en este momento no
conocemos es precisamente estos valores
que tenemos aquí que son los parámetros
del perceptrón no sabemos Cuáles son
esos valores y precisamente ese era uno
de los problemas iniciales con el
perceptrón porque
pues manualmente tenían que ajustar los
circuitos para que pues se codificaran
esos valores y se obtuviera una salida
espera pues era bastante complicado no
si ya de por sí era complicado estar
haciendo las conexiones eléctricas Pues
bueno determinar Cuáles son los valores
de forma manual es un poco complicado
este caso no es tan complicado por lo
tanto pues lo que les va a pedir es que
pues ustedes este como están viendo el
vídeo pues le pongan pausa al vídeo
y que traten de estimar unos valores ahí
w1 w2 y b tal que nos producen las
salidas que nosotros estamos esperando
para cada uno de esos casos Ok entonces
bueno traten de resolverlo y ahorita
vemos cómo nos va
esperando que ya ustedes hayan propuesto
algunos valores pues vamos a tratar de
resolverlo y después comparan con lo que
yo voy a poner acá mis valores muy
simples Pues voy a poner w1 igual con
uno
w2 igual con 1 y b lo voy a poner como
cero Entonces vamos a ver si estos
valores funcionan para que nuestro
perceptrón imite este comportamiento que
nosotros queremos entonces tendríamos el
caso
número uno
en el caso número uno lo que tenemos es
x1 y x2 iguales con cero verdad entonces
podemos decir que H es igual a 1 que se
multiplica con 0 más 1 que se multiplica
con la otra entrada de 0
más cero verdad para ponerlo aquí
completo Pues estamos escribiendo w1 por
x1 más w2 por x2 + pH nos da el valor de
0
y de acuerdo a esta función de
activación que tenemos aquí
fdh termina siendo 0 esto si nos damos
cuenta
pues ya cumple con lo que nosotros
habíamos dicho acá le ponemos una
palomita y vamos por el caso
número 2 Qué es lo que está pasando
Entonces primero H ya cambian los
valores de las x verdad Entonces
tendríamos las W siguen siendo las
mismas vamos a ver x2 es igual a 1
entonces tendríamos uno por cero más uno
por uno más cero H sería igual a esto es
0 esto es uno Este es 0 1 y fdh sería
igual a 1 y eso pues parece que está
cumpliendo con lo que nosotros dijimos
hasta la otra vez palomita a nuestro
segundo caso
vamos a pasarlo por acá
y vamos a hacer el caso número 3 en
donde tenemos que H es igual a 1 que
multiplica en este caso x1 es 1 + 1 * 0
+ 0h es igual a 1 entonces F de H es
igual a 1 verdad
Entonces esto cumple también con el
tercer caso y vamos para el caso número
4
en donde tenemos que H es igual a 1 que
multiplica a uno más uno uno más cero
que es B H termina siendo uno más uno
pues dos y F de H resulta que esto es
uno
Ok entonces podemos ver que
tanto el caso 3 como el caso 4 para
estas entradas también se cumple
entonces bueno para ponerlo aquí más
completo de cómo nos resultó vamos a
poner aquí
una columna y lo que nosotros estamos
obteniendo es Yes compleja en donde pues
ya vimos que para el primer caso nos dio
0 nos dio uno nos dio uno nos dio uno en
nuestro perceptor entonces pues para
este pequeño ejemplo en donde estamos
tratando de imitar el comportamiento de
un or Pues resulta que el perceptrón lo
está haciendo bien para estos valores
que yo coloqué aquí tanto de pesos como
del sesgo y esta función de activación
tal vez ustedes hayan propuesto otros
valores y que igual esté cumpliendo con
esto que nosotros tenemos aquí no
entonces pueden existir más de una
combinación de valores que nos permite
replicar este comportamiento entonces
para terminar nuestro ejemplo
Hagamos una pequeña gráfica de que es lo
que está pasando entonces resulta que
tenemos dos variables x1
Y tenemos la otra que es x2 y voy a
poner cuando tengamos un valor de cero
pues una x y cuando tengamos un valor de
1 una palomita Verdad Entonces para el
caso Cuando tenemos cero y cero Pues el
resultado debe ser una x vamos a ponerla
de otro color para que se note en rojo
una x roja cuando tenemos el caso de 11
Entonces eso nos da uno pongamos
palomita
continuamos 1 0 eso nos da palomita
cuando ponemos 0 1
palomita verdad
veamos estas combinaciones en el caso
este aquí 0 y 0 tendríamos
una x
[Música]
lo que está haciendo nuestro perceptrón
es
generar una división en estos ejemplos
no lo no no lo estamos viendo a través
de este tan gráfico pero lo que está
pasando Es que se está generando una
separación de estos ejemplos por un lado
estamos poniendo todos los casos que
deben de ser cero y por otro lado el
perceptrón está poniendo todos los casos
en donde deben de ser uno entonces esta
línea nos permita nos permite hacer Esta
división esta línea pues puede quedar un
poquito más arriba un poquito más abajo
siempre y cuando haga la división
correcta y pues bueno da dependerá de
los parámetros que nosotros coloquemos
bueno limpiamos esto y pasemos a un caso
especial de El perceptrón
dejemos ahí como tarea al resolver para
adelante y para el not pero vayamos un
caso especial
el X por y que va a terminar siendo uno
de los cocos del perfecto pero bueno el
xor tiene dos entradas igual x1 y x2
y tiene también igual 01 Perdón 0 0 1 1
0 y 1 1
y lo que nosotros esperaríamos es que
cuando tenemos 0 0 el resultado sea 0
Cuando tenemos 0 1 resultado sea uno
cuando tengamos uno cero tengamos uno
pero cuando tengamos un 11 esto es ser
podríamos poner nuestro perceptrón
gráfico tratar de encontrar esos valores
pero resultaría que el perceptrón no es
capaz de encontrar la solución y sí
dijimos que el perceptrón y de hecho lo
dijo rosenblatt que podía hacer muchas
cosas pero resulta que el perceptrón
simple Pues solo puede resolver
problemas lineales
y vamos a ver por qué y bueno quitemos
nuestro meme del día
veamos Qué es lo que está pasando con el
xor pongamos es igual una gráfica Cuando
tenemos un cero cero
tendríamos una x
Cuando tenemos
el 11 también tendríamos una x cuando
tenemos un 01 pues tendremos uno que lo
representamos con una palomita y cuando
Tenemos uno con cero También tenemos uno
que lo representamos con una palomita
en este problema
resulta que no podemos hacer una
separación lineal de las cosas no
vamos a suponer que ponemos una línea
aquí no estamos separando bien los casos
aquí estamos cometiendo errores porque
no estamos separando las x de las
palomitas no como estamos separando los
unos de los ceros
podemos poner la línea así podemos
ponerla así podemos darle buscando y
resulta que no podríamos resolver este
problema porque no es un problema que se
pueda resolver mediante una combinación
lineal
Entonces porque resultó que pues mucha
gente dijo pues hoy Esto del perceptrón
sonaba bien pero resulta que no está
resolviendo un problema que parece
bastante básico no
Ok pues bueno pues este Pues digamos que
eso mostraría Cuáles son los límites de
un perceptrón sencillo
pero resulta que tenemos una ventaja que
podemos apilar estos perceptores tanto
en capas secuenciales como en capas
paralelas y cuando nosotros hacemos la
combinación de varios de estos
perceptones ya estaríamos formando un
perceptrón multicapa o una red neuronal
y resulta que ya cuando tenemos estas
combinaciones si podemos resolver los
problemas no lineales como es el Xbox
entonces pues eso sería lo que vamos a
estar viendo en las siguientes lecciones
en Cómo es que este perceptrón primero
Cómo es que lo vamos a poder entrenar y
luego cómo es que lo vamos a estar
extendiendo para resolver problemas más
complicados y una vez que se extiende
pues como lo entrenamos una vez que pues
tiene muchas capas así que pues bueno
Esto es lo que correspondería al
perceptrón y nos vemos en la siguiente
sesión
5.0 / 5 (0 votes)