Tu Primer Modelo de Machine Learning | Data Science con Python | Inteligencia Artificial
Summary
TLDREste video ofrece una guía detallada sobre cómo crear un modelo de Machine Learning desde cero. El presentador, Javier, un matemático y científico de datos, utiliza un conjunto de datos de propiedades de Melbourne para enseñar los conceptos fundamentales. Inicia importando pandas para manipular y explorar los datos, identifica y maneja valores faltantes, y luego utiliza características como el número de habitaciones y baños, así como la latitud y longitud para predecir el precio de las propiedades. Javier selecciona un Decision Tree Regressor como modelo inicial, lo entrena y evalúa su rendimiento utilizando el Mean Absolute Error (MAE). Para mejorar la calidad del modelo, discute la técnica de train-test split para evitar el overfitting y sugiere ajustar parámetros como el número de hojas en el árbol de decisión. Finalmente, compara el rendimiento del Decision Tree con un Random Forest, encontrando que este último ofrece mejores resultados sin ajustar parámetros. El video concluye con una llamada a la acción para que los espectadores den like, dejen comentarios y se suscriban para más contenido educativo.
Takeaways
- 📈 El vídeo es una guía para crear un primer modelo de Machine Learning paso a paso.
- 📊 Javier, el presentador, es un matemático y científico de datos que comparte conocimientos sobre Data Science.
- 🏠 Se utiliza un conjunto de datos de casas en Melbourne para示范 el proceso de análisis y modelado.
- 📄 Se emplea pandas, una biblioteca de Python, para leer y manipular archivos CSV.
- 🧐 Se realiza una exploración inicial de los datos para entender la estructura y las características relevantes.
- 🔍 Se busca identificar y manejar los valores faltantes (missing values) en los datos.
- 🚫 Se decide eliminar filas con valores faltantes para simplificar el proceso.
- 🌳 Se selecciona un modelo de Decision Tree Regressor para hacer predicciones sobre el precio de las casas.
- ⚙️ Se discuten los parámetros del modelo y su efecto en el overfitting y underfitting.
- 📝 Se utiliza el mean absolute error (MAE) como métrica para evaluar el rendimiento del modelo.
- 🔄 Se realiza una división en conjuntos de entrenamiento y validación para evitar el overfitting.
- 🌳 Se sugiere que el modelo Decision Tree puede ser ajustado con diferentes parámetros, como el número de hojas.
- 🔧 Se compara el rendimiento del modelo Decision Tree con un modelo Random Forest, obteniendo mejores resultados con este último.
Q & A
¿Qué es lo que Javier quiere enseñar en este vídeo?
-Javier quiere enseñar paso a paso cómo crear el primer modelo de Machine Learning utilizando un conjunto de datos de casas en Melbourne.
¿Qué biblioteca de Python se utiliza para leer archivos CSV?
-Se utiliza la biblioteca 'pandas' para leer archivos CSV en Python.
¿Qué función de pandas se utiliza para leer un archivo CSV?
-La función 'read_csv' de pandas se utiliza para leer un archivo CSV.
¿Qué hace la función 'describe' en un DataFrame de pandas?
-La función 'describe' muestra un resumen de las estadísticas descriptivas de las columnas numéricas de un DataFrame.
¿Cómo se identifican los valores faltantes en un DataFrame de pandas?
-Los valores faltantes en un DataFrame de pandas se identifican con 'NaN' (Not a Number).
¿Qué hace el método 'dropna' en un DataFrame de pandas?
-El método 'dropna' se utiliza para eliminar filas o columnas que contengan valores faltantes ('NaN').
¿Qué es un Decision Tree Regressor y cómo se utiliza en Machine Learning?
-Un Decision Tree Regressor es un modelo de Machine Learning que utiliza una estructura en forma de árbol para predecir valores numéricos basándose en características o predictores.
¿Qué es el MAE en el contexto de Machine Learning?
-El MAE (Mean Absolute Error) es una métrica que mide el error absoluto medio cometido por un modelo en sus predicciones.
¿Qué es el overfitting en Machine Learning y cómo se puede prevenir?
-El overfitting es cuando un modelo se ajusta demasiado bien a los datos de entrenamiento y, por lo tanto, no generaliza bien a nuevos datos. Se puede prevenir ajustando los parámetros del modelo, como el número de hojas en un Decision Tree, o utilizando técnicas como el train-test split.
¿Cómo se realiza una división en un conjunto de datos para entrenamiento y validación en Machine Learning?
-Se utiliza la técnica del 'train-test split', que divide el conjunto de datos en dos partes: una para entrenar el modelo y otra para validar su desempeño.
¿Qué es un Random Forest y cómo difiere de un Decision Tree Regressor?
-Un Random Forest es un modelo de Machine Learning que consiste en una colección de árboles de decisión. Difiere del Decision Tree Regressor en que utiliza múltiples árboles para hacer predicciones, lo que generalmente lleva a una mejor precisión y menor riesgo de overfitting.
¿Por qué es importante ajustar los parámetros de un modelo de Machine Learning?
-Ajustar los parámetros de un modelo de Machine Learning es importante para encontrar el mejor equilibrio entre la capacidad de aprendizaje y la capacidad de generalizar a nuevos datos, evitando así el overfitting o el underfitting.
Outlines
😀 Introducción al Modelado de Machine Learning
El vídeo comienza con Javier, un científico de datos, que presenta el proceso de creación de un modelo de Machine Learning paso a paso. Comienza importando la biblioteca pandas para leer un conjunto de datos CSV de propiedades en Melbourne. Luego, utiliza la función 'read_csv' para cargar los datos y se asegura de que estén separados por comas y en formato UTF-8. Después de cargar los datos, utiliza 'describe' para obtener una visión general de las características numéricas y detecta valores faltantes, los cuales decide eliminar para limpiar el conjunto de datos.
🤖 Preparación y Selección de Variables
Javier procede a explicar cómo se seleccionan las variables para el modelo, eligiendo 'price' como la variable objetivo y 'rooms', 'bathroom', 'land size', 'latitude' y 'longitude' como características predictoras. Estas variables numéricas son importantes para predecir el precio de una propiedad. Luego, utiliza técnicas para manejar los valores faltantes, optando por eliminar filas con datos faltantes, reduciendo el tamaño del conjunto de datos pero mejorando su calidad.
📈 Entrenamiento del Modelo y Evaluación Inicial
Para entrenar el modelo, Javier decide utilizar un 'decision tree regressor', un modelo que se divide en características y luego predice el valor de la propiedad. Entrena el modelo con 6000 instancias y luego evalúa sus predicciones en las primeras cinco propiedades, obteniendo una precisión del 100%. Sin embargo, utiliza el 'mean absolute error' (MAE) para medir el rendimiento del modelo, encontrando un error de 1115, lo que indica una buena precisión en las predicciones.
🔍 Detección de Overfitting y Soluciones
Javier discute el problema del overfitting, donde el modelo se ajusta demasiado bien a los datos de entrenamiento y no generaliza bien a nuevos datos. Para solucionarlo, utiliza la técnica de 'train-test split', separando los datos en un conjunto de entrenamiento y uno de validación. Evalúa el modelo en el conjunto de validación y encuentra un error más grande, lo que indica que el modelo no es tan preciso como parecía. Propone ajustar los parámetros del modelo para prevenir el overfitting y mejora el MAE a 266 con 50 hojas en el árbol de decisión.
🚀 Comparación con un Modelo Random Forest
Para mejorar el modelo, Javier sugiere probar con un 'Random Forest', que es una extensión del modelo de árbol de decisión que utiliza múltiples árboles para predecir el valor. Sin ajustar los parámetros, el modelo Random Forest mejora el MAE a 195, lo que indica que este modelo es más efectivo para predecir precios de propiedades en comparación con el modelo de árbol de decisión simple.
Mindmap
Keywords
💡Machine learning
💡CSV
💡Pandas
💡Missing values
💡Describe
💡Decision Tree
💡Features
💡Overfitting
💡Train-test split
💡Mean Absolute Error (MAE)
💡Random Forest
Highlights
El vídeo ofrece un tutorial paso a paso para crear un modelo de Machine Learning.
Se utiliza un conjunto de datos de casas en Melbourne para el análisis.
Importancia de la biblioteca pandas para leer archivos CSV.
Se aborda la exploración de datos y la importancia de las columnas numéricas.
Se destaca la presencia de 'missing values' en los datos y su impacto en el aprendizaje automático.
Eliminación de filas con 'missing values' para limpiar los datos.
Se presenta la página web de Javier para cursos de programación y soporte.
Elección de variables numéricas como características para predecir el precio de las casas.
Selección del 'Decision Tree Regressor' como modelo de Machine Learning.
Entrenamiento del modelo con características de las casas y su respectivo precio.
Uso del método 'predict' para estimar el precio de las primeras cinco casas.
Análisis de la precisión del modelo, que alcanza un 100% en las primeras predicciones.
Introducción del MAE (Mean Absolute Error) como métrica para medir el error en las predicciones.
Se destaca el riesgo del 'overfitting' cuando el modelo se ajusta demasiado bien a los datos de entrenamiento.
Se realiza una división en conjuntos de entrenamiento y validación para evitar el overfitting.
Se evalúa el modelo con el conjunto de validación y se obtiene un error más realista.
Ajuste de parámetros en el 'Decision Tree Regressor' para mejorar el modelo y evitar el overfitting.
Comparación del rendimiento del 'Decision Tree Regressor' con el de un 'Random Forest'.
El 'Random Forest' ofrece un mejor MAE sin ajustar parámetros, sugiriendo su potencial superior.
Se concluye el tutorial habiendo creado y ajustado dos modelos de Machine Learning.
Transcripts
Hola Qué tal en este vídeo quiero
enseñaros paso a paso cómo crear vuestro
primer modelo de Machine learning vamos
a verlo juntos soy Javier Data Science
matemático y científico de datos Y en el
canal te enseño todo lo relacionado con
los datos enfocándome en el Data Science
así que bueno sin más vamos a empezar
con lo que tenemos aquí preparado vale
que es lo siguiente Yo tengo un set de
datos vale que es Mel Data csv que esto
es los datos de Melbourne de unas casas
aquí os enseño el csv que voy a usar
vale en la primera fila tengo las
columnas del csv del dataframe vale Y
luego ya tengo todos los datos separados
por coma vale como vemos aquí arriba muy
importante así que bueno yo ahora me voy
a ir a mi Notebook vale donde voy a
hacer el análisis y lo primero es
importar pandas vale pandas sirve para
leer los csvs y que se me pongan en este
formato que vemos aquí abajo y que ahora
voy a explicar Así que lo primero lo voy
a importar import pandas aspd Por qué
aspd Porque bueno cada vez que yo quiero
usar una función de pandas tengo que
invocar pandas tengo que poner pandas
punto tal pero la convención es que todo
el mundo ponga pd porque se entiende que
es pandas Y es más rápido de escribir
vale una vez importado pandas vamos a
explorar los datos Aquí voy a usar la
función read csv Vale entonces yo aquí
tengo que poner la ruta al csv que yo
quiero leer en este caso está en la
misma carpeta Así que solamente tengo
que poner esto de aquí y bueno por
suerte se me Lee bien vale Por qué digo
por suerte porque hay veces que el csv
está separado por punto y coma o que en
vez de estar en utf8 que es el lenguaje
normal puede tener lenguaje con tildes
en ruso Vale entonces eso no te lo va a
leer bien y esos son los casos más
sencillos luego hay otros en los que
esto se te puede ir de madre y tiene
unas cosas muy raras Pero bueno de
momento nos ha salido bien en el caso de
que te encuentres con estos problemas tú
puedes irte a la documentación de pandas
y miras aquí todos los parámetros que
puedes usar para poner el csv bien así
que bueno ya lo tengo aquí leído y vamos
a ver un poquito cosas que tiene tiene
suburb address rooms vale price Esta es
la variable que queremos predecir vale Y
luego muchas otras Okay arriba Bueno veo
un poco cada columna no Pero y si quiero
ver cómo son todas en general pues yo
voy a hacer un describe y describe lo
que me hace es que va a irme columna por
columna diciéndome lo que tiene
importante solo columnas numéricas Por
qué Porque me va a realizar algunas
operaciones estadísticas Y claro no
puedo hacer la media de una variable que
sea suburbio No aquí no hay una media
verdad Así que solamente las variables
numéricas qué me llevo de aquí pues
bueno vemos que estas de aquí parece que
tienen todas las filas sin missing vales
pero sí que estas dos vemos que hay
missing values Qué son missing values
missing values son datos en los que no
aparece la información por ejemplo aquí
vale mira Nan not a number entonces aquí
no es que sea yarra no es que sea 120 No
es que no lo sabemos ni siquiera es un
cero es que no sabemos Cuánto es un dato
se puede decir como erróneo vale estos
datos nos van a poner muchos problemas a
la hora de hacer problema de Machine
learning Así que vamos a ver cómo
solucionarlo antes de continuar quiero
decir que tengo una página web en la que
vendo cursos de programación en el que
tengo vídeos con teoría y ejercicios
resueltos Lo importante es que también
tienes mi soporte vas a poder escribirme
siempre que quieras Así que ya sabes si
quieres aprender a programar Vete a
javid datascience.com y mira mi curso en
este proyecto de aquí solamente quiero
que hagas tu primer modelo de Machine
learning Así que no voy a meterme en
cosas más avanzadas para filtrar o
imputar esos missing values Así que yo
lo que voy a hacer es Oye cualquier fila
que tenga un missing value voy a
quitarlo vale Cómo se hace pues melborne
dataframe Drop na axis ig a 0 esto lo
que hace es que bueno el axis igual a
cer va a buscando por filas Entonces
cuando encuentra una fila que tenga un
missing valum la quita entera Así que yo
ejecuto esto y bueno importante he
pasado de 13000 filas 13500 vale
a 6000 filas O sea me he quitado más de
la mitad porque en más de la mitad hab
algún missing value una vez que ya
tenemos los datos limpios Vamos a
continuar con el modelo de Machine
learning como Este modelo va a ser muy
sencillo ya si tú quieres te dejo como
ejercicio que profundices todo lo que tú
quieras aquí simplemente voy a poner Oye
que la variable I que es la variable
predecir va a ser price y luego las x
son rooms bathroom Land size latitude y
longitud por qué porque estas son
variables numéricas vale las categóricas
también me van a dar problemas en
general y son variables que yo creo que
van a funcionar por ejemplo rooms el
número de habitaciones es muy importante
el número de baños también el tamaño y
bueno también he metido la latitud y
longitud a ver si me sirve quiero que
quede claro que I es la variable a
predecir y las x son las características
las features que me van a servir para
predecir esta I Así que las x son los
predictores y la i es la variable a
predecir cargo esto de aquí luego Aquí
voy a entrenar el modelo de Machine
learning yo he decidido elegir un
decision tre regressor Qué es eso pues a
ver decision regressor la última parte
es de regresión o clasificación si yo
quisiera clasificar si mañana llueve o
no pues necesitaría un decision 3
classifier pero como voy a predecir una
variable numérica Necesito un regressor
vale Y luego decision 3 es un modelo muy
sencillo vale que simplemente va a ir
mirando características características
y va a ir dividiendo vale por ejemplo
tiene más de dos baños vale también
tiene más de X habitaciones pues
entonces tú ya has entrenado el modelo
con otras casas similares y ya sabes que
si una casa tiene más de dos
habitaciones más de dos baños y está por
esta zona pues va a valer tal si no va a
valer tal Y así con cada casuística
podemos hacerlo todo lo complejo que
queramos el árbol ir haciendo todas las
divisiones que queramos vale Así que
simplemente para entrenar el modelo de
Machine learning es primero elegir uno
yo he elegido este de aquí también
puedes elegir una región logística o una
red neur vale lo que tú quieras y
entonces cargas el modelo vacío es decir
Mel burner model es decision trior aquí
está vacío y luego lo entrenas como le
pasas las características todas y las I
es decir yo te paso estas
características de una casa y vale lo
siguiente y así tú le vas a dar pues las
6,000 Vale pues entonces este árbol se
va a ir entrenando y ya va a saber
clasificar cuando tú mañana le des un
piso con x características te va a dar
un precio y así que vamos a entrenar
modelo hacemos esto y vemos que tarda un
poquito vale está cargando porque el
árbol se tiene que entrenar y una vez
que está cargado vamos a hacer lo
siguiente vamos a mirar las predicciones
para las cinco primeras casas Vale
entonces hacemos x. Head para ver las
primeras con sus características luego
quiero ver el precio real lo tenemos
debajo y luego importante vamos a ver
las predicciones cómo se miran las
predicciones Pues el modelo Tiene un
método que es predict predict sirve para
que tú le pases unas casas unas
características sin el precio y el te
diga cuánto creen que vale Por qué
Porque él ya sabe ya está entrenado con
casas similares así que ya ha aprendido
entonces tú si le pasas una casa nueva
te va a decir cuánto vale según lo que
ha aprendido así que ejecuto esto de
aquí y vamos a ver Estas son las cinco
primeras pasamos un poco vale Este es el
precio real y aquí vemos las
predicciones el primero lo ha hecho bien
el segundo bien el tercero bien Mira
estos cinco primeros los ha clavado ha
dado la estimación exacta Así que yo
Acabo de crear un modelo Que de momento
está a acertando el 100% pero claro
hemos cogido cinco recordamos que
tenemos 6000 casas vamos a verlo en
total a ver cuánto error está cometiendo
para eso introduzco el término del mae
Qué es el mae el mae es una métrica que
sirve para ver el error absoluto que
estamos cometiendo significa mean
absolute error y quiere decir Oye
calcúlame el error que estás cometiendo
en cada casa Por ejemplo si una casa
vale un millón yo digo que vale 950 está
cometiendo 50.000 de error verdad pues
Enton entonces en esa casa tenemos 50
pasamos a la siguiente casa y resulta
que en vez de un millón dice que es 1,00
pues acaba de cometer 500 de error si te
das cuenta una una es el error por
encima y otro es por debajo a efectos
prácticos nos da igual porque por eso es
el min absolute error el error absoluto
no da igual que sea un error negativo o
positivo porque yo al final voy a sumar
todos los errores positivos también los
negativos los paso a positivos Así que
vamos a ver el ma que estoy cometiendo
el error que he cometido en todas las
casas Lo sumo y hago la media vale Aquí
vamos a importar el mean absolute error
de esal Matrix Vale y nada simplemente
venga vamos a predecir predicted Home
prices es todos los precios que estamos
haciendo en predicted vale con predict Y
entonces voy a hacer el me absolute
error de I Es decir de los valores
reales con los valores que estamos
prediciendo así que si lo ejecuto me
dice que tenemos un error del
1115 o sea estamos hablando de casas que
valen a ver 1 mill 2 millones y solo se
está equivocando en 1000 o sea este
modelo podemos decir que es casi
perfecto No si tú vas a la calle y
preguntas a cualquiera cuánto vale esa
casa va a costar que acierte pero es que
este modelo lo está prediciendo a la
perfección solamente 1000 para arriba
1000 para abajo cuando estamos hablando
de 2 millones que puede valer una casa
aquí Bueno debería saber que estoy
haciendo un poco de trampa porque si
esto fuera tan bueno como parece yo no
estaría aquí yo estaría ya en la bolsa
invirtiendo Bueno ya lo habría hecho no
Qué pasa aquí hay un problema que es que
al modelo ya le hemos entrenado con las
casas que está prediciendo es decir yo
aprendo con unas cuantas personas no
entonces Yo tengo un amigo Bernie que es
alto Muy bien pues entonces el modelo
aprende que cuando una persona se llame
Bernie va a ser alta Qué pasa si lo
sacas a la calle y coges a otro Bernie a
lo mejor no es alto pero si yo otra vez
le muestro al Bernie con el que yo le he
entrenado va a decir que es alto y va a
acertar pero eso es hacer trampa tú
tienes que predecir lo que no has visto
Así que vamos a darle una vuelta de
tuerca para ver Cuál es el error que
está cometiendo cómo hacemos eso pues
hay una técnica muy importante en
Machine learning que es tú tienes un
número de casas por ejemplo bueno 6,000
Pues tú vas a dividir 5000 5000 son
tuyas para entrenar al modelo y te vas a
guardar 1000 para ver lo bien que lo
está haciendo tu modelo porque si no
volvemos a lo de siempre está haciendo
trampas si ya ha visto esa casa y te
digo cuánto vale si es que ya la ha
visto es muy difícil que falle pero si
no la he visto ahí donde de verdad veo
cómo lo está haciendo Cómo se hace eso
pues es muy sencillo vamos a train
test split vale que esto lo que hace es
que tú vas a darle una x y una I y te lo
vas a dividir en unas x para entrenar la
i esas i o sea los precios de esas casas
vale para entrenar y lo mismo con un set
de validación la validación la dejamos
aparte no la vemos y no hacemos nada con
ella vale Así que lo que vamos a hacer
es Oye vamos a crear otro modelo vamos a
entrenarlo solamente con el train vale Y
luego vamos a ver las predicciones de
validación es decir yo me entreno con
xtrain y ya con ese modelo me voy a las
XD de validación y calculo su precio y
ahora que tengo su precio calculado voy
a comprarlo con su precio de verdad a
verlo bien que lo estamos haciendo Así
que ejecuto esto y ahora sí que me está
diciendo una cosa que tiene más sentido
se está equivocando ya por
257,000 vale antes se confundía por 1000
eso no es nada pero por 257 ya sí que
hay un error más grande vale ya vemos
que este modelo no era tan bueno como
parecía y este concepto que yo te acabo
de enseñar es el overfitting vale es
decir se ha aprendido muy bien sus datos
Y entonces va a aplicar lo que sabe a
todo lo que vea Pero eso puede llevarnos
a errores como el ejemplo que he dicho
de tu amigo que se llama Bernie que es
alto que ahora todos los bernis son
altos no tiene por qué cómo se puede
solucionar esto Pues el modelo de
decision 3 tiene muchos parámetros
algunos sirven para prevenir esto para
prevenir el overfitting o el
underfitting que sería un poco lo
contrario Pero bueno vamos a quedarnos
solamente con el overfitting Así que lo
que podemos hacer es jugar un poco con
los parámetros de de decision 3
classifier y en vez de jugar con una
hoja porque esto ya es más técnico Pero
tú puedes hacer una división o cuatro o
20 Pues vamos a ver Cuántas hojas Me da
el mejor resultado porque el número de
hojas está muy relacionado con el
término de overfitting vale a más hojas
más overfitting o menos depende también
de tus datos vale Pero bueno vamos a ver
estas hojas Cómo funcionan simplemente
vamos a crear una función en la que el
modelo es el decision 3 regressor pero
vamos a cambiarle el Max lift notes vale
vamos a entrenar el modelo vamos a
predecir los valores de variación de x y
vamos a devolver el mae Vale entonces
esta función que está haciendo aquí
simplemente me va a servir para yo
probar diferente número de hojas para el
árbol y ver cuándo consigo el mejor
resultado Así que nada yo ejecuto esto
de aquí y ahora quiero hacer la prueba
con for Max lft notes in 550 505000 es
decir voy a en estos ejemplos vale
con cinco hojas 50 etcétera A ver cuándo
consigo un mejor mae Así que yo lo
ejecuto por la función que he ejecutado
antes no y me sale que con cinco hojas
tengo
375,000 de error vale que es más de lo
que he hecho antes luego con 50 266 un
poquito peor Pero sí que con 500 consigo
mejorarlo sabemos que con 500 hojas Voy
a conseguir un mejor mae que con lo que
he hecho antes que es como por defecto
que no sabemos Cuál es que si te metes
en la documentación vas a ver cuánto es
no pero tú Aquí sabes que con 500 lo
mejoras luego vemos que con 5000 otra
vez Parece que ya empieza emp a
fastidiarse vale ya empieza a subir Así
que nos vamos a quedar solamente con 500
así que ya has visto hasta aquí hemos
probado maxli noes pero sí que tiene
muchos otros parámetros vale que tú lo
puedes ver en la documentación ir
cambiando y esperar a ver dónde
conseguimos el mejor resultado Y por
último La pregunta es hasta aquí ya no
podemos conseguir algo mejor pues Oye y
si probamos otro modelo así rápidamente
Y si en vez de un decision 3 usamos un
Random Forest vale Esto bueno habría que
meterse ya a explicar lo que es un
Random Forest pero vamos a solamente a
usarlo y a ver qué nos sale pues yo
ejecuto esto de aquí con importo Random
Forest y hago lo mismo que he hecho
antes pongo el modelo lo entreno y
hacemos la predicción y me sale que de
mae está haciendo 195 o sea un Random
Forest sin cambiar los parámetros ya me
está dando un mejor mae que lo de antes
así que ya sabemos que en este caso
parece que Random Forest lo va a hacer
mejor que el decision 3 classifier
regressor perdón y esto es solo el
comienzo hasta aquí ya hemos creado no
Uno sino dos modelos de Machine learning
en el que hemos ajustado los parámetros
y hemos sacado el mejor mae posible y
hasta aquí vamos a dejarlo así que bueno
si te ha gustado Espero que dejes un
like un comentario y que te suscribas
que a mí me ha ayudado un montón Eso es
todo por hoy nos vemos en el siguiente
vídeo un saludo
Browse More Related Video
Cómo Saber Si Una Estrategia De Trading Funciona Sin Perder Ni $1
FormData en javascript - Obteniendo datos de un formulario - Como cuando y porque usarlo - JS
TEM. 2 CAP. 9 Software impresión 3D
💵 Cómo saber si mi NEGOCIO ES RENTABLE [👌 Calcular RENTABILIDAD EXCEL] | Jorge Romero
Modelos para entender una realidad caótica | DotCSV
Tu primer clasificador de imágenes con Python y Tensorflow
5.0 / 5 (0 votes)