¡Google SORPRENDE con la IA del MILLÓN DE TOKENS! (Gemini 1.5)
Summary
TLDREl video analiza el reciente anuncio de Google sobre Gemini 1.5, la nueva versión de su modelo de IA conversacional. Destaca la incorporación de la arquitectura Mixture-of-Experts para mayor eficiencia y el aumento de la ventana de contexto a 1 millón de tokens, permitiendo procesar hasta 1 hora de vídeo o 10 millones de líneas de código. También menciona las capacidades multimodales para analizar vídeo, audio e imágenes. Compara con GPT-4 y predice próximos movimientos de OpenAI. Resalta que Gemini 1.5 parece dar un paso adelante, pero aún falta probarlo.
Takeaways
- 😲 Google presentó Gemini 1.5, una nueva versión de su IA conversacional con mejoras en eficiencia y tamaño de contexto
- 📈 Gemini 1.5 usa una arquitectura MOE que permite modelos más grandes y eficientes
- 🔢 Gemini 1.5 Pro tiene una ventana de contexto de 1 millón de tokens, 10x más que la versión anterior
- 🎥 Gemini 1.5 puede procesar 1 hora de video o 30,000 líneas de código en una sola inferencia
- 📚 Resuelve con éxito pruebas de 'aguja en un pajar' en modalidades como video, audio y texto
- ⚡ El anuncio sorprendió tras la decepción con Gemini Ultra la semana pasada
- ⏩ Google parece estar acelerando el paso para competir con GPT-4 de OpenAI
- 👀 Se espera que OpenAI también tenga novedades pronto para responder a Google
- 😎 La capacidad de procesar video abre nuevas posibilidades para la IA conversacional
- 🕵️ Se necesita probar Gemini 1.5 a fondo para validar las métricas presentadas
Q & A
¿Cuánto tiempo ha pasado desde el anuncio de Gemini de Google?
-Han pasado solo dos meses desde el anuncio de Gemini de Google.
¿Qué sucedió tras la presentación de Gemini?
-Hubo una decepción generalizada tras comprobarse que dicha presentación fue un poco fake.
¿Qué hizo Google con el modelo Bart?
-Google decidió matar a Bart para sustituirlo por la nueva marca comercial Gemini, haciéndolo coincidir con la salida del sistema Gemini Ultra.
¿Qué ha lanzado Google recientemente relacionado con Gemini?
-Google ha lanzado Gemini 1.5, una versión actualizada de su modelo de IA.
¿En qué consiste Gemini 1.5?
-Gemini 1.5 presenta una nueva arquitectura basada en Mixture of Experts (MoEs) que es más eficiente, y tiene una capacidad de contexto muy grande de 1 millón de tokens.
¿Cómo compara el rendimiento de Gemini 1.5 Pro con versiones anteriores?
-Gemini 1.5 Pro rinde a la par que Gemini 1.0 Ultra, es decir que la versión intermedia de la nueva generación iguala a la versión más avanzada anterior.
¿Qué capacidades multimodales presenta Gemini 1.5?
-Gemini 1.5 muestra capacidades para procesar y entender diferentes tipos de datos como video, audio, imágenes y código de programación.
¿Por qué Google habría lanzado esta actualización tan rápido?
-Posiblemente porque sabía que OpenAI iba a lanzar pronto una actualización de GPT-4 y quería tomar la delantera.
¿Qué se espera de OpenAI como respuesta?
-Ahora todos esperan que OpenAI presente alguna novedad como respuesta al lanzamiento de Gemini 1.5 por parte de Google.
¿Hay alguna novedad por parte de OpenAI el día del anuncio de Gemini 1.5?
-No, el día del anuncio de Gemini 1.5 no hay ninguna novedad por parte de OpenAI.
Outlines
😊 Google anuncia Gemini 1.5, su nuevo modelo de IA
Este párrafo presenta Gemini 1.5, el nuevo modelo de IA de Google anunciado solo una semana después del lanzamiento de Gemini 1.0 Ultra. Se explica que Gemini 1.5 utiliza una arquitectura más eficiente basada en Mixture of Experts que permite entrenar modelos más grandes. La versión Gemini 1.5 Pro tiene un rendimiento similar a Gemini 1.0 Ultra. Lo más destacado es que introduce contextos de gran tamaño, con capacidad para procesar hasta 1 millón de tokens a la vez.
📽 La gran ventaja: análisis de video y contextos más grandes
Este párrafo profundiza en la ventaja principal de Gemini 1.5: su capacidad para procesar contextos muy grandes, equivalentes a 700,000 palabras, 30,000 líneas de código o incluso 1 hora de video. Esto permite al modelo analizar y responder preguntas sobre videos largos de forma efectiva. Se muestra un ejemplo impresionante analizando 44 minutos de una película.
🔎 Búsquedas avanzadas en contenido multimedia
En este párrafo se imaginan futuras capacidades avanzadas de búsqueda en plataformas como YouTube, gracias a que el modelo puede indexar y comprender el contenido de videos. Se podrían hacer búsquedas sobre momentos específicos en un video mediante descripciones textuales o dibujos. Todo gracias al análisis de video que permite Gemini 1.5.
💯 Por fin, ventanas de contexto utilizadas efectivamente
Finalmente, se explica que la gran ventaja no es solo el tamaño de la ventana de contexto, sino la efectividad en su uso. Según un paper publicado, Gemini 1.5 pasa exitosamente la prueba de la aguja en un pajar, pudiendo encontrar información en cualquier posición del contexto analizado. Esto predice que en 2024 se superará el millón de tokens con modelos que utilicen toda la ventana de forma útil.
Mindmap
Keywords
💡Inteligencia artificial
💡Gemini
💡GPT-4
💡Anthropic
💡Ventana de contexto
💡Multimodalidad
💡Mezcla de expertos
💡Aguja en un pajar
💡Beta privada
💡GPT-4
Highlights
Google presenta su nuevo modelo de IA Gemini 1.5 con mejor rendimiento y eficiencia
Gemini 1.5 utiliza una arquitectura Mixture-of-Experts para entrenar modelos más grandes de forma más eficiente
La versión Gemini 1.5 Pro rinde igual que la versión 1.0 Ultra, pero es más eficiente
Lo más impresionante de Gemini 1.5 es su gran tamaño de ventana de contexto de 1 millón de tokens
1 millón de tokens permiten procesar una hora de video o 30,000 líneas de código de una vez
Google muestra demo con Gemini 1.5 respondiendo preguntas sobre un video de 44 minutos
Gemini 1.5 también permite consultar bases de código grandes y modificar código encontrado
Estas capacidades se deben al uso efectivo de la gran ventana de contexto de 1 millón de tokens
Google parece haber superado exitosamente pruebas de estrés con la ventana de contexto
Gemini 1.5 introduce análisis de video, una capacidad no vista antes en modelos como GPT-4
El rápido lanzamiento de Gemini 1.5 podría ser una respuesta a los próximos movimientos de OpenAI
La gran ventana de contexto y uso efectivo eran una predicción para la IA en 2024
Google parece haber dado un paso adelante frente a OpenAI con Gemini 1.5
Destaca la introducción de análisis de video y la efectiva ventana de contexto de 1 millón de tokens
Ahora se espera la respuesta de OpenAI ante los avances presentados por Google
Transcripts
han pasado solo dos meses desde el
anuncio de Google de su tan esperada
Inteligencia artificial gemini ha pasado
solo dos meses menos un día desde la
decepción generalizada tras comprobarse
que dicha presentación Pues fue un poco
fake y ha pasado solo una semana desde
que Google decidió matar a Bart para
sustituirlo por la nueva marca comercial
gemini haciéndolo coincidir con la
salida del sistema gemini Ultra y
habiendo ocurrido todo esto hace una
semana va Google hoy y nos sorprende con
la salida de gemini
1.5 y no entiendo nada vale Este vídeo
lo estoy grabando el jueves por la tarde
A pocas horas del anuncio por parte de
Google y quiero aprovecharlo para bueno
para que reaccionemos y para que
conozcáis Qué es todo lo que han
presentado y para analizar un poquito
todos estos movimientos que la verdad
viniendo de una empresa como Google que
tanto tiempo ha tardado en activarse
ante la respuesta por parte de Open a
con la salida de gpt 4 Pues de repente
nos sorprende que hayan tomado un ritmo
tan rápido lo primero es lo primero
vamos a ver en qué consiste esto de
gemini 1.5 si venimos aquí a la página
web de gemini de repente nos encontramos
con una pestaña que nos lleva a gemini
1.5 su modelo next Gen el modelo de
próxima generación y aquí ya vemos que
nos dice que bueno que gemini 1.5 lo que
nos entrega es un rendimiento mejorado
con una arquitectura mucho más eficiente
ahora vamos a ver de qué se trata y
también una característica que aún es
experimental pero que para mí es la que
marca la diferencia que es contextos de
Gran tamaño y si entramos a leer todo el
blog Pues aquí es donde vamos a
encontrar toda la información necesaria
lo primero que nos encontramos es que
gemini 1.5 Presenta una nueva
arquitectura basada en los mixter of
experts los moes arquitectura de la que
ya hablamos aquí en este vídeo de
diciembre y que como sabéis es la
arquitectura que está detrás de modelos
tan potentes como gpt 4 y tal y como
vimos en aquel vídeo los moes lo que nos
ofrecen es la capacidad de poder
entrenar modelos mayores donde el coste
computacional y el coste de inferencia
se reduce enormemente al distribuir Pues
el procesamiento en diferentes sistemas
expertos es decir nos permite contar con
modelos de mayor capacidad de mayor
número de parámetros pero donde por
ejemplo en cada inferencia no vamos a
estar activando todos los parámetros del
modelo lo cual lo hace mucho más
eficiente tratándose de modelos que
Google como empresa que es que va a
ofrecer esta ia como servicio pues va a
estar ofreciendo a millones y millones
de usuarios con lo cual es muy buena
idea que hayan explorado los mixter of
experts y es interesante que estén dando
un paso hacia parecerse más a un modelo
tipo gpt 4 pero lo interesante viene
ahora porque sabemos que gemini es el
sobrenombre que se le da a toda la
familia de modelos pero luego podemos
encontrar diferentes tamaños con
diferentes rendimientos la versión Nano
que es un modelo más pequeñito y por
tanto más tonto pero más accesible para
dispositivos por ejemplo móviles luego
la versión Pro que sería la versión
intermedia y la que Google está
facilitando de forma gratuita a través
de su servicio gemini y luego la versión
Ultra que sería la versión más avanzada
que sería la que estaría disponible para
usuarios de pago versión que por cierto
tengo que decir se anunció la semana
pasada a través del sistema de gemini
Advance que es el sistema de pago de
gemini y que técnicamente debería de
tener un rendimiento superior a gpt 4
tal cual lo presentaron en diciembre del
año pasado y que sin embargo cuando la
gente ha empezado a probarlo y a
testearlo queda bastante Claro que no es
un modelo superior de hecho es un modelo
que en muchos sentidos es bastante
deficiente Comparado con gpt 4 y esto es
algo que es importante decirlo porque
muchas veces nos centramos en
evaluaciones en el rendimiento de estos
modelos en determinados benchmarks para
decir que este modelo es mejor que otro
y al al final la realidad es que la
mejor forma de evaluar un modelo es
probándolo y por eso nos empeñamos tanto
en cuando se anuncia un modelo que sí
que está muy bien que me saques un
technical report un paper con toda esta
información pero dame acceso déjame
probarlo y ya seré yo el que verifique
si este modelo es superior o no a gpt 4
y realmente Google sabía que gemini
Ultra no daba la talla obviamente lo
saben aunque no lo pueden decir
públicamente pero cómo lo podemos
nosotros identificar que ellos lo sabían
Pues que una semana más tarde están
anunciando la versión 1.5
un modelo que siendo más eficiente por
esta arquitectura tipo mixter of expert
también tal y como nos indican aquí pues
la versión gemini 1.5 Pro la versión
intermedia de esta nueva generación de
modelos rinde a la par que gemini 1.0
Ultra es decir 1,5 Pro igual a 1.0 Ultra
pero de nuevo esto vuelven a ser
comparaciones que vemos sobre el papel y
a mí lo que me interesa es comprobar las
capacidades queene tiene de nuevo Este
modelo gemini 1.5 que lo hace tan
interesante pues amigos y amigas cuando
hablemos de gemini 1.5 de lo que tenemos
que estar hablando es de su gran tamaño
de ventana de contexto recordemos que el
tamaño de la ventana de contexto lo que
nos Define es la cantidad de tokens que
el modelo en cada inferencia puede
procesar y puede prestar atención Pues
si por ejemplo estamos trabajando con
texto esto nos indicaría el límite la
cantidad de páginas de documento que le
podríamos facilitar el modelo para
trabajar al mismo tiempo o si por
ejemplo estuviéramos trabajando con
código Cuántos scripts podríamos
introducirle para que el modelo pudiera
tener una visión completa de nuestro
proyecto de programación si estuviéramos
trabajando con imágenes pues esto nos
limitaría en la resolución y tamaño de
las imágenes y si fuera audio Pues en la
longitud en la cantidad de minutos que
podría procesar al mismo tiempo y esta
ventana de contexto originalmente con
los primeros modelos de chat gpt chat
gpt 3.5 estaba en un valor de unos 4000
1000 tokens que luego aumentó a 16,000 y
32,000 con la salida de gpt 4 algo que
por aquel momento hace un año y medio
era impresionante y gemini 1.0 tras su
salida Pues también igualó la apuesta
con una ventana de contexto de 32000
tokens algo que ahora queda
completamente pulverizado con una
ventana de contexto de 1 millón de
tokens 1 millón de tokens del modelo que
vamos a tener disponible públicamente
con el paso de los meses Pero ellos nos
cuentan que incluso internamente han
conseguido modelos con 10 millones de
tokens repito 10 millones de tokens y
con gemini 1.5 pro con una ventana de
contexto de 1 millón de tokens se puede
hacer muchas cosas porque 1 millón de
tokens representa aproximadamente
700.000 palabras o unas 30.000 líneas de
código u 11 horas de audio o una hora de
vídeo una una hora de vídeo que ahora el
modelo podrá procesar de golpe para
responder todas las preguntas que tenga
el usuario pensadlo bien una hora de
vídeo sería equivalente a darle a la
Inteligencia artificial Pues la primera
parte de un partido de fútbol 45 minutos
y preguntarle Oye dónde ha sucedido el
gol y que de una única inferencia pues
pueda encontrar esa información y darte
una descripción o Hazme un resumen de
todo el partido o coméntamelo o genera
una voz artificial cuando la
multimodalidad lo permita que narre todo
lo que ha ido y de hecho ejemplos así
podemos encontrar porque aquí estoy
centrándome en la modalidad de vídeo
porque esto es algo novedoso que están
presentando con gemi 1.5 Pro esto es una
cosa que Google ya anunció en el pasado
cuando hablaban de que su Inteligencia
artificial iba a ser multimodal que era
la capacidad de poder analizar vídeos
algo que hasta la fecha no hemos visto
en inteligencias artificiales como gpt 4
sí se puede analizar vídeo de forma
similar a como hicieron con esta demo
fake donde tú Vas sacando fotogramas los
vas escribiendo con las capacidades de
visión por computador y con ese análisis
que tú haces de los fotogramas pues
puedes hacer una medio comprensión de lo
que está ocurriendo en dicho vídeo y sin
realmente saber cómo exactamente Google
lo hace en este caso esta demo que nos
demuestran aquí y es una demo Así que La
cogemos con pinzas es bastante
impresionante en este caso lo que van a
introducir es un vídeo y este vídeo
procesado ocupa unos 700,000 tokens toda
la información que representa vendría a
representar pues toda esta cantidad de
tokens aquí donde entra en juego y es
importantísimo esta enorme ventana de
contexto con la que gemini Pro trabaja y
en este caso el vídeo que están
procesando Pues sería una película de
bter kiton de unos 44 minutos y donde se
le ha preguntado la Inteligencia
artificial bueno que encuentre el
momento donde un papel se coge del
bolsillo de una persona y que te cuente
más información sobre ello como podemos
ver los tiempos de inferencia están
aumentando drásticamente hasta tardar
más o menos un minuto en procesar la
petición frente a lo que estamos
acostumbrados cuando interactuamos con
el chat pues chat gpt pero es que esto
es algo habitual cuando empezamos a
trabajar con modelos de ventanas de
contextos tan grandes algo que a futuro
seguramente con las mejoras de
computación y las optimizaciones de
estos modelos pues se vaya logrando
reducir considerablemente pero aún así
Un minuto para procesar 44 minutos de
vídeo pues Tampoco es tanto y podemos
ver que la respuesta de la ia pues es
correcta dice a los 12 minutos un trozo
de papel se coge del bolsillo de una
persona esto es un ticket de bla bla bla
bla y te da más información tal cual tú
se lo has pedido y cuando se comprueba
pues efectivamente en el minuto 12 como
dice la Inteligencia artificial hay un
ticket con el nombre de Will Smith tal
cual nos ha especificado en nuestra
conversación Mola incluso podemos jugar
con la multimodalidad con la capacidad
del modelo de entender diferentes tipos
de datos por ejemplo una imagen para
hacer un dibujo y decirle Oye esto En
qué fotograma en qué momento ocurre no
un dibujo de una persona mojándose por
un tanque de agua y el modelo responde
escueto con un momento 1534 buscamos
este este tiempo en el vídeo y
efectivamente pues hemos encontrado
justo ese momento pensad en un futuro
Cómo podría funcionar un buscador dentro
de una plataforma que le pertenece a
Google cómo podría ser YouTube que toda
esta información que estructura el
contenido de un vídeo esté eh precalculo
esté indexado y que vosotros podáis
hacer búsquedas a través de Cuándo se
cantó esta canción en un vídeo de Carlos
cuándo Carlos pues levantó el brazo así
y no lo levantó así a través de un
dibujo no sé pensad qué loco se va a
volver todo esto y si esto es posible de
nuevo es gracias al aumento en la
ventana de contexto de todos los
ejemplos que muestran este sería el más
agresivo en cuanto a ventana de contexto
utilizada que sería con proyectos de
programación que tengan pues una gran
cantidad de archivos a procesar estamos
acostumbrados en proyectos de
programación a trabajar con un montón de
archivos de scripts que están
interrelacionados y que nos interesaría
que la ía pudiera acceder de forma
holística para tener una visión completa
de El proyecto en el que estamos
trabajando y para eso es fundamental de
nuevo la ventana de contexto y en esta
demo pues lo que vienen a demostrar es
justamente esto han cogido un montón de
códigos de la librería 3 para hacer pues
gráficos en trt en el navegador y con
todos esos proyectos con ese enorme
repositorio de código que en este caso
ocuparía unos 800,000 tokens ahora
podemos pasar a hacerle consultas
podemos por ejemplo pedirle que nos
busqu en todo este repositorio pues tres
demos que hagan una explicación de cómo
utilizar animaciones con esta librería y
de repente la ía pues lo encuentra y te
empieza a hacer un medio tutorial con
esa información que ha encontrado Oye en
la demo de Tokio de todas las demos que
tenemos qué es lo que controla la
animación y te hace la explicación
buscando y encontrando Dónde está el
código de la demo de Tokio Oye quiero
que me encuentres la demo donde se hace
uso de la geometría de texto y que me
modifiques el color el material para que
ahora sea en vez de plateado dorado y
bueno te encuentra el código te hace los
cambios te lo manipula y efectivamente
hace la tarea que le has pedido estas
demos son impresionantes y como demos
impresionantes de Google las vamos a
dejar en cuarentena hasta que la
tecnología caiga en nuestras manos y
podamos probarla y podamos testear todo
esto que aquí nos presentan por ahora
gemini Pro 1.5 está accesible a través
de Beta privada a través de la
plataforma vertex de Google pero será
cuestión de semanas será cuestión de
meses que podamos probar esta tecnología
nosotros y verdaderamente podamos ver si
rinde tal y có lo presentan pero si
fuera el caso estaríamos viviendo
nuevamente un paso hacia adante en
cuanto a las capacidades de lo que la
Inteligencia artificial puede ofrecer y
pueda ha ser porque verdaderamente
Google en este caso ha traído un avance
técnico bastante bastante impresionante
y es que no solo se trata de que la
ventana de contexto se haya prolongado
al millón de tokens o incluso a 10
millones de tokens recordemos sino que
aquí como en la vida lo importante no es
el tamaño sino el saber utilizarlo bien
y en cuanto al correcto uso de la
ventana de contexto nos estábamos
encontrando muchas veces con modelos
como Cloud de antropic que nos hablaban
de Sí sí tengo ventanas de contexto de
200,000 tokens que Esto suena como muy
grande pero que luego cuando te ponías a
interactuar con estas ventanas de
contexto pues empezabas a percibir que
no funcionaba como debía muchas veces
con estos modelos lo que nos
encontrábamos es que sí tú le podías
facilitar un montón de páginas de
documentos y el modelo era capaz de
verlo de principio a fin Pero había una
trampa lo que sucedía es que cuando tú
le facilitaba un documento muy grande
Pues sí el modelo lo podía procesar pero
gran parte de la información que estaba
en ese documento pues la Inteligencia
artificial no era capaz de capturarla
trabajar con ella y
facilitárnoslos en él en una posición
aleatoria pues una pieza de información
del tipo Pues a dosv le gustan los
pangolines y luego ir a la Inteligencia
artificial y preguntarle Oye que sí que
sí que Harry Potter está muy bien pero
qué le gusta a dot SV si la Inteligencia
artificial estuviera trabajando con la
ventana de contexto de forma efectiva
observando todas las posiciones de la
información que le estamos facilitando
debería de poder decirte e a do SV le
gusta los pangolines pero atento atento
que lo de Harry Potter también está
interesante ahí la Inteligencia
artificial habría resuelto para para esa
posición correctamente su prueba de la
aguja en un pajar Así que le marcamos la
casilla en verde pero lo que nos
interesa es que la Inteligencia
artificial pueda encontrar esta pieza de
información en todas las posiciones de
su ventana de contexto es decir que use
todo ese tamaño de forma efectiva y lo
que nos encontrábamos con inteligencias
artificiales tan impresionantes como clo
o incluso con gpt 4 es que sí ventanas
de contexto muy grandes pero que no
funcionaban tan bien y aquí es donde
creo que Google ha hecho un grandísimo
trabajo porque si accedemos al paper al
preprint que han sacado pues podemos ver
que esta prueba de la aguja en un pajar
para modalidades como vídeo audio o
texto se resuelve con un éxito Casi casi
rotundo una prueba de estrés pasada
satisfactoriamente una ventana de
contexto utilizada al 100% y no es por
colgarme una medallita pero me la voy a
colgar porque esta fue una de las
predicciones que ya anuncié a su mes en
las predicciones que hacía sobre lo que
creo que va a ocurrir en el mundo de la
Inteligencia artificial este 2024 y que
era justamente esto en 2024 veremos
comoo las ventanas de contexto de los
enormes modelos de lenguaje seguirán
aumentando por encima del millón de
tokens pero más importante aún
lográndolo mientras superan
positivamente test de presión tipo
needle in a High stack aplausos aplausos
Gracias pero bueno estos aplausos se los
vamos a conceder en esta ocasión a
Google porque en teoría y hasta que
podamos probar la tecnología se va a
quedar en ese plano parece que han
conseguido dar un paso más hacia delante
si bien parecía que con gemini 1.0 a
Google le estaba costando plantarle cara
a Open Ai sacando un modelo hace una
semana que ni siquiera alcanza el
rendimiento de un modelo que lleva en el
mercado desde hace un año pues una
semana después han conseguido dar un
paso que sorprende nos ha sorprendido a
todos y que parece que sí introduce pues
mejoras FR a lo que gpt 4 actualmente
ofrece en concreto la modalidad de vídeo
de análisis de vídeo y esta enorme
ventana de contexto utilizada con esta
efectividad Y por qué lo han hecho tan
rápido Ah podría ser que de repente
Google haya decidido cambiar el ritmo
para pillar por sorpresa a la
competencia O podría ser que Google
también supiera que la competencia
estaría próxima a dar un nuevo
movimiento y eso hace que ahora todos
giremos nuestra cara miremos a Open Ai
saludemos a malm y le preguntemos e qué
Qué tienes para nosotros y por ahora día
de hoy jueves por la tarde pues no
tenemos ninguna novedad pues no tenemos
ninguna
[Música]
[Aplausos]
novedad
ah
تصفح المزيد من مقاطع الفيديو ذات الصلة
GPT-4o: TODO lo que debes saber del NUEVO MOTOR de CHATGPT 🚀 ¡GRATUITO!
¡EJECUTA tu propio ChatGPT en LOCAL gratis y sin censura! (LM Studio + Mixtral)
Top 21 Casos de Uso INCREÍBLES de GPT 4o
GPT-4o, AI overviews and our multimodal future
Todo LO QUE HA PASADO en el mundo de la IA GENERATIVA desde ChatGPT
02. Modelo poblacional, población de bacterias, Ecuaciones Diferenciales
5.0 / 5 (0 votes)