NVIDIA Gana la BATALLA de la Inteligencia Artificial
Summary
TLDREl script detalla la revolución industrial en Inteligencia Artificial, donde gigantes como Microsoft y Google compiten por el mercado. Nvidia, inicialmente enfocada en gráficos por ordenador, se reorientó hacia GPGPU, aprovechando el poder de procesamiento en paralelo de sus GPUs para aplicaciones científicas y Deep Learning. La introducción de CUDA en 2007 permitió una comunicación más eficiente con las GPUs. La relación entre Deep Learning y CUDA se estrecha con el éxito de AlexNet en 2012, lo que aceleró el entrenamiento de redes neuronales. La demanda de GPUs se ha incrementado con el crecimiento de IA generativa, lo que ha llevado a una escasez de chips avanzados como los A100 y H100. Nvidia se posiciona para el futuro, potenciando hardware para ejecutar modelos de IA y desarrollar tecnologías innovadoras como la superresolución DLSS y NNPC.
Takeaways
- 🤖 La IA está en medio de una batalla industrial sin precedentes, con grandes empresas compitiendo por el dominio en sus mercados tradicionales y emergentes.
- 💃 La estrategia de Nvidia se ha reorientado desde su enfoque inicial en hardware de gráficos para computación general, aprovechando el poder de procesamiento en paralelo de las GPUs.
- 🛠️ Nvidia introdujo CUDA en 2007, facilitando la programación de GPUs para tareas científicas y más allá de los gráficos, lo que fue crucial para el desarrollo de aplicaciones de Deep Learning.
- 🧠 El procesamiento en paralelo es fundamental en las redes neuronales, lo que hace que las GPUs sean ideales para el entrenamiento de estas.
- 🏆 La victoria de AlexNet en 2012 marcó el inicio de la revolución del Deep Learning, donde las GPUs jugaron un papel central en el entrenamiento de redes neuronales grandes y potentes.
- 📈 La Ley de Jensen Huang predice que el rendimiento de las GPUs se duplicará cada año, una tendencia que se ha mantenido y es crucial para el avance del Deep Learning.
- 🚀 La IA generativa y los grandes modelos de lenguaje han aumentado la demanda de computación, lo que ha llevado a una carrera por el acceso a GPUs potentes como las A100 y H100.
- 💎 La brecha entre 'Rich GPUs' (empresas con recursos) y 'Poor GPUs' (startups con menos recursos) se ha acentuado con el auge de la IA generativa.
- 🎮 Nvidia está explorando el uso de IA en el entretenimiento, con tecnologías como DLSS y posibles NPCs basados en IA en videojuegos futuros.
- 🔮 El hardware de consumo de Nvidia está evolucionando con el aumento de tensor cores y memoria, preparándose para la nueva era de la IA.
- 🌐 Nvidia está posicionada para ofrecer soluciones de hardware para la creciente demanda de funcionalidades basadas en IA, tanto para consumidores como para profesionales.
Q & A
¿Qué está sucediendo actualmente en el mundo de la Inteligencia Artificial según el guion?
-Según el guion, en el mundo de la Inteligencia Artificial se está viviendo una batalla industrial sin precedentes, con grandes empresas como Microsoft o Google luchando por sus mercados habituales y nuevos mercados emergentes.
¿Qué cambio estratégico hizo Nvidia en 2007 para facilitar el uso de sus GPUs en aplicaciones científicas y de Deep Learning?
-Nvidia introdujo CUDA en 2007, una nueva forma de comunicarse con la GPU que permitió instruir a la tarjeta gráfica de una manera más entendible para los programadores, facilitando el uso de GPUs para tareas más allá de los gráficos por computador.
¿Cómo están relacionadas las redes neuronales y el procesamiento gráfico por ordenador en términos de paralelismo?
-Las redes neuronales y el procesamiento gráfico por ordenador comparten la necesidad de multiplicar matrices y vectores. Esto permite que el procesamiento en paralelo, utilizado en GPUs para gráficos, también sea útil para el entrenamiento de redes neuronales.
¿Qué evento marcó el inicio de la revolución del Deep Learning y por qué fue significativo?
-El evento significativo fue la victoria de AlexNet, una red neuronal entrenada con varias GPUs, en una competición de análisis de imágenes. Este éxito demostró el potencial de las redes neuronales artificiales y el uso de GPUs para acelerar su entrenamiento.
¿Qué es la 'ley de Huang' y cómo predice el progreso de las GPUs?
-La 'ley de Huang' es una ley empírica que predice que el rendimiento de las GPUs se duplicará cada año, a pesar de que la Ley de Moore se va haciendo más difícil de cumplir debido a los límites de la física.
¿Cómo ha影响了 la demanda de GPUs en el mercado de la Inteligencia Artificial la revolución del Deep Learning?
-La revolución del Deep Learning ha aumentado la demanda de GPUs, especialmente las A100 y H100, que son esenciales para el entrenamiento y la inferencia de modelos de Inteligencia Artificial cada vez más grandes y potentes.
¿Qué impacto ha tenido el crecimiento de los modelos de lenguaje generativos en la demanda de hardware de computación?
-El crecimiento de los modelos de lenguaje generativos ha acentuado la demanda de hardware de computación, ya que requieren un gran poder de procesamiento para su entrenamiento y ejecución, lo que ha llevado a una mayor demanda de GPUs potentes como las H100.
¿Qué es DLSS y cómo está relacionado con el futuro de la tecnología de gráficos en videojuegos?
-DLSS, o Deep Learning Super Sampling, es una tecnología que utiliza técnicas de superresolución con Deep Learning para mejorar la calidad gráfica de los videojuegos. Esta tecnología puede reducir la carga de trabajo de la GPU al utilizar IA generativa para mejorar la resolución y la calidad de los gráficos en tiempo real.
¿Cómo están evolucionando las tarjetas gráficas de consumo para adaptarse a la nueva ola de Inteligencia Artificial?
-Las tarjetas gráficas de consumo están evolucionando con el aumento de tensor cores y la memoria VRAM, lo que les permite ejecutar modelos de Deep Learning más grandes y potentes, adecuándose a las necesidades de la nueva era de la Inteligencia Artificial.
¿Qué herramienta reciente推出了 Nvidia para mejorar la experiencia de los usuarios con modelos de lenguaje Open Source?
-Nvidia lanzó una herramienta gratuita llamada 'Chat with RTX' que permite a los usuarios interactuar con cualquier modelo de lenguaje Open Source en su ordenador, conectando los modelos con datos, documentos o videos de YouTube.
Outlines
🤖 Batalla Industrial en la Inteligencia Artificial
Este párrafo introduce la intensa competencia en el ámbito de la IA, donde gigantes como Microsoft y Google compiten por el dominio en nuevos mercados emergentes. Se describe cómo los grandes laboratorios de IA están invirtiendo en el entrenamiento de 'cerebros artificiales' más potentes. Además, se menciona el cambio en la estrategia de Nvidia desde su enfoque inicial en la producción de hardware de gráficos en tiempo real, principalmente para el mercado gaming, hacia el uso de sus GPUs para propósitos generales, lo que incluye aplicaciones de criptografía, análisis de datos y aprendizaje profundo.
🚀 La Revolución de las Redes Neuronales y las GPUs
Se narra cómo la introducción de AlexNet en una competición de análisis de imágenes marcó el inicio de la revolución del aprendizaje profundo, donde las redes neuronales mostraron su potencial al vencer a otros equipos. Se destaca el uso de GPUs para acelerar el entrenamiento de grandes redes neuronales, lo que permitió a los equipos entrenar arquitecturas más grandes y con más datos. Además, se menciona la Ley de Jensen Huang, que predice la duplicación anual del rendimiento de las GPUs, y cómo esta ha venido sucediendo con la evolución de las tarjetas gráficas Nvidia.
💼 Diferenciación entre Rich y Poor GPUs
Este párrafo explora la brecha entre las grandes compañías tecnológicas con acceso a una gran cantidad de GPUs ('Rich GPUs') y las startups con limitados recursos ('Poor GPUs'). Se menciona el anuncio de Meta sobre sus planes de adquirir 350,000 H100 de Nvidia para finales de 2024, lo que refleja la importancia de estas unidades de procesamiento en la IA generativa y el entrenamiento de modelos de última generación.
🎮 La Evolución de las GPUs de Consumo
Se discute cómo las tarjetas gráficas de consumo están adaptándose a la nueva era de la IA, con un aumento en los 'tensor cores' y la memoria de las GPUs. Se destaca la importancia de estos componentes para el entrenamiento e inferencia de modelos de aprendizaje profundo, y cómo la tecnología DLSS (Deep Learning Super Sampling) de Nvidia utiliza la IA para mejorar la calidad gráfica en videojuegos, sugiriendo un futuro donde la renderización en tiempo real podría estar basada en la IA generativa.
🌐 La IA Generativa y su Impacto en el Mercado
Este párrafo habla sobre el impacto de la IA generativa en el mercado y cómo Nvidia está posicionada para ofrecer el hardware necesario para ejecutar modelos de IA en local. Se menciona la introducción de herramientas como 'Chat with RTX' y cómo la IA generativa puede ser utilizada para mejorar la experiencia de juego con personajes no jugables (NPCs) que interactúan de forma natural en tiempo real. Además, se alude a la posibilidad de que en el futuro, los juegos y otros contenidos creativos requieran el uso de estas herramientas en local o en la nube.
🔮 Expectativas Futuras para Nvidia y la IA
El último párrafo se centra en las expectativas futuras para Nvidia y su papel en el mercado de semiconductores y la IA. Se anuncia la asistencia del narrador al GTC (GPU Technology Conference) de Nvidia, donde se espera conocer las últimas novedades en tecnología y avances en el campo de la IA. Se invita a la audiencia a seguir las redes sociales del narrador para estar al tanto de las actualizaciones y se menciona un sorteo de tarjetas gráficas en relación con el evento.
Mindmap
Keywords
💡Inteligencia artificial
💡Batalla Industrial
💡Grandes empresas
💡Mercados emergentes
💡NVIDIA
💡GPU
💡CUDA
💡Aprendizaje profundo
💡Redes neuronales
💡IA generativa
💡Tensor Cores
Highlights
En el mundo de la Inteligencia Artificial, se está librando una batalla industrial sin precedentes, con grandes empresas como Microsoft o Google luchando por sus mercados habituales y emergentes.
Los grandes laboratorios de IA están trabajando en el entrenamiento de cerebros artificiales más potentes.
NVIDIA, originalmente enfocada en hardware de procesamiento gráfico, se reorientó hacia el concepto de GPGPU, aprovechando el procesamiento en paralelo más allá de los gráficos por ordenador.
CUDA, introducido por NVIDIA en 2007, permitió instruir a las tarjetas gráficas de forma más comprensible para programadores.
La ejecución en paralelo es fundamental en el procesamiento de redes neuronales y en el análisis de datos, lo que acelera drásticamente la ejecución.
En 2012, el equipo de Joffrey Hinton usó varias GPUs para entrenar AlexNet, lo que marcó el comienzo de la revolución del Deep Learning y las tarjetas gráficas.
La Ley de Jensen Huang predice que el rendimiento de las GPUs se duplicará cada año, a diferencia de la Ley de Moore que se ve limitada por la física.
El entrenamiento de modelos de IA generativa, como GPT-4, ha aumentado la demanda de GPUs avanzadas como las A100 y H100.
La diferencia entre 'Rich GPUs' y 'Poor GPUs' se evidencia en la capacidad de grandes empresas tecnológicas de acceder a tecnología avanzada.
NVIDIA está posicionada para ofrecer hardware para ejecutar aplicaciones de IA, con tecnologías como los tensor cores y la memoria VRAM.
DLSS (Deep Learning Super Sampling) es una tecnología de NVIDIA que utiliza IA para mejorar la calidad gráfica en videojuegos.
NVIDIA Broadcast es una herramienta que utiliza IA para redirigir la dirección de las pupilas y mejorar la apariencia en videollamadas.
La IA generativa está transformando la creación de contenido, con aplicaciones en imágenes, videos, 3D y música.
NVIDIA está acelerando herramientas de IA generativa a través de su librería TensorRT, mejorando significativamente el rendimiento.
Los modelos de lenguaje Open Source se acercan en rendimiento a modelos privados como GPT-4, lo que podría permitir la ejecución local sin límites.
NVIDIA lanzó 'Chat with RTX', una herramienta gratuita que permite interactuar con modelos de lenguaje Open Source en tu propio ordenador.
La revolución del Deep Learning está estrechamente ligada al mercado de semiconductores, donde NVIDIA tiene una ventaja competitiva.
Transcripts
que no te confunda el silencio de las
últimas semanas porque en el mundo de la
Inteligencia artificial se está viviendo
una batalla Industrial sin precedentes
una batalla donde la i ha puesto a
grandes empresas como Microsoft o Google
a bailar luchando por sus mercados
habituales Sí pero también por los
nuevos mercados que emergen un juego
donde los grandes laboratorios de
Inteligencia artificial han tomado parte
y donde ponen todos sus recursos a
trabajar para entrenar mejores y más
potentes cerebros artificiales y una
batalla donde nuevos jugadores compiten
ferozmente por hacerse un hueco en el
tablero para así poder ser también
participes de una nueva Revolución
Industrial que ya ha comenzado todo esto
lo podemos ver ahora como una gran
partida de ajedres donde ahora todos
compiten pero donde el que gana es el
dueño del tablero hablemos de
[Música]
envidia
[Música]
originalmente esto no era así en la
década de los 2000 nvidia estaba
únicamente enfocada en producir Hardware
para el procesamiento de gráficos por
ordenador en tiempo real principalmente
orientada al mercado Gaming ya sabéis el
usar la tarjeta gráfica como un
procesador especializado que ayudara a
aliviar la carga de trabajo de la cpu
Pero a medida que las gpu se volvían
cada vez más avanzadas los ingenieros
empezaron a notar que ahí había más poal
que se podía aprovechar el potencial del
procesamiento en paralelo y fue esto la
realización de que esta aceleración por
Hardware podría ser útil Más allá de
mover polígonos de colores por la
pantalla lo que hizo reorientar la
estrategia de nvidia hacia el concepto
de GP gpu la utilización de las gpus
para uso de propósito general es decir
permitir aprovechar el potencial del
procesamiento en paralelo de las gpus
más allá de los gráficos por ordenador
para que ahora cualquiera pudiera
desarrollar aplicaciones que se
beneficiara de esto aplicaciones como
criptografía análisis de datos
simuladores científicos o Deep learning
suena bien no Bueno pues la cosa no era
tan sencilla la dificultad es que si tú
querías programar a la gpu para hacer
por ejemplo una aplicación científica
Pues un simulador molecular claro
originalmente tú tenías que darle
instrucciones a un cacharro que estaba
pensado para gráficos por computador y
por tanto tenías que adaptar tu código a
las instrucciones gráficas de la tarjeta
y esto es como intentar dar órdenes para
ha una tarea compleja un simulador
molecular hablando directamente con un
pintor complicado y ahí fue cuando
nvidia en 2007 introdujo los cambios
necesarios para que ahora sí pues
pudieras instruir a la tarjeta gráfica
de forma más entendible como si hablara
directamente con un programador este
nuevo personaje esta nueva forma de
hablar con la gpu era
kuda cuda a a muchos de vosotros os
sonará ya sea porque habéis programado
directamente para la gpu o por todas las
veces que os habéis peleado instalando
las librerías de kuda cuando queríais
probar algún proyecto de Deep learning Y
es que sí la historia del Deep learning
y de kuda está mucho más entrelazada de
lo que podríamos imaginar pero este fue
un noviazgo que tardó unos cuantos años
en ocurrir la cosa es la siguiente
Cuando tenemos una red neuronal la
información Se va procesando capa tras
Capa en diferentes neuronas
multiplicando y sumando la información
al fin fin como las neuronas de una
misma capa no dependen de las otras
neuronas en dicha capa pues cada una
puede hacer su cálculo
independientemente en paralelo y también
como los datos de entrada en cada lote
se van a procesar de forma independiente
pues esta es una ejecución que también
podemos procesar en paralelo paralelizar
paralelizar y paralelizar y así si nos
damos cuenta es como nos vamos
encontrando formas de ir paralelizado la
ejecución de las redes neuronales para
que el trabajo en vez de hacerlo
secuencialmente ten teniendo que esperar
por la ejecución previa ahora se puede
hacer simultáneamente algo que de forma
drástica acelera la ejecución además
también da la casualidad de que en
muchos casos procesar gráficos por
ordenador equivale a multiplicar las
matrices y vectores que representan a
cada polígono matrices y vectores que
también encontramos en las redes
neuronales Cuando tenemos que procesar
los datos a través de las diferentes
capas de matrices de parámetros ejecutar
redes neuronales Y representar gráficos
por ordenador no están diferente
simplemente multiplicar vectores y
matrices con lo cual sin quererlo ni
beberlo ya en 2010 contábamos con estas
gpus que eran aptas para realizar tareas
de propósito general y que eran muy
adecuadas para el entrenamiento de un
tipo de algoritmo que Oye parecía que
podía tener potencial dentro del campo
de la Inteligencia artificial las redes
neuronales artificiales y fue en 2012
cuando un equipo de investigadores en el
que encontramos a joffrey Hinton a Ilia
zkber y Alex krichevsky que usaron
varias gpus para el entrenamiento de una
red neuronal bautizada como alexnet la
presentaron a una competición de
análisis de imágenes donde laboratorios
de todo el mundo pues proponían sus
soluciones y donde esta fue una de las
primeras basadas en técnicas de Deep
learning el resultado pulverizar por
completo al resto de equipos y esta fue
una de las primeras ocasiones donde
quedó indudablemente claro el potencial
de las redes neuronales artificiales el
el punto en el tiempo en el que muchos
sitúan el comienzo de la revolución del
Deep learning del Deep learning y las
tarjetas gráficas porque uno de los
puntos claves de este trabajo fue el uso
de las gpus para acelerar el
entrenamiento de lo que por aquella
época eran grandes redes neuronales el
equipo tras alexnet utilizó el poder de
la ejecución en paralelo para agilizar
drásticamente los tiempos de
entrenamiento y permitirse así el poder
entrenar una arquitectura de mayor
tamaño y con más datos Y a partir de ese
momento pues como se suele decir el el
resto ha sido
historia toda esta época del Deep
learning que ahora vemos con mucha
nostalgia no hubiera sido posible sin el
desarrollo en paralelo del mercado de
las tarjetas gráficas y junto al
crecimiento del sector del Deep learning
y el crecimiento en tamaño y capacidad
de los modelos envidia también
creció de hecho ya hablamos de todo esto
en este vídeo de aquí de hace 3 años
donde os presenté la premonitoria ley de
Juan una ley empírica que en este caso
toma el apellido del seo de envidia
jensen Juan para compararse a la famosa
ley de mur la ley que supo predecir como
el número de transistores de los
microprocesadores que usamos en todos
nuestros dispositivos se iba a ir
duplicando cada 2 años haciendo que cada
dos años estos chips fueran más capaces
y eficientes pues en este caso la ley de
Juan se centra como no en los
procesadores gráficos en las gpus y lo
que nos dice es que a pesar de que a la
ley de mur cada vez le cuesta más
cumplir con su cita por los límites que
la propia física impone a pesar de eso
el progreso de las gpus iban a seguir un
camino diferente un camino donde su
rendimiento se duplicaría cada año y
esto es curioso si lo pensáis porque al
final la ley de Juan depende fuertemente
de la ley de mur es decir el desarrollo
de las gpus pues está estrechamente
ligado con que podamos seguir
miniaturizado los transistores en los
chips No pues no solo depende de eso
también podemos encontrar un montón de
técnicas de optimizaciones de mejoras en
las arquitecturas de los chips que
exploten el potencial de la computación
en paralelo y en concreto su aplicación
para Inteligencia artificial Ahí es
donde encontramos muchas muchas
ganancias y t cual lo planteó y San Juan
en 2019 la cosa estaba
así
and in fact if you take a Look at Our
progress This is really quite Amazing
Our progress Over The Last 5 years 5
years ago k80 servers If trained on
Resident 50 would have taken 600 hours
training this model 600 hours we Now Do
it in two Now when you compound All of
that it's basically some 30x over 5
years and so This is doubling Every
single year
Pero esto era 2019 a partir de ese
momento se ha seguido cumpliendo esta
predicción pues Mirad si visualizamos la
siguiente gráfica la tendencia de la
última década es Clara cuando pasamos de
las p1 a las v100 y luego a las a100 y
recientemente la arquitectura hopper con
las famosas H100 la tendencia con la que
nos encontramos es esta en cosa de una
década el rendimiento de estos chips se
ha multiplicado por 1000 una mejora de
rendimiento que como ya he indicado
antes viene a dar respuesta a una
necesidad del mercado de cada vez más
computación Pues para el entrenamiento y
la inferencia de Inteligencia artificial
algo que en los últimos dos años se ha
acentuado con la llegada de la ía
generativa y en concreto con los enormes
modelos del lenguaje para que os hagáis
una idea en el blog de semanalisis
estimaron que el pre trenamiento de gpt
4 se realizó sobre unos 25,000 chips de
nvidia a 100 de la generación anterior a
ampere y este entrenamiento pues pudo
llevar entre unos 90 y 100 días por
comparar si esto se hubiera realizado
sobre las actuales H100 el pre
trenamiento hubiera requerido solo unas
8192 H100 funcionando más o menos la
mitad de tiempo esta reducción de tiempo
costo y de cantidad de tarjetas es
importantísima y de ahí que en 2023 tras
estallar la locura del boom de la ía
generativa empezara también la locura de
muchísimas empresas queriendo acceder a
los chips de envidia en silicon Valley
la nueva moneda de cambio se convirtió
en el acceso a las gpus a100 y H100 y el
meme nos llevó incluso la situación de
hablar de los Rich gpus los ricos en
gpus las grandes compañías tecnológicas
que estaban usando incluso su capacidad
en computación para traer a
investigadores a su empresa y los Poor
gpus los pobres en gpus que eran esas
startups que solo tenían acceso a
cientos de gpus pobres en gpus pero
realmente me fastidia conocer que sí a
la vista de las últimas noticias que nos
van llegando pues empezamos a evidenciar
que esta diferencia entre Rich gpus y
pur gpus existe ya que vemos como
compañías como meta recientemente han
anunciado que para finales de 2024 van a
contar con
350,000 H100 compradas a nvidia y que
sumadas a su infraestructura haría un
total de potencia equivalente a unas
600,000 H100 una auténtica barbaridad y
un movimiento que veremos replicado por
parte del resto de empresas y lo que
tenemos que entender es que el
entrenamiento de modelos tan
impresionantes como gpt 4 ocurrió en
este periodo de transición donde los
centros de computación estaban basados
en chips v100 y a100 y es ahora cuando
todas estas grandes empresas se están
rearmando para que sus centros de
computación basados en H100 empiecen a
cocinar los futuros modelos de Última
Generación como dije el tablero de juego
la infraestruc ura ya está puesta y la
batalla por la Inteligencia artificial
ha
comenzado pero volvamos a los orígenes
porque Cuando nvidia comenzó a vender
gpu su primer consumidor erais vosotros
el público general que quizás nunca se
va a comprar una H100 pero sí una rtx
3060 para bueno jugar a videojuegos o
hacer trabajo gráfico intensivo aquí la
pregunta que me hago es bueno si estamos
entrando en la Nueva Era de la
Inteligencia artificial Cómo va a
evolucionar Cómo se va a adaptar todo
este hardware de consumo a esta Nueva
Ola Pues realmente Esto es algo que ya
venimos viendo desde hace años la
evolución de las tarjetas gráficas de
consumo general principalmente en dos
aspectos el aumento de los tensor cores
y el aumento de memoria sobre los tensor
cores ya hablamos en un vídeo bastante
antiguo en el canal donde íbamos desde
los transistores y circuitería de un
procesador hasta conceptos como estos
tensor cores Pero bueno de forma
resumida estos núcleos tensoriales como
nombre indica son núcleos especializados
para el procesamiento de cálculo
tensorial y multiplicación de matrices
de forma muy muy rápida algo diseñado a
nivel de Hardware específicamente para
acelerar el entrenamiento e inferencia
de los modelos de Deep learning Por así
decirlo estos tensor cor serían el
músculo que ponen a funcionar a las
redes neuronales y luego tenemos la
memoria un aspecto importantísimo que no
ha parado de crecer en los últimos años
la famosa vram Y es que veamos Durante
los últimos años la tendencia de muchos
de los modelos de Deep learning ha sido
el ir creciendo más y más en tamaño y
aquí está la cosa ese tamaño es
importante porque si queremos
ejecutarlos en nuestras potentes gpus
usando nuestros potentes tensor cores lo
que necesitamos es que estos modelos
quepan en ellos que quepan los
parámetros y los datos que queramos
procesar y ahí la cantidad de u Ram es
el factor determinante y realmente a día
de hoy muchos de los modelos Open source
que vosotros podéis Descargar y empezar
a utilizar en vuestros equipos requieren
de cada vez más y más memoria Cuántos de
vosotros os habréis descargado un modelo
en vuestro ordenador y al ejecutarlo ha
salido esto de kuda out of Memory error
y al final si lo pensamos Este es el
futuro al que nos movemos un futuro
donde cada vez contaremos con más
modelos Open source modelos más capaces
y donde vosotros querréis poder
ejecutarlos en vuestros equipos y donde
contar con una tarjeta gráfica que sea
lo suficiente ente potente pues va a ser
necesario y esta brecha de poder
ejecutar los modelos de inteligencia en
local pues ya empieza a estar patente un
ejemplo que os sonará la tecnología
dlss Deep learning super sampling la
vuelta a los orígenes de nvidia una
tecnología que aprovecha las técnicas de
superresolución con Deep learning pero
en este caso ha aplicado los fotogramas
de un videojuego el objetivo es quitarle
carga de trabajo a los procesos gráficos
de la gpu creando inicial mente un
renderizado a menor resolución que luego
aplicando Inteligencia artificial
podemos reescalar tanto espacialmente
como temporal para así darle al usuario
una experiencia en alta calidad con más
fps y donde actualmente las versiones
más modernas incluso incluyen tecnología
para la reconstrucción fiel de rayos de
Ray tracing una tecnología que quita
carga de trabajo a los procesos gráficos
de la gpu para dárselo a los tensor Core
y una experiencia de usuario diferente
dependiendo de si usa ca o no y claro
esto lo podemos extrapolar y llevárnoslo
al extremo a futuro donde el concepto de
tarjeta de vídeo se convierta en tarjeta
de vídeo generativa y donde sea legítimo
preguntarnos Cuántos píxeles de los que
aparecen en mi pantalla pues son reales
porque ya hemos visto casos de retoque
en tiempo real que van desde Bueno lo
que nos permiten hacer herramientas como
nvidia broadcast que nos permite
redirigir la dirección de las pupilas
para A lo mejor leer un teleprompter y
al mismo tiempo parecer que miras a
cámara hasta luego versiones más
extremas de esto donde los retoques en
tiempo real son mucho más agresivos o
situaciones donde directamente la
renderización de gráficos en tiempo real
por ordenador puede estar completamente
basada en ia generativa ya en el canal
hemos hablado en el pasado de
investigaciones por parte de nvidia como
instan Nerf o neural Angelo que no paran
de dar pasos en el campo de la
renderización neural y que tiene como
objetivo el sustituir los pipelines de
procesamiento de gráficos tradicionales
por el uso de ia generativa algo que
toda todavía está lejos de ser
mainstream pero no tan lejos porque la
ía generativa para la creación de
imágenes vídeos 3D o música ya es una
realidad una realidad que desde hace un
año podemos ejecutar en nuestros
ordenadores y donde la tendencia
claramente seguirá siendo al alza en los
próximos años muchos de los trabajos
creativos requerirán del uso de estas
herramientas en local Y de nuevo Esto es
algo que envidia sabe que va a pasar y
que ya está empezando a potenciar hace
una semana presentaron a través de su
librería tensor RT la aceleración de
herramientas como stable diffusion XL
lcm Lora o stable video diffusion que
ahora pasarían a ser ejecutadas sobre
las gpus de nvidia siete veces más
rápidos que en un procesador m2 de Apple
Y de nuevo contar aquí con una gpu
compatible Es decir de nvidia Es
indispensable y lo mismo pasa cuando
hablamos de enormes modelos del lenguaje
cada vez más el panorama Open source nos
va regalando modelos que se van
acercando en rendimiento a lo que
modelos privados como gpt 4 nos puede
ofrecer Y eso significa Imagínate que en
un futuro cercano tú no vas a tener que
pagar a Open Ai si quieres programar con
una de estas sillas en tu trabajo para
generar código no directamente tú lo
ejecutará en local gratis sin ningún
límite ni compromiso y esto es lo que
hace para mí entender Pues cómo va a
evolucionar las necesidades de vosotros
de los consumidores y por tanto las
necesidades de mercado cada vez más
profesionales demandarán estas
características estas funcionalidades
basadas en Inteligencia artificial y ahí
nvidia está muy bien posicionada para
poder ofrecer el Hardware necesario para
poder ejecutarlas yo Esto me lo imagino
un poco como lo de rtx on rtx of pero en
este caso Ai on Ai off donde tu
ordenador te dará una mejor experiencia
o peor experiencia en función de si
puede ejecutar todos estos modelos en
local y envidia esto lo sabe muy pero
que muy bien que va a generar esta
necesidad por parte de los consumidores
No por nada se llaman envidia y por eso
trabajan tanto investigando y
desarrollando en el campo del Deep
learning para traer más y mejores
experiencias nuevas por ejemplo
justamente ayer sacaron una herramienta
gratuita llamada chat with rtx una
herramienta que te va a permitir
utilizar cualquier modelo de lenguaje
Open source en tu ordenador y con
capacidad de conectarlo a tus datos a
tus documentos a un vídeo de YouTube
para poder interactuar con esta fuente
de información suena muy interesante
quieres probarlo Pues solo te hace falta
una cosa pasar por caja y podemos seguir
encontrando ejemplos ejemplos donde
nvidia ilustra Cómo podría ser el futuro
de la industria de los videojuegos
cuando empieza a introducir conceptos
como los
nnpc neural Non playable characters
nombre que me acabo de inventar pero que
está muy bien para este concepto que
sabemos todos que va a acabar llegando
el momento en el que en un videojuego te
encuentres a un personaje cuyo diálogo
cuya voz movimientos se vayan generando
en tiempo real a través de lo que el
Avatar percibe con sus modelos de ia
permitiéndole interactuar de forma
natural
contigo esto es un concepto que envidia
presenta para marcarle el camino a la
industria de los videojuegos para
decirle Ey Mira esto se puede hacer
podría ser Interesante pero lo
interesante realmente aquí es ver cuáles
son las dos opciones que tenemos para
implementar algo así una opción como
hemos visto sería que cuando tú te
instales el videojuego este descarga en
tu ordenador Pues todo los modelos de
visión de voz de lenguaje necesarios
para poder hacer todo este proceso y que
tú cuentes con una tarjeta gráfica que
los pueda ejecutar si cuentas con el
Hardware vivirás esta experiencia
cognitiva aumentada o a lo mejor no A lo
mejor la empresa de videojuegos quiere
ofrecerle este servicio a todos sus
jugadores y en ese caso se ejecutarían
todos estos modelos en la nube una nube
que requerirá de una computación que
nvidia puede ofrecer a través de sus
chips Y es que la revolución del Deep
learning como hemos visto en este vídeo
no se puede entender sin el mercado de
semiconductores un mercado que A falta
de competidores que puedan ganar esta
ventaja competitiva que sabemos que
envidia tiene pues hace que como he
comentado al principio en este esta
batalla de ajedres por ahora envidia
gane Y qué podemos esperar a futuro de
envidia Pues no lo sé no lo sabemos pero
no vamos a tardar mucho en saberlo y es
que el mes de marzo se va a volver a
celebrar el gtc el gran evento que
celebra envidia para presentar todas las
novedades y en esta ocasión y este vídeo
me viene perfecto para anunciar me hacía
mucha ilusión decirlo voy a asistir
físicamente a San Francisco a San José
para poder estar allí vivirlo y traeros
todas las novedades con suerte incluso
hasta me saco un selfie con jensen Juan
sobre todo esto ya os contaré más
información a futuro pero si os digo que
estéis atentos a mis redes sociales
donde en estos días pues publicaré más
información sobre el gtc y pondremos el
sorteo habitual de tarjetas gráficas que
hacemos para celebrar esta fecha tan
importante quería aprovechar la temática
de este vídeo para ar todo esto porque
creo que está muy bien relacionado me
hace mucha ilusión poder asistir al gtc
y poder traeros todo el avance que se
produzca por parte de envidia por parte
del mercado de los semiconductores y
todas las novedades de Deep learning
como siempre hacemos aquí chicos chicas
nos vemos con más Inteligencia
artificial en el próximo vídeo chao
Ver Más Videos Relacionados
BitNets: La ERA de las REDES NEURONALES de 1 BIT!
Pasado, Presente y Futuro de la IA - ¡Del Deep Learning 1.0 a Google Gemini!
Cómo AMD Desafió a Intel y Transformó la Industria
Curso de IA de Google para principiantes (Resumen en 10 minutos)
La guia definitiva para entender la Inteligencia Artificial
La EVOLUCIÓN de la Inteligencia Artificial 🤖 El Desarrollo de la IA en la HISTORIA🧩
5.0 / 5 (0 votes)