NVIDIA Gana la BATALLA de la Inteligencia Artificial

Dot CSV
14 Feb 202421:48

Summary

TLDREl script detalla la revolución industrial en Inteligencia Artificial, donde gigantes como Microsoft y Google compiten por el mercado. Nvidia, inicialmente enfocada en gráficos por ordenador, se reorientó hacia GPGPU, aprovechando el poder de procesamiento en paralelo de sus GPUs para aplicaciones científicas y Deep Learning. La introducción de CUDA en 2007 permitió una comunicación más eficiente con las GPUs. La relación entre Deep Learning y CUDA se estrecha con el éxito de AlexNet en 2012, lo que aceleró el entrenamiento de redes neuronales. La demanda de GPUs se ha incrementado con el crecimiento de IA generativa, lo que ha llevado a una escasez de chips avanzados como los A100 y H100. Nvidia se posiciona para el futuro, potenciando hardware para ejecutar modelos de IA y desarrollar tecnologías innovadoras como la superresolución DLSS y NNPC.

Takeaways

  • 🤖 La IA está en medio de una batalla industrial sin precedentes, con grandes empresas compitiendo por el dominio en sus mercados tradicionales y emergentes.
  • 💃 La estrategia de Nvidia se ha reorientado desde su enfoque inicial en hardware de gráficos para computación general, aprovechando el poder de procesamiento en paralelo de las GPUs.
  • 🛠️ Nvidia introdujo CUDA en 2007, facilitando la programación de GPUs para tareas científicas y más allá de los gráficos, lo que fue crucial para el desarrollo de aplicaciones de Deep Learning.
  • 🧠 El procesamiento en paralelo es fundamental en las redes neuronales, lo que hace que las GPUs sean ideales para el entrenamiento de estas.
  • 🏆 La victoria de AlexNet en 2012 marcó el inicio de la revolución del Deep Learning, donde las GPUs jugaron un papel central en el entrenamiento de redes neuronales grandes y potentes.
  • 📈 La Ley de Jensen Huang predice que el rendimiento de las GPUs se duplicará cada año, una tendencia que se ha mantenido y es crucial para el avance del Deep Learning.
  • 🚀 La IA generativa y los grandes modelos de lenguaje han aumentado la demanda de computación, lo que ha llevado a una carrera por el acceso a GPUs potentes como las A100 y H100.
  • 💎 La brecha entre 'Rich GPUs' (empresas con recursos) y 'Poor GPUs' (startups con menos recursos) se ha acentuado con el auge de la IA generativa.
  • 🎮 Nvidia está explorando el uso de IA en el entretenimiento, con tecnologías como DLSS y posibles NPCs basados en IA en videojuegos futuros.
  • 🔮 El hardware de consumo de Nvidia está evolucionando con el aumento de tensor cores y memoria, preparándose para la nueva era de la IA.
  • 🌐 Nvidia está posicionada para ofrecer soluciones de hardware para la creciente demanda de funcionalidades basadas en IA, tanto para consumidores como para profesionales.

Q & A

  • ¿Qué está sucediendo actualmente en el mundo de la Inteligencia Artificial según el guion?

    -Según el guion, en el mundo de la Inteligencia Artificial se está viviendo una batalla industrial sin precedentes, con grandes empresas como Microsoft o Google luchando por sus mercados habituales y nuevos mercados emergentes.

  • ¿Qué cambio estratégico hizo Nvidia en 2007 para facilitar el uso de sus GPUs en aplicaciones científicas y de Deep Learning?

    -Nvidia introdujo CUDA en 2007, una nueva forma de comunicarse con la GPU que permitió instruir a la tarjeta gráfica de una manera más entendible para los programadores, facilitando el uso de GPUs para tareas más allá de los gráficos por computador.

  • ¿Cómo están relacionadas las redes neuronales y el procesamiento gráfico por ordenador en términos de paralelismo?

    -Las redes neuronales y el procesamiento gráfico por ordenador comparten la necesidad de multiplicar matrices y vectores. Esto permite que el procesamiento en paralelo, utilizado en GPUs para gráficos, también sea útil para el entrenamiento de redes neuronales.

  • ¿Qué evento marcó el inicio de la revolución del Deep Learning y por qué fue significativo?

    -El evento significativo fue la victoria de AlexNet, una red neuronal entrenada con varias GPUs, en una competición de análisis de imágenes. Este éxito demostró el potencial de las redes neuronales artificiales y el uso de GPUs para acelerar su entrenamiento.

  • ¿Qué es la 'ley de Huang' y cómo predice el progreso de las GPUs?

    -La 'ley de Huang' es una ley empírica que predice que el rendimiento de las GPUs se duplicará cada año, a pesar de que la Ley de Moore se va haciendo más difícil de cumplir debido a los límites de la física.

  • ¿Cómo ha影响了 la demanda de GPUs en el mercado de la Inteligencia Artificial la revolución del Deep Learning?

    -La revolución del Deep Learning ha aumentado la demanda de GPUs, especialmente las A100 y H100, que son esenciales para el entrenamiento y la inferencia de modelos de Inteligencia Artificial cada vez más grandes y potentes.

  • ¿Qué impacto ha tenido el crecimiento de los modelos de lenguaje generativos en la demanda de hardware de computación?

    -El crecimiento de los modelos de lenguaje generativos ha acentuado la demanda de hardware de computación, ya que requieren un gran poder de procesamiento para su entrenamiento y ejecución, lo que ha llevado a una mayor demanda de GPUs potentes como las H100.

  • ¿Qué es DLSS y cómo está relacionado con el futuro de la tecnología de gráficos en videojuegos?

    -DLSS, o Deep Learning Super Sampling, es una tecnología que utiliza técnicas de superresolución con Deep Learning para mejorar la calidad gráfica de los videojuegos. Esta tecnología puede reducir la carga de trabajo de la GPU al utilizar IA generativa para mejorar la resolución y la calidad de los gráficos en tiempo real.

  • ¿Cómo están evolucionando las tarjetas gráficas de consumo para adaptarse a la nueva ola de Inteligencia Artificial?

    -Las tarjetas gráficas de consumo están evolucionando con el aumento de tensor cores y la memoria VRAM, lo que les permite ejecutar modelos de Deep Learning más grandes y potentes, adecuándose a las necesidades de la nueva era de la Inteligencia Artificial.

  • ¿Qué herramienta reciente推出了 Nvidia para mejorar la experiencia de los usuarios con modelos de lenguaje Open Source?

    -Nvidia lanzó una herramienta gratuita llamada 'Chat with RTX' que permite a los usuarios interactuar con cualquier modelo de lenguaje Open Source en su ordenador, conectando los modelos con datos, documentos o videos de YouTube.

Outlines

00:00

🤖 Batalla Industrial en la Inteligencia Artificial

Este párrafo introduce la intensa competencia en el ámbito de la IA, donde gigantes como Microsoft y Google compiten por el dominio en nuevos mercados emergentes. Se describe cómo los grandes laboratorios de IA están invirtiendo en el entrenamiento de 'cerebros artificiales' más potentes. Además, se menciona el cambio en la estrategia de Nvidia desde su enfoque inicial en la producción de hardware de gráficos en tiempo real, principalmente para el mercado gaming, hacia el uso de sus GPUs para propósitos generales, lo que incluye aplicaciones de criptografía, análisis de datos y aprendizaje profundo.

05:02

🚀 La Revolución de las Redes Neuronales y las GPUs

Se narra cómo la introducción de AlexNet en una competición de análisis de imágenes marcó el inicio de la revolución del aprendizaje profundo, donde las redes neuronales mostraron su potencial al vencer a otros equipos. Se destaca el uso de GPUs para acelerar el entrenamiento de grandes redes neuronales, lo que permitió a los equipos entrenar arquitecturas más grandes y con más datos. Además, se menciona la Ley de Jensen Huang, que predice la duplicación anual del rendimiento de las GPUs, y cómo esta ha venido sucediendo con la evolución de las tarjetas gráficas Nvidia.

10:03

💼 Diferenciación entre Rich y Poor GPUs

Este párrafo explora la brecha entre las grandes compañías tecnológicas con acceso a una gran cantidad de GPUs ('Rich GPUs') y las startups con limitados recursos ('Poor GPUs'). Se menciona el anuncio de Meta sobre sus planes de adquirir 350,000 H100 de Nvidia para finales de 2024, lo que refleja la importancia de estas unidades de procesamiento en la IA generativa y el entrenamiento de modelos de última generación.

15:03

🎮 La Evolución de las GPUs de Consumo

Se discute cómo las tarjetas gráficas de consumo están adaptándose a la nueva era de la IA, con un aumento en los 'tensor cores' y la memoria de las GPUs. Se destaca la importancia de estos componentes para el entrenamiento e inferencia de modelos de aprendizaje profundo, y cómo la tecnología DLSS (Deep Learning Super Sampling) de Nvidia utiliza la IA para mejorar la calidad gráfica en videojuegos, sugiriendo un futuro donde la renderización en tiempo real podría estar basada en la IA generativa.

20:04

🌐 La IA Generativa y su Impacto en el Mercado

Este párrafo habla sobre el impacto de la IA generativa en el mercado y cómo Nvidia está posicionada para ofrecer el hardware necesario para ejecutar modelos de IA en local. Se menciona la introducción de herramientas como 'Chat with RTX' y cómo la IA generativa puede ser utilizada para mejorar la experiencia de juego con personajes no jugables (NPCs) que interactúan de forma natural en tiempo real. Además, se alude a la posibilidad de que en el futuro, los juegos y otros contenidos creativos requieran el uso de estas herramientas en local o en la nube.

🔮 Expectativas Futuras para Nvidia y la IA

El último párrafo se centra en las expectativas futuras para Nvidia y su papel en el mercado de semiconductores y la IA. Se anuncia la asistencia del narrador al GTC (GPU Technology Conference) de Nvidia, donde se espera conocer las últimas novedades en tecnología y avances en el campo de la IA. Se invita a la audiencia a seguir las redes sociales del narrador para estar al tanto de las actualizaciones y se menciona un sorteo de tarjetas gráficas en relación con el evento.

Mindmap

Keywords

💡Inteligencia artificial

La inteligencia artificial (IA) es un campo de la informática que se ocupa del desarrollo de sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, como la percepción, la toma de decisiones y el aprendizaje. En el video, la IA es el eje central de la discusión, ya que se analiza cómo la IA está impulsando una revolución industrial y cómo está compitiendo en un mercado en rápida evolución.

💡Batalla Industrial

La 'batalla industrial' mencionada en el guion hace referencia a la competencia feroz entre grandes empresas y startups en el ámbito de la IA. Esta lucha por el dominio del mercado se centra en la creación y el uso de tecnologías avanzadas, destacando cómo las grandes compañías como Microsoft y Google están invirtiendo en IA para mantener su posición.

💡Grandes empresas

El término 'grandes empresas' se utiliza para referirse a las corporaciones establecidas con un fuerte poder económico y una influencia significativa en el mercado. En el contexto del video, se discute cómo estas entidades están luchando por mantener su posición en el mercado de la IA, invirtiendo en tecnología y buscando innovar.

💡Mercados emergentes

Los 'mercados emergentes' son aquellos sectores que están en una fase temprana de desarrollo y creciendo rápidamente. En el video, este concepto se aplica a los nuevos sectores del mercado que se están formando a través de la IA, donde las empresas están compitiendo por establecer su presencia.

💡NVIDIA

NVIDIA es una compañía líder en la producción de chips gráficos y procesadores de unidades de procesamiento gráfico (GPU). En el video, se destaca cómo NVIDIA ha reorientado su estrategia para aprovechar el potencial de las GPUs en aplicaciones de propósito general, incluyendo el aprendizaje profundo y la IA.

💡GPU

La unidad de procesamiento gráfico (GPU) es un dispositivo de procesamiento de datos altamente eficiente en operaciones matemáticas paralelas, que se utiliza en aplicaciones gráficas y, como se discute en el video, también en cálculos de IA, como el aprendizaje profundo.

💡CUDA

CUDA es una plataforma de programación paralela desarrollada por NVIDIA que permite a los programadores escribir código que se ejecutará en las GPUs de NVIDIA. En el video, CUDA se menciona como una herramienta crucial para la programación de aplicaciones científicas y de IA en GPUs.

💡Aprendizaje profundo

El aprendizaje profundo es una subárea de la IA que se centra en la creación de redes neuronales artificiales capaces de aprender y mejorar a sí mismas a través de la experiencia. En el guion, se destaca cómo el aprendizaje profundo ha evolucionado gracias a la capacidad de las GPUs para manejar cálculos complejos.

💡Redes neuronales

Las redes neuronales son una forma de modelo de aprendizaje profundo que imita la estructura del cerebro humano para procesar información. En el video, se discute cómo el procesamiento en paralelo de las GPUs es ideal para el entrenamiento de estas redes, lo que ha llevado a avances significativos en el campo de la IA.

💡IA generativa

La IA generativa se refiere a un tipo de modelo de IA capaz de crear contenido original, como texto, imágenes o sonido, basándose en datos previamente vistos. En el guion, se menciona cómo la IA generativa está impulsando una nueva demanda de poder de cómputo, lo que afecta directamente el mercado de GPUs.

💡Tensor Cores

Los Tensor Cores son unidades de procesamiento especializadas en las GPUs de NVIDIA diseñadas para acelerar el cálculo de tensores, que son fundamentales en operaciones de aprendizaje profundo. En el video, se discute cómo la evolución de los Tensor Cores está impulsando la capacidad de las GPUs para manejar modelos de IA cada vez más grandes y complejos.

Highlights

En el mundo de la Inteligencia Artificial, se está librando una batalla industrial sin precedentes, con grandes empresas como Microsoft o Google luchando por sus mercados habituales y emergentes.

Los grandes laboratorios de IA están trabajando en el entrenamiento de cerebros artificiales más potentes.

NVIDIA, originalmente enfocada en hardware de procesamiento gráfico, se reorientó hacia el concepto de GPGPU, aprovechando el procesamiento en paralelo más allá de los gráficos por ordenador.

CUDA, introducido por NVIDIA en 2007, permitió instruir a las tarjetas gráficas de forma más comprensible para programadores.

La ejecución en paralelo es fundamental en el procesamiento de redes neuronales y en el análisis de datos, lo que acelera drásticamente la ejecución.

En 2012, el equipo de Joffrey Hinton usó varias GPUs para entrenar AlexNet, lo que marcó el comienzo de la revolución del Deep Learning y las tarjetas gráficas.

La Ley de Jensen Huang predice que el rendimiento de las GPUs se duplicará cada año, a diferencia de la Ley de Moore que se ve limitada por la física.

El entrenamiento de modelos de IA generativa, como GPT-4, ha aumentado la demanda de GPUs avanzadas como las A100 y H100.

La diferencia entre 'Rich GPUs' y 'Poor GPUs' se evidencia en la capacidad de grandes empresas tecnológicas de acceder a tecnología avanzada.

NVIDIA está posicionada para ofrecer hardware para ejecutar aplicaciones de IA, con tecnologías como los tensor cores y la memoria VRAM.

DLSS (Deep Learning Super Sampling) es una tecnología de NVIDIA que utiliza IA para mejorar la calidad gráfica en videojuegos.

NVIDIA Broadcast es una herramienta que utiliza IA para redirigir la dirección de las pupilas y mejorar la apariencia en videollamadas.

La IA generativa está transformando la creación de contenido, con aplicaciones en imágenes, videos, 3D y música.

NVIDIA está acelerando herramientas de IA generativa a través de su librería TensorRT, mejorando significativamente el rendimiento.

Los modelos de lenguaje Open Source se acercan en rendimiento a modelos privados como GPT-4, lo que podría permitir la ejecución local sin límites.

NVIDIA lanzó 'Chat with RTX', una herramienta gratuita que permite interactuar con modelos de lenguaje Open Source en tu propio ordenador.

La revolución del Deep Learning está estrechamente ligada al mercado de semiconductores, donde NVIDIA tiene una ventaja competitiva.

Transcripts

play00:02

que no te confunda el silencio de las

play00:04

últimas semanas porque en el mundo de la

play00:06

Inteligencia artificial se está viviendo

play00:08

una batalla Industrial sin precedentes

play00:11

una batalla donde la i ha puesto a

play00:13

grandes empresas como Microsoft o Google

play00:16

a bailar luchando por sus mercados

play00:18

habituales Sí pero también por los

play00:20

nuevos mercados que emergen un juego

play00:22

donde los grandes laboratorios de

play00:24

Inteligencia artificial han tomado parte

play00:25

y donde ponen todos sus recursos a

play00:27

trabajar para entrenar mejores y más

play00:30

potentes cerebros artificiales y una

play00:33

batalla donde nuevos jugadores compiten

play00:35

ferozmente por hacerse un hueco en el

play00:37

tablero para así poder ser también

play00:38

participes de una nueva Revolución

play00:40

Industrial que ya ha comenzado todo esto

play00:43

lo podemos ver ahora como una gran

play00:45

partida de ajedres donde ahora todos

play00:47

compiten pero donde el que gana es el

play00:50

dueño del tablero hablemos de

play00:56

[Música]

play00:58

envidia

play01:00

[Música]

play01:02

originalmente esto no era así en la

play01:05

década de los 2000 nvidia estaba

play01:07

únicamente enfocada en producir Hardware

play01:10

para el procesamiento de gráficos por

play01:11

ordenador en tiempo real principalmente

play01:14

orientada al mercado Gaming ya sabéis el

play01:16

usar la tarjeta gráfica como un

play01:18

procesador especializado que ayudara a

play01:20

aliviar la carga de trabajo de la cpu

play01:22

Pero a medida que las gpu se volvían

play01:24

cada vez más avanzadas los ingenieros

play01:27

empezaron a notar que ahí había más poal

play01:30

que se podía aprovechar el potencial del

play01:33

procesamiento en paralelo y fue esto la

play01:36

realización de que esta aceleración por

play01:38

Hardware podría ser útil Más allá de

play01:40

mover polígonos de colores por la

play01:41

pantalla lo que hizo reorientar la

play01:43

estrategia de nvidia hacia el concepto

play01:45

de GP gpu la utilización de las gpus

play01:49

para uso de propósito general es decir

play01:52

permitir aprovechar el potencial del

play01:54

procesamiento en paralelo de las gpus

play01:56

más allá de los gráficos por ordenador

play01:57

para que ahora cualquiera pudiera

play01:59

desarrollar aplicaciones que se

play02:00

beneficiara de esto aplicaciones como

play02:02

criptografía análisis de datos

play02:05

simuladores científicos o Deep learning

play02:07

suena bien no Bueno pues la cosa no era

play02:10

tan sencilla la dificultad es que si tú

play02:12

querías programar a la gpu para hacer

play02:14

por ejemplo una aplicación científica

play02:16

Pues un simulador molecular claro

play02:19

originalmente tú tenías que darle

play02:21

instrucciones a un cacharro que estaba

play02:23

pensado para gráficos por computador y

play02:26

por tanto tenías que adaptar tu código a

play02:28

las instrucciones gráficas de la tarjeta

play02:31

y esto es como intentar dar órdenes para

play02:33

ha una tarea compleja un simulador

play02:35

molecular hablando directamente con un

play02:38

pintor complicado y ahí fue cuando

play02:41

nvidia en 2007 introdujo los cambios

play02:44

necesarios para que ahora sí pues

play02:46

pudieras instruir a la tarjeta gráfica

play02:48

de forma más entendible como si hablara

play02:50

directamente con un programador este

play02:52

nuevo personaje esta nueva forma de

play02:54

hablar con la gpu era

play02:57

kuda cuda a a muchos de vosotros os

play03:00

sonará ya sea porque habéis programado

play03:02

directamente para la gpu o por todas las

play03:05

veces que os habéis peleado instalando

play03:07

las librerías de kuda cuando queríais

play03:08

probar algún proyecto de Deep learning Y

play03:10

es que sí la historia del Deep learning

play03:12

y de kuda está mucho más entrelazada de

play03:15

lo que podríamos imaginar pero este fue

play03:17

un noviazgo que tardó unos cuantos años

play03:19

en ocurrir la cosa es la siguiente

play03:22

Cuando tenemos una red neuronal la

play03:23

información Se va procesando capa tras

play03:25

Capa en diferentes neuronas

play03:27

multiplicando y sumando la información

play03:29

al fin fin como las neuronas de una

play03:30

misma capa no dependen de las otras

play03:32

neuronas en dicha capa pues cada una

play03:35

puede hacer su cálculo

play03:36

independientemente en paralelo y también

play03:39

como los datos de entrada en cada lote

play03:41

se van a procesar de forma independiente

play03:43

pues esta es una ejecución que también

play03:45

podemos procesar en paralelo paralelizar

play03:48

paralelizar y paralelizar y así si nos

play03:51

damos cuenta es como nos vamos

play03:52

encontrando formas de ir paralelizado la

play03:54

ejecución de las redes neuronales para

play03:56

que el trabajo en vez de hacerlo

play03:58

secuencialmente ten teniendo que esperar

play04:00

por la ejecución previa ahora se puede

play04:02

hacer simultáneamente algo que de forma

play04:05

drástica acelera la ejecución además

play04:08

también da la casualidad de que en

play04:09

muchos casos procesar gráficos por

play04:11

ordenador equivale a multiplicar las

play04:13

matrices y vectores que representan a

play04:15

cada polígono matrices y vectores que

play04:18

también encontramos en las redes

play04:20

neuronales Cuando tenemos que procesar

play04:22

los datos a través de las diferentes

play04:23

capas de matrices de parámetros ejecutar

play04:26

redes neuronales Y representar gráficos

play04:28

por ordenador no están diferente

play04:30

simplemente multiplicar vectores y

play04:32

matrices con lo cual sin quererlo ni

play04:34

beberlo ya en 2010 contábamos con estas

play04:37

gpus que eran aptas para realizar tareas

play04:39

de propósito general y que eran muy

play04:41

adecuadas para el entrenamiento de un

play04:43

tipo de algoritmo que Oye parecía que

play04:45

podía tener potencial dentro del campo

play04:48

de la Inteligencia artificial las redes

play04:50

neuronales artificiales y fue en 2012

play04:54

cuando un equipo de investigadores en el

play04:56

que encontramos a joffrey Hinton a Ilia

play04:58

zkber y Alex krichevsky que usaron

play05:01

varias gpus para el entrenamiento de una

play05:04

red neuronal bautizada como alexnet la

play05:07

presentaron a una competición de

play05:09

análisis de imágenes donde laboratorios

play05:11

de todo el mundo pues proponían sus

play05:13

soluciones y donde esta fue una de las

play05:15

primeras basadas en técnicas de Deep

play05:17

learning el resultado pulverizar por

play05:20

completo al resto de equipos y esta fue

play05:23

una de las primeras ocasiones donde

play05:24

quedó indudablemente claro el potencial

play05:27

de las redes neuronales artificiales el

play05:29

el punto en el tiempo en el que muchos

play05:30

sitúan el comienzo de la revolución del

play05:33

Deep learning del Deep learning y las

play05:35

tarjetas gráficas porque uno de los

play05:37

puntos claves de este trabajo fue el uso

play05:39

de las gpus para acelerar el

play05:41

entrenamiento de lo que por aquella

play05:42

época eran grandes redes neuronales el

play05:44

equipo tras alexnet utilizó el poder de

play05:47

la ejecución en paralelo para agilizar

play05:49

drásticamente los tiempos de

play05:51

entrenamiento y permitirse así el poder

play05:53

entrenar una arquitectura de mayor

play05:54

tamaño y con más datos Y a partir de ese

play05:57

momento pues como se suele decir el el

play05:59

resto ha sido

play06:06

historia toda esta época del Deep

play06:08

learning que ahora vemos con mucha

play06:10

nostalgia no hubiera sido posible sin el

play06:12

desarrollo en paralelo del mercado de

play06:16

las tarjetas gráficas y junto al

play06:18

crecimiento del sector del Deep learning

play06:20

y el crecimiento en tamaño y capacidad

play06:22

de los modelos envidia también

play06:26

creció de hecho ya hablamos de todo esto

play06:28

en este vídeo de aquí de hace 3 años

play06:31

donde os presenté la premonitoria ley de

play06:34

Juan una ley empírica que en este caso

play06:37

toma el apellido del seo de envidia

play06:39

jensen Juan para compararse a la famosa

play06:41

ley de mur la ley que supo predecir como

play06:44

el número de transistores de los

play06:46

microprocesadores que usamos en todos

play06:48

nuestros dispositivos se iba a ir

play06:50

duplicando cada 2 años haciendo que cada

play06:53

dos años estos chips fueran más capaces

play06:56

y eficientes pues en este caso la ley de

play06:58

Juan se centra como no en los

play07:00

procesadores gráficos en las gpus y lo

play07:02

que nos dice es que a pesar de que a la

play07:04

ley de mur cada vez le cuesta más

play07:06

cumplir con su cita por los límites que

play07:08

la propia física impone a pesar de eso

play07:10

el progreso de las gpus iban a seguir un

play07:13

camino diferente un camino donde su

play07:16

rendimiento se duplicaría cada año y

play07:18

esto es curioso si lo pensáis porque al

play07:20

final la ley de Juan depende fuertemente

play07:23

de la ley de mur es decir el desarrollo

play07:25

de las gpus pues está estrechamente

play07:27

ligado con que podamos seguir

play07:29

miniaturizado los transistores en los

play07:31

chips No pues no solo depende de eso

play07:34

también podemos encontrar un montón de

play07:36

técnicas de optimizaciones de mejoras en

play07:38

las arquitecturas de los chips que

play07:39

exploten el potencial de la computación

play07:41

en paralelo y en concreto su aplicación

play07:43

para Inteligencia artificial Ahí es

play07:46

donde encontramos muchas muchas

play07:48

ganancias y t cual lo planteó y San Juan

play07:50

en 2019 la cosa estaba

play07:58

así

play08:00

and in fact if you take a Look at Our

play08:02

progress This is really quite Amazing

play08:05

Our progress Over The Last 5 years 5

play08:09

years ago k80 servers If trained on

play08:12

Resident 50 would have taken 600 hours

play08:15

training this model 600 hours we Now Do

play08:17

it in two Now when you compound All of

play08:20

that it's basically some 30x over 5

play08:25

years and so This is doubling Every

play08:28

single year

play08:32

Pero esto era 2019 a partir de ese

play08:34

momento se ha seguido cumpliendo esta

play08:36

predicción pues Mirad si visualizamos la

play08:39

siguiente gráfica la tendencia de la

play08:41

última década es Clara cuando pasamos de

play08:44

las p1 a las v100 y luego a las a100 y

play08:47

recientemente la arquitectura hopper con

play08:49

las famosas H100 la tendencia con la que

play08:52

nos encontramos es esta en cosa de una

play08:55

década el rendimiento de estos chips se

play08:57

ha multiplicado por 1000 una mejora de

play09:00

rendimiento que como ya he indicado

play09:02

antes viene a dar respuesta a una

play09:03

necesidad del mercado de cada vez más

play09:06

computación Pues para el entrenamiento y

play09:08

la inferencia de Inteligencia artificial

play09:10

algo que en los últimos dos años se ha

play09:12

acentuado con la llegada de la ía

play09:14

generativa y en concreto con los enormes

play09:16

modelos del lenguaje para que os hagáis

play09:18

una idea en el blog de semanalisis

play09:20

estimaron que el pre trenamiento de gpt

play09:23

4 se realizó sobre unos 25,000 chips de

play09:26

nvidia a 100 de la generación anterior a

play09:29

ampere y este entrenamiento pues pudo

play09:31

llevar entre unos 90 y 100 días por

play09:33

comparar si esto se hubiera realizado

play09:35

sobre las actuales H100 el pre

play09:37

trenamiento hubiera requerido solo unas

play09:40

8192 H100 funcionando más o menos la

play09:44

mitad de tiempo esta reducción de tiempo

play09:46

costo y de cantidad de tarjetas es

play09:48

importantísima y de ahí que en 2023 tras

play09:51

estallar la locura del boom de la ía

play09:53

generativa empezara también la locura de

play09:55

muchísimas empresas queriendo acceder a

play09:58

los chips de envidia en silicon Valley

play10:00

la nueva moneda de cambio se convirtió

play10:02

en el acceso a las gpus a100 y H100 y el

play10:06

meme nos llevó incluso la situación de

play10:07

hablar de los Rich gpus los ricos en

play10:10

gpus las grandes compañías tecnológicas

play10:13

que estaban usando incluso su capacidad

play10:15

en computación para traer a

play10:16

investigadores a su empresa y los Poor

play10:19

gpus los pobres en gpus que eran esas

play10:22

startups que solo tenían acceso a

play10:24

cientos de gpus pobres en gpus pero

play10:27

realmente me fastidia conocer que sí a

play10:30

la vista de las últimas noticias que nos

play10:32

van llegando pues empezamos a evidenciar

play10:34

que esta diferencia entre Rich gpus y

play10:36

pur gpus existe ya que vemos como

play10:39

compañías como meta recientemente han

play10:41

anunciado que para finales de 2024 van a

play10:45

contar con

play10:46

350,000 H100 compradas a nvidia y que

play10:50

sumadas a su infraestructura haría un

play10:52

total de potencia equivalente a unas

play10:54

600,000 H100 una auténtica barbaridad y

play10:58

un movimiento que veremos replicado por

play11:00

parte del resto de empresas y lo que

play11:03

tenemos que entender es que el

play11:04

entrenamiento de modelos tan

play11:05

impresionantes como gpt 4 ocurrió en

play11:08

este periodo de transición donde los

play11:10

centros de computación estaban basados

play11:12

en chips v100 y a100 y es ahora cuando

play11:16

todas estas grandes empresas se están

play11:18

rearmando para que sus centros de

play11:20

computación basados en H100 empiecen a

play11:23

cocinar los futuros modelos de Última

play11:25

Generación como dije el tablero de juego

play11:28

la infraestruc ura ya está puesta y la

play11:31

batalla por la Inteligencia artificial

play11:33

ha

play11:34

comenzado pero volvamos a los orígenes

play11:36

porque Cuando nvidia comenzó a vender

play11:38

gpu su primer consumidor erais vosotros

play11:41

el público general que quizás nunca se

play11:43

va a comprar una H100 pero sí una rtx

play11:46

3060 para bueno jugar a videojuegos o

play11:49

hacer trabajo gráfico intensivo aquí la

play11:51

pregunta que me hago es bueno si estamos

play11:53

entrando en la Nueva Era de la

play11:55

Inteligencia artificial Cómo va a

play11:57

evolucionar Cómo se va a adaptar todo

play11:59

este hardware de consumo a esta Nueva

play12:01

Ola Pues realmente Esto es algo que ya

play12:03

venimos viendo desde hace años la

play12:05

evolución de las tarjetas gráficas de

play12:07

consumo general principalmente en dos

play12:09

aspectos el aumento de los tensor cores

play12:12

y el aumento de memoria sobre los tensor

play12:14

cores ya hablamos en un vídeo bastante

play12:17

antiguo en el canal donde íbamos desde

play12:19

los transistores y circuitería de un

play12:21

procesador hasta conceptos como estos

play12:23

tensor cores Pero bueno de forma

play12:25

resumida estos núcleos tensoriales como

play12:28

nombre indica son núcleos especializados

play12:31

para el procesamiento de cálculo

play12:33

tensorial y multiplicación de matrices

play12:35

de forma muy muy rápida algo diseñado a

play12:38

nivel de Hardware específicamente para

play12:40

acelerar el entrenamiento e inferencia

play12:42

de los modelos de Deep learning Por así

play12:45

decirlo estos tensor cor serían el

play12:47

músculo que ponen a funcionar a las

play12:49

redes neuronales y luego tenemos la

play12:51

memoria un aspecto importantísimo que no

play12:54

ha parado de crecer en los últimos años

play12:56

la famosa vram Y es que veamos Durante

play13:00

los últimos años la tendencia de muchos

play13:02

de los modelos de Deep learning ha sido

play13:04

el ir creciendo más y más en tamaño y

play13:07

aquí está la cosa ese tamaño es

play13:09

importante porque si queremos

play13:11

ejecutarlos en nuestras potentes gpus

play13:13

usando nuestros potentes tensor cores lo

play13:16

que necesitamos es que estos modelos

play13:18

quepan en ellos que quepan los

play13:20

parámetros y los datos que queramos

play13:22

procesar y ahí la cantidad de u Ram es

play13:25

el factor determinante y realmente a día

play13:27

de hoy muchos de los modelos Open source

play13:29

que vosotros podéis Descargar y empezar

play13:31

a utilizar en vuestros equipos requieren

play13:33

de cada vez más y más memoria Cuántos de

play13:36

vosotros os habréis descargado un modelo

play13:38

en vuestro ordenador y al ejecutarlo ha

play13:40

salido esto de kuda out of Memory error

play13:43

y al final si lo pensamos Este es el

play13:46

futuro al que nos movemos un futuro

play13:48

donde cada vez contaremos con más

play13:49

modelos Open source modelos más capaces

play13:51

y donde vosotros querréis poder

play13:54

ejecutarlos en vuestros equipos y donde

play13:56

contar con una tarjeta gráfica que sea

play13:58

lo suficiente ente potente pues va a ser

play14:00

necesario y esta brecha de poder

play14:02

ejecutar los modelos de inteligencia en

play14:04

local pues ya empieza a estar patente un

play14:07

ejemplo que os sonará la tecnología

play14:10

dlss Deep learning super sampling la

play14:13

vuelta a los orígenes de nvidia una

play14:16

tecnología que aprovecha las técnicas de

play14:18

superresolución con Deep learning pero

play14:20

en este caso ha aplicado los fotogramas

play14:22

de un videojuego el objetivo es quitarle

play14:24

carga de trabajo a los procesos gráficos

play14:26

de la gpu creando inicial mente un

play14:29

renderizado a menor resolución que luego

play14:31

aplicando Inteligencia artificial

play14:33

podemos reescalar tanto espacialmente

play14:35

como temporal para así darle al usuario

play14:37

una experiencia en alta calidad con más

play14:39

fps y donde actualmente las versiones

play14:42

más modernas incluso incluyen tecnología

play14:44

para la reconstrucción fiel de rayos de

play14:46

Ray tracing una tecnología que quita

play14:48

carga de trabajo a los procesos gráficos

play14:50

de la gpu para dárselo a los tensor Core

play14:53

y una experiencia de usuario diferente

play14:55

dependiendo de si usa ca o no y claro

play14:58

esto lo podemos extrapolar y llevárnoslo

play15:00

al extremo a futuro donde el concepto de

play15:03

tarjeta de vídeo se convierta en tarjeta

play15:05

de vídeo generativa y donde sea legítimo

play15:08

preguntarnos Cuántos píxeles de los que

play15:10

aparecen en mi pantalla pues son reales

play15:12

porque ya hemos visto casos de retoque

play15:14

en tiempo real que van desde Bueno lo

play15:16

que nos permiten hacer herramientas como

play15:18

nvidia broadcast que nos permite

play15:20

redirigir la dirección de las pupilas

play15:22

para A lo mejor leer un teleprompter y

play15:23

al mismo tiempo parecer que miras a

play15:25

cámara hasta luego versiones más

play15:27

extremas de esto donde los retoques en

play15:30

tiempo real son mucho más agresivos o

play15:33

situaciones donde directamente la

play15:34

renderización de gráficos en tiempo real

play15:36

por ordenador puede estar completamente

play15:38

basada en ia generativa ya en el canal

play15:41

hemos hablado en el pasado de

play15:42

investigaciones por parte de nvidia como

play15:44

instan Nerf o neural Angelo que no paran

play15:47

de dar pasos en el campo de la

play15:49

renderización neural y que tiene como

play15:51

objetivo el sustituir los pipelines de

play15:53

procesamiento de gráficos tradicionales

play15:55

por el uso de ia generativa algo que

play15:58

toda todavía está lejos de ser

play16:00

mainstream pero no tan lejos porque la

play16:03

ía generativa para la creación de

play16:04

imágenes vídeos 3D o música ya es una

play16:09

realidad una realidad que desde hace un

play16:11

año podemos ejecutar en nuestros

play16:12

ordenadores y donde la tendencia

play16:14

claramente seguirá siendo al alza en los

play16:16

próximos años muchos de los trabajos

play16:18

creativos requerirán del uso de estas

play16:20

herramientas en local Y de nuevo Esto es

play16:22

algo que envidia sabe que va a pasar y

play16:25

que ya está empezando a potenciar hace

play16:28

una semana presentaron a través de su

play16:29

librería tensor RT la aceleración de

play16:32

herramientas como stable diffusion XL

play16:35

lcm Lora o stable video diffusion que

play16:38

ahora pasarían a ser ejecutadas sobre

play16:39

las gpus de nvidia siete veces más

play16:42

rápidos que en un procesador m2 de Apple

play16:45

Y de nuevo contar aquí con una gpu

play16:48

compatible Es decir de nvidia Es

play16:50

indispensable y lo mismo pasa cuando

play16:52

hablamos de enormes modelos del lenguaje

play16:55

cada vez más el panorama Open source nos

play16:57

va regalando modelos que se van

play16:59

acercando en rendimiento a lo que

play17:01

modelos privados como gpt 4 nos puede

play17:03

ofrecer Y eso significa Imagínate que en

play17:06

un futuro cercano tú no vas a tener que

play17:08

pagar a Open Ai si quieres programar con

play17:10

una de estas sillas en tu trabajo para

play17:12

generar código no directamente tú lo

play17:15

ejecutará en local gratis sin ningún

play17:17

límite ni compromiso y esto es lo que

play17:20

hace para mí entender Pues cómo va a

play17:22

evolucionar las necesidades de vosotros

play17:25

de los consumidores y por tanto las

play17:27

necesidades de mercado cada vez más

play17:30

profesionales demandarán estas

play17:31

características estas funcionalidades

play17:33

basadas en Inteligencia artificial y ahí

play17:36

nvidia está muy bien posicionada para

play17:38

poder ofrecer el Hardware necesario para

play17:40

poder ejecutarlas yo Esto me lo imagino

play17:43

un poco como lo de rtx on rtx of pero en

play17:46

este caso Ai on Ai off donde tu

play17:48

ordenador te dará una mejor experiencia

play17:50

o peor experiencia en función de si

play17:53

puede ejecutar todos estos modelos en

play17:55

local y envidia esto lo sabe muy pero

play17:57

que muy bien que va a generar esta

play17:59

necesidad por parte de los consumidores

play18:02

No por nada se llaman envidia y por eso

play18:04

trabajan tanto investigando y

play18:05

desarrollando en el campo del Deep

play18:07

learning para traer más y mejores

play18:09

experiencias nuevas por ejemplo

play18:12

justamente ayer sacaron una herramienta

play18:14

gratuita llamada chat with rtx una

play18:17

herramienta que te va a permitir

play18:18

utilizar cualquier modelo de lenguaje

play18:21

Open source en tu ordenador y con

play18:23

capacidad de conectarlo a tus datos a

play18:26

tus documentos a un vídeo de YouTube

play18:28

para poder interactuar con esta fuente

play18:30

de información suena muy interesante

play18:32

quieres probarlo Pues solo te hace falta

play18:34

una cosa pasar por caja y podemos seguir

play18:37

encontrando ejemplos ejemplos donde

play18:39

nvidia ilustra Cómo podría ser el futuro

play18:41

de la industria de los videojuegos

play18:43

cuando empieza a introducir conceptos

play18:44

como los

play18:45

nnpc neural Non playable characters

play18:49

nombre que me acabo de inventar pero que

play18:50

está muy bien para este concepto que

play18:52

sabemos todos que va a acabar llegando

play18:55

el momento en el que en un videojuego te

play18:57

encuentres a un personaje cuyo diálogo

play18:59

cuya voz movimientos se vayan generando

play19:02

en tiempo real a través de lo que el

play19:04

Avatar percibe con sus modelos de ia

play19:07

permitiéndole interactuar de forma

play19:08

natural

play19:23

contigo esto es un concepto que envidia

play19:26

presenta para marcarle el camino a la

play19:27

industria de los videojuegos para

play19:29

decirle Ey Mira esto se puede hacer

play19:31

podría ser Interesante pero lo

play19:33

interesante realmente aquí es ver cuáles

play19:35

son las dos opciones que tenemos para

play19:36

implementar algo así una opción como

play19:39

hemos visto sería que cuando tú te

play19:40

instales el videojuego este descarga en

play19:43

tu ordenador Pues todo los modelos de

play19:44

visión de voz de lenguaje necesarios

play19:47

para poder hacer todo este proceso y que

play19:49

tú cuentes con una tarjeta gráfica que

play19:51

los pueda ejecutar si cuentas con el

play19:53

Hardware vivirás esta experiencia

play19:55

cognitiva aumentada o a lo mejor no A lo

play19:58

mejor la empresa de videojuegos quiere

play19:59

ofrecerle este servicio a todos sus

play20:01

jugadores y en ese caso se ejecutarían

play20:03

todos estos modelos en la nube una nube

play20:06

que requerirá de una computación que

play20:08

nvidia puede ofrecer a través de sus

play20:11

chips Y es que la revolución del Deep

play20:13

learning como hemos visto en este vídeo

play20:15

no se puede entender sin el mercado de

play20:18

semiconductores un mercado que A falta

play20:20

de competidores que puedan ganar esta

play20:22

ventaja competitiva que sabemos que

play20:24

envidia tiene pues hace que como he

play20:26

comentado al principio en este esta

play20:28

batalla de ajedres por ahora envidia

play20:38

gane Y qué podemos esperar a futuro de

play20:41

envidia Pues no lo sé no lo sabemos pero

play20:45

no vamos a tardar mucho en saberlo y es

play20:47

que el mes de marzo se va a volver a

play20:49

celebrar el gtc el gran evento que

play20:52

celebra envidia para presentar todas las

play20:54

novedades y en esta ocasión y este vídeo

play20:56

me viene perfecto para anunciar me hacía

play20:58

mucha ilusión decirlo voy a asistir

play21:01

físicamente a San Francisco a San José

play21:03

para poder estar allí vivirlo y traeros

play21:06

todas las novedades con suerte incluso

play21:08

hasta me saco un selfie con jensen Juan

play21:11

sobre todo esto ya os contaré más

play21:12

información a futuro pero si os digo que

play21:14

estéis atentos a mis redes sociales

play21:16

donde en estos días pues publicaré más

play21:18

información sobre el gtc y pondremos el

play21:21

sorteo habitual de tarjetas gráficas que

play21:23

hacemos para celebrar esta fecha tan

play21:25

importante quería aprovechar la temática

play21:27

de este vídeo para ar todo esto porque

play21:28

creo que está muy bien relacionado me

play21:31

hace mucha ilusión poder asistir al gtc

play21:33

y poder traeros todo el avance que se

play21:35

produzca por parte de envidia por parte

play21:37

del mercado de los semiconductores y

play21:39

todas las novedades de Deep learning

play21:41

como siempre hacemos aquí chicos chicas

play21:43

nos vemos con más Inteligencia

play21:44

artificial en el próximo vídeo chao

Rate This

5.0 / 5 (0 votes)

関連タグ
Inteligencia ArtificialDeep LearningGPUsNVIDIARevolución TecnológicaJuegos en VideoIa GenerativaModelos de LenguajeRenderización NeuralGTCHardware de Consumo
英語で要約が必要ですか?