Nvidia 2024 AI Event: Everything Revealed in 16 Minutes

CNET
18 Mar 202416:00

Summary

TLDRスクリプトの魅力的な要約で、ユーザーの興味を引き付ける短くyet正確な概要を提供します。

Takeaways

  • 🌐 ブラックウェルは新しいプラットフォームで、GPUを製造しているという一般的な認識と異なります。
  • 🔄 ブラックウェルチップは280億トランジスタを持っており、2つのダイが密接して一つのチップのように機能します。
  • 🚀 10TBのデータが1秒間に伝送され、2つのブラックウェルチップの側は自分がどちらの側にあるか認識しません。
  • 💻 Hopperに互換性のあるブラックウェルのバージョンがあり、既存のHopperのインフラストラクチャに簡単に取り入れることができます。
  • 🌟 ブラックウェルはメモリーの統合性があり、計算が非常に効率的に行われます。
  • 🛠️ 新しいチップMVY Link Switchは500億トランジスタを持っており、Hopperのサイズに近いものです。
  • 🔗 MVY Link Switchは4つのMVリンクを持ち、1.8TBの速度で他のGPUと通信できます。
  • 🤖 ジェネラティブAI時代のためのプロセッサが開発され、コンテンツトークン生成という重要な機能が含まれています。
  • 📈 計算が進化する速度は非常に速いにも関わらず、まだ十分に迅速ではないため、さらなる Chips の開発が行われています。
  • 🔄 パートナーシップはAIの時代に向けて製品やサービスを加速するための重要な要素です。
  • 🌐 ブラックウェルは世界中の多数の企業と協力し、AIファクトリーの概念を導入し、産業に革新をもたらす予定です。

Q & A

  • Blackwellはどのようなプラットフォームですか?

    -Blackwellは、GPUを制作しているという誤解を招く名前のプラットフォームです。実際には、Blackwellは28億トランジスタを持つ非常に高性能なチップで、新しいタイプのコンピューティングデバイスを提供します。

  • Blackwellチップの特徴は何ですか?

    -Blackwellチップは、2つのダイ(dies)が密接に接続され、10TBのデータが1秒間にやり取りされることで、メモリの局所性やキャッシュの問題が発生しないという特徴があります。これは、2つの側面が自分がどの側面にあるかわからないほど、一つの巨大なチップのように動作します。

  • Blackwellチップはどのようなシステムに適用されますか?

    -Blackwellチップは、2つのタイプのシステムに適用されます。一つは、Hopperとフォームフィット機能互換性のあるもので、HopperをスライドしてBlackwellをプッシュインします。もう一つは、メモリーコヒーレントであり、複数のGPUが同時にフルスピードで通信できるように設計されたシステムです。

  • MVYリンクスイッチチップは何特筆すべき特性がありますか?

    -MVYリンクスイッチチップは、Hopperのほぼ同じサイズで、50億トランジスタを持っており、4つのMVリンクを持ち、それぞれ1.8TBの速度でデータを転送できるという特筆すべき特性があります。また、コンピューティングも含まれており、各GPUが他のGPUと同時に通信できるシステムを構築することができます。

  • NvidiaはAI時代にどのようなプロセッサを作成しましたか?

    -Nvidiaは、AI時代に生成のための新しいプロセッサを作成しました。このプロセッサの最も重要な部分の1つは、コンテンツトークン生成であり、彼らはこれをFP4フォーマットと呼んでいます。

  • Nvidiaが提供するAIファブリックとは何ですか?

    -NvidiaのAIファブリックは、AIを構築するための3つの柱から成り立っています。これには、Nvidia Inference Microservice(NIMS)、Nemo Microservice、DGX Cloudが含まれます。これらのサービスは、AIの学習、微調整、パフォーマンス評価、そしてAPIを使用した簡単なデータの準備とキュレーションを可能にします。

  • Nvidiaはどのようなパートナーシップを発表しましたか?

    -Nvidiaは、SAP、cohesity、snowflake、NetApp、Dell、AWS、Google、Oracle、Microsoftなど、世界中の偉大な企業とのパートナーシップを発表しました。これらのパートナーシップは、AIファブリックの構築、データ処理、ロボット学習、デジタルツインの作成など、多岐にわたるイニシアチブに関連しています。

  • NvidiaのOmniverseとは何ですか?

    -NvidiaのOmniverseは、ロボットやAIエージェントが学習し、複雑な工業空間での予測不可能な出来事をナビゲートするためのデジタルな世界を代表するシミュレーションエンジンです。Omniverseは、設計、エンジニアリング、マーケティングなど、企業の異なる部門が同じデータの真実に基づいて作業できるようにするプラットフォームです。

  • NvidiaのIsaac Simは何ですか?

    -NvidiaのIsaac Simは、ロボット学習アプリケーションです。このアプリケーションを使用すると、グループモデルをトレーニングし、ロボットは人間の示範から学び、日常のタスクを支援するように調整できます。

  • NvidiaのJetson Thorロボットチップはどのようなものです?

    -NvidiaのJetson Thorは、AIパワードのロボットCHIPS(CARs)のためのロボットチップです。Isaac Lab、Osmo、Grootを使用することで、このチップは来世代のAIパワードのロボットの基盤を提供します。

  • NvidiaのProject Grootは何ですか?

    -NvidiaのProject Grootは、人型ロボット学習のための一般的な基礎モデルです。このグループモデルは、マルチモーダルな指示と過去の相互作用を入力として取り込み、ロボットが実行する次のアクションを生成します。

Outlines

00:00

🚀 革新的なBlackwellチップとMVYリンクスイッチの紹介

この段落では、Blackwellという新しいプラットフォームが紹介されています。Blackwellは28億トランジスタを持つチップで、2つのダイが新しい方法で接続されており、10TBのデータが1秒間にやり取りされています。Blackwellチップは2つのシステムに適用され、1つはHopperに滑り込み、Blackwellをプッシュインできる形で、効率性が非常に高いため、導入が課題となります。また、MVYリンクスイッチという新しいチップも紹介されており、50億トランジスタでHopperのサイズに近いものです。このスイッチは1.8TBの速度で4つのMVリンクを持ち、全てのGPUが同時にフルスピードで通信できるシステムを構築することができます。

05:00

🤖 AI時代のためのNvidiaのパートナーシップとサービス

この段落では、NvidiaがAI時代に対応するための様々なパートナーシップとサービスについて説明しています。Google、AWS、Oracle、Microsoftなどの大企業と協力しており、AIサービスやデータ処理、ロボット技術を加速しています。また、NvidiaがAIファウンダリーとして機能し、企業のAIニーズに応えることが強調されています。Nems、Nivo、dgx Cloudという3つの柱が紹介され、SAPやcohesity、snowflake、net appppなどの企業と協力してAIエージェントを構築しています。

10:00

🌐 デジタルツインとOmniverseによるロボットの学習と生産性向上

この段落では、デジタルツインとOmniverseというNvidiaのシミュレーションエンジンによるロボットの学習と生産性向上について説明されています。Omniverseはロボットが学習するための仮想世界であり、ovxというコンピュータがAzure Cloudでホストされています。産業界ではデジタルツインから始まり、AIエージェントがロボット労働者やインフラストラクチャを助け、複雑な工業空間での予測不可能なイベントをナビゲートします。Nvidia Project Grootという一般的な目的のヒューマノイドロボット学習モデルも紹介され、Isaac Labのアプリケーションを使用してOmniverse上でトレーニングされています。

15:02

🎉 Blackwellチップの発表とNvidiaの将来のビジョン

最後の段落では、Blackwellチップの発表がハイライトされ、このチップがNvidiaのビジョンにおけるGPUの姿を示していると強調されています。Blackwellは驚くべきシステム設計であり、MVYリンクスイッチやネットワークシステムが含まれています。この発表はNvidiaの将来のビジョンを示すものであり、コンピュータグラフィックス、物理学、人工知能の交差点であるNvidiaの魂を表しています。

Mindmap

Keywords

💡Blackwell

Blackwellは、このビデオの主題である新しいプラットフォームの名前です。このプラットフォームは、伝統的なGPUとは見た目が異なると説明され、28億のトランジスタを持っており、2つのダイ(dies)が一緒に接続されていることで、メモリの局所性やキャッシュの問題がないと述べられています。Blackwellは、Hopperと互換性のあるシステムや、新しいタイプのシステムに組み込むことができるとされています。

💡Hopper

Hopperは、Blackwellと互換性のあるシステムであり、このビデオで紹介されている技術の一環です。Hopperは、Blackwellをスライドしてプッシュインすることで、効率的なシステムに組み込まれることが示されています。Hopperは、世界中で多くのインストールがあるため、Blackwellの導入が効率的であることが一つの課題とされています。

💡transistors

トランジスタは、電子デバイスの基本的な構成要素であり、このビデオではBlackwellが28億のトランジスタを持つことが提及されています。トランジスタの数は、デバイスの性能や複雑さを示す指標の1つです。Blackwellの高性能と高機能性を象徴する数字です。

💡memory coherent

メモリー コーヒーレントは、複数のプロセッサやチップ間で共有メモリーの内容が統一されている状態を指します。このビデオでは、Blackwellチップの2つの側が互いにどの側にあるかわからないように、メモリー コーヒーレントであることが強調されています。これは、データの転送や処理が効率的に行われることを意味し、システム全体の性能向上に繋がります。

💡MVY link switch

MVY link switchは、このビデオで紹介されている新しいチップの名前で、50億のトランジスタを持ち、Hopperのサイズに近いとされています。MVY link switchは、各1.8テラバイト每秒の速度でデータ転送ができる4つのMV linkを持っており、GPU同士が同時にフルスピードで通信できるように設計されています。

💡dgx system

dgxシステムは、NVIDIAが開発したAI専用のハイエンドコンピューティングプラットフォームです。このビデオでは、dgxシステムが2-3エクソフロップスの機上の数少ないマシンの一つであり、1つのラックにエクソフロップスのAIシステムを収容できると説明されています。dgxシステムは、AIの研究や開発に必要な大量の計算能力を提供します。

💡AI Foundry

AI Foundryは、NVIDIAが提唱するAIを活用した新しいビジネスモデルです。AI Foundryは、企業がAIを活用してサービスや製品を開発するためのプラットフォームを提供し、AIのトレーニング、運用、最適化などのプロセスを支援します。このビデオでは、NVIDIA AI Foundryが世界中の偉大な企業と協力しており、様々な業界でのAIの適用を推進していることが述べられています。

💡Omniverse

Omniverseは、NVIDIAが開発したデジタルツイン技術とシミュレーションプラットフォームです。これにより、企業はデジタルの環境で製品やサービスを設計、テスト、そして最適化することができます。このビデオでは、Omniverseがロボット工学やインフラストラクチャのAIエージェントをトレーニングし、予測不可能なイベントに対応するのに使用されることが示されています。また、Omniverse CloudがVision Proにストリームされることも発表されています。

💡Jetson Thor

Jetson Thorは、NVIDIAが開発したロボット向けのロジックコンピューティングプラットフォームです。このプラットフォームは、ロボットが複雑なタスクを実行し、人間のように動作するための高機能なチップです。このビデオでは、Jetson Thorが新しいジェネシックロボット003プロジェクトのパワーソースとして使用され、ロボットが日常的なタスクを支援し、人間のように動くように学習できるように設計されていることが示されています。

💡Nemo microservice

Nemo microserviceは、NVIDIA AI Foundryの一部であり、データのキュレーション、準備、およびAIの微調整を行うためのサービスです。このサービスは、企業がAIを効果的に活用し、データから教師を学び、AIの応答を評価できるように設計されています。このビデオでは、Nemo microserviceがデータの準備とAIの微調整を助けるために使用され、効果的なAIアプリケーションの開発を支援することが強調されています。

💡dgx Cloud

dgx Cloudは、NVIDIAが提供するクラウドベースのAIプラットフォームです。これにより、企業は高い計算能力を必要とするAIアプリケーションを迅速に開発と運用することができます。このビデオでは、dgx CloudがNVIDIA AI Foundryと協力して、企業がAIをより効果的に活用するためのサービスを提供していることが述べられています。また、dgx CloudはOracleデータベースやSAP Jewel co-pilotsなどの業界のニーズに応えるために活用されています。

Highlights

Arrival at a developers conference with a focus on science, algorithms, and computer architecture.

Introduction of Blackwell, a platform that changes the traditional concept of GPUs.

Hopper, a revolutionary chip with 28 billion transistors, setting a new standard in computing.

The unique design of Blackwell allows two dies to function as one, with 10 terabytes of data transfer per second.

Form fit function compatibility with Hopper, making Blackwell a seamless integration.

The challenge of ramping up to the efficiency of Blackwell due to its innovative design.

The creation of a processor for the generative AI era, emphasizing content token generation with FP4 format.

The incredible advancement in computing, yet still striving for greater speed.

Introduction of the MVY link switch chip with 50 billion transistors and a capacity of 1.8 terabytes per second.

A system that allows every GPU to communicate at full speed simultaneously, revolutionizing AI systems.

The partnership with major companies like AWS, Google, and Microsoft in accelerating AI services and systems.

Nvidia's role as an AI Foundry, providing comprehensive solutions for AI development.

Collaboration with SAP to build service now assist virtual assistance using Nvidia Nemo and dgx Cloud.

The development of Cohesity's generative AI agent with Nvidia AI Foundry, leveraging vast data resources.

Snowflake's partnership with Nvidia AI Foundry to build co-pilots, enhancing their cloud data services.

NetApp's utilization of Nvidia AI Foundry to build chatbots and co-pilots, improving data storage solutions.

Dell's role in building AI factories for enterprises, partnering with Nvidia for large-scale systems.

Omniverse as a digital twin simulation engine for AI agents and robots, hosted in the Azure Cloud.

Nvidia Project Groot, a foundation model for humanoid robot learning, showcasing the intersection of computer graphics, physics, and AI.

The Jetson Thor robotics chips, designed for the future of AI-powered robotics, demonstrated by Disney's BDX robots.

Transcripts

play00:01

I hope you realize this is not a

play00:06

concert you have

play00:08

arrived at a developers

play00:12

conference there will be a lot of

play00:14

science

play00:15

described algorithms computer

play00:18

architecture mathematics Blackwell is

play00:21

not a chip Blackwell is the name of a

play00:24

platform uh people think we make

play00:27

gpus and and we do but gpus don't look

play00:31

the way they used to this is hopper

play00:34

Hopper changed the

play00:36

world this is

play00:47

Blackwell it's okay

play00:52

Hopper 28 billion transistors and so so

play00:56

you could see you I can see there there

play01:00

a small line between two dyes this is

play01:02

the first time two dieses have abutted

play01:04

like this together in such a way that

play01:07

the two CH the two dies think it's one

play01:09

chip there's 10 terabytes of data

play01:12

between it 10 terabytes per second so

play01:15

that these two these two sides of the

play01:17

Blackwell Chip have no clue which side

play01:19

they're on there's no memory locality

play01:22

issues no cach issues it's just one

play01:25

giant chip and it goes into two types of

play01:29

systems the first

play01:31

one is form fit function compatible to

play01:34

Hopper and so you slide a hopper and you

play01:37

push in Blackwell that's the reason why

play01:39

one of the challenges of ramping is

play01:41

going to be so efficient there are

play01:43

installations of Hoppers all over the

play01:45

world and they could be they could be

play01:47

you know the same infrastructure same

play01:49

design the power the electricity The

play01:52

Thermals the software identical push it

play01:56

right back and so this is a hopper

play01:59

version for the current hgx

play02:02

configuration and this is what the other

play02:05

the second Hopper looks like this now

play02:07

this is a prototype board this is a

play02:09

fully functioning board and I just be

play02:12

careful here this right here is I don't

play02:15

know10

play02:21

billion the second one's

play02:26

five it gets cheaper after that so any

play02:29

customer in the audience it's okay the

play02:32

gray CPU has a super fast chipto chip

play02:34

link what's amazing is this computer is

play02:37

the first of its kind where this much

play02:40

computation first of all fits into this

play02:44

small of a place second it's memory

play02:47

coherent they feel like they're just one

play02:49

big happy family working on one

play02:52

application together we created a

play02:54

processor for the generative AI era and

play02:59

one of the most important important

play03:00

parts of it is content token generation

play03:03

we call it this format is fp4 the rate

play03:06

at which we're advancing Computing is

play03:08

insane and it's still not fast enough so

play03:10

we built another

play03:13

chip this chip is just an incredible

play03:17

chip we call it the mvy link switch it's

play03:20

50 billion transistors it's almost the

play03:23

size of Hopper all by itself this switch

play03:25

ship has four MV links in

play03:28

it each 1.8 terabytes per

play03:32

second

play03:33

and and it has computation in it as I

play03:37

mentioned what is this chip

play03:39

for if we were to build such a chip we

play03:43

can have every single GPU talk to every

play03:47

other GPU at full speed at the same time

play03:51

you can build a system that looks like

play03:58

this

play04:03

now this system this

play04:05

system is kind of

play04:08

insane this is one dgx this is what a

play04:12

dgx looks like now just so you know

play04:14

there only a couple two three exop flops

play04:16

machines on the planet as we speak and

play04:19

so this is an exif flops AI system in

play04:23

one single rack I want to thank I want

play04:26

to thank some partners that that are

play04:28

joining us in this uh aw is gearing up

play04:30

for Blackwell they're uh they're going

play04:32

to build the first uh GPU with secure AI

play04:35

they're uh building out a 222 exif flops

play04:39

system we Cuda accelerating Sage maker

play04:42

AI we Cuda accelerating Bedrock AI uh

play04:45

Amazon robotics is working with us uh

play04:47

using Nvidia Omniverse and Isaac Sim AWS

play04:51

Health has Nvidia Health Integrated into

play04:54

it so AWS has has really leaned into

play04:57

accelerated Computing uh Google is

play05:00

gearing up for Blackwell gcp already has

play05:02

A1 100s h100s t4s l4s a whole Fleet of

play05:06

Nvidia Cuda gpus and they recently

play05:09

announced the Gemma model that runs

play05:11

across all of it uh we're work working

play05:13

to optimize uh and accelerate every

play05:16

aspect of gcp we're accelerating data

play05:18

proc which for data processing the data

play05:21

processing engine Jacks xlaa vertex Ai

play05:25

and mujo for robotics so we're working

play05:27

with uh Google and gcp across whole

play05:29

bunch of initiatives uh Oracle is

play05:32

gearing up for blackw Oracle is a great

play05:34

partner of ours for Nvidia dgx cloud and

play05:36

we're also working together to

play05:38

accelerate something that's really

play05:40

important to a lot of companies Oracle

play05:43

database Microsoft is accelerating and

play05:46

Microsoft is gearing up for Blackwell

play05:48

Microsoft Nvidia has a wide- ranging

play05:50

partnership we're accelerating could

play05:52

accelerating all kinds of services when

play05:54

you when you chat obviously and uh AI

play05:56

services that are in Microsoft Azure uh

play05:59

it's very very very likely nvidia's in

play06:00

the back uh doing the inference and the

play06:02

token generation uh we built they built

play06:04

the largest Nvidia infiniband super

play06:07

computer basically a digital twin of

play06:09

ours or a physical twin of ours we're

play06:11

bringing the Nvidia ecosystem to Azure

play06:14

Nvidia DJ's Cloud to Azure uh Nvidia

play06:17

Omniverse is now hosted in Azure Nvidia

play06:19

Healthcare is in Azure and all of it is

play06:22

deeply integrated and deeply connected

play06:24

with Microsoft fabric a NM it's a

play06:27

pre-trained model so it's pretty clever

play06:30

and it is packaged and optimized to run

play06:33

across nvidia's install base which is

play06:36

very very large what's inside it is

play06:39

incredible you have all these

play06:41

pre-trained stateof the open source

play06:43

models they could be open source they

play06:45

could be from one of our partners it

play06:46

could be created by us like Nvidia

play06:48

moment it is packaged up with all of its

play06:51

dependencies so Cuda the right version

play06:54

cdnn the right version tensor RT llm

play06:57

Distributing across the multiple gpus

play06:59

tried and inference server all

play07:01

completely packaged together it's

play07:05

optimized depending on whether you have

play07:07

a single GPU multi- GPU or multi- node

play07:09

of gpus it's optimized for that and it's

play07:12

connected up with apis that are simple

play07:14

to use these packages incredible bodies

play07:17

of software will be optimized and

play07:19

packaged and we'll put it on a

play07:22

website and you can download it you

play07:24

could take it with you you could run it

play07:27

in any Cloud you could run it in your

play07:29

own data Center you can run in

play07:30

workstations if it fit and all you have

play07:32

to do is come to ai. nvidia.com we call

play07:35

it Nvidia inference microservice but

play07:38

inside the company we all call it Nims

play07:40

we have a service called Nemo

play07:42

microservice that helps you curate the

play07:44

data preparing the data so that you

play07:46

could teach this on board this AI you

play07:49

fine-tune them and then you guardrail it

play07:51

you can even evaluate the answer

play07:53

evaluate its performance against um

play07:55

other other examples and so we are

play07:58

effectively an AI Foundry we will do for

play08:02

you and the industry on AI what tsmc

play08:05

does for us building chips and so we go

play08:08

to it with our go to tsmc with our big

play08:10

Ideas they manufacture and we take it

play08:12

with us and so exactly the same thing

play08:14

here AI Foundry and the three pillars

play08:17

are the NIMS Nemo microservice and dgx

play08:21

Cloud we're announcing that Nvidia AI

play08:23

Foundry is working with some of the

play08:25

world's great companies sap generates

play08:27

87% of the world's global Commerce

play08:30

basically the world runs on sap we run

play08:32

on sap Nvidia and sap are building sap

play08:35

Jewel co-pilots uh using Nvidia Nemo and

play08:38

dgx Cloud uh service now they run 80 85%

play08:42

of the world's Fortune 500 companies run

play08:44

their people and customer service

play08:46

operations on service now and they're

play08:49

using Nvidia AI Foundry to build service

play08:52

now uh assist virtual

play08:55

assistance cohesity backs up the world's

play08:58

data their sitting on a gold mine of

play09:00

data hundreds of exobytes of data over

play09:02

10,000 companies Nvidia AI Foundry is

play09:05

working with them helping them build

play09:08

their Gia generative AI agent snowflake

play09:12

is a company that stores the world's uh

play09:15

digital Warehouse in the cloud and

play09:17

serves over three billion queries a day

play09:22

for 10,000 Enterprise customers

play09:24

snowflake is working with Nvidia AI

play09:26

Foundry to build co-pilots with Nvidia

play09:29

Nemo and Nims net apppp nearly half of

play09:33

the files in the world are stored on

play09:36

Prem on net app Nvidia AI Foundry is

play09:39

helping them uh build chat Bots and

play09:41

co-pilots like those Vector databases

play09:44

and retrievers with enidan Nemo and

play09:47

Nims and we have a great partnership

play09:49

with Dell everybody who everybody who is

play09:52

building these chatbots and generative

play09:54

AI when you're ready to run it you're

play09:57

going to need an AI Factory

play10:00

and nobody is better at Building

play10:02

endtoend Systems of very large scale for

play10:05

the Enterprise than Dell and so anybody

play10:08

any company every company will need to

play10:10

build AI factories and it turns out that

play10:13

Michael is here he's happy to take your

play10:17

order we need a simulation

play10:21

engine that represents the world

play10:23

digitally for the robot so that the

play10:25

robot has a gym to go learn how to be a

play10:27

robot we call that

play10:30

virtual world Omniverse and the computer

play10:33

that runs Omniverse is called ovx and

play10:36

ovx the computer itself is hosted in the

play10:39

Azure Cloud the future of heavy

play10:42

Industries starts as a digital twin the

play10:45

AI agents helping robots workers and

play10:48

infrastructure navigate unpredictable

play10:50

events in complex industrial spaces will

play10:52

be built and evaluated first in

play10:55

sophisticated digital twins once you

play10:57

connect everything together it's insane

play11:00

how much productivity you can get and

play11:02

it's just really really wonderful all of

play11:04

a sudden everybody's operating on the

play11:05

same ground

play11:06

truth you don't have to exchange data

play11:09

and convert data make mistakes everybody

play11:12

is working on the same ground truth from

play11:15

the design Department to the art

play11:16

Department the architecture Department

play11:18

all the way to the engineering and even

play11:19

the marketing department today we're

play11:21

announcing that Omniverse

play11:23

Cloud streams to The Vision Pro and

play11:35

it is very very

play11:37

strange that you walk around virtual

play11:40

doors when I was getting out of that

play11:43

car and everybody does it it is really

play11:47

really quite amazing Vision Pro

play11:49

connected to Omniverse portals you into

play11:52

Omniverse and because all of these cat

play11:55

tools and all these different design

play11:56

tools are now integrated and connected

play11:58

to Omniverse

play11:59

you can have this type of workflow

play12:01

really

play12:02

incredible this is Nvidia Project

play12:09

Groot a general purpose Foundation model

play12:13

for humanoid robot

play12:15

learning the group model takes

play12:17

multimodal instructions and past

play12:19

interactions as input and produces the

play12:22

next action for the robot to

play12:25

execute we developed Isaac lab a robot

play12:29

learning application to train Gro on

play12:31

Omniverse Isaac

play12:33

Sim and we scale out with osmo a new

play12:36

compute orchestration service that

play12:38

coordinates workflows across djx systems

play12:40

for training and ovx systems for

play12:43

simulation the group model will enable a

play12:46

robot to learn from a handful of human

play12:49

demonstrations so it can help with

play12:51

everyday

play12:53

tasks and emulate human movement just by

play12:57

observing us all this incredible

play12:59

intelligence is powered by the new

play13:01

Jetson Thor robotics chips designed for

play13:04

Gro built for the future with Isaac lab

play13:08

osmo and Groot we're providing the

play13:10

building blocks for the next generation

play13:12

of AI powered

play13:18

[Applause]

play13:26

[Music]

play13:28

robotics

play13:30

about the same

play13:37

size the soul of

play13:39

Nvidia the intersection of computer

play13:42

Graphics physics artificial intelligence

play13:46

it all came to bear at this moment the

play13:48

name of that project general robotics

play13:54

003 I know super

play13:58

good

play13:59

super

play14:01

good well I think we have some special

play14:05

guests do

play14:10

[Music]

play14:15

we hey

play14:19

guys so I understand you guys are

play14:22

powered by

play14:23

Jetson they're powered by

play14:26

Jetson little Jetson robotics computer

play14:29

inside they learn to walk in Isaac

play14:36

Sim ladies and gentlemen this this is

play14:39

orange and this is the famous green they

play14:42

are the bdx robots of

play14:47

Disney amazing Disney

play14:51

research come on you guys let's wrap up

play14:54

let's

play14:55

go five things where you going

play15:02

I sit right

play15:07

here Don't Be Afraid come here green

play15:09

hurry

play15:12

up what are you

play15:15

saying no it's not time to

play15:19

eat it's not time to

play15:24

eat I'll give I'll give you a snack in a

play15:26

moment let me finish up real quick

play15:29

come on green hurry up stop wasting

play15:34

time this is what we announce to you

play15:37

today this is Blackwell this is the

play15:45

plat amazing amazing processors MV link

play15:49

switches networking systems and the

play15:52

system design is a miracle this is

play15:55

Blackwell and this to me is what a GPU

play15:58

looks like in my mind

Rate This

5.0 / 5 (0 votes)

Related Tags
BlackwellGPU進化AI時代ハイパフォーマンスメモリーコヒーレントMVYリンクスイッチdgxシステムAIファウンリーデジタルツインロボット学習
Do you need a summary in English?