3D Scanning Changed Again. NeRFs Are SO Back!

Creative Tech Digest
19 Jan 202407:05

Summary

TLDREin faszinierender Einblick in die neue Technologie von Google DeepMind: Smurf. Dies ist eine fortschrittliche Version von Nerfs, die Multi-Raum-Visualisierungen mit zentimetergenauer Detailgenauigkeit ermöglicht und Mobilgeräten wie Smartphones und Laptops via Webbrowser zugänglich ist. Smurf bietet eine beeindruckende Bildrate von über 144 FPS und übertrifft dabei sowohl die Geschwindigkeit von gausi-Splattung als auch die Qualität von Zip-Nerfs. Die Verwendung von Smurf führt zu weniger Artefakten und verlässlicheren Erfassungsanforderungen, was die Qualität der 3D-Visualisierungen verbessert. Darüber hinaus ermöglicht Smurf das Trainieren auf verzerrten Fischaugens Bildern, was die Effizienz bei der Erfassung großer Szenen steigert. Trotz seiner beeindruckenden Leistung erfordert Smurf jedoch eine umfangreiche Trainingsphase, was die breite Verbreitung in Anwendungen wie Google Maps immersive view einschränkt. Zusätzlich wird in einem neuen Google-AI-Paper gezeigt, wie man mit neuronalen Feldern UV-Mappings für Nerf-Modelle durchführt, was die Bearbeitung von Texturen in 2D-Software wie Photoshop erleichtert.

Takeaways

  • 🚀 Google DeepMind hat kürzlich Smurf vorgestellt, eine neue Form von neuronalen Flussdiagrammen (Neural Radiance Fields, NRFs) mit hochauflösender Detaildarstellung und Echtzeitfähigkeit.
  • 📱 Smurf kann auf geringes Ressourcen ausgelegten Geräten wie Mobiltelefonen und Laptops über einen Webbrowser laufen und 60 FPS (Bilder pro Sekunde) erreichen.
  • 🏆 Smurf bietet eine Balance zwischen der Geschwindigkeit des Gaußischen Splatting und der Qualität von ZIP-Neuralen Flussdiagrammen (NeRFs).
  • 🎮 Im Vergleich zu 3D-Gaussian Splatting bietet Smurf weniger Artefakte und verständnisvollere Erfassungsanforderungen, was die Qualität der Visualisierung verbessert.
  • 🌐 Smurf reproduziert alle view-dependent Effects (blickabhängige Effekte), die in NeRFs geliebt werden, einschließlich der Abhängigkeit von sphärischen Harmoniken (sphärische Harmonische).
  • 📷 Es ist möglich, Smurf direkt aus verzerrten Fischaugens Bildern zu trainieren, was die Effizienz bei der Erfassung großer Szenen verbessert.
  • 🤖 Smurf nutzt eine Hierarchie von unterschiedlichen NeRF-Modellen, um die Szene zu zerlegen und nach Bedarf zu laden, was die Leistung auf Mobilgeräten erhöht.
  • 📈 Smurf übertrifft sowohl 3D-Gaussian als auch Splatting in Bezug auf Leistung und Qualität und erreicht die Qualität von ZIP-Neuralen Flussdiagrammen mit 60 FPS.
  • 🧠 Smurf erfordert jedoch eine umfangreiche Ausbildung von bis zu 200.000 Schritten auf einem leistungsstarken GPU, was eine große Einschränkung für die breite Verbreitung darstellt.
  • 🎨 Ein weiteres Google-AI-Papier beschäftigt sich mit der Verwendung neuronaler Felder für UV-Mapping, was es ermöglicht, sauberere, parametrisierte Teile des Modells zu bearbeiten und zu bearbeiten.
  • 🌟 Die Kombination dieser Technologien ermöglicht es, Texturen von NeRF-Modellen mit 2D-Bearbeitungswerkzeugen wie Photoshop oder Firefly zu bearbeiten, was kreative Möglichkeiten für 3D-Künstler und Designer eröffnet.

Q & A

  • Was ist Smurf und wie unterscheidet es sich von anderen Nerf-Technologien?

    -Smurf ist eine neue von Google DeepMind entwickelte Technologie, die als 'streamable multi-room Nerfs' bekannt ist. Es bietet eine hohe Framerate von über 144 FPS bei centimetergenauer Detailgenauigkeit und funktioniert auch auf mobilen Geräten. Es liegt zwischen der Geschwindigkeit von gausianischer Splatting und der Qualität von Zip-Nerfs und reduziert Artefakten, verbessert die Capture-Anforderungen und erlaubt die Reproduktion von view-dependent Effects wie bei herkömmlichen Nerfs.

  • Wie ist die Leistung von Smurf im Vergleich zu anderen 3D-Technologien?

    -Smurf bietet im Vergleich zu 3DGS eine bessere Qualität mit weniger Artefakten und verlässlicheren Capture-Anforderungen. Es erreicht eine Framerate von über 144 FPS, was in der Nähe des gausianischen Splattings liegt, aber mit besserer Qualität als Calcium Splatting.

  • Kann Smurf auf mobilen Geräten verwendet werden?

    -Ja, Smurf ist so konzipiert, dass es auf Low-Resource-Geräten wie Smartphones und Laptops über einen Webbrowser genutzt werden kann, wobei es bei 60 FPS rendert.

  • Was sind die Vorteile von Smurf in Bezug auf die Bearbeitung von Nerf-Modellen?

    -Smurf ermöglicht es, auf veränderbare Weise UV-Karten von Nerf-Modellen zu bearbeiten. Dies ermöglicht es Künstlern, die Texturen von Nerf-Modellen mit 2D-Bearbeitungswerkzeugen wie Photoshop oder Firefly zu verändern, ohne die komplexe Topologie der Modelle direkt bearbeiten zu müssen.

  • Wie viele Trainingsschritte erfordert Smurf für seine Implementierung?

    -Smurf erfordert ein umfangreiches Training von etwa 200.000 Schritten auf einer leistungsstarken GPU, was eine signifikante Einschränkung für die breite Verbreitung in Anwendungen wie Google Maps Immersive View darstellt.

  • Wie unterscheidet sich Smurf von anderen real-time SLAM-Technologien?

    -Smurf bietet eine neue Art der Realitätserfassung, die auf der Basis von Neuralen Feldern arbeitet und sich durch eine hohe Framerate und detaillierte Darstellung auszeichnet. Im Gegensatz zu einigen real-time SLAM-Technologien, die auf gausianischer Splatting basieren, bietet Smurf eine alternative Darstellung, die trotz intensiven Trainings effektiv auf mobilen Geräten funktioniert.

  • Wie können UV-Karten von Nerf-Modellen mit Smurf bearbeitet werden?

    -Mit Smurf können UV-Karten von Nerf-Modellen durch die Verwendung von neuralen Feldern für UV-Mapping bearbeitet werden. Dies ermöglicht es, die Modelle in 2D-Software wie Photoshop oder Firefly zu bearbeiten, um Texturen zu verändern oder hinzuzufügen, ohne die 3D-Geometrie direkt bearbeiten zu müssen.

  • Was ist der Hauptvorteil von Smurf in Bezug auf die Realitätserfassung?

    -Smurf ermöglicht eine hochauflösende und detaillierte Realitätserfassung mit geringeren Artefakten und verbesserten Capture-Anforderungen. Es bietet eine bessere Qualität als herkömmliche gausianische Splatting-Techniken und kann auf mobilen Geräten in Echtzeit genutzt werden.

  • Welche möglichen Anwendungen hat Smurf in der Zukunft?

    -Smurf könnte in Anwendungen wie Google Maps Immersive View eingesetzt werden, um Innen- und Außenansichten mit hoher Fidelity zu erkunden und zu ersetzen, was derzeit mit vorab gerenderten 360-Grad-Videos möglich ist. Es könnte auch in der Film- und Spielentwicklung oder der virtuellen Realität eingesetzt werden, um interaktive und detaillierte Szenen zu erstellen.

  • Welche Herausforderungen gibt es bei der Verbreitung von Smurf in der Industrie?

    -Die umfangreiche Trainingszeit von 200.000 Schritten auf leistungsstarken GPU ist eine Herausforderung für die Verbreitung von Smurf. Dies könnte den Einsatz in Anwendungen mit schnell wechselnden Inhalten oder in Echtzeit-Umgebungen einschränken.

  • Wie kann Smurf die Kreativität von Künstlern und Designern verbessern?

    -Smurf ermöglicht es Künstlern, durch die Verwendung von 2D-Bearbeitungswerkzeugen wie Photoshop und Firefly die Texturen von Nerf-Modellen zu verändern. Dies erweitert ihre kreativen Möglichkeiten, indem sie die Komplexität der 3D-Geometrie umgehen und ihnen die Fähigkeit gibt, ihre künstlerischen Fähigkeiten auf Nerf-Modelle anzuwenden.

Outlines

00:00

🚀 Einführung in Smurf: Neues Streaming-Nerf-System mit hochauflösendem Detail

In diesem Abschnitt wird das neue Streaming-Nerf-System namens Smurf vorgestellt, das von Google DeepMind entwickelt wurde. Smurf verbindet die Geschwindigkeit des Gaußischen Splatting mit der Qualität von Zip-Nerf und ist auf mobilen Geräten wie Smartphones und Laptops einsetzbar. Es bietet 60 FPS bei centimetergenauen Details und hat weniger Artefakte als herkömmliche Methoden. Smurf verbessert auch die Erkennungsanforderungen und vermeidet die typischen 'floaters' und Löcher, die bei Gausian Splatting auftreten können. Es ist auch in der Lage, view-dependent effects zu reproduzieren, die bei herkömmlichen Nerf-Technologien bekannt sind, und bietet eine bessere Qualität als Calcium Splatting.

05:00

🎨 UV-Mapping mit Neural Fields für Nerf-Modelle

Der zweite Abschnitt konzentriert sich auf die Herausforderungen des Bearbeitens von Nerf-Modellen, insbesondere auf die Schwierigkeiten mit der UV-Map-Generierung, die für 3D-Künstler und Designer oft unübersichtlich ist. Googles neues AI-Paper, NVO, bietet eine Lösung für dieses Problem, indem es neurale Felder für UV-Mapping verwendet, um saubere, parametrisierte Teile des Modells zu ermöglichen. Dies erlaubt es, 2D-Bearbeitungswerkzeuge wie Photoshop oder Firefly zu verwenden, um die Texturen der Nerf-Modelle zu ändern, ohne die komplexe Topologie des Modells berücksichtigen zu müssen. Die Vorstellung von NVO zeigt, wie das neue System detailliertere und lesbarere UV-Maps erzeugt, die es den Künstlern ermöglichen, ihre Modelle effektiver zu bearbeiten.

Mindmap

Keywords

💡Nerfs

Nerfs ist ein Akronym für Neural Radiance Fields, eine künstliche Intelligenz-Technologie, die realistische, dreidimensionale Szene- und Lichtsimulationen ermöglicht. Im Video wird erläutert, dass Nerfs nach einer Phase der Verbesserungen mit neuen Algorithmen wie Smurf (Streamable multi-room Nerfs) zurückkehren und sich durch ihre detaillierte Darstellung und ihre Fähigkeit, auf mobilen Geräten zu funktionieren, auszeichnen.

💡Gaussian Splats

Gaussian Splats ist eine Technik zur Darstellung von 3D-Szenen, die durch die Verwendung von Gauß'scher Funktionen zur Approximation von Flächen arbeitet. Im Kontext des Videos wird diese Methode mit der neuen Technologie Smurf verglichen, die eine bessere Leistung und Qualität bietet.

💡Smurf

Smurf ist eine neue von Google DeepMind entwickelte Technologie, die als 'streamable multi-room Nerfs' bezeichnet wird. Es ermöglicht eine detaillierte Darstellung von Szenen mit einer hohen Framerate von 60 FPS und kann auf geringes Ressourcen ausgelegt werden, wie Mobiltelefonen und Laptops.

💡Centimeter-Level Detail

Centimeter-Level Detail bezieht sich auf die Genauigkeit und Auflösung von 3D-Darstellungen, bei der Details auf einer Längenmaß von Zentimeter genau wiedergegeben werden können. Im Video wird dies als eine der Merkmale von Smurf hervorgehoben, die eine höhere Qualität der visuellen Darstellung ermöglicht.

💡60 Frames Per Second

60 Frames pro Sekunde (FPS) ist eine Messgrenze für die Anzahl der Bilder, die pro Sekunde angezeigt werden können. Ein höherer FPS-Wert führt zu einer flüssigeren und realistischeren Bewegungswahrnehmung. Im Video wird die Fähigkeit von Smurf, mit 60 FPS zu rendern, als ein wichtiges Merkmal hervorgehoben, das die Leistungsfähigkeit der Technologie verdeutlicht.

💡Artifacts

Artifacts in diesem Kontext beziehen sich auf unerwünschte Pixel oder Verzerrungen in der Bilddarstellung, die durch die Verarbeitung oder das Rendern von 3D-Szenen entstehen können. Im Video wird darauf hingewiesen, dass Smurf weniger Artifacts als herkömmliche Nerf-Techniken erzeugt und somit zu einer klareren und realistischeren Visualisierung führt.

💡Capture Requirements

Capture Requirements beziehen sich auf die Anforderungen an die Einrichtung und die Prozesse, die notwendig sind, um 3D-Szenen aufzunehmen oder zu erstellen. Im Video wird Smurf als Technologie beschrieben, die weniger strenge Capture-Anforderungen hat, was die Benutzerfreundlichkeit und die Effizienz bei der Erstellung von 3D-Inhalten erhöht.

💡View-Dependent Effects

View-Dependent Effects beschreiben visuelle Effekte, die sich ändern, je nachdem, wie eine Szene betrachtet wird. Dies kann die Beleuchtung, die Farbe oder die Textur einer Szene betreffen. Im Video wird erwähnt, dass Smurf in der Lage ist, alle gewohnten view-dependent effects zu reproduzieren, was für eine realistische 3D-Darstellung wichtig ist.

💡Distorted Fisheye Imagery

Verzerrte Fischaugensicht-Bildgebung bezieht sich auf die Verwendung von Fischaugen-Objektiven, die ein starkes Verzerrungsmuster erzeugen, um ein breites Spektrum von einer Szene zu erfassen. Im Video wird erwähnt, dass Smurf trainiert werden kann, um direkt auf verzerrten Fischaugensicht-Bildern zu arbeiten, was die Effizienz bei der Erfassung großer Szenen verbessert.

💡UV Mapping

UV-Mapping ist ein Prozess im 3D-Modellierungsprozess, bei dem die Oberflächen einer 3D-Modell-Datei einer Textur zugeordnet wird. Im Video wird eine neue Technologie namens NVO vorgestellt, die es ermöglicht, Nerf-Modelle für UV-Mapping zu verwenden und somit 2D-Bearbeitungswerkzeuge für die Texturierung von 3D-Modellen zu nutzen.

💡Real-Time SLAM

Highlights

Nerfs are back with a new method called Smurf, offering streamable multi-room Nerfs with centimeter level detail.

Smurf is deployable to low resource devices like smartphones and laptops via the web browser, rendering at 60 frames per second.

Smurf strikes a balance between the speed of Gaussian splatting and the quality of zip Nerfs.

In comparison to zip Nerf's 0.25 frames per second, Smurf achieves over 144 frames per second in the same scene.

Smurf provides better quality than calcium splatting with fewer artifacts and more forgiving capture requirements.

Smurf solves the problem of floaters and holes in scenes where captures are missing.

The method reproduces view-dependent effects loved in Nerfs, unlike Gaussian splatting.

Smurf can train on distorted fisheye imagery directly, which is beneficial for wide-angle captures.

The hierarchical structure of Smurf allows for efficient loading and mobile competitiveness.

Smurf outperforms 3D gy and splatting, matching zip Nerf quality at 60 frames per second on mobile devices.

Extensive training of Smurf, around 200,000 steps on a powerful GPU, is a limitation for widespread adoption.

Google's new AI paper introduces neural fields for UV mapping, allowing for clean edits on Nerf models.

The UV mapping technique enables 2D editing tools like Photoshop to be used on Nerf textures.

The method in progress optimizes for cleanly parameterized chunks of the model, making it more human-readable and easier to work with in 2D software.

Reality capture is advancing rapidly, with Nerfs remaining competitive alongside Gaussian splatting-based representations.

The future of reality capture is bright, with ongoing research and development in both neural and non-neural fields.

Real-time 3D Gaussian splatting and its applications in SLAM (simultaneous localization and mapping) are gaining traction.

The new kid on the block, Gaussian splatting, is expected to continue evolving with a focus on real-time applications.

Transcripts

play00:00

all right so just when we thought that

play00:01

Nerfs were done gaui and splatting were

play00:04

in Nerfs are back with a vengeance

play00:06

Google deep mind just dropped Smurf

play00:08

that's a mouthful but basically it's

play00:10

streamable multi-room Nerfs with

play00:13

centimeter level detail and it works on

play00:15

mobile too our method is readily

play00:17

Deployable to low resource devices

play00:19

including consumer grade smartphones and

play00:21

laptops via the web browser while

play00:23

rendering at 60 frames per second it's

play00:26

kind of like this sweet spot between the

play00:28

speed of gausian splatting and the

play00:30

quality of say a zip Nerf so take a look

play00:33

at this where zip Nerf is getting .25

play00:35

frames per second in this scene Smurf is

play00:38

getting 144 plus frames per second

play00:41

absolutely wild we're well into gausian

play00:44

splatting territory but get this the

play00:46

quality is even better than calcium

play00:48

splatting and I wasn't joking about it

play00:50

working on mobile just take a look at

play00:51

this it's absolutely absolutely

play00:53

absolutely wild so what are the benefits

play00:54

compared to 3dgs a couple first off way

play00:57

less artifacts but not just zip Earth

play01:00

this stuff is better than gausi and

play01:02

splatting way less artifacts and far

play01:04

more forgiving capture requirements okay

play01:06

take a look at this room scene I've done

play01:08

a bunch of captures like this and a

play01:10

Splat usually looks very good but where

play01:12

you didn't capture those images you'll

play01:14

get all these like wonky looking

play01:15

floaters and sort of holes in the scene

play01:18

Smurf absolutely solves this problem so

play01:20

your capture requirements are far far

play01:22

more forgiving I mean just phenomenal

play01:24

phenomenal results and you get all the

play01:26

view dependent effects that you're used

play01:27

to there's also less floaters than

play01:30

gausian splatting and I think the best

play01:31

part is it reproduces all those vi

play01:34

dependent effects that we've come to

play01:36

love in Nerfs but you can't quite

play01:37

squeeze out of gausian splatting which

play01:39

sort of the approach for spherical

play01:41

harmonics here's a great example you've

play01:43

got these like massive Splats in a scene

play01:45

where you didn't get capture enough

play01:46

detail oh my God look at that you got

play01:49

fully recovered tiling on the ground

play01:51

Reflections on the freaking TV

play01:53

absolutely absolutely gorgeous another

play01:55

benefit is that you can train on

play01:58

distorted fisheye imagery directly so

play02:00

obviously if you're using a wide angle

play02:01

fisheye it's particularly important for

play02:03

large scans like this like multi-room

play02:05

captures you can capture a scene even

play02:08

more efficiently and even more faster so

play02:10

this hierarchical structure of sort of

play02:12

breaking the scene into these distinct

play02:14

Nerf models and being able to load stuff

play02:16

in as needed really makes this

play02:18

competitive on mobile check out the live

play02:20

demos Linked In the description you can

play02:22

choose between mobile laptop and desktop

play02:24

optimized variants and see for yourself

play02:27

that it is indeed Superior to 3D gy

play02:29

splatting there's a bunch of other stuff

play02:31

happening around deferred appearance

play02:32

Network partitioning and sort of having

play02:34

this like distillation strategy but the

play02:36

short version of it is basically this

play02:38

like teacher model imparts the knowledge

play02:41

to a student model the Smurf so zip Nerf

play02:43

is basically teaching Smurf to learn how

play02:46

to render highquality visuals more

play02:47

quickly and more efficiently the short

play02:49

version is Smurfs absolutely outperforms

play02:51

3D gy and splatting and murfs it matches

play02:53

zip Nerf quality and operates at a

play02:55

remarkable 60 frames per second on

play02:57

devices like smartphones and laptops now

play02:59

it's not not all rainbows and sunshin

play03:01

Smurfs requires extensive training we're

play03:03

talking like 200,000 steps on a powerful

play03:05

GPU which obviously makes this a

play03:07

significant limitation for widespread

play03:09

adoption in my opinion for applications

play03:12

such as Google Maps immersive view where

play03:14

Nerfs are used to explore interiors and

play03:16

exteriors in High Fidelity and it will

play03:18

do a great job replacing the

play03:19

pre-rendered 360 videos that you can

play03:21

find in Google Maps today here you can

play03:23

see the next partition load in look at

play03:25

that beautiful all the details on the

play03:27

windows the paintings the Le

play03:30

the finish and the veneer on it

play03:31

everything's beautifully visible so

play03:33

here's me just flying around I encourage

play03:34

you to go try this demo for yourself and

play03:37

uh check it out firsthand all right so

play03:38

another issue with Nerfs is that they're

play03:41

super cool and they look great but

play03:42

they're very hard to edit if you turn

play03:44

them into a mesh the geometry and the UV

play03:46

maps are an absolute dumpster fire

play03:49

making simple texture editing like

play03:51

mission impossible for your 3D artist

play03:53

but not any more Google's other AI paper

play03:55

that came out called nvo employs neural

play03:58

fields for UV mapping basically letting

play04:00

you edit cleanly parameterized chunks of

play04:03

the model so here's what I mean look at

play04:05

that detailed mesh you've got a bunch of

play04:06

non- manifold geometry a bunch wonky

play04:09

geometry in general it's not like a

play04:11

bunch of clean topology so you get a UV

play04:13

map that looks kind of like that oh my

play04:15

God that is an absolute dumpster fire

play04:17

for any artist that wants to make some

play04:18

edits Google solves this problem by

play04:20

using neural fields for UV mapping

play04:22

letting you edit these like cleanly

play04:25

parameterized chunks of the model look

play04:27

at that visualize the Checker pattern

play04:29

right there the benefit of this is that

play04:31

now you can use 2D editing tools like

play04:33

Photoshop Firefly in painting to edit

play04:35

the textures of these Nerf models it

play04:37

doesn't even matter if you're doing this

play04:39

with a real life scan or a generated one

play04:41

a perfect perfect example here's the uh

play04:44

method in progress over here it's

play04:45

getting optimized and you're getting

play04:46

these like cleanly parameterized chunks

play04:49

that are far more human readable and

play04:50

just easier to work with in 2D software

play04:53

so when you put all this stuff together

play04:54

you can go in and edit the texture of

play04:56

that table throw some goldfishes on

play04:58

there and even edit your dream Fusion

play05:00

models super super exciting so yeah you

play05:02

can do some really cool things maybe you

play05:04

made a model made a dream Fusion mesh

play05:06

and now you can go take it into

play05:07

Photoshop and paint on some new textures

play05:09

same thing with this iconic Garden scene

play05:11

you can go into something like Firefly

play05:14

in painting and change the textures on

play05:17

the table and still have all of those

play05:18

cool view dependent effects and all of

play05:20

that cuz you're operating on just the

play05:21

albo here this is a great example too

play05:23

you've got some like nicely cluing

play05:26

goldfish in painted onto the plate again

play05:29

re Searchers don't always do the best

play05:31

job of showing the creative

play05:32

possibilities but for Creative techies

play05:34

such as you and I we can immediately see

play05:36

where this stuff is going right all

play05:38

right so amazing paper super super

play05:40

exciting stuff so to wrap things up

play05:41

reality capture is continuing to move

play05:43

really fast just when everyone thought

play05:46

that Radiance fields are going to move

play05:47

on to this new gausian splatting based

play05:49

representation we're now seeing that

play05:50

Nerfs can still be competitive on the

play05:52

other hand I expect we'll see yet

play05:54

another wave of papers that focus on

play05:57

gausian Splats as sort of the

play05:58

representation the perfect example being

play06:00

a bunch of the real-time slam work

play06:02

that's happening right now and while it

play06:03

is true you can make some really really

play06:05

amazing things with gausian Splats but I

play06:07

suspect we'll keep seeing advancements

play06:09

in gausian splatting as well like

play06:10

clearly this is the new kit on the Block

play06:13

and super hot for all the researchers in

play06:15

the space so we're seeing some amazing

play06:17

things for example real-time 3D gausian

play06:19

splatting right like simultaneous

play06:21

localization and mapping that's

play06:23

operating on this like gazi and splat

play06:25

representation just look at this

play06:26

absolutely wild and a slam dunk if you

play06:29

ask me I love to make bad jokes but you

play06:31

know you're just going to have to put up

play06:33

with this all right so who knows who's

play06:34

going to win all I know is Radiance

play06:36

fields are here to stay whether it's

play06:37

neural not neural who the hell cares at

play06:40

the end of the day it's all reality

play06:42

capture and there's a bunch of cool

play06:43

stuff you can do with it if you miss

play06:45

that video go check it out over here

play06:47

super excited to show you a bunch of

play06:48

other cool stuff on the horizon if you

play06:50

like this video if this was valuable be

play06:52

sure to hit a like Please Subscribe and

play06:54

hit that Bell icon it's super

play06:56

cringeworthy to do this but you have to

play06:58

especially in the early stages of a

play07:00

channel like this thank you again for

play07:02

your support and I will see y'all in the

play07:04

next one

Rate This

5.0 / 5 (0 votes)

Related Tags
Nerf-TechnologieGoogle-DeepMindSmurfMobilgeräteRealitätserfassungGaußische-SplattungEchtzeit-SLAM3D-Gy-SplattungUV-MappingNeurale-Felder
Do you need a summary in English?