3D Scanning Changed Again. NeRFs Are SO Back!
Summary
TLDREin faszinierender Einblick in die neue Technologie von Google DeepMind: Smurf. Dies ist eine fortschrittliche Version von Nerfs, die Multi-Raum-Visualisierungen mit zentimetergenauer Detailgenauigkeit ermöglicht und Mobilgeräten wie Smartphones und Laptops via Webbrowser zugänglich ist. Smurf bietet eine beeindruckende Bildrate von über 144 FPS und übertrifft dabei sowohl die Geschwindigkeit von gausi-Splattung als auch die Qualität von Zip-Nerfs. Die Verwendung von Smurf führt zu weniger Artefakten und verlässlicheren Erfassungsanforderungen, was die Qualität der 3D-Visualisierungen verbessert. Darüber hinaus ermöglicht Smurf das Trainieren auf verzerrten Fischaugens Bildern, was die Effizienz bei der Erfassung großer Szenen steigert. Trotz seiner beeindruckenden Leistung erfordert Smurf jedoch eine umfangreiche Trainingsphase, was die breite Verbreitung in Anwendungen wie Google Maps immersive view einschränkt. Zusätzlich wird in einem neuen Google-AI-Paper gezeigt, wie man mit neuronalen Feldern UV-Mappings für Nerf-Modelle durchführt, was die Bearbeitung von Texturen in 2D-Software wie Photoshop erleichtert.
Takeaways
- 🚀 Google DeepMind hat kürzlich Smurf vorgestellt, eine neue Form von neuronalen Flussdiagrammen (Neural Radiance Fields, NRFs) mit hochauflösender Detaildarstellung und Echtzeitfähigkeit.
- 📱 Smurf kann auf geringes Ressourcen ausgelegten Geräten wie Mobiltelefonen und Laptops über einen Webbrowser laufen und 60 FPS (Bilder pro Sekunde) erreichen.
- 🏆 Smurf bietet eine Balance zwischen der Geschwindigkeit des Gaußischen Splatting und der Qualität von ZIP-Neuralen Flussdiagrammen (NeRFs).
- 🎮 Im Vergleich zu 3D-Gaussian Splatting bietet Smurf weniger Artefakte und verständnisvollere Erfassungsanforderungen, was die Qualität der Visualisierung verbessert.
- 🌐 Smurf reproduziert alle view-dependent Effects (blickabhängige Effekte), die in NeRFs geliebt werden, einschließlich der Abhängigkeit von sphärischen Harmoniken (sphärische Harmonische).
- 📷 Es ist möglich, Smurf direkt aus verzerrten Fischaugens Bildern zu trainieren, was die Effizienz bei der Erfassung großer Szenen verbessert.
- 🤖 Smurf nutzt eine Hierarchie von unterschiedlichen NeRF-Modellen, um die Szene zu zerlegen und nach Bedarf zu laden, was die Leistung auf Mobilgeräten erhöht.
- 📈 Smurf übertrifft sowohl 3D-Gaussian als auch Splatting in Bezug auf Leistung und Qualität und erreicht die Qualität von ZIP-Neuralen Flussdiagrammen mit 60 FPS.
- 🧠 Smurf erfordert jedoch eine umfangreiche Ausbildung von bis zu 200.000 Schritten auf einem leistungsstarken GPU, was eine große Einschränkung für die breite Verbreitung darstellt.
- 🎨 Ein weiteres Google-AI-Papier beschäftigt sich mit der Verwendung neuronaler Felder für UV-Mapping, was es ermöglicht, sauberere, parametrisierte Teile des Modells zu bearbeiten und zu bearbeiten.
- 🌟 Die Kombination dieser Technologien ermöglicht es, Texturen von NeRF-Modellen mit 2D-Bearbeitungswerkzeugen wie Photoshop oder Firefly zu bearbeiten, was kreative Möglichkeiten für 3D-Künstler und Designer eröffnet.
Q & A
Was ist Smurf und wie unterscheidet es sich von anderen Nerf-Technologien?
-Smurf ist eine neue von Google DeepMind entwickelte Technologie, die als 'streamable multi-room Nerfs' bekannt ist. Es bietet eine hohe Framerate von über 144 FPS bei centimetergenauer Detailgenauigkeit und funktioniert auch auf mobilen Geräten. Es liegt zwischen der Geschwindigkeit von gausianischer Splatting und der Qualität von Zip-Nerfs und reduziert Artefakten, verbessert die Capture-Anforderungen und erlaubt die Reproduktion von view-dependent Effects wie bei herkömmlichen Nerfs.
Wie ist die Leistung von Smurf im Vergleich zu anderen 3D-Technologien?
-Smurf bietet im Vergleich zu 3DGS eine bessere Qualität mit weniger Artefakten und verlässlicheren Capture-Anforderungen. Es erreicht eine Framerate von über 144 FPS, was in der Nähe des gausianischen Splattings liegt, aber mit besserer Qualität als Calcium Splatting.
Kann Smurf auf mobilen Geräten verwendet werden?
-Ja, Smurf ist so konzipiert, dass es auf Low-Resource-Geräten wie Smartphones und Laptops über einen Webbrowser genutzt werden kann, wobei es bei 60 FPS rendert.
Was sind die Vorteile von Smurf in Bezug auf die Bearbeitung von Nerf-Modellen?
-Smurf ermöglicht es, auf veränderbare Weise UV-Karten von Nerf-Modellen zu bearbeiten. Dies ermöglicht es Künstlern, die Texturen von Nerf-Modellen mit 2D-Bearbeitungswerkzeugen wie Photoshop oder Firefly zu verändern, ohne die komplexe Topologie der Modelle direkt bearbeiten zu müssen.
Wie viele Trainingsschritte erfordert Smurf für seine Implementierung?
-Smurf erfordert ein umfangreiches Training von etwa 200.000 Schritten auf einer leistungsstarken GPU, was eine signifikante Einschränkung für die breite Verbreitung in Anwendungen wie Google Maps Immersive View darstellt.
Wie unterscheidet sich Smurf von anderen real-time SLAM-Technologien?
-Smurf bietet eine neue Art der Realitätserfassung, die auf der Basis von Neuralen Feldern arbeitet und sich durch eine hohe Framerate und detaillierte Darstellung auszeichnet. Im Gegensatz zu einigen real-time SLAM-Technologien, die auf gausianischer Splatting basieren, bietet Smurf eine alternative Darstellung, die trotz intensiven Trainings effektiv auf mobilen Geräten funktioniert.
Wie können UV-Karten von Nerf-Modellen mit Smurf bearbeitet werden?
-Mit Smurf können UV-Karten von Nerf-Modellen durch die Verwendung von neuralen Feldern für UV-Mapping bearbeitet werden. Dies ermöglicht es, die Modelle in 2D-Software wie Photoshop oder Firefly zu bearbeiten, um Texturen zu verändern oder hinzuzufügen, ohne die 3D-Geometrie direkt bearbeiten zu müssen.
Was ist der Hauptvorteil von Smurf in Bezug auf die Realitätserfassung?
-Smurf ermöglicht eine hochauflösende und detaillierte Realitätserfassung mit geringeren Artefakten und verbesserten Capture-Anforderungen. Es bietet eine bessere Qualität als herkömmliche gausianische Splatting-Techniken und kann auf mobilen Geräten in Echtzeit genutzt werden.
Welche möglichen Anwendungen hat Smurf in der Zukunft?
-Smurf könnte in Anwendungen wie Google Maps Immersive View eingesetzt werden, um Innen- und Außenansichten mit hoher Fidelity zu erkunden und zu ersetzen, was derzeit mit vorab gerenderten 360-Grad-Videos möglich ist. Es könnte auch in der Film- und Spielentwicklung oder der virtuellen Realität eingesetzt werden, um interaktive und detaillierte Szenen zu erstellen.
Welche Herausforderungen gibt es bei der Verbreitung von Smurf in der Industrie?
-Die umfangreiche Trainingszeit von 200.000 Schritten auf leistungsstarken GPU ist eine Herausforderung für die Verbreitung von Smurf. Dies könnte den Einsatz in Anwendungen mit schnell wechselnden Inhalten oder in Echtzeit-Umgebungen einschränken.
Wie kann Smurf die Kreativität von Künstlern und Designern verbessern?
-Smurf ermöglicht es Künstlern, durch die Verwendung von 2D-Bearbeitungswerkzeugen wie Photoshop und Firefly die Texturen von Nerf-Modellen zu verändern. Dies erweitert ihre kreativen Möglichkeiten, indem sie die Komplexität der 3D-Geometrie umgehen und ihnen die Fähigkeit gibt, ihre künstlerischen Fähigkeiten auf Nerf-Modelle anzuwenden.
Outlines
🚀 Einführung in Smurf: Neues Streaming-Nerf-System mit hochauflösendem Detail
In diesem Abschnitt wird das neue Streaming-Nerf-System namens Smurf vorgestellt, das von Google DeepMind entwickelt wurde. Smurf verbindet die Geschwindigkeit des Gaußischen Splatting mit der Qualität von Zip-Nerf und ist auf mobilen Geräten wie Smartphones und Laptops einsetzbar. Es bietet 60 FPS bei centimetergenauen Details und hat weniger Artefakte als herkömmliche Methoden. Smurf verbessert auch die Erkennungsanforderungen und vermeidet die typischen 'floaters' und Löcher, die bei Gausian Splatting auftreten können. Es ist auch in der Lage, view-dependent effects zu reproduzieren, die bei herkömmlichen Nerf-Technologien bekannt sind, und bietet eine bessere Qualität als Calcium Splatting.
🎨 UV-Mapping mit Neural Fields für Nerf-Modelle
Der zweite Abschnitt konzentriert sich auf die Herausforderungen des Bearbeitens von Nerf-Modellen, insbesondere auf die Schwierigkeiten mit der UV-Map-Generierung, die für 3D-Künstler und Designer oft unübersichtlich ist. Googles neues AI-Paper, NVO, bietet eine Lösung für dieses Problem, indem es neurale Felder für UV-Mapping verwendet, um saubere, parametrisierte Teile des Modells zu ermöglichen. Dies erlaubt es, 2D-Bearbeitungswerkzeuge wie Photoshop oder Firefly zu verwenden, um die Texturen der Nerf-Modelle zu ändern, ohne die komplexe Topologie des Modells berücksichtigen zu müssen. Die Vorstellung von NVO zeigt, wie das neue System detailliertere und lesbarere UV-Maps erzeugt, die es den Künstlern ermöglichen, ihre Modelle effektiver zu bearbeiten.
Mindmap
Keywords
💡Nerfs
💡Gaussian Splats
💡Smurf
💡Centimeter-Level Detail
💡60 Frames Per Second
💡Artifacts
💡Capture Requirements
💡View-Dependent Effects
💡Distorted Fisheye Imagery
💡UV Mapping
💡Real-Time SLAM
Highlights
Nerfs are back with a new method called Smurf, offering streamable multi-room Nerfs with centimeter level detail.
Smurf is deployable to low resource devices like smartphones and laptops via the web browser, rendering at 60 frames per second.
Smurf strikes a balance between the speed of Gaussian splatting and the quality of zip Nerfs.
In comparison to zip Nerf's 0.25 frames per second, Smurf achieves over 144 frames per second in the same scene.
Smurf provides better quality than calcium splatting with fewer artifacts and more forgiving capture requirements.
Smurf solves the problem of floaters and holes in scenes where captures are missing.
The method reproduces view-dependent effects loved in Nerfs, unlike Gaussian splatting.
Smurf can train on distorted fisheye imagery directly, which is beneficial for wide-angle captures.
The hierarchical structure of Smurf allows for efficient loading and mobile competitiveness.
Smurf outperforms 3D gy and splatting, matching zip Nerf quality at 60 frames per second on mobile devices.
Extensive training of Smurf, around 200,000 steps on a powerful GPU, is a limitation for widespread adoption.
Google's new AI paper introduces neural fields for UV mapping, allowing for clean edits on Nerf models.
The UV mapping technique enables 2D editing tools like Photoshop to be used on Nerf textures.
The method in progress optimizes for cleanly parameterized chunks of the model, making it more human-readable and easier to work with in 2D software.
Reality capture is advancing rapidly, with Nerfs remaining competitive alongside Gaussian splatting-based representations.
The future of reality capture is bright, with ongoing research and development in both neural and non-neural fields.
Real-time 3D Gaussian splatting and its applications in SLAM (simultaneous localization and mapping) are gaining traction.
The new kid on the block, Gaussian splatting, is expected to continue evolving with a focus on real-time applications.
Transcripts
all right so just when we thought that
Nerfs were done gaui and splatting were
in Nerfs are back with a vengeance
Google deep mind just dropped Smurf
that's a mouthful but basically it's
streamable multi-room Nerfs with
centimeter level detail and it works on
mobile too our method is readily
Deployable to low resource devices
including consumer grade smartphones and
laptops via the web browser while
rendering at 60 frames per second it's
kind of like this sweet spot between the
speed of gausian splatting and the
quality of say a zip Nerf so take a look
at this where zip Nerf is getting .25
frames per second in this scene Smurf is
getting 144 plus frames per second
absolutely wild we're well into gausian
splatting territory but get this the
quality is even better than calcium
splatting and I wasn't joking about it
working on mobile just take a look at
this it's absolutely absolutely
absolutely wild so what are the benefits
compared to 3dgs a couple first off way
less artifacts but not just zip Earth
this stuff is better than gausi and
splatting way less artifacts and far
more forgiving capture requirements okay
take a look at this room scene I've done
a bunch of captures like this and a
Splat usually looks very good but where
you didn't capture those images you'll
get all these like wonky looking
floaters and sort of holes in the scene
Smurf absolutely solves this problem so
your capture requirements are far far
more forgiving I mean just phenomenal
phenomenal results and you get all the
view dependent effects that you're used
to there's also less floaters than
gausian splatting and I think the best
part is it reproduces all those vi
dependent effects that we've come to
love in Nerfs but you can't quite
squeeze out of gausian splatting which
sort of the approach for spherical
harmonics here's a great example you've
got these like massive Splats in a scene
where you didn't get capture enough
detail oh my God look at that you got
fully recovered tiling on the ground
Reflections on the freaking TV
absolutely absolutely gorgeous another
benefit is that you can train on
distorted fisheye imagery directly so
obviously if you're using a wide angle
fisheye it's particularly important for
large scans like this like multi-room
captures you can capture a scene even
more efficiently and even more faster so
this hierarchical structure of sort of
breaking the scene into these distinct
Nerf models and being able to load stuff
in as needed really makes this
competitive on mobile check out the live
demos Linked In the description you can
choose between mobile laptop and desktop
optimized variants and see for yourself
that it is indeed Superior to 3D gy
splatting there's a bunch of other stuff
happening around deferred appearance
Network partitioning and sort of having
this like distillation strategy but the
short version of it is basically this
like teacher model imparts the knowledge
to a student model the Smurf so zip Nerf
is basically teaching Smurf to learn how
to render highquality visuals more
quickly and more efficiently the short
version is Smurfs absolutely outperforms
3D gy and splatting and murfs it matches
zip Nerf quality and operates at a
remarkable 60 frames per second on
devices like smartphones and laptops now
it's not not all rainbows and sunshin
Smurfs requires extensive training we're
talking like 200,000 steps on a powerful
GPU which obviously makes this a
significant limitation for widespread
adoption in my opinion for applications
such as Google Maps immersive view where
Nerfs are used to explore interiors and
exteriors in High Fidelity and it will
do a great job replacing the
pre-rendered 360 videos that you can
find in Google Maps today here you can
see the next partition load in look at
that beautiful all the details on the
windows the paintings the Le
the finish and the veneer on it
everything's beautifully visible so
here's me just flying around I encourage
you to go try this demo for yourself and
uh check it out firsthand all right so
another issue with Nerfs is that they're
super cool and they look great but
they're very hard to edit if you turn
them into a mesh the geometry and the UV
maps are an absolute dumpster fire
making simple texture editing like
mission impossible for your 3D artist
but not any more Google's other AI paper
that came out called nvo employs neural
fields for UV mapping basically letting
you edit cleanly parameterized chunks of
the model so here's what I mean look at
that detailed mesh you've got a bunch of
non- manifold geometry a bunch wonky
geometry in general it's not like a
bunch of clean topology so you get a UV
map that looks kind of like that oh my
God that is an absolute dumpster fire
for any artist that wants to make some
edits Google solves this problem by
using neural fields for UV mapping
letting you edit these like cleanly
parameterized chunks of the model look
at that visualize the Checker pattern
right there the benefit of this is that
now you can use 2D editing tools like
Photoshop Firefly in painting to edit
the textures of these Nerf models it
doesn't even matter if you're doing this
with a real life scan or a generated one
a perfect perfect example here's the uh
method in progress over here it's
getting optimized and you're getting
these like cleanly parameterized chunks
that are far more human readable and
just easier to work with in 2D software
so when you put all this stuff together
you can go in and edit the texture of
that table throw some goldfishes on
there and even edit your dream Fusion
models super super exciting so yeah you
can do some really cool things maybe you
made a model made a dream Fusion mesh
and now you can go take it into
Photoshop and paint on some new textures
same thing with this iconic Garden scene
you can go into something like Firefly
in painting and change the textures on
the table and still have all of those
cool view dependent effects and all of
that cuz you're operating on just the
albo here this is a great example too
you've got some like nicely cluing
goldfish in painted onto the plate again
re Searchers don't always do the best
job of showing the creative
possibilities but for Creative techies
such as you and I we can immediately see
where this stuff is going right all
right so amazing paper super super
exciting stuff so to wrap things up
reality capture is continuing to move
really fast just when everyone thought
that Radiance fields are going to move
on to this new gausian splatting based
representation we're now seeing that
Nerfs can still be competitive on the
other hand I expect we'll see yet
another wave of papers that focus on
gausian Splats as sort of the
representation the perfect example being
a bunch of the real-time slam work
that's happening right now and while it
is true you can make some really really
amazing things with gausian Splats but I
suspect we'll keep seeing advancements
in gausian splatting as well like
clearly this is the new kit on the Block
and super hot for all the researchers in
the space so we're seeing some amazing
things for example real-time 3D gausian
splatting right like simultaneous
localization and mapping that's
operating on this like gazi and splat
representation just look at this
absolutely wild and a slam dunk if you
ask me I love to make bad jokes but you
know you're just going to have to put up
with this all right so who knows who's
going to win all I know is Radiance
fields are here to stay whether it's
neural not neural who the hell cares at
the end of the day it's all reality
capture and there's a bunch of cool
stuff you can do with it if you miss
that video go check it out over here
super excited to show you a bunch of
other cool stuff on the horizon if you
like this video if this was valuable be
sure to hit a like Please Subscribe and
hit that Bell icon it's super
cringeworthy to do this but you have to
especially in the early stages of a
channel like this thank you again for
your support and I will see y'all in the
next one
5.0 / 5 (0 votes)