GOOGLE Genie SCIOCCA l'industria dello spettacolo

AI Agenda
12 Mar 202414:52

Summary

TLDRThe gaming industry is on the brink of a revolutionary transformation due to advancements in artificial intelligence. Technologies like OpenAI's Sora, which generates hyper-realistic videos from text, and Google's Genie, capable of turning static images into interactive experiences, are paving the way for personalized and immersive gaming. These innovations not only challenge traditional game development but also have implications for the future of media and entertainment, potentially leading to AI-generated, interactive worlds beyond our imagination.

Takeaways

  • 🎮 The gaming industry is facing challenges with increasing player expectations, production costs, development time, and shrinking profit margins.
  • 🤖 Artificial Intelligence (AI) is poised to revolutionize the gaming sector by enabling players to describe a game and have AI create it within seconds.
  • 🚀 OpenAI's new product, Sora, can generate highly realistic videos from text descriptions, leaving game developers and film studios concerned about the future.
  • 🌐 Google Genie, or Foundation World Model, is capable of turning still images into playable, interactive environments without rigid programming.
  • 🎨 Sora and Genie technologies could potentially be combined to create fully interactive video games from any image or video, significantly advancing the media landscape.
  • 🎥 The combination of AI-generated video and sound can greatly enhance the immersive experience, as demonstrated by a 30-second clip generated by both Sora and Eleven Labs.
  • 🔍 Genie's ability to understand and interact with images, even those from the real world, allows for a wide range of applications, including robotics and virtual reality.
  • 🤖 Embodied Agents, like those being developed by NVIDIA, aim to create a unique AI capable of adapting and functioning in various physical robots, trained in simulated worlds.
  • 🧠 GINI, an algorithm capable of learning from any world, image, video, or experience, has been integrated by Google into a robot, showing promising results in interacting with deformable objects.
  • 📈 There are still technical bottlenecks to overcome, such as the current processing power not being sufficient for real-time, high-resolution interactive generation.
  • 📝 Legal and copyright issues will become increasingly complex with the advent of AI-generated content, raising questions about authorship and intellectual property rights.

Q & A

  • How is the video game industry currently facing challenges?

    -The video game industry is facing challenges due to increasing player expectations, rising production costs, longer development times, and shrinking profit margins.

  • What impact does artificial intelligence (AI) have on the video game industry?

    -AI is poised to revolutionize the video game industry by enabling players to describe a game they want to play, and having AI create it within seconds. This could lead to personalized gaming experiences and significant changes in game development.

  • What is Sora, and how does it differ from other AI products?

    -Sora is an AI product by OpenAI that can transform text into videos. It stands out due to its solid understanding of physics, allowing it to maintain consistency and realism in videos, making interactions with the environment appear real.

  • How does Google Genie contribute to the gaming experience?

    -Google Genie, or Foundation World Model, can take images or prompts and generate interactive, playable environments from them. It allows users to control these environments using a game controller, effectively making static images playable.

  • What is the significance of Genie's ability to understand physics in gaming?

    -Genie's understanding of physics enables it to create interactive gaming experiences where objects and characters behave realistically within the game environment, enhancing the immersion and believability of the game world.

  • How does the combination of Sora and Genie potentially change content creation?

    -Combining Sora's video generation capabilities with Genie's interactive environment creation could lead to the development of entirely new, interactive video games and experiences from scratch, based on user input or pre-existing media.

  • What is the potential application of Genie's technology in robotics?

    -Genie's ability to learn action spaces could be adapted for training AI agents integrated into physical robots, known as Embodied Agents. This could lead to robots that can adapt and function in various bodies or robots, trained in simulated environments to perform tasks in the real world.

  • How does NVIDIA's Metamorph algorithm relate to AI and robotics?

    -NVIDIA's Metamorph algorithm is a universal programming language designed to control any physical robot. It uses a special vocabulary to describe parts of the robotic body and applies an algorithm to generate adaptable motor controls for the robot.

  • What is GINI, and how does it enhance AI learning?

    -GINI is an algorithm capable of learning from any world, image, video, or experience. It has been integrated by Google into a robot, demonstrating the ability to interact effectively with deformable objects, which is a challenging task for traditional simulators.

  • What are the current limitations of real-time interactive world generation?

    -The current technology for generating interactive worlds in real-time is limited by computational power and speed. The system operates at only one frame per second, which is significantly slower than what would be required for real-time, playable content.

  • What future developments are anticipated for AI in video gaming?

    -The future of AI in video gaming may include the ability to record gameplay, input it into an advanced model like a hypothetical Genie 2, and generate an expansion or downloadable content (DLC) for the game in real-time, created by the AI model rather than human programmers.

  • What challenges do AI advancements in content creation pose for copyright and intellectual property rights?

    -AI advancements in content creation raise complex questions about copyright and intellectual property rights, as it becomes less clear who owns the rights to content generated by AI, especially when it involves expanding or modifying existing works.

Outlines

00:00

🎮 The Future of Video Games with AI

This paragraph discusses the challenges faced by the video game industry, such as increasing player expectations, rising production costs, and shrinking profit margins. It introduces the concept of AI revolutionizing the sector by enabling players to describe a game and have AI create it instantly. The script highlights the recent advancements by OpenAI's Sora, which generates highly realistic videos from text descriptions, and Google Genie, which can turn any image into an interactive game environment. The focus is on the potential for personalized content and the integration of AI in media, suggesting a near future where AI controls all media experiences.

05:04

🎥 Immersive AI and the Evolution of Multimodality

The second paragraph delves into the level of immersion provided by AI-generated content, specifically mentioning the combination of AI-generated video and sound by Eleven Labs. It emphasizes the unification of text, audio, video, action, and interaction through multimodality. The capabilities of Google Genie are further explored, with its ability to interact with images from the real world or sketches, turning them into playable and interactive experiences. The paragraph also touches on the potential applications of Genie in robotics and the concept of Embodied Agents, which are AI algorithms adaptable to various physical forms or robots.

10:12

🤖 Metamorph and the Universal Programming Language for Robotics

This paragraph shifts focus to NVIDIA's research, particularly Jim Fan's work on Metamorph, a universal programming language for controlling any physical robot. It explains how Metamorph uses a special vocabulary to describe robotic body parts and generates adaptable motor controls. The paragraph discusses the testing of these controls in a virtual world and the next step of giving AI a physical form. It introduces GINI, an algorithm capable of learning from any world, image, video, or experience, and its successful integration into a robot by Google, demonstrating effective interaction with deformable objects.

15:12

🌐 Interactive Multiverses and Real-Time AI Expansions

The final paragraph envisions the application of AI technology in virtual reality and the metaverse, suggesting the creation of an infinite, autonomously generating interactive reality. It discusses the potential for real-time interactive worlds with the visual quality of Sora, although acknowledges the current technical bottlenecks in computing power. The paragraph also touches on the implications for copyright and authorship in the context of AI-generated content and predicts the possibility of AI-generated game expansions in the near future.

Mindmap

Keywords

💡Artificial Intelligence (AI)

Artificial Intelligence refers to the simulation of human intelligence in machines that are programmed to think and learn like humans. In the context of the video, AI is revolutionizing the gaming industry by enabling the creation of games from simple descriptions, thus potentially transforming the way video games are designed and experienced.

💡Video Games

Video games are electronic games that involve interaction between the player and the game's virtual environment. The video discusses the challenges faced by the video game industry, such as increasing production costs and player expectations, and how AI is poised to disrupt and innovate this sector.

💡Sora

Sora is an AI product developed by OpenAI that can transform text into hyper-realistic videos. It has a solid understanding of physics, allowing it to maintain consistency and realism throughout the video. In the video, Sora is presented as a groundbreaking technology that can generate videos from textual descriptions, setting the stage for a new era in content creation.

💡Google Genie

Google Genie, also referred to as Foundation World Model, is an AI technology that can turn still images or sketches into interactive and playable environments. It is trained on videos from the internet and can generate an infinite number of interactive worlds starting from various types of visual inputs.

💡Interactivity

Interactivity refers to the ability of a system or medium to respond to user input, creating a two-way communication. In the video, interactivity is a key aspect of the future of content creation, where AI technologies like Genie and Sora enable users to not only consume content passively but also interact with and control it.

💡Physics

Physics is the natural science that studies matter and its motion through space and time. In the context of the video, a solid understanding of physics by AI technologies like Sora allows for the generation of videos where objects interact with the world in a realistic and consistent manner.

💡Content Personalization

Content personalization refers to the tailoring of information and content to individual preferences or needs. The video discusses how AI is enabling a new era of personalized content, where each individual can have unique and interactive experiences based on their preferences.

💡Multimodality

Multimodality refers to the use of multiple modes or forms of communication, such as text, audio, video, and action, to convey information. In the video, the integration of these modes through AI technologies is highlighted as a key trend in the evolution of media and entertainment.

💡Embodied Agents

Embodied Agents refer to AI algorithms integrated into physical bodies or robots, capable of adapting and functioning in various different robotic forms. The video discusses the potential of AI to learn from simulated experiences and apply that knowledge to physical robots, expanding the capabilities of AI beyond virtual environments.

💡GINI

GINI is an algorithm developed by Google that demonstrates the capability of learning from any world, image, video, or experience. It is designed to enable AI to adapt and improve based on the interactions and experiences it gains, which can then be applied to real-world scenarios or further simulations.

💡Metaverse

The metaverse is a collective virtual shared space, created by the convergence of virtually enhanced physical reality and physically persistent virtual reality. It is a space where users can interact with a computer-generated environment and other users. The video suggests that the technology discussed could be applied to create persistent, alternative realities within the metaverse that continuously generate new interactive worlds and experiences.

Highlights

The gaming industry is facing challenges with increasing player expectations, production costs, and reduced profit margins.

Artificial Intelligence (AI) is set to revolutionize the gaming sector by allowing players to describe a game and have AI create it within seconds.

The future of personalized content for individuals is around the corner, not just in gaming but also in film studios, thanks to AI.

OpenAI's new product, Sora, can transform text into hyper-realistic videos, leaving game developers and film studios concerned.

Sora's unique feature is its solid understanding of physics, maintaining consistency and realism throughout the video.

Google Genie, or Foundation World Model, is trained on internet videos and can generate infinite interactive worlds from images, photos, or sketches.

Genie turns static images into playable, interactive experiences controlled by a gaming joystick.

The programming process is bypassed with Genie, as it directly outputs playable content from provided images.

Combining Sora's video generation with Genie's interactivity could lead to creating games and experiences from scratch.

The level of immersion could be heightened by integrating AI-generated video and sound, as demonstrated by a 30-second clip generated by both Sora and Eleven Labs.

Genie can be prompted with unfamiliar images, allowing interaction with imagined virtual worlds as a reality model.

Genie's ability to understand images without pre-processing or specific labeling showcases its autonomous comprehension of game physics.

Genie's training on a vast dataset of publicly available videos from the internet demonstrates the potential for AI to learn from diverse sources.

The technology could be applied to robotics, with Genie's learning capabilities adapted for training AI agents in physical bodies.

NVIDIA's research on a universal programming language for controlling any physical robot highlights the potential integration of Genie's technology.

GINI, an algorithm capable of learning from any world, image, video, or experience, has been integrated by Google into a robot with impressive results.

Real-time interactive worlds with Sora's visual quality are not yet achievable, but Google is exploring this direction for future development.

The gaming industry could soon see AI-generated expansions or DLCs, offering new levels and experiences not programmed by human developers.

The current technical bottleneck is computational power, with Genie functioning at only one frame per second, far from real-time interactive gaming requirements.

Transcripts

play00:00

Immagina di essere una grande casa di produzione di videogiochi. Hai creato alcuni dei videogiochi

play00:05

più amati degli ultimi 30 anni, ma il tuo settore sta passando un periodo difficile.

play00:09

I giocatori si aspettano sempre di più, i giochi costano più da produrre, richiedono

play00:14

più tempo per essere realizzati e i margini di guadagno si stanno riducendo. Così un

play00:20

giorno ti svegli e ti rendi conto che l'intelligenza artificiale sta per sconvolgere completamente

play00:26

il tuo settore. All'improvviso è possibile per ogni videogiocatore semplicemente descrivere

play00:31

un videogioco che desidera giocare e l'intelligenza artificiale lo crea in pochi secondi. Sembra

play00:38

fantastico eh? Qualcosa che potrebbe forse accadere nei prossimi 50 anni.

play00:43

Rifletti ancora. Sto per dimostrarti che siamo incredibilmente vicini a quel futuro e non

play00:51

sono solo le aziende di videogiochi ad affannarsi per adattarsi in questo momento, anche gli

play00:58

studi cinematografici lo sono. Grazie all'IA, i contenuti personalizzati per ogni singolo

play01:04

individuo sono dietro l'angolo. Lascia che ti mostri come e resta con noi fino alla fine,

play01:10

perché ciò che accade, dopo che l'IA ha preso il controllo di tutti i media, è veramente

play01:17

opera di fantascienza. Se hai aperto Youtube nell'ultimo due settimane, avrai sicuramente

play01:24

visto tutti i video incredibili generati dal nuovo prodotto di OpenAI che trasforma il

play01:30

testo in video, Sora. Sora ti permette di descrivere semplicemente con un linguaggio

play01:36

naturale una scena che vuoi vedere e produce un video lungo fino a un minuto di quella

play01:41

scena. Ciò che rende Sora unico è il fatto che possiede una comprensione molto solida

play01:48

della fisica, il che significa che può mantenere gli oggetti consistenti e realistici per tutta

play01:54

la durata del video, facendoli interagire con il mondo come se fosse la realtà. I video

play02:00

mostrati sono iper realistici, i movimenti, il modo in cui i capelli cadono, l'interazione

play02:06

con la fisica, sembrano incredibilmente reali. Ha lasciato a bocca aperta molte persone e

play02:13

immediatamente gli sviluppatori di videogiochi e gli studi cinematografici si sono preoccupati.

play02:20

E tutto ciò è successo da sole due settimane. Sto per mostrarti alcune tecnologie emerse

play02:26

recentemente, alcune addirittura ieri, che offrono davvero uno spaccato su quello che

play02:32

sarà il futuro di tutti i contenuti. Ormai conosciamo il passaggio da testo a immagine,

play02:39

text to image, da testo a video, da testo a voce, eccetera. Ma abbiamo forse trascurato

play02:46

il passaggio da testo ad azione e interazione? Vi presento Google Genie, Ambienti Interattivi

play02:54

Generativi. Google lo chiama Foundation World Model, è addestrato a partire da video su

play03:00

internet e in grado di generare un'infinità di mondi interattivi. E questo è il termine

play03:07

chiave, interattivi, a partire da immagini sintetiche, fotografie e persino schizzi.

play03:14

Genie rende giocabile e interattiva un'immagine statica. Gli date in pasto un prompt o un'immagine

play03:21

e lui sputa fuori un'esperienza interattiva controllabile attraverso il joystick della

play03:26

playstation. Il risultato è intelligenza artificiale, non è programmato in modo rigido.

play03:32

Non si tratta di qualcuno che prende quell'immagine, la divide in parti, comprende chi è il personaggio,

play03:40

quali sono le piattaforme, come saltarci sopra e poi scrive il codice per l'interazione.

play03:46

Il processo di programmazione è fuori dal quadro. Si tratta semplicemente di fornire

play03:52

un'immagine e ottenere in output qualcosa di giocabile. Ecco quello che stai vedendo,

play03:59

è incredibile. E mentre continuo a mostrarvi tutte queste innovazioni, vedrete chiaramente

play04:05

quale sarà il futuro dei videogiochi e di tutti i media. Ti mostrerò che cos'è Genie

play04:11

e andrò anche oltre. Se potessimo rendere qualsiasi immagine giocabile, quanto siamo

play04:18

lontani da rendere questo giocabile? Sì, voglio far correre la tua immaginazione, perché

play04:26

ovviamente la tua fantasia è corsa nello stesso posto della mia, ovvero immaginare

play04:31

questo integrato in Sora. Questi sono video generati da Sora. Ti piacerebbe controllare

play04:38

questa Ferrari o questo Samurai e che ne pensi di quest'altro esempio? Sì, è bello guardare

play04:44

il video, ma immagina di poterlo controllare. Immagina di poter fare questo, ma innescato

play04:51

da un'immagine, diciamo, della tua città natale. Quando disponiamo della tecnologia

play04:57

per rendere qualsiasi immagine giocabile e della tecnologia per creare qualsiasi video,

play05:03

quanto siamo poi lontani dal combinare queste tecnologie per creare da zero esperienze

play05:09

videogiocabili e interattive? Direi, non troppo lontani. E che dire del livello di immersione?

play05:19

Questo video è generato con Sora e dopo, con Eleven Labs, hanno aggiunto un sonoro

play05:26

generato dall'IA. L'intera clip di 30 secondi è generata dall'IA, sia il video che il sonoro,

play05:36

e potete davvero sentire come il suono elevi l'esperienza video.

play05:40

In a place beyond imagination, where the horizon kisses the heavens, one man dares to journey

play05:52

where few have ventured. Armed with nothing but his wit and an unyielding spirit, he seeks

play05:59

the answers to mysteries that lie beyond the stars. Il modello Sora di OpenAI è stato

play06:06

lanciato poco più di una settimana fa e già immaginiamo che diventi interattivo. Le modalità

play06:13

della multimodalità si moltiplicano. I modelli si stanno unificando attraverso testo, audio,

play06:19

video, azione e interazione. Quindi diamo un'occhiata più da vicino a Genie. Genie può essere

play06:26

sollecitato con immagini che non ha mai visto prima, come fotografie del mondo reale o schizzi,

play06:32

permettendo alle persone di interagire con il loro mondo virtuale immaginato, agendo

play06:37

essenzialmente come un modello di realtà, anche chiamato Foundation World Model. A Genie

play06:44

puoi assegnare un'immagine, e potrebbe essere qualsiasi immagine. Una foto che hai appena

play06:48

scattato con il tuo telefono, uno schizzo che tuo figlio o tu avete appena disegnato,

play06:53

o un'immagine che ovviamente hai generato usando per esempio MidGiorni o Dall'E3. E

play06:59

Genie prenderà questa immagine e la renderà interattiva, un po' come se ti desse un

play07:04

controller Playstation o Xbox. Potresti quindi far saltare il personaggio principale, andare

play07:10

a sinistra, a destra e la scena cambierà intorno ad esso. Quindi essenzialmente hai

play07:15

reso un'immagine giocabile, o in altre parole hai reso i mondi immaginari interattivi.

play07:22

Ecco come lo ha comunicato Google. Genie è capace di convertire una varietà di diversi

play07:28

prompt in ambienti interattivi e giocabili. Questi possono essere facilmente creati, calpestati

play07:35

ed esplorati. Immaginati questo scenario. Chiedi a Sora di creare un mondo fantastico

play07:41

o addirittura iper realistico. Passi poi il video generato da Sora a Genie e all'improvviso

play07:48

hai un videogioco. La base per questo tipo di tecnologia esiste già oggi. Una versione

play07:55

pronta per la produzione industriale di questa tecnologia è chiaramente dietro l'angolo.

play07:59

È incredibile notare come tutto ciò sia possibile nonostante l'addestramento dell'IA avvenga

play08:08

senza preparazione, etichette o indicazioni specifiche. Genie non richiede che le informazioni

play08:15

siano preelaborate o etichettate. Capisce autonomamente quali parti dell'immagine sono

play08:22

diciamo gli ostacoli e le superfici. Quindi sta effettivamente decifrando la fisica del

play08:28

gioco senza altre informazioni se non l'immagine stessa. Infatti Genie è addestrato a partire

play08:35

da un ampio dataset di video disponibili pubblicamente presi direttamente da internet.

play08:42

Queste sono le immagini di input che stiamo osservando che spaziano da platformer leggermente

play08:49

3D a platformer 2D fino a mondi completamente 3D e poi all'improvviso ciò che vediamo sotto

play08:57

è il videogioco in azione. Ma non solo è capace di trasformare schizzi approssimativi

play09:04

e disegni infantili in giochi giocabili e immagini del mondo reale. Quindi parliamo

play09:10

di semplici immagini prese dal mondo reale e poi improvvisamente qualsiasi cosa può diventare

play09:17

un videogioco. E la cosa eccitante è che questa tecnologia Genie si traduce molto bene

play09:24

facilmente anche nel campo della robotica. I ricercatori infatti affermano "Sebbene ci

play09:31

siamo concentrate sui risultati ottenuti dai giochi, Genie è un metodo che può essere

play09:37

applicato a una vasta gamma di settori senza richiedere conoscenze specifiche aggiuntive.

play09:42

Genie è in grado di apprendere uno spazio di azione. Questa capacità potrebbe essere

play09:49

adattata all'addestramento di agenti AI integrati in un corpo fisico. Gli agenti AI integrati

play09:57

in un corpo fisico chiamati Embodied Agents rappresentano l'idea di creare un algoritmo

play10:03

unico, un IA, che si adatti e funzioni in molti corpi diversi o robot diversi. Recentemente

play10:11

si è parlato molto di questi Embodied Agents, specialmente in relazione al lavoro del dottor

play10:16

Jim Fan presso NVIDIA. Il ricercatore Jim Fan, in un recente TED Talk, ha dimostrato

play10:23

come NVIDIA stia creando un linguaggio di programmazione universale capace di controllare

play10:29

qualsiasi robot fisico. Questo algoritmo, chiamato Metamorph, utilizza un vocabolario

play10:35

speciale per descrivere le parti del corpo robotico e applica un algoritmo per generare

play10:41

controlli motori adattabili a questo corpo. NVIDIA sta testando queste capacità di controllo

play10:48

in un mondo virtuale. Non un solo mondo, ma migliaia di realtà virtuali. La parte mancante

play10:56

è un algoritmo capace di prendere il controllo di questi corpi all'interno dei mondi simulati.

play11:02

Una volta che questo algoritmo è stato creato, il passo successivo è dare a queste intelligenze

play11:09

artificiali un corpo sotto forma di un robot. Questo robot, dopo essere stato addestrato

play11:16

in migliaia di mondi virtuali e scenari generati, può adattarsi a qualsiasi situazione, poiché

play11:24

è stato precedentemente addestrato ad affrontare qualsiasi sfida, in migliaia di mondi simulati,

play11:32

rendendo così il compimento di qualsiasi compito un'impresa banale anche nel mondo reale. La

play11:39

ricerca di GINFAN tuttavia manca di un elemento cruciale, l'algoritmo, per apprendere da queste

play11:45

esperienze simulate. Ed ecco la soluzione, GINI, che dimostra che è possibile creare

play11:53

un algoritmo in grado di apprendere da qualsiasi mondo, immagine, video o esperienza.

play11:58

Google ha già integrato questo algoritmo GINI in un robot con risultati impressionanti. Il

play12:05

robot dotato di GINI ha dimostrato di poter interagire efficacemente con oggetti deformabili,

play12:11

come una maglietta, un compito impegnativo per i simulatori progettati solitamente dall'uomo.

play12:17

Quanto manca dall'avere mondi interattivi in tempo reale con la qualità visiva di Sora?

play12:25

Nessuno ha ancora Sora tra le mani, ma OpenAI ha rivelato a Bloomberg che si può tranquillamente

play12:32

andare a prendere uno spuntino mentre si attende che queste generazioni di video

play12:37

vengano elaborate. Insomma, la potenza di calcolo disponibile attualmente non è ancora a livelli

play12:44

soddisfacenti, quindi è chiaro che dovremo aspettare un po' di tempo per avere generazioni

play12:49

interattive in tempo reale e ad alta risoluzione. Nonostante il collo di bottiglia tecnico,

play12:57

Google stessa accenna nelle sue ricerche all'intenzione di esplorare ulteriormente

play13:03

questa direzione per generare esperienze e ambienti interattivi. Immagina questa tecnologia

play13:11

applicata alla realtà virtuale e al metaverso. Non solo potresti avere una realtà alternativa,

play13:18

persistente, che esiste come strato sopra questa, ma questa realtà potrebbe continuamente e

play13:26

autonomamente generare nuovi mondi interattivi ed esperienze. Un multiverso infinito direttamente

play13:34

nel tuo Apple Vision Pro. A questo punto mi azzardo persino a fare una previsione. Penso

play13:40

che entro la fine di quest'anno sarà possibile registrare la partita di un videogioco, poi

play13:46

inserire l'intero video del videogioco in diciamo un ipotetico Genie 2 e se aspetti

play13:53

qualche minuto otterrai sostanzialmente un'espansione del gioco, un DLC lo chiamano, un altro livello

play14:00

del gioco generato però questa volta dal modello e non programmato dai programmatori.

play14:05

Una versione del gioco in cui puoi intraprendere tutte le stesse azioni di prima ma avendone

play14:11

a disposizione di nuove, generate in tempo reale dall'IA. Ovviamente un utilizzo di

play14:17

questo tipo apre molteplici domande sul diritto d'autore e il copyright ma ci sono altre

play14:23

complicazioni oltre al diritto d'autore riguardo a questi sviluppi.

play14:27

Ed è estremamente affascinante secondo me il fatto che accada proprio in tempo reale.

play14:33

Eh no Raffaele, il sistema attualmente funziona solo a un frame al secondo, il che è almeno

play14:39

20 o 30 volte addirittura più lento di quanto sarebbe necessario per qualcosa che potrebbe

play14:45

considerarsi come "giocabile" in tempo reale. I video mostrati da Google danno l'impressione

play14:52

di un'animazione molto più fluida di quello che è in realtà, per non parlare del fatto

play14:56

che ogni frame richiede circa un minuto per essere generato in tempo reale.

play15:00

Se ti piace il notiziario e guardi questo canale, sostienici diventando parte del 15%

play15:07

degli spettatori di questo canale che hanno premuto il pulsante "Iscriviti". Ci aiuta

play15:12

enormemente e più il canale cresce, più contenuti vi possiamo portare.

play15:17

Un grazie speciale ai nostri nuovi supporter su Patreon, Barbara,

play15:21

Erminia e Dario, per il vostro generoso sostegno.

Rate This

5.0 / 5 (0 votes)

Related Tags
AI GamingInnovative TechInteractive RealityOpenAI SoraGoogle GenieFuture PredictionsGaming IndustryMedia EvolutionEmbodied AgentsVirtual Worlds