AI Generativa

Improove
16 Apr 202454:33

Summary

TLDRThe video script discusses the transformative impact of generative AI, focusing on its potential to enhance business processes and overall quality of life. It highlights a study by Microsoft and Ambrosetti on the economic impact of generative AI, suggesting it could boost Italy's GDP by 18% and save nearly 6 billion hours annually. The speaker, Valentina, a Microsoft data intelligence expert, delves into the evolution of AI, from its inception in 1956 to the present day, where models like GPT have shown 'emerging capabilities' beyond content generation. She emphasizes the importance of responsible AI, outlining Microsoft's approach to ethical guidelines and the use of tools like the Content Safety API. The discussion also covers the CoPilot software by Microsoft, which integrates AI to assist users within applications, and the rising trend of Small language Models that are more adaptable for specific use cases. The script concludes with a call to action for leveraging AI responsibly and collaboratively to improve lives, reflecting on the importance of understanding and controlling the use of AI technologies.

Takeaways

  • 📈 The impact of generative AI on the Italian GDP could be as high as 18%, indicating a significant potential for economic growth through AI integration.
  • ⏱️ Generative AI services could save nearly 6 billion hours annually by automating tasks that are time-consuming but have low added value.
  • 🤖 AI models like GPT are general-purpose and can adapt to various tasks based on user requests, unlike traditional AI models that are specialized for specific tasks.
  • 🧠 Large language models have over 100 billion parameters, making them highly efficient at connecting different domains of knowledge, similar to a general practitioner in medicine.
  • 🔍 They introduce a new method of research called 'vector search,' which converts text into numeric vectors that represent the semantics of words in a vector space.
  • 💬 The conversational interface of these models is disruptive, allowing users to interact with complex scientific objects without needing in-depth knowledge.
  • 🧰 The models can be integrated with other tools and services through plugins, which can be used to navigate the internet or interact with proprietary data.
  • 🛠️ Microsoft's Azure OpenAI service provides access to advanced AI models and is aligned with enterprise-scale application requirements, ensuring data protection and privacy.
  • 🔗 The Transformer architecture, introduced by Google in 2017, has been fundamental in the development of large language models, enabling the creation of more sophisticated AI systems.
  • 🌐 Multimodality and multiagency are emerging trends where AI models can interact with both text and visual data, and collaborate with other specialized models to perform tasks.
  • 🧐 Responsible AI is a key focus, with Microsoft implementing content safety, prompt engineering, and other mitigation techniques to ensure AI applications are unbiased and safe for users.

Q & A

  • What is the main focus of the webinar series mentioned in the transcript?

    -The main focus of the webinar series is the use of AI for inclusion purposes, aiming to enhance accessibility and inclusivity in various aspects such as frontend development, design, and cloud services.

  • What is the significance of the 'AI for Inclusion' event on June 17, 2024?

    -The 'AI for Inclusion' event is significant as it features talks on the use of AI in various fields, including medicine, and offers a 50% discount on ticket purchase with the coupon code 'ai for inclusion', providing an opportunity to learn about AI's impact across different sectors.

  • How does Valentina describe the potential impact of generative AI on the Italian economy?

    -Valentina highlights that generative AI could have an impact on the Italian GDP equivalent to 18% and could save nearly 6 billion hours annually by automating tasks that are time-consuming but have low added value.

  • What is the role of Microsoft in the development and application of AI technologies as discussed in the transcript?

    -Microsoft has heavily invested in AI, achieving milestones in various AI systems and partnering with OpenAI. It has integrated OpenAI models into its Azure platform, offering services like Azure OpenAI that align with enterprise-scale application needs, including data protection and role-based access control.

  • What are the key components of the 'CoPilot' application developed by Microsoft?

    -The 'CoPilot' application is composed of large language models that act as the 'brain', user data or application data, and plugins for interacting with the external world, all connected through a conversational interface.

  • How does the concept of 'multimodality' enhance the capabilities of AI models?

    -Multimodality introduces the concept of inputs and outputs that are not only textual but also visual, such as images. This allows AI models to interact with and understand a combination of textual and visual data, enhancing their ability to process and generate responses.

  • What is the 'Content Safety' API, and how does it contribute to responsible AI?

    -The 'Content Safety' API filters content entering and exiting the AI models, categorizing it into risk levels. It helps in filtering out content that is associated with unacceptable risk levels, thus contributing to the responsible use of AI by mitigating potential harm.

  • What is the role of 'prompt engineering' in guiding the behavior of AI models?

    -Prompt engineering involves specifying instructions to the AI model in natural language, which can guide the model's behavior in terms of style and constraints on what it should or should not do. This helps in aligning the model's responses with the desired outcomes and maintaining ethical standards.

  • How does the 'CoPilot Stack' architecture facilitate the development of applications with large language models?

    -The 'CoPilot Stack' architecture provides a high-level framework that includes foundational models, infrastructure, front-end components, and extensibility with plugins. It allows developers to build 'CoPilot' features into their applications by grounding the model's responses on specific data and providing tools for interaction.

  • What are 'Small language Models', and how do they differ from large language models?

    -Small language Models maintain the same Transformer architecture as large language models but are more compact and lightweight, making them easier to fine-tune or even train from scratch. They offer a viable alternative for applications where customization and verticalization are necessary.

  • What is the 'Aurelium Studio', and how does it aid in the development of generative AI applications?

    -Aurelium Studio is a platform introduced by Microsoft that consolidates various AI services and provides a catalog of models beyond Azure OpenAI. It facilitates end-to-end project management for generative AI, including monitoring and testing of applications, making it easier to develop applications with large language models.

Outlines

00:00

😀 Introduction to the Webinar Series on AI for Inclusion

The first paragraph introduces the webinar series on using AI for inclusion purposes. It mentions the series is being organized in conjunction with the AI for inclusion event. The first three sessions covered topics like accessible frontend development, inclusive design, and an introduction to cognitive AI services. The speaker advises watching previous sessions for foundational knowledge and thanks the partners involved in organizing the event, including Microsoft, the Italian Dyslexia Association, and others. They also encourage the audience to follow their social media channels for updates on upcoming events and projects.

05:00

📈 Impact of Generative AI on the Economy and Business Processes

Valentina discusses the impact of generative AI on various business divisions across industries. She cites a study by Microsoft and Ambrosetti that found generative AI could potentially increase Italy's GDP by 18% and save nearly 6 billion hours of work annually. Valentina explains that generative AI is a subset of artificial intelligence and builds upon machine learning and deep learning models. She also touches on the evolution of AI, from its inception in 1956 to the recent advancements with models like Chat GPT.

10:02

🤖 General Purpose Models and Emerging Capabilities of AI

The third paragraph delves into the characteristics of general purpose AI models like GPT, which are trained on diverse datasets and can adapt to various tasks based on user input. Valentina emphasizes the importance of understanding these models' training process, which involves a pre-training phase on the internet and a fine-tuning phase using human feedback. She also highlights the models' ability to perform reasoning and generate sophisticated content, setting them apart from traditional AI models.

15:03

🧠 Large Language Models as the Brain of Modern Applications

Valentina talks about the role of large language models (LLMs) as the 'brain' behind modern applications. She discusses the concept of a 'CoPilot Stack' architecture where the LLM serves as the core engine, integrated with application data and external tools. The speaker also mentions the benefits of LLMs, such as their ability to make connections between different knowledge domains, enable vector-based research, and provide conversational interfaces for natural language interactions.

20:03

🌐 Integration of AI Models with Azure OpenAI and Other Cognitive Services

The fifth paragraph focuses on the integration of OpenAI models with Microsoft Azure's AI services. Valentina explains that Microsoft has licensed OpenAI models to offer as part of Azure Cognitive Services. This allows developers to access and fine-tune OpenAI models, including GPT-3.5 and GPT-4 Vision, within the Azure ecosystem. She also discusses the advantages of this integration, such as data protection, enterprise-scale application features, and the ability to leverage other Azure AI services for enhanced capabilities.

25:04

🔍 Market Analysis and Development of a Trend-Aligned Video Game

In the sixth paragraph, Valentina provides an example of using multi-agent architecture to develop a video game that aligns with market trends. She outlines the roles of different agents, such as a market researcher, storyteller, developer, critic, and test engineer, each with specific tasks and tools. The speaker emphasizes the benefits of having specialized agents working together, which can improve performance, enable better quality control, and create a more collaborative environment.

30:06

🤖 Introducing Microsoft's AI-Powered CoPilot Software

The seventh paragraph introduces Microsoft's CoPilot software, which is powered by large language models and designed to act as a virtual assistant for users. Valentina explains that CoPilot is built using the components discussed earlier, such as the LLM, application data, and external plugins. She also mentions the 'CoPilot Stack' architecture that Microsoft has adopted across its applications like Office, Dynamics, and Windows. The speaker highlights the disruptive nature of CoPilot's conversational interface and its potential to change how users interact with applications in the future.

35:07

🛡️ Responsible AI: Ensuring Unbiased and Safe AI Applications

The eighth paragraph discusses the importance of responsible AI practices to ensure that AI applications are unbiased and safe for users. Valentina talks about Microsoft's commitment to responsible AI since 2016 and the introduction of guidelines and principles to guide the development of AI applications. She also covers various techniques for mitigating risks, such as using unbiased datasets, implementing content safety filters, specifying prompt engineering, and designing secure frontend interfaces. The speaker emphasizes the need for continuous monitoring and improvement to enhance the safety of AI applications.

40:08

📚 Valentina's Insights on Responsible AI and Upcoming Microsoft Events

In the final paragraph, Valentina shares her thoughts on responsible AI and the need for developers to stay informed about the ethical considerations and potential risks of AI applications. She also mentions some of her talks available on the website and encourages the audience to watch them for more insights. The speaker highlights an upcoming Microsoft event called 'Global Azure' and invites everyone to join for a coffee and discussion. Valentina concludes by thanking the audience for their participation and expressing her hope that the webinar was informative and engaging.

Mindmap

Keywords

💡Inclusion

Inclusion refers to the practice of involving all individuals, particularly those who may be marginalized or underrepresented, in an organization or society. In the context of the video, the webinar series is dedicated to using AI for purposes of inclusion, aiming to make technology more accessible and equitable for all users.

💡AI for Inclusion

AI for Inclusion is a concept that involves the use of artificial intelligence technologies to promote inclusivity. The video discusses a series of webinars focused on this theme, highlighting initiatives and discussions on how AI can be leveraged to enhance accessibility and diversity.

💡Webinar Series

A webinar series is a sequence of online seminars or lectures, often conducted in real-time and accessible over the internet. The video script mentions a specific series of webinars about the use of AI for inclusion, indicating a structured program to educate and inform participants on the topic.

💡Microsoft

Microsoft is a leading technology company that develops, manufactures, licenses, and supports a wide range of software products and services. In the script, Microsoft is mentioned as a partner in organizing the webinar series and as a key player in the development and application of AI technologies for inclusion.

💡Generative AI

Generative AI refers to a subset of artificial intelligence that can create new content, such as text, images, or music, that is similar to the content it was trained on. The video discusses the potential impact of generative AI on various business processes and its role in enhancing the quality of life.

💡Accessibility Days

Accessibility Days is an event that focuses on raising awareness about accessibility, particularly in the digital realm. The video mentions this conference as an important date for discussing and promoting accessibility standards and practices.

💡Large Language Models (LLMs)

Large Language Models are a type of AI model that can process and understand vast amounts of language data. They are capable of performing tasks such as text generation, translation, and even complex reasoning. The video discusses the role of LLMs in the evolution of AI and their application in various fields.

💡Transformers

Transformers are a type of AI model architecture that is particularly effective for handling sequence-to-sequence tasks, such as translation and text generation. The script mentions Transformers as a pivotal development in the field of generative AI, enabling the creation of large language models.

💡Responsible AI

Responsible AI is an approach to the development and deployment of AI systems that emphasizes ethical considerations, fairness, transparency, and accountability. The video touches on the importance of responsible AI practices, especially when deploying AI services and considering their potential impact on users.

💡Azure OpenAI

Azure OpenAI refers to the integration of OpenAI models within Microsoft's Azure cloud computing platform. This allows developers to access and utilize advanced AI models, such as those from OpenAI, for their applications. The video discusses Azure OpenAI as a service that aligns with enterprise-level applications and data protection standards.

💡CoPilot

CoPilot, in the context of the video, refers to a software concept introduced by Microsoft that uses AI to assist users in their tasks, much like a copilot assists a pilot. It is designed to leverage large language models to enhance productivity and user experience within various applications.

Highlights

The webinar series is dedicated to the use of AI for inclusion purposes.

Previous webinars covered topics like accessible frontend development, inclusive design, and an introduction to AI with future cognitive services.

The importance of watching previous webinar recordings for foundational knowledge.

Gratitude expressed to partners like Microsoft, the Italian Dyslexia Association, and others for their collaboration.

Recommendation to follow their social media channels for updates on events and initiatives.

Details about the 'accessibility Days' conference, held annually in May to raise awareness for accessibility.

An introduction to Valentina, who works with Microsoft on AI and data intelligence and has a focus on generative AI.

A study by Microsoft and Ambrosetti on the impact of generative AI across industries, highlighting a potential 18% increase in Italy's GDP.

Generative AI could save nearly 6 billion hours annually by automating repetitive tasks.

AI has evolved from the initial concept in 1956 to modern deep learning and transformer models capable of complex tasks.

The transformative potential of AI in various sectors, including medicine, as discussed in various talks.

An overview of the AI for Inclusion event on June 17, 2024, emphasizing the importance of responsible AI.

A 50% discount on tickets to the AI for Inclusion event using the coupon code 'ai for inclusion'.

The architecture of modern applications with large language models acting as a 'brain' and plugins extending their capabilities.

The rise of 'multimodal' and 'multiagent' systems, where AI can interact through text, images, and collaborate between different specialized agents.

The introduction of Azure OpenAI, Microsoft's service that aligns with OpenAI models and offers fine-tuning and multimodal capabilities.

The concept of 'CoPilot' in Microsoft applications, acting as AI assistants to enhance user interaction and productivity.

The importance of responsible AI, including unbiased datasets, content safety, and prompt engineering to guide AI behavior.

The 'CoPilot Stack' architecture that Microsoft has been using to integrate AI into its applications like Office and Dynamics.

The emergence of 'Small language Models' that are more lightweight and easier to fine-tune for specific tasks.

The launch of Azure AI Studio, a platform for managing and developing applications with large language models, including a catalog of models and integration with Open Source.

Transcripts

play00:02

Eccoci bentornate E bentornati alla

play00:05

nostra serie di webinar dedicate al

play00:08

l'uso di ai per scopi di inclusione

play00:12

Questa è una serie di webinar che stiamo

play00:17

organizzando in accompagnamento all'ac

play00:20

ton ai for inclusion che che stiamo

play00:26

organizzando abbiamo

play00:30

già iniziato con la nostra serie di

play00:33

webinar quindi le prime tre puntate che

play00:36

abbiamo avuto con Diana Bernabei per la

play00:39

parte di sviluppo di frontend

play00:41

accessibile con Chiara Longobardi per

play00:43

design inclusivo e con Manuela Polimeno

play00:47

che ci ha introdotto ad

play00:50

Aure tema che ci tornerà ovviamente

play00:53

utile sia oggi sia nel nella prossima

play00:57

puntata sui cognitive ai Services perché

play01:00

ci ha dato i fondamenti dell'uso di

play01:03

servizi Cloud così possiamo darlo come

play01:08

prerequisito il consiglio è di

play01:11

guardare le puntate precedenti perché ci

play01:14

fanno l'affondamento c'è una

play01:16

propedeuticità

play01:18

Ovviamente un doveroso ringraziamento ai

play01:22

nostri compagni di viaggio nella

play01:24

organizzazione di questo Akon e cioè

play01:27

Microsoft associazione italiana

play01:29

dislessia fondazione aspia

play01:31

internazionale Sordi l'unione italiana

play01:32

cchi po vedenti perché semplicemente

play01:36

senza i compagni di viaggio questa

play01:39

iniziativa nella quale crediamo

play01:41

moltissimo Non sarebbe

play01:43

stata possibile quindi veramente kudos e

play01:46

cuore

play01:48

grande Rimaniamo in contatto quindi il

play01:52

consiglio per tutte e tutti è boh

play01:55

dipendentemente dove ci state seguendo

play01:57

in questo momento LinkedIn Twitter T

play02:00

followate e poi canale telegram e gruppo

play02:03

telegram Perché tutte le novità Le

play02:06

pubblichiamo lì per

play02:08

esempio pubblicheremo

play02:11

a breve diciamo così

play02:14

la la data e la location dove

play02:18

effettueremo la data finale del dell'at

play02:21

Quindi dove ci sarà la presentazione dei

play02:23

progetti finalisti e quant'altro Io

play02:26

ricordo sul nostro sito

play02:30

www improv Tech trovate in h page la

play02:34

card dell laton e potete vedere sia i

play02:38

progetti già proposti ai quali potete

play02:41

aderire partecipare Oppure potete

play02:44

proporne di nuovi col vostro Team oppure

play02:48

progetti dei quali siete owner

play02:51

adottabili dalla Community questa cosa

play02:53

funziona tanto più quanti E quante più

play02:56

siamo

play02:58

a fare qualche cosa a scopo di uso della

play03:02

tecnologia per

play03:06

inclusione sempre sul tema di inclusione

play03:10

accessibilità ricordo che il 16 e il 17

play03:14

maggio come tutti gli

play03:16

anni si svolge il la conferenza

play03:20

accessibility Days come tutti gli anni è

play03:22

l'ottavo anno e sempre la terza

play03:24

settimana di maggio Perché il terzo

play03:27

giovedì di maggio è il God Global Access

play03:30

awareness Day cioè la giornata mondiale

play03:32

per la awareness consapevolezza

play03:35

dell'accessibilità per il secondo anno

play03:38

di fila si svolgerà a Roma presso

play03:40

l'edificio Marco Polo dell'università La

play03:43

Sapienza ma è accessibile frequentabile

play03:46

partecipabile anche in live streaming

play03:48

quindi www. accessibility days.it ci si

play03:52

scrive

play03:54

facile Questo è un aaton ai for

play03:58

inclusion ed è la serie di webinar ai

play04:00

for inclusion quindi inclusion ma anche

play04:03

ai invece segnaliamo il nostro ehm e

play04:10

Conf il nostro evento non c'è scritto

play04:12

perché sono un pollo ma è 17 giugno di

play04:16

quest'anno ovviamente 2024

play04:19

e un sacco di talk molto interessanti

play04:23

sull'uso di ai in vari ambiti per

play04:27

esempio anche in ambito medico Cè un

play04:30

Talk di quelli che io per primo vorrò

play04:34

vorrò frequentare Vorrò vedere

play04:36

e uno sconto con tra l'altro c'è c'è un

play04:42

errore perché in realtà lo sconto è del

play04:44

50% sull'acquisto del biglietto col

play04:47

coupon a ai for inclusion è un'altra

play04:52

buona opportunità e Finalmente direi che

play04:56

ho concluso il mio pentolame e veniamo

play05:00

alla parte interessante la parte

play05:02

interessante è quello che ci mostrerà

play05:07

oggi una non dico una persona dico una

play05:11

dico una amica perché perché questo

play05:15

questo è

play05:16

Valentina Valentina è un'amica con la

play05:19

quale

play05:20

abbiamo fatto già alcune cose molto

play05:23

interessanti che trovate nel video

play05:25

browser e quindi al con al all'urlo

play05:31

nerdom metro 9000 non Ecco con noi

play05:35

Valentina

play05:36

ciao ciao ciao Andrea e ambizione di

play05:39

oggi ovviamente è superare il 9000

play05:42

Quindi wow Esatto molto

play05:52

committal virtuale io mi metto in

play05:56

ascolto in visione Ma anche a guarderò

play06:00

la la chat Quindi se avete domande per

play06:04

Valentina scrivete nella chat le le

play06:06

raccolgo e poi alla fine ne parliamo

play06:08

vale

play06:10

Vai Grazie Andrea e Ciao a tutti Buon

play06:13

pomeriggio io sono Valentin alto e

play06:16

lavoro in Microsoft mi occupo di dati

play06:18

intelligenza artificiale sulla

play06:19

piattaforma di Aure cloud e diciamo che

play06:22

nell'ultimo anno sia per passione che

play06:24

per lavoro mi sono verticalizzata molto

play06:26

in ambito generative ai ed è infatti di

play06:29

questo che oggi andiamo a parlare

play06:32

comincio con

play06:33

qualche nozione un po' Noiosa ma che ci

play06:36

ritornerà utile quando parleremo di

play06:38

tecnologia quello che vi sto mostrando è

play06:40

il risultato di una ricerca che

play06:42

Microsoft ha condotto assieme allo

play06:44

studio Ambrosetti qualche mese fa

play06:45

relativamente all'impatto che la

play06:47

generative ai può avere per divisione di

play06:51

business all'interno di organizzazioni

play06:53

che sono cross Industry quindi in questa

play06:55

griglia di fatto vediamo quello che

play06:57

potrebbe essere il potenziale della

play06:59

generative ai nei processi aziendali ve

play07:02

lo sto mostrando sia perché è una

play07:04

bellissima ricerca che di cui poi vi

play07:06

posterò il link se volete leggere per

play07:07

intero ma soprattutto perché il

play07:08

contenuto di queste Celle È stato

play07:10

compilato di fatto da CPT cioè CPT è

play07:13

stato un protagonista ne tra i relatori

play07:16

che hanno di fatto contribuito all'

play07:17

stesura di questa ricerca quindi già qui

play07:20

vediamo un primo impatto concreto

play07:23

l'impatto serio diciamo l'output non

play07:25

prodotto da Cat GPT in questa ricerca è

play07:28

è un output numerico in termini di

play07:30

impatti concreti che queste tecnologie

play07:32

possono avere a livello non solo di

play07:34

industrie ma proprio a livello di

play07:36

sistema paese di sistema Italia e qui

play07:38

vediamo due numeri pazzeschi Il primo è

play07:40

l'impatto che la generative ai può avere

play07:42

sul PIL pari al

play07:44

18% parliamo del 18% del PIL italiano Il

play07:48

secondo è l'ammontare di ore risparmiate

play07:52

ore annuali risparmiate che si possono

play07:54

computare nel momento in cui i servizi

play07:57

di generative ai vanno a automatizzare

play08:00

tutti quei Task che occupano molto tempo

play08:02

nelle nostre giornate lavorative ma sono

play08:05

Di poco valore aggiunto e queste ore

play08:08

ammontano a quasi 6 miliardi annuali che

play08:10

è un numero incredibile Quindi due

play08:14

diciamo numeri che ci danno un'idea di

play08:17

quanto la generative ai possa

play08:19

effettivamente lasciare un impatto a

play08:20

livello di sistema paese e come

play08:22

l'obiettivo ultimo sia quello di rendere

play08:25

migliore diciamo la qualità della vita

play08:27

di noi esseri umani

play08:30

ora quando parliamo di generative ai

play08:32

Parliamo di un sotto sotto sottoinsieme

play08:35

dell'intelligenza artificiale

play08:36

Probabilmente questa slide l'avrete

play08:38

vista 402 volte nell'ultimo anno quindi

play08:40

ho cercato di renderla un po' diversa eh

play08:44

dando un significato alle date che sono

play08:47

rappresentate anzitutto quando parliamo

play08:49

di intelligenza artificiale Parliamo di

play08:51

un dominio di ricerca che nasce nel 1956

play08:55

da un'affermazione di tale mccarthy

play08:58

veramente interessante L'affermazione è

play09:00

che qualsiasi processo cognitivo

play09:03

dell'essere umano se propriamente

play09:05

descritto può essere replicato da una

play09:07

macchina e sulla base di questo assunto

play09:10

nasce questo dominio di ricerca che si

play09:12

chiama appunto intelligenza artificiale

play09:14

ora per rendere le macchine capaci di m

play09:17

riprodurre dei processi cognitivi

play09:19

servono dei modelli matematici e questi

play09:21

modelli fanno parte del dominio del

play09:23

machine Learning il machine Learning

play09:25

comincia a catturare l'attenzione nel 97

play09:28

quando

play09:30

un un super un modello ospitato su un

play09:33

super computer riesce a battere la Lora

play09:35

campione di scacchi E quando questi

play09:39

modelli di Machine Learning diventano

play09:41

così profondi e così potenti da

play09:44

rientrare in un contesto che si chiama

play09:46

Deep Learning Deep Perché queste reti

play09:48

neurali sono appunto questi modelli sono

play09:50

fatti da diversi strati da tantissimi

play09:52

strati sono profondi per questo Deep

play09:54

Learning ecco quando i modelli Deep

play09:55

Learning diventano così potenti da

play09:58

batter

play10:00

non solo un campione di scacchi ma anche

play10:01

un campione di Go che è un gioco con un

play10:04

numero di combinazioni e un livello di

play10:06

complessità molto maggiore rispetto al

play10:08

gioco degli scacchi Ecco che ci rendiamo

play10:11

conto che ci stiamo muovendo verso degli

play10:14

oggetti dei sistemi con una potenza

play10:16

incredibile fino ad arrivare poi al

play10:19

novembre 2022 quando

play10:21

openi lancia sul mercato un'applicazione

play10:24

consumer quindi vuol dire che tutti noi

play10:26

l'abbiamo potuta testare Sen dal giorno

play10:28

un che che si chiama chat GPT chat GPT è

play10:31

la manifestazione di intelligenza

play10:34

artificiale generativa Cosa vuol dire

play10:36

generativa vuol dire che il modello

play10:38

dietro chat GPT che nello specifico è un

play10:41

Transformer quindi i modelli dietro

play10:43

questi oggetti di generere tvi si

play10:46

chiamano Transformer Ecco questi modelli

play10:48

sono in grado di comprendere l'intento

play10:51

dell'utente il linguaggio naturale e di

play10:53

produrre di generare del contenuto

play10:56

exnovo questa diciamo è la definizione

play10:59

super generica vedremo che questi

play11:01

modelli sono molto di più di quello che

play11:02

vi ho appena detto ma lo vedremo diciamo

play11:04

nelle slide successive prima di andare

play11:07

avanti Volevo solo mostrarvi come

play11:09

Microsoft che in openi ha investito

play11:12

massivamente con due in due date

play11:14

principali che sono il 2019 e il

play11:16

2023 Microsoft ha di fatto iniziato a

play11:21

lavorare in ambito di intelligenza

play11:23

artificiale Ben prima del 2019 e quelle

play11:26

che vedete sullo schermo sono le date in

play11:28

cui Microsoft raggiunto nei vari sistemi

play11:31

di intelligenza artificiale la

play11:32

cosiddetta Human parity ossia generare

play11:35

dei sistemi di ai che sono in grado di

play11:37

performare almeno tanto bene quanto un

play11:39

essere umano in un determinato dominio

play11:42

e la cosa interessante di questi modelli

play11:46

di generative ai che oltre a generare

play11:49

contenuto come siamo detti Stanno

play11:51

cominciando a mostrare le cosiddette

play11:53

emerging capabilities quindi delle

play11:56

capacità che

play11:58

eh in qualche modo esulano dalla pura

play12:01

generazione di contenuto ma che vanno

play12:04

quasi a manifestare dei ragionamenti

play12:06

rispetto all richiesta dell'utente ed è

play12:08

qui che c'è subito da distinguere quello

play12:13

che è un modello cosiddetto base e

play12:15

quello che è un un modello Assistant

play12:17

come c'ha GPT il primo mito da sfatare

play12:21

appunto è questi modelli sono dei

play12:25

pappagalli stocastici che completano le

play12:28

frasi senza Real ente capire qual è

play12:29

l'intento dell'utente la risposta è sni

play12:34

nel senso che il processo di training di

play12:36

questi modelli di generative ai è molto

play12:38

complesso ma è importante comprendere

play12:41

anzitutto che questi modelli si

play12:44

differenziano dai modelli tradizionali

play12:45

di intelligenza artificiale per il fatto

play12:47

di essere General purpose Questo vuol

play12:49

dire che questi modelli non sono

play12:51

verticalizzati per un tas specifico che

play12:54

può essere estrazione di name identity

play12:56

Recognition piuttosto che

play12:57

classificazione di immagini ma sono

play12:59

modelli che sono stati trainati su una

play13:01

base di dati estremamente eterogenea e

play13:03

vasta tale per cui il modello si adatta

play13:06

al Task rispetto alla richiesta

play13:07

dell'utente Quindi io a c GPT posso

play13:10

chiedere di classific armi le review

play13:14

di prodotti Amazon e fare sentiment

play13:17

analysis così come posso chiedergli di

play13:19

generare un paragrafo relativamente a un

play13:21

argomento di mio interesse quindi

play13:23

parliamo di due Task totalmente distinti

play13:26

in passato sarebbero serviti due modelli

play13:28

per F fare questa cosa con risultati

play13:30

probabilmente inferiori in termini di

play13:32

performance oggi si può fare con un solo

play13:35

modello grazie al fatto che questi

play13:36

modelli appunto sono in grado di

play13:37

catturare l'intento dell'utente e

play13:40

adattarsi a Task variegati per il fatto

play13:42

di essere General purpose ora Eh ho

play13:45

detto che il training di questi modelli

play13:47

è molto complesso e ci sono però diciamo

play13:50

c'è un aspetto che è importante cogliere

play13:53

per capire quanto questi oggetti non

play13:55

siano semplicemente dei predittori della

play13:57

parola successiva

play13:59

la prima fase del training di questi

play14:01

modelli la chiamiamo pre-training

play14:04

consiste di fatto in una fase non

play14:07

supervisionata di training su tutto

play14:10

l'internet i modelli di tipo GPT Ma

play14:13

anche gli altri modelli che stanno

play14:14

uscendo sul mercato Lama 2 Mistral sono

play14:17

trainati sull'internet quindi sanno di

play14:21

fatto tutto quello che accade di

play14:24

pubblico fino alla data in cui sono

play14:25

trinati l'output di questa fase di

play14:29

training è un modello che viene

play14:30

cosiddetto definito base Model il base

play14:34

Model è un modello di completamento

play14:36

quindi il modello andrà a predirre la

play14:38

parola successiva rispetto alle parole

play14:40

che noi scriviamo e che diamo come input

play14:43

a questo modello E come lo fa lo fa

play14:45

sulla base statistica di tutto quello

play14:47

che ha visto sull'internet quindi se noi

play14:49

compiliamo la donzelletta vien dalla il

play14:52

modello previr verosimilmente campagna

play14:55

perché campagna è la parola con una

play14:57

probabilità associata più alta rispetto

play14:59

a tutto il resto sulla base di quello

play15:00

che il modello ha visto su internet ora

play15:02

il punto è quando noi utilizziamo Cat

play15:05

GPT ci rendiamo conto che non stiamo eh

play15:08

parlando con un modello di completamento

play15:10

Cè GPT è in grado di fare dei

play15:12

ragionamenti e di produrre dei contenuti

play15:14

molto raffinati e complessi e questo

play15:17

avviene grazie alla seconda fase di

play15:19

training che prevede una serie di fasi

play15:21

in cui si fa del fine Tuning del modello

play15:24

per renderlo più adatto a un tipo di

play15:26

interazione conversazionale e e una fase

play15:29

di rewarding del modello sulla base di

play15:33

input dati da un team di esseri umani

play15:36

come se noi giudicassero il modello e il

play15:38

modello si aggiornasse sulla base di

play15:39

quello che piace a noi è per questo che

play15:41

G GPT In qualche modo ci ha catturati

play15:45

così tanto nel momento in cui all'inizio

play15:47

abbiamo cominciato a utilizzarlo E

play15:49

personalmente continua a a stupirmi ogni

play15:52

volta che che lo uso Ecco quest'ultima

play15:55

fase che si chiama nello specifico

play15:56

reinforcement Learning with Human

play15:58

feedback

play15:59

è fondamentale nel momento in cui noi

play16:01

vogliamo dei modelli che in gergo si

play16:03

definiscono Human aligned quindi

play16:05

allineati con gli esseri umani con

play16:08

quello che ci aspetteremmo da un modello

play16:10

come se parlassimo con un altro essere

play16:13

umano da qui ci rendiamo conto che

play16:15

questi modelli non sono solamente dei

play16:18

predittori Ma hanno delle capacità che

play16:20

vanno ben oltre la prima che è propria

play16:23

di questi modelli è il fatto che m Beh

play16:26

questi modelli sono enormi hanno un

play16:28

quantitativo di parametri che va oltre i

play16:30

100 miliardi Tuttavia sono meno

play16:33

parametri meno connessioni di quanto ne

play16:35

abbiamo noi nel cervello ma nonostante

play16:37

questo questi modelli sono molto più

play16:39

efficienti ed efficaci di noi nel

play16:41

compattare informazioni in queste

play16:43

connessioni quindi sono molto bravi

play16:46

nell'arte dell'unire puntini tra Domini

play16:49

di conoscenza diversi e questo è

play16:51

fondamentale immaginiamoci il classico

play16:53

esempio di un medico generalista che

play16:56

deve avere delle nozioni molto verticali

play16:58

su vari Domini e soprattutto deve essere

play17:00

in grado di collegare sintomi tra di

play17:02

loro che possono essere pertinenti Di

play17:04

aree di studio diverse avere un

play17:06

assistente che è estremamente rapido

play17:09

nell'identificare le connessioni tra

play17:10

aree di studio diverso è estremamente

play17:14

utile il secondo tema è quello di

play17:17

ricerca i large language Models

play17:19

introducono un nuovo modo di fare

play17:22

ricerca che nello specifico Si chiama

play17:24

ricerca vettoriale Perché Perché questi

play17:26

modelli sono in grado di

play17:29

convertire il testo in vettori numerici

play17:33

che vivono in uno spazio vettoriale

play17:35

rappresentativo della semantica di

play17:38

questi di queste parole associate Cosa

play17:40

vuol dire vuol dire che in uno spazio

play17:42

vettoriale noi avremo vettori che

play17:44

rappresentano parole che sono più o meno

play17:46

vicini a seconda di quanto sia la

play17:49

vicinanza semantica dei loro concetti

play17:52

quindi i large language Models di fatto

play17:55

introducono questo nuovo metodo di

play17:56

ricerca che si è dimostrato estremamente

play17:58

per formante la terza capacità è

play18:01

l'interfaccia conversazionale lo abbiamo

play18:03

detto dall'inizio il fatto che noi

play18:05

possiamo parlare con questi modelli il

play18:06

linguaggio naturale è un qualcosa di

play18:08

disruptive perché stiamo accedendo a un

play18:11

oggetto scientifico molto complesso

play18:14

senza averne minimamente conoscenza

play18:17

quindi è se volete un abbattere la

play18:19

barriera tra un concetto complesso e un

play18:21

utente che può non arrivare a quella

play18:23

complessità di

play18:25

conoscenza ultimo elemento che però è

play18:28

alla base di tutto quello che sta

play18:30

accadendo in questo momento Nel mondo è

play18:32

il fatto che grazie alla loro capacità

play18:35

di orchestrazione di ragionamento questi

play18:38

modelli sono i perfetti cervelli da

play18:41

mettere nelle nostre applicazioni

play18:43

rendendo le applicazioni moderne e llm

play18:46

powered se vogliamo dire e come Vedremo

play18:49

Questo è il pattern che si sta vedendo

play18:52

nelle varie applicazioni moderne che

play18:54

stanno nascendo in questi mesi che

play18:56

abbiamo visto nascere appunto in questi

play18:58

mesi

play18:59

m quando dico che il large language

play19:02

Models è il cervello dell'applicazione

play19:05

intendo se immaginiamo un'architettura

play19:07

ad alto livello che il modello diventa

play19:10

una sorta di layer di disaccoppiamento

play19:12

tra quello che è un front-end

play19:14

conversazionale e quello che è un

play19:16

backend fatto di

play19:19

dati proprietari o comunque dati che non

play19:22

fanno parte del training set perché

play19:24

saranno dati dell'organizzazione o

play19:26

nostri privati che non abbiamo voluto

play19:28

ovviamente dare Nel training set del

play19:29

modello Ma che allo stesso tempo

play19:31

Vorremmo che il modello sapesse in modo

play19:33

che può rispondere rispetto a quei dati

play19:35

ecco quindi Questi sono i dati che

play19:38

vengono navigati dal modello sotto forma

play19:40

di embedding di vettori come abbiamo

play19:42

visto prima e la seconda parte del

play19:45

backend sono i connettori i Plugin

play19:47

quindi quegli strumenti che noi diamo al

play19:49

modello per fare cose per navigare

play19:53

nell'ecosistema attorno al modello

play19:55

stesso ad esempio nella versione di C

play19:59

GPT noi interagiamo con un modello che

play20:03

non ha accesso ad internet Se invece

play20:06

volessimo avere uno strumento che sulla

play20:09

base di richieste che presuppongono una

play20:12

risposta aggiornata sappiamo che i

play20:14

modelli sono trainati fino a una certa

play20:15

data in quel caso il modello avrà

play20:17

bisogno di uno strumento per poter

play20:19

navigare internet e la cosa meravigliosa

play20:21

È che noi diamo gli strumenti al modello

play20:24

e il modello è in grado di capire quando

play20:26

usare un determinato strumento rispetto

play20:28

la richiesta dell'utente ed è qui che è

play20:30

il potere emergente di questi modelli

play20:33

capiscono l'intento E capiscono di non

play20:35

essere in grado di soddisfare l'intento

play20:36

e quindi hanno bisogno di uno strumento

play20:38

e questo è diciamo una architettura

play20:41

Super High level di come si di come Di

play20:43

fatto si costruiscono le applicazioni

play20:44

con gli LMS ora Entrando nello specifico

play20:49

m tra i modelli che in questo momento si

play20:53

stanno affermando maggiormente sul

play20:54

mercato sono Senz'altro i GPT openi è

play20:58

L'azienda che ha lanciato cgpt e openi e

play21:02

Microsoft hanno una partnership che è

play21:04

nata Appunto nel 2019 come abbiamo visto

play21:06

D linea del tempo è nata nel 2019 ed è

play21:10

continuata nel corso degli ultimi anni

play21:12

fino a che Microsoft non ha diciamo

play21:14

ottenuto la licenza di poter esporre i

play21:17

modelli di openi sulla propria

play21:19

piattaforma Azure quindi questo cosa

play21:21

vuol dire vuol dire che all'interno dei

play21:24

servizi di ai di Aure quindi gli ex

play21:27

servizi cognitivi

play21:29

esiste anche il servizio di Aure openi

play21:31

che è allineato con tutte le

play21:34

caratteristiche che openi espone come

play21:36

azienda stand alone quindi all'interno

play21:38

del servizio di ure openi ci saranno i

play21:40

modelli dal GPT 3.5 in avanti incluso il

play21:43

GPT 4 Vision quindi il modello

play21:45

multimodale ci saranno ci sarà la

play21:48

possibilità di fare fine Tuning ci sarà

play21:50

la possibilità di utilizzare il modello

play21:52

da lì per la generazione di immagini

play21:54

Quindi tutti i modelli di openi sono

play21:56

disponibili sulla piattaforma Azure il

play21:58

che comporta una serie di eredità che

play22:02

questo servizio eredita appunto in virtù

play22:06

del fatto che si trova sul Cloud di

play22:08

Microsoft La prima è la protezione dei

play22:11

dati nonché il fatto che questi dati

play22:13

quindi le conversazioni che noi abbiamo

play22:14

con i modelli non concorrono in alcun

play22:16

modo a migliorare o comunque modificare

play22:19

il modello stesso e tutte le logiche di

play22:22

Enterprise scale application quindi Role

play22:25

Based Access control private IP eccetera

play22:28

eccetera che caratterizzano tipicamente

play22:30

le applicazioni di scala Enterprise

play22:33

quindi utilizzare i modelli di asure

play22:35

openi suè di openi da Aure consente Un

play22:39

accesso e una diciamo un ecosistema che

play22:42

è tipico delle applicazioni di grandi

play22:45

organizzazioni ora Nello specifico

play22:48

quando parliamo di Aure openi parliamo

play22:50

appunto di un servizio che si colloca in

play22:53

un portafoglio molto ampio di Microsoft

play22:55

di servizi di intelligenza artificiale

play22:57

perché come abbiamo visto prima è dal

play22:59

2016 che Microsoft comunque lavora in

play23:01

ambito lavora nel settore Quindi accanto

play23:04

ad de openi Ci saranno anche altri

play23:06

servizi più verticali come ad esempio i

play23:08

servizi di visione piuttosto che i

play23:10

servizi di speech to text e Text to

play23:13

Speech qual è la cosa interessante è che

play23:16

in quanto ecosistema ure openi può

play23:19

beneficiare dell'esistenza di questi

play23:21

altri servizi perché sono nativamente

play23:23

integrati quindi si possono Arricchire

play23:25

le capacità dell'uno piuttosto che

play23:27

dell'altro grazie al fatto fatto che

play23:29

sono delle api che vengono richiamate

play23:31

dal medesimo cloud e che possono essere

play23:33

integrate all'interno delle applicazioni

play23:34

in modo appunto

play23:38

nativo ora facciamo un

play23:41

attimo diciamo una fotografia di da dove

play23:44

siamo partiti e dove siamo

play23:46

ok ho menzionato prima che i modelli

play23:49

dietro CH GPT e in generale dietro i

play23:52

large language Model sono una

play23:53

particolare categoria di modelli che si

play23:54

chiamano Transformers i Transformers

play23:57

hanno hanno segnato un passaggio

play23:59

fondamentale nell'architettura dei

play24:01

modelli di Deep learning in questo caso

play24:03

generative ai perché hanno reso

play24:05

possibile la nascita de large language

play24:07

Models l'introduzione

play24:08

Transformers nasce con un Paper di

play24:11

Google nel giugno 2017 tra giugno 2017 e

play24:15

cgpt passano 5

play24:17

anni tra il lancio di cgpt e oggi in cui

play24:22

adesso andremo a vedere quali sono i

play24:23

Trend di mercato più popolari passano

play24:27

Meno di 2 anni questo dà un'idea del

play24:30

ritmo di sviluppo di queste tecnologie

play24:34

nel negli ultimi Meno di 2 anni negli

play24:37

ultimi 18 mesi ed è incredibile e questo

play24:40

andrà come dire ancora più veloce nei

play24:43

prossimi mesi verosimilmente quindi

play24:45

stiamo assistendo a una rivoluzione

play24:47

incredibile con un proprio passo di

play24:49

sviluppo estremamente

play24:51

accelerato qui vediamo che da lancio di

play24:54

GPT ad oggi ci sono sono emersi diversi

play24:57

patter

play24:58

architetturali e in particolare ne

play25:01

menziono un paio Il primo è il rag

play25:04

preferiva all' augmented Generation

play25:06

questo

play25:08

pattern va ad indirizzare il primo

play25:10

problema che emerge con i large language

play25:12

Models ossia che non conoscono i nostri

play25:14

dati per fortuna aggiungerei Quindi cosa

play25:16

vuol dire vuol dire andare a innestare

play25:20

una conoscenza cosiddetta non

play25:22

parametrica quindi una conoscenza

play25:23

esterna rispetto al modello Sul modello

play25:26

in modo che il modello possa cercare la

play25:29

risposta all'interno di questa

play25:30

documentazione che noi gli forniamo

play25:32

documentazione che viene vettorizzato

play25:34

quindi torniamo al tema della ricerca

play25:35

intelligente e e questo è il primo

play25:38

pattern che si afferma abbiamo poi il

play25:41

tema dei plugin lo abbiamo menzionato

play25:43

prima quindi dare gli strumenti ai

play25:45

modelli affinché possano navigare e

play25:47

interagire con l'ecosistema

play25:49

circostante abbiamo poi la multimodalità

play25:52

quindi introdurre il concetto di input e

play25:56

output di dati non solo testuali ma

play25:58

anche ad esempio visuali quindi le

play26:00

immagini e ed è diciamo è il periodo in

play26:03

cui viene lanciato sul mercato GPT for

play26:06

Vision quindi il GPT che con cui noi

play26:08

possiamo interagire sia Testualmente che

play26:10

tramite immagini e infine il tema dei

play26:13

multiagent quindi costruire applicazioni

play26:17

in cui abbiamo diversi agenti paati da

play26:22

large language Models ognuno

play26:24

specializzato in una determinata

play26:25

attività che collaborano tra di loro

play26:27

orchestrati da un llm che fa da brain

play26:30

sulla base della richiesta dell'utente e

play26:32

qui vedremo qualcosa proio nello

play26:34

specifico focalizziamoci un attimo sulla

play26:37

multimodalità e sulla sul multiagency

play26:40

visto che sono i due temi forse più

play26:43

interessanti al momento per darvi

play26:45

qualche esempio di Cosa vuol dire

play26:47

multimodalità vediamo qualche screenshot

play26:49

dal Playground di asure openi quindi in

play26:52

questo momento mi trovo nella chat di

play26:53

asure openi e do al modello un'immagine

play26:57

di un problema di fisica e e gli chiedo

play27:00

di risolverlo per me e qui vediamo che

play27:02

il modello è in grado anzitutto di fare

play27:03

un ragionamento matematico che parte da

play27:05

un input misto sia tramite un grafico

play27:08

un'immagine sia tramite una descrizione

play27:10

testuale quindi ragionamento matematico

play27:14

sulla base di input testuali e visivi

play27:17

poi questo Vabbè questa applicazione

play27:19

magari non è super moderna Però io ho

play27:22

dato un'immagine no del di un gioco che

play27:24

volevo creare a cgpt for Vision vi ho

play27:27

detto Eh creami il codice per riprodurre

play27:30

questa applicazione non vi ho dovuto

play27:32

spiegare come funzionasse cioè il fatto

play27:35

che un giocatore vince o perde se o

play27:39

colpisce o meno la pallina perché il

play27:41

modello è stato in grado di capirlo

play27:42

dallo screenshot che gli ho mandato

play27:44

perché Ha ragionato Avrà visto questa

play27:45

cosa da qualche parte nell'internet su

play27:47

Quest stato trinato e quindi sa già Qual

play27:49

è la logica del gioco quindi mi ha

play27:51

prodotto il codice e e questa è

play27:52

l'applicazione finale

play27:55

poi qui c'è anche l'integrazione con i

play27:58

servizi cognitivi che vi citavo prima

play28:00

disponibili sulla piattaforma Aure in

play28:02

questo caso con un servizio che si

play28:03

chiama video indexer e qui di fatto

play28:06

abbiamo la possibilità di andare a

play28:07

descrivere un video il linguaggio

play28:09

naturale Quindi io qui ho caricato un

play28:12

video di montaggio di una bicicletta

play28:13

della Decathlon Gli ho chiesto di generi

play28:15

un tutorial rispetto a questo video e il

play28:18

modello è stato in grado di di farlo

play28:20

step by step e qui Se poi aggiungiamo

play28:24

anche la possibilità di uno di un Text

play28:26

to Speech potremmo perché no rendere

play28:29

questo tutorial vocal in modo che

play28:31

chiunque stia montando una bicicletta

play28:33

possa eh di fatto ascoltare ascoltare

play28:37

questo tutorial e poi in generale come

play28:39

ogni servizio cognitivo ogni ai service

play28:42

su asure c'è sempre la possibilità come

play28:44

abbiamo visto di esportare il codice in

play28:47

modo da imbed questi modelli nelle

play28:49

proprie applicazioni secondo trending

play28:52

topic multiagency Quindi abbiamo detto

play28:55

cos'è la multiagency è una ehm

play28:59

architettura in cui noi andiamo a

play29:02

definire delle entità che si chiamano

play29:03

agenti Cosa sono gli agenti gli agenti

play29:06

sono appunto delle entità con i seguenti

play29:10

ingredienti un large language Model che

play29:12

funziona da cervello della gente

play29:14

un'istruzione o meta prompt che gli in

play29:17

qualche modo verticalizza su una

play29:20

specializzazione ben Specifica e una

play29:23

serie di strumenti che possono

play29:25

utilizzare ora la domanda è perché

play29:29

dobbiamo avere degli agenti e non

play29:30

possiamo far fare tutto a un unico large

play29:32

language Model si potrebbe ma la verità

play29:35

è che anzitutto

play29:36

avere dei modelli con delle istruzioni

play29:39

più specifiche aumenta diciamo la

play29:41

performance in quelo specifico Task In

play29:44

secondo luogo veder collaborare questi

play29:46

agenti innesca una serie di meccanismi

play29:48

anche di controllo Double check

play29:51

miglioramento che un modello da solo

play29:54

sull'output prodotto da se stesso non

play29:56

sarebbe in grado di fare con con le

play29:58

medesime performance Quindi ad esempio

play30:00

Noi qui potremmo dire

play30:02

ehm noi utenti voglio generare un

play30:06

videogioco che sia in linea con i Trend

play30:09

di mercato proprio il top Trend Quindi

play30:12

di cosa ho bisogno avrò bisogno di un

play30:14

ricercatore che mi fa un'analisi di

play30:16

mercato e Probabilmente avrà un plugin

play30:18

verso il web avrò bisogno di uno

play30:20

storyteller che mi racconti No la trama

play30:23

del gioco sulla base delle analisi che

play30:25

sono state fatte da ricercatore e avrò

play30:27

bisogno di un sviluppatore che sulla

play30:29

base della storia e della Meccanica dei

play30:31

movimenti sia in grado di sviluppi il

play30:33

codice e poi qui potremmo aggiungere

play30:35

anche un agente che chiameremo Il

play30:37

critico che va a vedere se ad esempio la

play30:40

storia è effettivamente in linea con i

play30:42

Trend di mercato piuttosto che un test

play30:45

engineer che va a rivedere il codice

play30:47

prodotto dall'agente ingegnere e fare

play30:51

magari dei test prima di dire ok il

play30:53

codice va bene quindi vedete che si va a

play30:57

a creare un contesto in cui di fatto

play31:01

andiamo a dare delle dei compiti andiamo

play31:04

a creare proprio delle professioni

play31:05

all'interno di un team fatto da da

play31:08

agenti E questo potrebbe essere un altro

play31:10

esempio in cui di fatto andiamo a creare

play31:13

un team per la prenotazione di un

play31:15

viaggio in cui ogni agente ha una

play31:18

descrizione e un un compito un compito

play31:22

specifico nonché un set di Tool questi

play31:24

agenti potrebbero orch estrar tra di

play31:26

loro per poi andare a risolvere la

play31:29

domanda dell'utente che potrebbe essere

play31:30

Prenotami un

play31:31

viaggio per Los Angeles il prossimo

play31:35

autunno quindi si orchestrano capiscono

play31:39

chi deve fare cosa e poi ritornano

play31:41

all'utente la destinazione finale Quindi

play31:44

questi sono un po' i due macro temi

play31:47

che su cui oggi si sta forse

play31:50

concentrando La maggior parte della

play31:51

ricerca detto questo in tutto ciò

play31:54

Microsoft come diciamo Toto l'ondata dei

play31:59

generative VII perché abbiamo detto la

play32:02

generative VII può avere un impatto

play32:03

nelle organizzazioni nei processi

play32:05

eccetera Ecco che impatto ha avuto

play32:07

all'interno di

play32:08

Microsoft Microsoft ha colto la

play32:11

generative ai introducendo un nuovo

play32:13

concetto applicativo quindi un vero e

play32:15

proprio pezzo di software che prima non

play32:18

esisteva che è chiamato CoPilot il nome

play32:21

rende benissimo CoPilot perché perché

play32:24

sono degli assistenti virtuali che

play32:26

copiloto l'utente che rimarrà sempre il

play32:29

primo pilota in qualsiasi attività si

play32:32

possa si possa pensare ora Eh il CoPilot

play32:37

è come abbiamo detto un pezzo di

play32:40

software che è fatto da ingredienti che

play32:43

abbiamo di fatto coperto nelle slide

play32:45

precedenti Quindi Parliamo di un oggetto

play32:47

che ha un large language Models che

play32:49

funziona da roning Engine Quindi da

play32:53

cervello come abbiamo detto prima i dati

play32:55

i vostri dati o nello specifico i dati

play32:57

della applicazione l'applicazione

play33:00

verosimilmente un'applicazione in cui si

play33:02

va a montare il CoPilot e infine i

play33:04

Plugin gli strumenti con cui interagire

play33:07

nel mondo esterno questo fruito tramite

play33:11

un'interfaccia conversazionale in cui

play33:13

l'utente può andare a eh fare le sue

play33:16

domande rispetto all'applicazione che

play33:18

sta utilizzando e questo m è

play33:22

estremamente disruptive dal punto di

play33:24

vista di come gli utenti si aspettano di

play33:26

interagire con le applicazioni del

play33:27

futuro e per farvi un esempio Vi mostro

play33:30

come Fastweb ha introdotto sul suo sito

play33:33

web una funzionalità che consente agli

play33:37

utenti di interagire con i dati del del

play33:40

loro abbonamento quindi di fare domande

play33:42

in linguaggio naturale e ricevere

play33:44

risposte non in modalità chatbot quindi

play33:48

Ok vai qui vai là ma in modalità

play33:50

conversazionale e questo funziona

play33:52

tramite il il pattern che abbiamo visto

play33:54

prima tramite il concetto di retrieval

play33:56

augmented Generation qui stiamo dicendo

play33:59

che questa interfaccia conversazionale è

play34:01

perimetrata sui dati che Fastweb ha dato

play34:04

impasto al database dove il modello può

play34:08

andare a navigare e il modello risponde

play34:11

solamente nel perimetro dei dati

play34:13

pertinenti Ecco questo eh È un CoPilot a

play34:17

tutti gli effetti è un CoPilot che ha

play34:21

un'anatomia è il cosiddetto questa

play34:23

anatomia si chiama CoPilot Stack cos'è

play34:26

il CoPilot Stack un architetto vettura

play34:28

ad alto livello che Microsoft ha

play34:31

divulgato nel momento in cui ha lanciato

play34:34

i CoPilot quindi Microsoft ha utilizzato

play34:37

questa architettura per costruirsi i

play34:39

suoi CoPilot dentro le sue applicazioni

play34:41

quindi Office dynamics Windows eccetera

play34:44

ma l'ha divulgata Perché di fatto è

play34:47

un'architettura agnostica tale per cui

play34:49

chiunque nelle proprie applicazioni si

play34:51

può andare a costruire un CoPilot e qui

play34:54

vediamo che ci sono degli elementi

play34:57

applicativi nuovi che prima non

play34:58

esistevano partendo dal basso

play35:00

Sicuramente avremo i modelli i

play35:02

Foundation Model o large language Model

play35:04

che poggeranno su infrastruttura eii

play35:06

questa infrastruttura potrà essere Cloud

play35:08

quindi potrebbero essere semplicemente

play35:09

delle api dei modelli oppure potrebbero

play35:12

essere addirittura dei modelli ostati on

play35:14

prem perché

play35:15

no la parte sopra Vediamo la componente

play35:18

di front-end e di estensibilità con i

play35:20

Plugin mentre la parte Se volete più

play35:22

interessante è la parte centrale dove ci

play35:24

sono appunto tutte quelle componenti

play35:26

tipiche dello sviluppo di applicazioni

play35:28

come large language Models come il

play35:30

prompt e il meta prompt quindi le

play35:32

istruzioni che diamo al modello

play35:35

fondamentale nonché la componente di

play35:37

grounding Quindi come abbiamo visto

play35:39

prima nel caso di Fasto andare a

play35:40

perimetrare le risposte dei modelli su

play35:43

documentazione che noi forniamo nel caso

play35:45

dei CoPilot di Microsoft 365 per farvi

play35:47

un esempio il grounding Avviene sul

play35:50

Microsoft Graph quindi i CoPilot

play35:53

rispondono sulla base dei dati che sono

play35:55

presenti sul Microsoft Graph e e poi

play35:58

anche qui plugin per per per l'

play36:01

stendibilità No delle azioni che che

play36:03

possono fare questi modelli Ora

play36:06

Ehm abbiamo siamo parlato di questi

play36:09

modelli come entità immodificabili La

play36:12

verità è che essendo dei modelli enormi

play36:14

ed essendo così General purpose quello

play36:16

di cui ci siamo resi conto è che nella

play36:18

gestione di questi modelli per renderli

play36:20

molto verticali per lo use Case che si

play36:23

propone Non è necessario arrivare ad una

play36:26

modifica delle modello Ma nella maggior

play36:28

parte dei casi è sufficiente O

play36:29

aggiungere i propri dati in modalità

play36:31

retrieval augmented Generation oppure

play36:33

lavorare fortemente di prompt

play36:35

Engineering quindi andare a specificare

play36:36

al modello come deve comportarsi in

play36:39

rarissimi casi capita che si voglia

play36:42

procedere ad un fine Tuning il fine

play36:44

tuning di fatto è come se fosse un mini

play36:46

training rifatto su un modello già

play36:48

trainato in ottica di verticalizzazione

play36:51

su uno specifico dominio o addirittura

play36:54

un training da zero poi di nuovo

play36:56

parliamo di modelli enormi quindi di

play37:00

centinaia

play37:01

di miliardi di parametri fare un

play37:05

training o anche un fine tuning di un

play37:06

modello del genere non è un qualcosa che

play37:09

chiunque può fare a livello proprio di

play37:11

costo di investimento nonché di

play37:13

infrastruttura Tuttavia stanno emergendo

play37:16

dei Trend e degli oggetti che si

play37:19

chiamano Small language Model che vanno

play37:22

nella direzione di avere appunto dei

play37:23

modelli che hanno la medesima

play37:25

architettura Transformers dei l language

play37:27

Models ma sono più piccoli più leggeri e

play37:29

quindi più facilmente fine tabili o

play37:32

addirittura trainabili da zero quindi

play37:34

alla domanda Cosa devo utilizzare nella

play37:37

mia applicazione un modello già trainato

play37:38

Oppure ne ne traino uno da zero dipende

play37:42

dipende da da Che tipo di applicazione è

play37:44

e anche da Qual è l'approccio di

play37:45

sviluppo in questo caso dal punto di

play37:47

vista di piattaforma ehm Microsoft per

play37:51

utilizzare i modelli diure openi e per

play37:54

lavorare con dei modelli Open Source per

play37:56

fine tunar trarli o semplicemente

play37:58

consumarli tramite tramite managed

play38:00

endpoint ha introdotto una nuova

play38:02

piattaforma che si chiama aurei studio

play38:04

leure studio è il punto Lab dove vengono

play38:09

convogliate tutte le piattaforme su cui

play38:12

Microsoft faceva ai prima di Aure Open

play38:15

ai ed è quindi l'ab in cui anzitutto si

play38:17

può sfogliare un catalogo di modelli che

play38:19

va ben oltre i modelli di Aure openen ai

play38:21

ma vede tutta l'integrazione con il

play38:23

mondo Open Source Quindi con Agent sub

play38:25

nonché l'integrazione con dei modelli di

play38:28

aziende con cui Microsoft ha stretto una

play38:30

partnership come Mistral oppure Nvidia o

play38:33

meta quindi ci saranno Mistral Lama 2 e

play38:37

i modelli eii di Nvidia e e questo

play38:41

diciamo rende più semplice la gestione

play38:43

end to End di un progetto di generative

play38:46

ai ossia anche il monitoraggio

play38:48

dell'applicazione che verrà sviluppata

play38:50

all'interno di questo portale e quindi

play38:53

il test il testing di questa

play38:55

applicazione quindi diciamo che leury

play38:58

studio Abilita e facilita lo sviluppo di

play39:01

applicazioni con large language Models

play39:03

Ecco ci appr propinqui all'ultimo tema

play39:07

della

play39:08

presentazione non per importanza

play39:10

ovviamente che è quello della

play39:12

responsible i Ecco la la responsible I è

play39:16

una password anche questa forse è il

play39:18

terzo nome dopo multiagency e

play39:22

multimodality però è un tema che

play39:24

Microsoft ha molto ha molto a cuore dal

play39:27

2016 quindi parliamo di un tema che è

play39:30

stato introdotto quasi 10 anni fa e che

play39:33

è stato indirizzato Ben prima che

play39:36

governi E istituzioni si muovessero in

play39:39

termini ufficiali con con delle vere e

play39:42

proprie Leggi le ha Act è roba di 2024

play39:46

si era stato introdotto qualche anno fa

play39:48

però di fatto sta entrando in vigore

play39:49

solo adesso Microsoft ha cercato un po'

play39:52

di colmare questo vuoto normativo

play39:54

ovviamente non con delle leggi ma con

play39:56

dei i principi e anche con delle linee

play39:59

guida che ha raccolto da esperienza su

play40:01

clienti e ha poi in qualche modo

play40:03

formalizzato sia in commissioni etiche

play40:05

che andate a creare sia in veri e propri

play40:08

principi che si possono trovare sulla

play40:09

documentazione sulle blueprint di ai che

play40:12

Che divulghiamo come come W Paper e

play40:16

questo avveniva pre C GPT e openi e come

play40:21

vediamo si declina appunto in quelli che

play40:23

sono sia dei Principi ma anche delle

play40:25

vere e

play40:26

proprie tecniche ingegneristiche che si

play40:28

calano nei prodotti affinché siano

play40:31

unbiased e non dannosi per l'utente

play40:34

finale poi però Arriva la generative ai

play40:37

e quindi a maggior ragione il tema

play40:39

diventa estremamente attuale e

play40:41

fondamentale Da indirizzare perché

play40:43

questi modelli sono già disponibili per

play40:45

il pubblico e in qualche modo Tutti li

play40:49

stanno già utilizzando Bisogna In

play40:50

qualche modo capire come usarli al

play40:53

meglio e per il meglio ecco quando

play40:55

parliamo di eh

play40:58

generate VII e dlms ci sono almeno

play41:01

quattro layer su cui si può ragionare in

play41:04

termini di safety il i primi due fanno

play41:08

parte proprio della piattaforma e

play41:11

l'ultimo diciamo i secondi du fanno

play41:14

parte di come andiamo a costruire

play41:15

l'applicazione quando parliamo di

play41:17

piattaforma ci riferiamo al modello in

play41:18

sé e a come andiamo a contornare il

play41:22

modello con

play41:24

eventuali diciamo layer di sicurizzato

play41:27

adesso capiamo cosa vuol dire il livello

play41:30

di sicurezza del modello è il più

play41:34

difficile se volete da raggiungere

play41:35

perché come abbiamo visto prima parliamo

play41:36

di modelli già trainati quindi in

play41:38

qualche modo ci dobbiamo rifare a a chi

play41:40

ha fatto il training Tuttavia dal

play41:43

portale di aurei studio come vi vedevamo

play41:46

prima soprattutto nei casi in cui si

play41:49

vuole utilizzare un modello Custom e

play41:51

quindi magari trainare da zero un

play41:52

modello piuttosto che utilizzare dei

play41:53

modelli Open Source è possibile prendere

play41:55

visione del training set o di decidere

play41:57

il training set da utilizzare e qui è

play41:59

fondamentale perché i modelli imparano a

play42:02

nostra immagine a somiglianza quindi un

play42:04

modello trainato sull'internet

play42:06

ovviamente sarà biased così come è

play42:08

l'internet quindi è fondamentale avere

play42:11

dei dataset che siano unbiased vi faccio

play42:14

un esempio i modelli GPT

play42:17

sono fortemente biased verso la lingua

play42:21

inglese la conoscono meglio perché

play42:23

l'internet è rappresentato

play42:25

principalmente da contenuto in inglese e

play42:28

questo è già di per sé un un qualcosa se

play42:31

volete di esclusivo Ok immaginate poii

play42:35

cosa vorrebbe dire su temi molto più

play42:37

delicati quindi il primo livello è

play42:39

quello del modello il secondo livello è

play42:42

appunto cosa mettiamo a contorno del

play42:44

modello per renderlo più sicuro e qui

play42:47

Microsoft propone il content Safety

play42:49

cos'è il content Safety è un api che va

play42:52

di fatto a filtrare il contenuto in

play42:53

ingresso in

play42:55

uscita verso questi modelli e lo va a

play42:57

categorizzare in fasce ehm Diciamo in

play43:01

categorie di rischio con dei livelli di

play43:03

rischio associati va di fatto a filtrare

play43:06

tutti quei contenuti che hanno un

play43:08

livello di rischio associato non non

play43:11

gestibile quindi che va oltre

play43:12

l'accettabili e questo se ci pensate è

play43:16

esattamente in linea con il contenuto

play43:19

delle AA Cioè l'act ha un approccio Risk

play43:22

Based il content Safety ha un approccio

play43:25

Risk Based quindi utilizzare di nuovo

play43:28

utilizzare questi modelli da questa

play43:30

piattaforma in qualche modo facilita

play43:32

L'essere in linea con quelle che sono le

play43:34

aspettative che adesso si stanno

play43:35

affermando in

play43:37

Europa livello di prompt Engineering qui

play43:40

è fondamentale perché il Prom Il Meta

play43:42

prompt abbiamo detto che sono quelle

play43:44

istruzioni che noi diamo al modello in

play43:46

linguaggio naturale ed tendenzialmente è

play43:47

quella parte che l'utente finale non

play43:50

vede è come se fosse il backend di

play43:51

un'applicazione in queste istruzioni noi

play43:54

possiamo anche specificare al modo

play43:57

modello Come comportarsi in termini di

play43:59

stile e anche in termini di cosa non

play44:01

fare ad esempio possiamo dire al modello

play44:04

Non rispondere se la domanda dell'utente

play44:06

è inopportuna oppure non rispondere se

play44:09

la domanda dell'utente non è in linea

play44:11

con i documenti che io ti ho dato quindi

play44:13

possiamo andare ad inserire dei

play44:15

guardrail a livello di Meta prompt

play44:18

Quindi anche questa fase è fondamentale

play44:20

l'ultimo layer di mitigation è quello

play44:22

del front end che può sembrare il meno

play44:25

importante però in realtà se ci pensiamo

play44:28

il modo in cui l'utente fruisce le

play44:30

applicazioni determina molto il livello

play44:32

di rischio a cui si espone appunto

play44:35

l'utente finale perché ad esempio

play44:37

un'applicazione in cui si può

play44:40

chattare diciamo con con domande aperte

play44:44

come può essere cgpt o CoPilot di Edge

play44:47

ovviamente espone a domande di qualsiasi

play44:50

tipo però anzitutto il proporre ad

play44:53

esempio delle domande di followup

play44:55

preconfigurate Oppure delle domand

play44:57

domande di inizio conversazione

play44:58

preconfigurate può già incanalare

play45:00

l'utente verso una direzione che in

play45:02

qualche modo è securizzato e inoltre

play45:05

andare a riportare le fonti di quello

play45:07

che si risponde all'utente faccio sempre

play45:09

riferimento al caso di del CoPilot di

play45:12

Edge dà in qualche modo dei riferimenti

play45:15

che l'utente può utilizzare per andare a

play45:16

convalidare il contenuto di queste

play45:18

risposte Quindi se anche abbiamo un

play45:21

rischio di allucin C'è comunque la

play45:24

rassicurazione

play45:25

che ente può effettivamente verificare

play45:28

la veridicità dell'informazione che è

play45:29

stata riportata quindi diciamo che su

play45:33

quattro livelli di mitigation

play45:35

sicuramente non possiamo andare ad avere

play45:38

la ricetta segreta per avere un modello

play45:41

e un'applicazione che sia sicura al 100%

play45:44

ma abbiamo un margine di miglioramento

play45:45

incredibile e quindi il tema della

play45:48

responsible lei di nuovo un insieme di

play45:50

principi ma anche un insieme di tecniche

play45:52

proprio di design architetturale che

play45:55

vale la pena impostare in una blueprint

play45:58

nel momento in cui si vanno a

play46:01

predisporre delle applicazioni con con i

play46:03

large language Models e vedremo immagino

play46:07

prossimamente nei prossimi mesi come

play46:09

Questi strumenti già parte della

play46:11

piattaforma ritorneranno molto utili nel

play46:13

momento in cui ci sarà un tema di no

play46:17

esposizione di quello diciamo

play46:19

dell'intento di di uno sviluppo di

play46:21

un'applicazione con la generative ai in

play46:23

ottica appunto di ai Act in Europa bene

play46:28

Io con questo concludo ringrazio molto

play46:31

per l'ospitalità e spero che sia stato

play46:33

utile e interessante e non so se ci sono

play46:36

domande O mi al mio host Allora no non

play46:41

ci

play46:43

sono

play46:46

domande c'è tanto contenuto

play46:49

da da assorbire

play46:53

e mi hai fatto fare anche un un viaggio

play46:57

proprio indietro Cioè

play46:59

tipo l'introduzione dell'architettura

play47:02

Transformer nel 2017 da parte di Google

play47:06

ieri ero in aula e È proprio uno dei

play47:08

temi cui trattavo e mi hai fatto venire

play47:12

in mente che uno dei vantaggi di essere

play47:16

interessato

play47:17

a diciamo ai quando non era ancora così

play47:21

figo come argomento è che su Netflix

play47:26

c'era Alpha Mind è vero Il docufilm che

play47:31

non c'è più Cioè Meno male che a suo

play47:33

tempo ho detto Me lo guardo subito

play47:37

perché è davvero molto molto

play47:40

interessante tutta la vicenda che hai

play47:41

citato

play47:44

prima della Vittoria sul campione

play47:46

mondiale di Alf Go di di Go esattamente

play47:52

Ale e se ti dovessi chiedere dare un

play47:57

consiglio a chi ci

play48:00

ascolta relativamente

play48:03

a da dove partire volendo applicare

play48:08

queste cose Dove dove consiglieresti all

play48:14

No abbiamo una domanda abbiamo Luca

play48:16

Mauri che chiede di fare spoiler ci puoi

play48:20

raccontare le prossime novità di

play48:22

Microsoft qualche anticipazione Uh no

play48:27

Sorry schero non non le ho quindi

play48:32

non non non sono informata fino a questi

play48:35

livelli Ecco sicuramente i pattern che

play48:39

che vi ho un po' raccontato sono le

play48:41

direzioni in cui Microsoft si sta

play48:42

muovendo Ma sono anche le direzioni

play48:44

della della ricerca Quindi da questo

play48:47

punto di vista io vedo un sicuramente

play48:49

una grande attenzione sul tema

play48:50

multiagency

play48:52

e però a livello di roadmap dovremo

play48:55

aspettare entrambi Ecco allora invece do

play48:59

io dei

play49:01

consigli Datemi un attimino il tempo di

play49:04

condividere lo schermo vi do io dei

play49:08

consigli Allora se venite sul nostro

play49:13

sito e andiamo nel browser dei video

play49:18

Talk

play49:20

tecnici

play49:21

c'è oltre al di Valentina al recente

play49:27

Day del che abbiamo organizzato il 30 di

play49:30

gennaio proprio su GPT 4 turbov

play49:34

Vision la

play49:37

registrazione della Round table sulla

play49:40

responsible

play49:42

ai dove abbiamo avuto proprio Valentina

play49:47

tra i panelist abbiamo avuto l'avvocato

play49:50

Palumbo abbiamo avuto Alessandro vitale

play49:53

che è un imprenditore un data Scientist

play49:55

diventato imprenditore quindi ha parato

play49:57

il punto di vista imprenditoriale e

play49:59

Carlotta Orsenigo che è professoressa

play50:01

del Politecnico di Milano e Cod

play50:03

direttrice di di alcuni

play50:07

Master del del Politecnico di Milano

play50:10

Abbiamo parlato in maniera

play50:14

vivace dell'argomento citato da prima

play50:17

Prima la Valentina quello della

play50:20

responsible ai che è un tema che ci

play50:23

dovremmo

play50:26

rord di di considerare po il discorso

play50:29

della potenza e nulla senza controllo

play50:31

che diceva la la pubblicità ma anche

play50:37

perché vi faccio un esempio quando fate

play50:40

il deploy di un servizio ai su Aure

play50:45

e e fate il check sul sulla notice o

play50:49

sulle perché in alcuni casi ne propone

play50:51

anche più di una

play50:54

del le no della responsible

play50:58

ai e non le e nessuno di noi le legge

play51:02

nessuno di noi le legge e poi capita che

play51:04

ti arriva una mail nella quale ti dicono

play51:06

che stai usando il servizio Face che

play51:09

diventerà gated a partire da una certa

play51:11

data e o tu fai applicazione qu il form

play51:16

e chiedi di usarlo oppure te lo

play51:17

spegneranno e se la tua applicazione lo

play51:20

usava si ritrova a fare delle chiamate a

play51:22

ricevere Forbidden Perché Perché

play51:25

responsible ai

play51:27

significa

play51:28

anche continuare a guardare con un

play51:30

occhio critico l'uso dell' ai capire che

play51:33

qualcosa che si è fatta fino al giorno

play51:35

prima ha dimostrato di poter avere delle

play51:38

conseguenze indesiderabili E allora

play51:41

prendere la scomoda scelta come Fe

play51:44

Micros serv Face potenzialmente far

play51:46

arrabbiare dei propri clienti che lo

play51:48

stanno usando che sentono

play51:50

dire riguardiamo assieme Qual è il caso

play51:53

d'uso perché il caso d'uso potrebbe non

play51:57

rientrare più all'interno di quello che

play51:59

consideriamo essere un utilizzo

play52:01

responsabile del dell'ai Questa è una

play52:03

fase storica nella quale stiamo

play52:05

imparando

play52:07

a ad usare questo nuovo strumento e

play52:10

dobbiamo anche imparare ad

play52:16

[Musica]

play52:17

autolimitarsi

play52:23

Vale è la è era un T di A parte che

play52:27

oramai fortunatamente nel video browser

play52:29

ci sono un po' di contenuti di di

play52:31

Valentina al Talk di web day dell'anno

play52:34

scorso il Tok g.net dell'anno scorso

play52:37

Quindi il consiglio è stoler Valentina

play52:41

sul sito Esatto Non non live ma no

play52:46

quello è illegale quello è illegale non

play52:48

è responsabile non è responsabile sul

play52:50

sito Sì i contenuti di Valentina che vi

play52:55

ricordo è essere

play52:58

anche un nostro Mentor e quindi io per

play53:02

primo devo prenotare delle mentorship

play53:04

con Valentina perché ne ho tanto tanto

play53:06

tanto bisogno

play53:07

e e vi ricordo il

play53:12

lacaton Ok quindi Proponete un vostro

play53:16

progetto aderite a uno dei progetti già

play53:20

in gara

play53:23

semplicemente lavoriamo tutti assieme

play53:26

per dimostrare e dimostrarci che ai non

play53:29

è quella roba che ci toglierà il lavoro

play53:34

che Terminator e quant'altro ma è che è

play53:38

qualcosa che si può usare per per fare

play53:43

per migliorare la vita di ognuno di noi

play53:46

di tutte e tutti

play53:48

vale che dici Ce l'abbiamo fatta ce

play53:53

l'abbiamo fatta si dice si è fatta una

play53:54

certa Questa

play53:58

certo Beh noi ci vediamo dopodomani Ale

play54:01

sì in perché ricordo a tutte e tutti che

play54:04

c'è il Global

play54:06

Aure evento in Microsoft quindi per per

play54:12

chi sarà presente beviamoci un caffè

play54:16

assieme Io e Vale ce lo beviamo

play54:18

sicuramente Grazie a tutte e tutti per

play54:21

essere state e stati con noi oggi alla

play54:23

prossima Grazie mille ciao sì

Rate This

5.0 / 5 (0 votes)

Related Tags
Generative AIInclusionWebinar SeriesMicrosoftCoPilotAI ImpactCloud ServicesData IntelligenceConversational InterfaceResponsible AIMultimodal AI