Don’t Build AI Products The Way Everyone Else Is Doing It

Steve (Builder.io)
8 Nov 202312:52

Summary

TLDRCe script met en lumière les défis de créer des produits AI basés sur des modèles pré-entraînés et propose une approche différentiée. Il souligne les problèmes de coût, de lenteur et de manque de personnalisation des grands modèles de langage (LLM). L'orateur recommande de combiner des techniques de programmation traditionnelles avec des modèles AI spécialisés pour construire des produits plus rapides, fiables, économiques et uniques. Il partage l'expérience de développement d'un outil de codage automatisé à partir de designs visuels, montrant comment l'intelligence artificielle peut être utilisée de manière efficace dans des domaines spécifiques pour améliorer grandement l'expérience utilisateur.

Takeaways

  • 🚀 Évitez de simplement utiliser des modèles d'IA existants et créez une technologie différentiée.
  • 💰 Les modèles de langage de grande taille (LLM) sont coûteux à exécuter en raison de leur complexité et de leur taille.
  • 🛠️ Construisez votre propre chaîne d'outils en combinant un LLM fine-tuned, d'autres technologies et un modèle entraîné spécifiquement pour votre cas d'utilisation.
  • 📈 Les coûts peuvent devenir prohibitifs pour les utilisateurs lorsque les modèles de langage de grande taille ne sont pas nécessaires pour la tâche.
  • 🚫 Les LLM sont lent et difficiles à personnaliser pour répondre aux besoins spécifiques d'une application.
  • 🔍 Explorez d'abord le problème en utilisant des pratiques de programmation normales pour déterminer quelles zones nécessitent un modèle d'IA spécialisé.
  • 🧠 Les produits d'IA avancés sont généralement construits à partir de plusieurs modèles spécialisés et de code normal.
  • 🤖 L'IA doit être utilisée le moins possible, uniquement pour résoudre des problèmes spécifiques qui ne peuvent être traités que par des modèles d'IA bien établis.
  • 🌐 Utilisez des ressources en ligne pour générer des données de formation et des outils tels que Google's Vertex AI pour entraîner vos propres modèles.
  • 🔒 Ayez un contrôle complet sur vos modèles d'IA pour pouvoir les améliorer continuellement et répondre aux besoins de confidentialité.
  • 📈 Les produits d'IA réussis sont ceux qui utilisent une combinaison de code normal et de modèles d'IA spécialisés pour créer une valeur proposition unique et différentiée.

Q & A

  • Quelle est la principale problématique liée aux produits AI basés sur des wrappers de modèles pré-entraînés?

    -La principale problématique est que ces produits ne sont pas différenciés du point de vue technologique, car ils utilisent une technique simple avec un modèle pré-entraîné que n'importe qui peut copier rapidement, ce qui les rend vulnérables à la concurrence facile.

  • Comment les coûts des grandes modèles linguistiques (LLM) peuvent-ils poser problème pour les entreprises?

    -Les LLM sont très larges et complexes, ce qui les rend coûteuses à exécuter. Par exemple, Co-pilot perd de l'argent par utilisateur, avec un coût moyen de 20 $ pour les appels API pour un abonnement mensuel de 10 $.

  • Pourquoi les LLM sont-elles lentes pour certaines applications?

    -Les LLM sont lentes car, pour certaines applications, il faut attendre une réponse complète avant de pouvoir passer à l'étape suivante, ce qui peut prendre des minutes si l'on doit transmettre une spécification de conception entière et recevoir une représentation complète token par token.

  • Comment les LLM sont-elles limitées en termes de personnalisation?

    -Bien que les LLM prennent en charge l'ajustement de fine-tuning, cela ne permet que d'améliorer progressivement le modèle pour l'adapter à des besoins spécifiques. Cependant, dans certains cas, comme la conversion de designs Figma en code, le fine-tuning ne semble pas rendre le modèle significativement plus intelligent.

  • Qu'est-ce qu'une 'toolchain' et pourquoi est-elle importante pour les produits AI avancés?

    -Une 'toolchain' est une série d'outils et de modèles spécialisés combinés avec du code normal pour résoudre des problèmes spécifiques. Elle est importante car elle permet de construire des produits plus rapides, fiables, économiques et différenciés, sans avoir à se soucier de produits clones ou open source qui émergent rapidement.

  • Comment les développeurs peuvent-ils entraîner leur propre modèle AI sans être un data scientist ou un doctorant en apprentissage automatique?

    -Avec des produits comme Google's Vertex AI, les développeurs expérimentés peuvent facilement entraîner leur propre modèle en utilisant des types de modèles couramment disponibles et en préparant les données nécessaires, ce qui rend le processus d'entraînement accessible à un public plus large.

  • Pourquoi est-il important de ne pas utiliser d'AI dès le départ lors de la construction d'une solution?

    -Il est important d'explorer d'abord l'espace du problème avec des pratiques de programmation normales pour déterminer quelles zones nécessitent un modèle spécialisé. Utiliser des 'super models' pour résoudre des problèmes complexes peut entraîner des modèles incroyablement complexes, lents et coûteux qui ne sont pas viables.

  • Comment les développeurs peuvent-ils générer des données pour entraîner leurs modèles d'appariement d'objets?

    -Ils peuvent utiliser des outils comme Puppeteer pour ouvrir automatiquement des sites web, prendre des captures d'écran et parcourir le HTML pour identifier les balises d'image. En utilisant les coordonnées d'image comme données de sortie et les captures d'écran comme données d'entrée, ils obtiennent ce dont ils ont besoin pour entraîner leur modèle.

  • Quels sont les avantages de la solution 'visual co-pilot' présentée dans le script?

    -La solution 'visual co-pilot' offre des avantages tels que la conversion rapide et efficace de designs en code de qualité supérieur, la prise en charge d'une large variété de frameworks et d'options, et la possibilité d'une personnalisation complète du code généré. De plus, le coût est faible et la solution est très rapide, car les modèles sont spécifiquement construits pour cet usage.

  • Comment les entreprises peuvent-elles bénéficier de la propriété de leurs propres modèles AI?

    -La propriété de leurs propres modèles AI permet aux entreprises de les améliorer constamment, d'ajouter des fonctionnalités et de les adapter à leurs besoins spécifiques. Elles peuvent également garantir un niveau élevé de confidentialité et, si nécessaire, utiliser des modèles d'entreprise propres ou des instances d'entreprise d'AI pour respecter leurs exigences de confidentialité.

  • Quel est le conseil principal donné pour construire des produits AI?

    -Le conseil principal est de ne pas utiliser d'AI aussi longtemps que possible et de se concentrer sur les problèmes spécifiques qui ne peuvent être résolus que par des modèles d'IA bien établis. Les développeurs devraient remplir les lacunes avec des modèles spécialisés uniquement là où ils sont nécessaires et continuer à utiliser du code normal pour le reste de la solution.

Outlines

00:00

🚀 Créer des produits IA uniques et performants

Le paragraphe aborde les défis et les solutions pour construire des produits IA qui se démarquent de la concurrence. Il souligne les problèmes majeurs liés à l'utilisation de modèles pré-entraînés comme GPT, notamment l'absence de différenciation, les coûts élevés et les lenteurs. L'auteur propose une approche alternative qui consiste à créer une chaîne d'outils personnalisés en combinant des technologies et des modèles d'apprentissage automatique fine-tunés pour construire des produits plus rapides, fiables, économiques et uniques.

05:01

🤖 Les erreurs courantes dans la construction de produits IA

Ce paragraphe discute des erreurs fréquentes commises lors de la création de produits IA, telles que la simplification de l'intelligence artificielle à un seul modèle géant et la confusion entre les modèles de langage large et les chaînes d'outils complètes. L'auteur explique que les véhicules autonomes, par exemple, sont le résultat de plusieurs modèles spécialisés et de code normal, ce qui montre que la complexité est construite en couches.

10:01

🛠️ Approche recommandée pour les solutions IA

Dans ce paragraphe, l'auteur recommande une approche pour construire des solutions IA avancées en utilisant une combinaison de code normal et de modèles IA spécialisés. Il insiste sur l'importance de comprendre le problème en premier lieu sans AI, de créer des données et de former ses propres modèles IA pour résoudre des problèmes spécifiques. L'auteur souligne également la possibilité d'améliorer continuellement les modèles et de s'adapter aux besoins de confidentialité des entreprises.

Mindmap

Keywords

💡Différenciation technologique

La différenciation technologique fait référence à la création de produits ou de solutions qui se distinguent de ceux des concurrents grâce à des technologies uniques. Dans le script, il est mentionné que l'utilisation de modèles pré-entraînés comme GPT pour créer des produits AI ne permet pas une telle différenciation, car ces modèles sont facilement copiables.

💡Coût

Le coût fait référence aux dépenses financières engendrées par le développement et l'exécution d'un produit ou d'une solution. Dans le contexte du script, les grandes modèles de langage (LLM) sont très coûteux à exécuter en raison de leur taille et de leur complexité, ce qui peut entraîner des pertes financières pour les entreprises qui les utilisent.

💡Modèles de langage de grande taille (LLM)

Les modèles de langage de grande taille (LLM) sont des modèles d'apprentissage automatique entraînés sur de vastes corpus de textes pour être capables de générer du langage naturel. Ces modèles sont utilisés dans des applications telles que les assistants virtuels ou les systèmes de traitement du langage naturel. Cependant, ils présentent des inconvénients tels que la lenteur d'exécution et la difficulté à personnaliser le modèle pour répondre aux besoins spécifiques d'un produit.

💡Personnalisation

La personnalisation implique l'adaptation d'un produit ou d'un service pour répondre aux besoins spécifiques des utilisateurs. Dans le script, il est souligné que les LLM ne peuvent être personnalisés que dans une certaine mesure, et que l'fine-tuning (l'entraînement sur des données spécifiques) ne parvient pas à améliorer significativement les performances du modèle pour certaines tâches spécifiques.

💡Développement de modèles personnalisés

Le développement de modèles personnalisés consiste à créer des modèles d'apprentissage automatique spécifiquement conçus pour répondre aux besoins d'un produit ou d'une entreprise. Cela permet de construire des solutions plus rapides, plus fiables, moins coûteuses et plus différentes des produits du marché. Dans le script, l'orateur recommande de créer sa propre chaîne d'outils en combinant un LLM fine-tuned, d'autres technologies et un modèle entraîné de manière personnalisée.

💡Solutions AI avancées

Les solutions AI avancées font référence aux produits ou services qui utilisent l'intelligence artificielle de manière sophistiquée et innovante pour résoudre des problèmes complexes ou améliorer significativement l'expérience utilisateur. Dans le script, l'orateur insiste sur l'importance de ne pas simplement utiliser des modèles AI pré-existants, mais plutôt de construire des solutions qui sont spécialement conçues pour répondre aux besoins spécifiques d'un produit ou d'une entreprise.

💡Chaîne d'outils

Une chaîne d'outils est une suite d'outils ou de technologies qui travaillent ensemble pour créer un produit ou service. Dans le contexte du script, cela signifie l'intégration de plusieurs modèles d'apprentissage automatique spécialisés, de code normal et de technologies pour créer une solution AI qui fonctionne de manière coordonnée et efficace.

💡Performance

La performance fait référence à la vitesse et à l'efficacité avec lesquelles un produit ou une solution fonctionne. Dans le script, l'orateur souligne que les LLM sont lents et coûteux à exécuter, ce qui peut poser des problèmes pour les applications qui nécessitent des réponses rapides.

💡Fiable

Fiable signifie que quelque chose est constant, stable et sans défaut. Dans le contexte du script, cela se réfère à la création de produits AI qui sont constants dans leurs performances et ne présentent pas de défauts ou d'erreurs fréquents.

💡Sécurité des données

La sécurité des données concerne la protection des informations contre l'accès non autorisé, la modification ou la suppression. Dans le script, l'orateur mentionne que les entreprises peuvent avoir des exigences de sécurité des données strictes, et que les produits qui utilisent des modèles de langage de grande taille peuvent ne pas répondre à ces exigences.

💡Conception de produits

La conception de produits se réfère au processus de création de produits qui répondent aux besoins des utilisateurs en termes de fonctionnalités, d'expérience utilisateur et de valeur. Dans le script, l'orateur insiste sur l'importance de comprendre les problèmes à résoudre avant de recourir à des modèles AI avancés.

💡Code

Le code fait référence à la programmation et à l'écriture de instructions exécutables par un ordinateur. Dans le contexte du script, le code est utilisé pour créer des solutions logicielles et intégrer des modèles AI dans les produits finaux.

Highlights

Building unique and valuable AI products requires a differentiated approach from the norm.

Many AI products are simply wrappers over existing models, which lacks differentiation.

Using pre-trained models like GPT is easy but risky due to their replicability.

Large language models (LLMs) are costly to run due to their size and complexity.

LLMs may not be necessary for specific use cases, as they cover a vast range of topics.

Cost economics of using LLMs might not align with what users are willing to pay.

LLMs are slow, which can be a problem for applications requiring quick responses.

Customization of LLMs through fine-tuning has its limitations.

Building a custom toolchain with a combination of technologies can lead to faster, cheaper, and more reliable products.

Advanced AI products are often built with a combination of specialized models and normal code.

Self-driving cars are an example of a complex toolchain, not a single AI brain.

Starting with normal programming practices is crucial before integrating specialized AI models.

Breaking down complex problems to solve them without AI is a recommended approach.

Creating your own AI models allows for constant improvements and control over the technology.

Privacy-focused companies can benefit from models that are not reliant on external AI services.

Using AI models minimally and focusing on robust, normal code leads to more efficient products.

The magic of AI products comes from using AI in small, critical areas where normal coding falls short.

For more information, refer to the latest blog post on the builder.blog.

Transcripts

play00:00

if you want to build AI products that

play00:01

are unique valuable and fast don't do

play00:05

what everybody else is doing I'll show

play00:06

you what to do instead the vast majority

play00:09

of AI products being built right now are

play00:11

just wrappers over other models for

play00:13

instance basically just calling chat GPT

play00:15

over an API and while that's incredibly

play00:17

easy you send natural language in and

play00:20

get natural language out and it can do

play00:22

some really cool things there are some

play00:24

major problems with this approach that

play00:25

people are running into and there's a

play00:27

solution for them that I'll show you the

play00:28

first major issue is is this is not

play00:30

differentiated technology if you've

play00:32

noticed that one person creates a chat

play00:34

with a PDF app and then another dozen

play00:36

people do two and then open AI builds

play00:39

that into chat GPT directly That's

play00:41

because nobody there actually built

play00:42

something differentiated they use a

play00:44

simple technique with a pre-trained

play00:46

model which anyone can copy in a very

play00:49

short period of time when building a

play00:50

product whose unique value proposition

play00:52

is some type of advanced AI technology

play00:55

it's a very risky position to be so easy

play00:57

to copy now of course there's a whole

play00:59

Spectrum here here if you're on the

play01:01

right side of the spectrum where all you

play01:02

made was a button that sends something

play01:04

to chat GPT and gets a response back

play01:07

that you showed to your end users where

play01:08

chat GPT basically did all the work

play01:10

you're at the highest risk here on the

play01:12

other end if you actually built some

play01:14

substantial technology and LMS like open

play01:17

AIS only assisted with a small but

play01:19

crucial piece then you may be in a

play01:20

better position but you're still going

play01:22

to run into two other major issues the

play01:25

first major issue you'll run into is

play01:27

cost the best part of a large language

play01:29

model is their broad versatility but

play01:31

they achieve this by being incredibly

play01:33

large and complex which makes them

play01:35

incredibly costly to run as an example

play01:38

co-pilot is losing money per user

play01:41

charging $10 but on average costing $20

play01:44

just on API calls and some users cost

play01:47

GitHub up to $80 and the worst part is

play01:50

you probably don't need such a large

play01:52

model your use case probably doesn't

play01:55

need a model trained on the entirety of

play01:57

the internet which 99.9% % will be

play02:00

covering topics that have nothing to do

play02:01

with your use case so while the ease of

play02:04

this approach might be tempting you

play02:05

could run into this common issue where

play02:07

what your users want to pay is less than

play02:09

what it costs to run your service on top

play02:12

of large language models but even if

play02:14

you're the rare case where the cost

play02:16

economics might work out okay for you

play02:18

you're still going to hit one more major

play02:19

issue llms are painfully slow now this

play02:23

isn't a huge problem for all

play02:25

applications for instance for use cases

play02:27

like chat GPT where you can read one

play02:30

word at a time anyway this isn't the

play02:32

worst thing but for applications that

play02:34

are not about streaming text where

play02:36

nobody is going to be reading it word

play02:37

for word but instead waiting on the

play02:39

entire response before the next step in

play02:42

the flow can be taken this can be a big

play02:44

problem for instance when we started

play02:45

building our visual co-pilot product

play02:47

where we wanted one button click to turn

play02:49

any design into highquality code one of

play02:52

the approaches we explored was using an

play02:54

llm for the conversion but one of the

play02:56

key issues was it took forever because

play02:59

if you need to pass an entire design

play03:01

spec into an llm and get an entire new

play03:04

representation out token by token it was

play03:07

taking literally minutes to give us a

play03:09

reply which was just not viable and

play03:12

because the representation returned by

play03:13

the llm is not what a human would see

play03:16

the loading state was just a spinner and

play03:18

it was horrific but if for some reason

play03:21

performance is still not even an issue

play03:22

to you and for some reason your users do

play03:25

not care about having a slow and

play03:27

expensive product that's easy for your

play03:29

competitors to copy you'll still likely

play03:31

hit at some point one other major issue

play03:34

which is llms cannot be customized that

play03:36

much yes they all support fine-tuning

play03:39

and fine-tuning can incrementally help

play03:41

the model get closer to what you need

play03:43

but in our case we tried using fine

play03:45

tuning to provide figma designs and get

play03:48

code out the other side but no matter

play03:50

how many examples we gave the model it

play03:52

did not seem to get hardly any smarter

play03:54

at all but we were left with was

play03:56

something slow expensive and Incredibly

play03:58

poor quality and that's where we

play04:00

realized we had to take a different

play04:02

approach what did we find we had to do

play04:04

instead we had to create our own tool

play04:06

chain in this case we combined a

play04:08

fine-tuned llm a whole lot of other

play04:11

technology and a custom trained model

play04:13

and this is not necessarily as hard as

play04:15

you might think these days you don't

play04:17

have to be a data scientist or a PhD in

play04:20

machine learning to train your own model

play04:22

any moderately experienced developer Now

play04:24

can do it what this can allow you to

play04:26

build is something that is way faster

play04:28

way more reliable far cheaper and far

play04:31

more differentiated so you won't have to

play04:33

worry about copycat products or open

play04:35

source clones spawning overnight either

play04:38

and this isn't just a theory most if not

play04:40

all advanced AI products are built in a

play04:43

way like this a lot of people have a

play04:45

major misconception about how AI

play04:47

products are built I've seen that they

play04:49

often think that all the core Tech is

play04:51

handled by one super smart model where

play04:53

they trained it with tons of inputs to

play04:56

give exactly the right output for

play04:58

instance for self-driving cars I've seen

play05:00

a lot of people have the impression that

play05:02

there's this giant model that takes in

play05:04

all these different inputs like cameras

play05:07

sensors GPS Etc it crunches it through

play05:10

the smart Ai and then out comes the

play05:12

action on the other side such as turn

play05:14

right but this could not be farther from

play05:16

the truth that car driving itself is not

play05:19

one big AI brain but instead a whole

play05:21

tool chain of several specialized models

play05:25

all connected with normal code such as

play05:27

models for computer vision to find and

play05:30

identify objects and predictive

play05:32

decision- making to anticipate the

play05:34

actions of others or natural language

play05:36

processing for understanding voice

play05:38

commands all of these specialized models

play05:40

combined with tons of just normal code

play05:43

and logic creates the end result that

play05:45

you see now keep in mind autonomous

play05:47

vehicles is a highly complex example

play05:50

that include many more models than I'm

play05:51

even showing here but for building your

play05:53

own product you won't need something

play05:55

nearly this complex especially to start

play05:58

remember self-driving car cars didn't

play05:59

spawn overnight my 2018 Prius is capable

play06:03

of parking itself stopping automatically

play06:05

when too close to an object and many

play06:07

other things using little to no AI over

play06:10

time more and more layers were added to

play06:13

do more and more advanced things like

play06:15

correcting L departure or eventually

play06:17

making entire decisions to drive from

play06:19

one place to another but like all

play06:20

software these things are built in

play06:22

layers one on top of the next the way we

play06:24

build visual co-pilot is a way I would

play06:26

highly recommend you explore for your

play06:28

own AI Solutions it's a very simple but

play06:31

counterintuitive approach the most

play06:33

important thing is don't use AI to start

play06:36

you need to explore the problem space

play06:39

using normal programming practices first

play06:41

to even determine what areas need a

play06:44

specialized model because remember

play06:46

making super models is generally not the

play06:48

right approach we don't want to just

play06:50

send tons of figma data into a model and

play06:53

get finished code out the other side

play06:55

that would be an insanely complex

play06:57

problem to solve with just one model

play06:59

model and when you factor in all the

play07:01

different Frameworks we support and

play07:03

styling options and customizations this

play07:05

would just get insane to retrain this

play07:08

model with all this different data and

play07:10

it would likely become so complex slow

play07:13

and expensive that our product probably

play07:15

would have never shipped in the first

play07:17

place instead what we did is we looked

play07:18

at the problem and said well how can we

play07:20

solve this without Ai and how far can we

play07:23

get before it just gets impossible

play07:25

without the types of specialized

play07:27

decision- making AI is best at so broke

play07:29

the problem down and said okay we need

play07:31

to convert each of these nodes to things

play07:33

we can represent in code like HTML nodes

play07:36

for the web we need to understand what

play07:38

is an image what is a background what is

play07:41

a foreground and most importantly how to

play07:43

make this responsive because this only

play07:46

works if what we import becomes fully

play07:48

responsive for all screen sizes

play07:50

automatically then we started looking at

play07:52

more complex examples and realize there

play07:54

are many cases where many many layers

play07:56

need to be turned into one image we

play07:59

started writing hand-coded logic to say

play08:01

if a set of items is in a vertical stack

play08:03

that should probably be a flex column

play08:05

and if groups are side by side they

play08:06

should probably be a flex row and we got

play08:09

as far as we could creating all these

play08:11

different types of sophisticated

play08:13

algorithms to automatically transform

play08:15

designs to responsive code before we

play08:18

started hitting limits and in my

play08:20

experience wherever you think the limit

play08:21

is it's probably actually a lot further

play08:23

at a certain point you'll find some

play08:25

things are just near impossible to do

play08:27

with normal code for example

play08:29

automatically detecting which of these

play08:31

layers should turn into one image is

play08:33

something that our eyes are really good

play08:36

at understanding but not necessarily

play08:38

normal imperative code in our case we

play08:40

wrote all this in JavaScript now lucky

play08:42

for us training your own object

play08:44

detection model is not that hard for

play08:47

example products like Google's vertex AI

play08:50

has a range of common types of models

play08:52

that you can easily train yourself one

play08:54

of which is object detection I can

play08:56

choose that with a guey and then prepare

play08:58

data and just upload it as a file for a

play09:00

wellestablished typee of model like this

play09:03

all it comes down to is creating the

play09:04

data now where things get interesting is

play09:06

finding creative ways of generating the

play09:08

data you need one awesome massive free

play09:13

resource for generating data is simply

play09:15

the internet and so one way we explored

play09:17

approaching this is using Puppeteer to

play09:20

automate opening websites in a web

play09:21

browser we can then take a screenshot of

play09:24

the site and we can Traverse the HTML to

play09:26

find the image tags we can then use the

play09:28

location of the images as the output

play09:31

data and the screenshot of the web page

play09:33

as the input data and now we have

play09:35

exactly what we need a source image and

play09:37

coordinates of where all the sub images

play09:39

are to train this AI model so while in

play09:42

figma this which should be one image as

play09:44

many layers our object detection model

play09:47

can take the pixels identify that this

play09:50

rectangle should be one image we can

play09:52

compress it into one and use it as part

play09:54

of our code gen using these techniques

play09:56

where we fill in the unknowns with

play09:58

specialized AI models and ping multiple

play10:00

together is how we're able to produce

play10:02

end results like this where I can just

play10:04

select this hit generate code launch

play10:07

into Builder and get a completely

play10:09

responsive website out the other side

play10:11

with highquality code that you can

play10:13

customize yourself completely supporting

play10:15

a wide variety of Frameworks and options

play10:18

and it's all incredibly fast because all

play10:21

of our models are specially built just

play10:23

for this purpose incredibly low cost to

play10:25

provide we provide a generous free tier

play10:28

and ultimately really valuable for our

play10:30

customers to save them lots of time and

play10:32

the best part is this is only the

play10:33

beginning because one of the best parts

play10:35

of this approach as opposed to just

play10:37

wrapping somebody else's model is we

play10:40

completely own the models so we can

play10:42

constantly improve them if you're fully

play10:44

dependent only on someone else's model

play10:46

like open AI there's no guarantee it's

play10:48

going to get smarter faster or cheaper

play10:50

for your use case and your ability to

play10:52

control that with prompt engineering and

play10:54

fine-tuning is severely limited but when

play10:57

we own our own model we're making

play10:59

drastic improvements every day when new

play11:01

designs come in that don't import well

play11:02

which still happens as we're in beta we

play11:04

look at user feedback we find areas to

play11:07

improve and we improve at a rapid

play11:08

Cadence shipping improvements every

play11:10

single day and we never have to worry

play11:12

about a lack of control for instance we

play11:15

started talking to some very large and

play11:17

very privacy focused companies to be

play11:19

early beta customers and one of the

play11:21

first pieces of feedback was they're not

play11:23

able to use open aai or any products

play11:25

using open AI because of their privacy

play11:27

requirements and the need to make sure

play11:29

their data never goes into systems that

play11:32

they don't allow in our case because we

play11:34

control the entire technology we can

play11:36

hold our models to an extremely high

play11:38

privacy bar and for the llm step it can

play11:40

either be disabled because it's purely a

play11:42

nice to have or we're allowing companies

play11:45

to plug in their own llm which might be

play11:47

a completely in-house built model a fork

play11:49

of llama 2 their own Enterprise instance

play11:51

of open AI or something else entirely so

play11:54

if you want to build AI products I would

play11:56

highly recommend taking a similar

play11:57

approach as strange as it sounds don't

play12:00

use AI as long as possible when you

play12:02

start finding extremely specific

play12:04

problems that normal coding doesn't

play12:06

solve well but wellestablished AI models

play12:09

can start generating your own data and

play12:11

training your own models using a wide

play12:13

variety of tools that you can find off

play12:15

the shelf connect your model or multiple

play12:17

models to your code at only the small

play12:20

points that they're needed and I want to

play12:22

emphasize this use AI for as little as

play12:24

possible because at the end of the day

play12:27

normal plain code is some of the fastest

play12:30

most reliable most deterministic most

play12:33

easy to debug easy to fix easy to manage

play12:36

and easy to test code you will ever have

play12:38

but the magic will come from the small

play12:40

small but critical areas you use AI

play12:43

models for if you'd like to learn more

play12:44

about this topic you can see more on my

play12:47

latest blog post on the builder. blog

play12:49

thanks for watching and I can't wait to

play12:50

see what you build

Rate This

5.0 / 5 (0 votes)

Étiquettes Connexes
Innovation AICréativité TechnologiqueCoûts de FonctionnementPerformances TechniquesDifférenciation ProduitsModèles de Langage LargesDéveloppement PersonnelOptimisation de CodeSécurité des DonnéesIntégration AI