Building and training ML models with Vertex AI

Google Cloud Tech
31 May 202112:36

Summary

TLDRビデオの要約では、Priyanka VergadiaがAI Simplifiedというシリーズで、データセットの管理からモデルの構築・トレーニング、評価、展開、予測までをカバーするVertex AIというプラットフォームを紹介しています。このエピソードでは、AutoMLとカスタムモデルトレーニングの選択肢と、それぞれの適用状況について解説しています。また、信用カード詐欺検出モデルの構築手順を紹介し、データセットのアップロード、モデルのトレーニングオプションの設定、そしてモデルの評価指標を解説しています。さらに、AutoMLモデルのトレーニング方法と、モデルのデプロイとテスト方法についても説明しています。最後に、カスタムモデルの構築に焦点を当てた次のエピソードへの期待をかき立てています。

Takeaways

  • 📈 Vertex AIは、機械学習のワークフローの各ステップに必要なツールを提供するプラットフォームです。
  • 🔍 Vertex AIは、画像、テーブル、テキスト、ビデオデータを扱うマネージドデータセットをサポートしています。
  • 🤖 AutoMLは、最小限の労力で高品質なカスタムモデルを作成できる機能です。
  • 💡 カスタマーコードを使用すると、クラウド上でカスタムトレーニングアプリケーションを実行できます。
  • 📚 AutoMLは、画像分類、ビデオ分類、テキスト分類など、特定のユースケースに適しています。
  • 🔧 カスタムモデルは、モデルのアーキテクチャやフレームワークに特定の要件がある場合に適しています。
  • 👥 チームの機械学習の専門知識が限られている場合は、AutoMLが最適な選択です。
  • 🚀 小規模なデータサイエンスチームは、AutoMLを通じて迅速な初期モデルを開発することが推奨されます。
  • 🛠️ カスタマーモデルを使用すると、既存の基準を改善したり、ヒューリスティクスをテストしたりできます。
  • 📊 Vertex AIを使用してAutoMLモデルを構築・トレーニングする手順は、データセットの作成から開始されます。
  • 📝 モデルの評価指標として、混同行列と特徴重要性が重要です。
  • 🔬 Vertex AIでは、個々の予測だけでなく、バッチ全体の特徴重要性を取得できます。
  • 🌐 モデルのデプロイメント後、エンドポイントを作成し、トラフィックを分割して複数のエンドポイントに配布できます。
  • 📘 UIとAPIの両方を使って、デプロイされたモデルから予測を得ることができます。

Q & A

  • AutoMLとは何ですか?

    -AutoMLは、最小限の労力と機械学習の専門知識で高品質のカスタムモデルを作成できるツールです。AutoMLは、画像、ビデオの分類、テキストの分類、エンティティ抽出、センチメント分析、テーブル形式の回帰や分類などのユースケースに適しています。

  • カスタムモデルトレーニングコードとは何ですか?

    -カスタムモデルトレーニングコードとは、クラウド上で事前に構築されたコンテナを使用して、独自のトレーニングアプリケーションを実行できるオプションです。これは、モデルのアーキテクチャやフレームワーク、出力モデルアセットについて制御する必要がある場合に適しています。

  • AutoMLを選択するべき状況は何ですか?

    -AutoMLは、サポートされているAutoMLオファリングに適合するユースケースの場合、またはチームが機械学習の専門知識が限られている場合、また小規模なデータサイエンスチームで素早く初期モデルを開発する必要がある場合に適しています。

  • カスタムモデルを使用するべき状況は何ですか?

    -カスタムモデルは、AutoMLがサポートしていないユースケースに適しています。また、モデルが混合型の入力タイプをとる場合や、モデルの背後にある要件に特定の制御が必要な場合にも適しています。

  • データセットの管理とは何ですか?

    -データセットの管理とは、Vertex AIが提供する機能で、画像、テーブル、テキスト、ビデオデータのデータセットを管理することができます。管理されたデータセットは、モデルの構築とトレーニングに直接フィードされます。

  • モデルのトレーニング時に、AutoMLとカスタムトレーニングのどちらを選ぶべきですか?

    -モデルのトレーニング時に使用するオプションは、ユースケースやチームの専門知識、チームの規模、そしてモデルの要件によって決まります。AutoMLは、専門知識が限られている場合や素早く初期モデルを開発する必要がある場合に適しています。一方、カスタムトレーニングは、より高度な制御が必要で、より専門的な知識を持つチームに適しています。

  • モデルの評価指標として、コンフュージョンマトリクスとは何ですか?

    -コンフュージョンマトリクスは、テストセットの各クラスの例について、モデルが正しく予測した割合を示す指標です。これは、データセットが極端に偏っている場合に、全体の精度よりもモデルのパフォーマンスを測定するのに適した方法です。

  • 特徴量の重要性とは何ですか?

    -特徴量の重要性は、モデルが予測を行っているときに最も大きな信号を提供する特徴を示す指標です。これは、説明可能なAIのフィールドの一部であり、モデルが予測を行っている仕組みをより深く理解するのに役立ちます。

  • モデルのデプロイメントとは何ですか?

    -モデルのデプロイメントとは、トレーニングされたモデルをエンドポイントに展開し、それから予測を得られるようにすることです。Vertex AIでは、モデルリソースに複数のエンドポイントを関連付け、エンドポイント間のトラフィックを分割することができます。

  • Vertex AIのUIとAPIのどちらを使用してモデルの予測を得ることができますか?

    -Vertex AIでは、UIとAPIの両方を使ってモデルの予測を得ることができます。UIは、デプロイされたエンドポイントが期待通りに動作していることを確認するのに便利です。一方、APIは、プログラムから動的に予測を得るために使用されます。

  • トレーニングデータが偏っている場合、モデルのパフォーマンスを向上させるために何を試すことができますか?

    -トレーニングデータが偏っている場合、モデルのパフォーマンスを向上させるためには、より多くのコンピュート時間をトレーニングに使用したり、より多くのトレーニングデータを収集することができます。また、特徴量の重要性を分析して、最も重要な特徴を特定し、モデルの性能を改善するのに役立てることができます。

  • Vertex AIを使用してモデルをトレーニングした後、次に何をすべきですか?

    -Vertex AIを使用してモデルをトレーニングした後、次のステップはエンドポイントの作成です。その後、UIやAPIを通じてモデルの予測を得ることができます。また、モデルの評価指標を分析し、特徴量の重要性に基づいてモデルを改善することができます。

Outlines

00:00

📚 AI Simplifiedの紹介と機械学習ワークフローの概要

Priyanka Vergadiaがホストを務めるAI Simplifiedは、データの活用方法を学ぶ番組です。节目中で架空の企業が機械学習のワークフローを構築し、AIイノベーションを促進するためにVertex AIを活用しています。Vertex AIは、データセットの管理からモデルのトレーニング、評価、展開、予測まで、機械学習の各ステップに必要なツールを提供します。前回のエピソードでは、MLプロジェクトの最初のデータセットについて触れましたが、今回はMLワークフローの次のステップであるモデルの構築とトレーニングについて話します。

05:01

🤖 AutoMLとカスタムモデルトレーニングの選択基準

AutoMLを使用すると、最小限の労力で高品質なカスタムモデルを作成できますが、必要に応じてカスタムモデルのトレーニングコードを書くこともできます。AutoMLは、画像やビデオの分類、テキストの分類、エンティティ抽出、センチメント分析、テーブル回帰、クラスタリングなどのサポートされているユースケースに適しています。一方、カスタムモデルは、モデルのアーキテクチャやフレームワーク、出力モデルアセットに対する制御が必要、または混合型の入力タイプを持つ場合に適しています。また、チームの機械学習の経験やチームサイズも選択の際に考慮すべき要素です。

10:02

🔍 Vertex AIを使用したAutoMLモデルの構築とトレーニング

Vertex AIでAutoMLモデルを構築し、トレーニングする方法について学びます。BigQueryの公開データセットを使用して、クレジットカード詐欺検出モデルを作成します。データセットをアップロードし、トレーニングとテストの分割、モデルの名前付け、目的の定義を行います。また、データが極端に偏っているため、AUC PRCオプションを選択して、稀なクラスの正確さを最大化します。トレーニングのオプションでは、コンピュート時間の予算と早い停止を設定し、トレーニングジョブが完了するまで待ちます。その後、モデルの評価メトリックを確認し、混同行列と特徴の重要性を分析します。

🚀 モデルの展開と予測の取得

トレーニングが完了した後、Vertex AIでエンドポイントを作成し、モデルを展開します。エンドポイントに名前を付け、トラフィックの分割設定を行い、マシンタイプを選択して展開します。その後、UIからテスト予測を行ったり、APIを通じて動的な予測を取得することができます。ノートブックを使用して、Vertex AI SDKをインストールし、エンドポイントオブジェクトを作成してから、予測リクエストを行います。最後に、AutoMLとカスタムトレーニングの選択肢とその使用時、そしてVertex AIでMLモデルを構築しトレーニングする方法について学び、次のエピソードではカスタムモデルの構築とトレーニングに焦点を当てます。

Mindmap

Keywords

💡AutoML

AutoMLとは、機械学習の専門知識を最小限に抑えながらも高品質なカスタムモデルを作成できる手法です。この手法は、データセットからモデルの構築とトレーニングまでを自動化し、専門的な知識が必要ない場合に最適です。ビデオでは、AutoMLを使用して、クレジットカード詐欺検出モデルを構築するプロセスが説明されています。

💡カスタムモデル

カスタムモデルとは、開発者が自分の要件に合わせてモデルのアーキテクチャ、フレームワーク、または出力モデルアセットを制御する必要がある場合に使用される手法です。ビデオでは、AutoMLがサポートしていない用途や、モデルが混合型の入力をとる場合、カスタムモデルを使用することが適切であると説明されています。

💡

💡データセット

データセットとは、機械学習モデルを構築するために使用されるデータの集合体です。ビデオでは、Vertex AIがサポートする管理されたデータセットを使用して、画像、表形式、テキスト、ビデオデータのモデルをトレーニングすることができました。

💡機械学習ワークフロー

機械学習ワークフローとは、データセットの管理からモデルのトレーニング、評価、展開、予測までを含めた一連のプロセスです。ビデオでは、Vertex AIがこのワークフローの各ステップに必要なツールを提供していることが強調されています。

💡TensorFlow

TensorFlowは、Googleが開発したオープンソースの機械学習ライブラリで、カスタムモデルの構築に使用される場合があります。ビデオでは、開発者が特定の要件でモデルを構築する必要がある場合、TensorFlowを使用することが挙げられています。

💡PyTorch

PyTorchは、Facebookの研究チームが開発したオープンソースの機械学習ライブラリで、TensorFlowと同様にカスタムモデルの構築に用いられます。ビデオでは、モデルのアーキテクチャに対する制御が必要であれば、PyTorchなどのライブラリを使用することが適切であると説明されています。

💡予測

予測とは、機械学習モデルが新しい入力データをもとに予期しない結果を生成するプロセスです。ビデオでは、トレーニング済みのAutoMLモデルを使用して、クレジットカードの取引が詐欺かどうかを予測するプロセスが説明されています。

💡モデル評価

モデル評価とは、トレーニングされた機械学習モデルの性能を測定するプロセスです。ビデオでは、混同行列と特徴量の重要性という2つの評価指標に焦点を当て、モデルがテストセットでどの程度正確に分類できるかを評価しています。

💡混同行列

混同行列とは、モデルがテストセットの各クラスの例をどれだけ正しく予測したかを示す指標です。ビデオでは、データセットが極端に偏っている状況下でのモデルの性能を評価する際に、混同行列が全体の正確度よりも優れた指標であることが強調されています。

💡特徴量の重要性

特徴量の重要性とは、機械学習モデルが予測を下す際に最も大きな影響を与える特徴を特定する手法です。ビデオでは、モデルが詐欺取引を正しく分類する能力を向上させるために、最も重要な特徴を特定することが示されています。

💡エンドポイント

エンドポイントとは、機械学習モデルを展開し、予測を提供する場所です。ビデオでは、Vertex AIでエンドポイントを作成し、モデルをデプロイして、リアルタイムでの予測を提供することができるプロセスが説明されています。

Highlights

Vertex AI provides tools for every step of the machine learning workflow, from managing datasets to training, evaluating, deploying, and making predictions.

Vertex AI supports managed datasets for image, tabular, text, and video data.

There are two options to train models in Vertex AI: AutoML and custom model training code.

AutoML allows creating high quality custom models with minimal effort and ML expertise for supported use cases like image/video classification, text classification, and tabular regression/classification.

Custom model training is suitable when use case doesn't fit AutoML offerings, requires control over model architecture/framework, or needs specific input types.

Factors to consider when choosing between AutoML and custom model training include use case, technical requirements, team expertise/experience, and team size.

AutoML is a good starting point for teams with limited ML expertise and smaller teams, while custom models allow more flexibility for experienced teams.

For quick initial models or proofs of concept, AutoML is recommended. Custom models can be used to improve upon baselines.

The credit card fraud detection model example uses a heavily imbalanced dataset from BigQuery public datasets.

When training AutoML models, you can specify the training objective, target column, and advanced options like train/test split and evaluation metrics.

For imbalanced datasets, precision-recall metrics like AUC PRC are more informative than overall accuracy.

AutoML model training starts with 1 compute hour to assess feature-label relationships, with options to train longer to improve performance.

Model evaluation metrics to focus on include the confusion matrix for class-specific accuracy and feature importance for understanding model predictions.

Feature importance provides insights into which input features most influence model predictions and can inform model improvements.

After training, you can deploy the model to an endpoint in Vertex AI to get predictions via UI or API.

Endpoints can have multiple versions/variants with traffic splitting, allowing A/B testing and gradual rollouts.

The UI allows quick testing of deployed models with random or custom input data to verify predictions.

REST API calls can dynamically retrieve predictions from deployed models for integration into applications.

The Vertex AI SDK can be used in notebooks to make prediction requests to deployed endpoints and retrieve results.

In summary, Vertex AI offers AutoML and custom training options with comprehensive tools for end-to-end ML workflows, from data management to deployment and prediction.

Transcripts

play00:00

PRIYANKA VERGADIA: Hi, I'm Priyanka Vergadia.

play00:01

And this is AI Simplified, where we

play00:04

learn to make our data useful.

play00:06

We're helping an imaginary company

play00:08

that is in the process of building their machine learning

play00:11

workflow.

play00:12

And to accelerate AI innovation, they

play00:14

are looking at Vertex AI, which provides

play00:17

tools for every step of the machine learning workflow,

play00:20

from managing data sets, to different ways of training

play00:23

the model, evaluating, deploying,

play00:25

and making predictions.

play00:27

In the previous episode, we started

play00:29

by looking at the first part of any ML project, the data sets.

play00:34

Vertex AI supports managed data sets for image, tabular, text,

play00:38

and video data.

play00:40

In this episode, let's move further in the ML workflow

play00:43

and talk about building and training the models.

play00:47

The managed data sets we created earlier feed directly

play00:50

into the model building and training.

play00:53

Although you can bring external data sets

play00:55

while building the model, managed data sets

play00:57

bring some added benefits as I laid out

play01:00

in the previous episode.

play01:01

We have two options to train the model.

play01:03

We can use AutoML which allows us to create high quality

play01:08

custom models with minimal effort and machine learning

play01:11

expertise.

play01:12

And the second option is to write custom model training

play01:15

code, where you can run custom training

play01:18

applications in the cloud using pre-built containers

play01:21

of your own.

play01:23

Now when should you write your own model code and then

play01:26

should you choose AutoML?

play01:28

It depends.

play01:29

So let's see.

play01:30

If your use case fits a supported AutoML offering,

play01:33

then starting with AutoML is a great choice.

play01:36

And these use cases include cases where you have images,

play01:41

or video classification, or object

play01:43

detection, text classification, entity extraction

play01:47

from the text, sentiment analysis of text,

play01:50

tabular regression, and classification.

play01:53

But if it does not fit any of those categories,

play01:56

or your model takes some mixed input type, such

play02:00

as you have images and then the metadata

play02:02

is in the form of text, then it makes sense

play02:05

to use custom model.

play02:07

The other technical factor could be

play02:09

that you have specific requirements for the underlying

play02:12

model if you need control over your model's

play02:15

architecture, framework, or the exported model assets.

play02:19

For example, maybe your model needs

play02:21

to be built in TensorFlow or PyTorch.

play02:24

Then you use custom model.

play02:27

Otherwise, for the basic use cases, just use AutoML.

play02:31

The next factor could be how experienced

play02:34

is your team with ML and AI.

play02:36

If you have a team with limited machine learning expertise

play02:40

in building custom models, then exploring AutoML

play02:43

makes sense before looking into the custom model code

play02:48

because it is the lowest barrier to entry.

play02:51

Another deciding factor could be your team size.

play02:55

Now if you have a small data science team and less machine

play02:59

learning expertise in that team, it perhaps

play03:02

makes more sense to work with AutoML because custom model

play03:06

code would require more time and maintenance.

play03:10

And use AutoML if you want to develop a quick initial model

play03:15

to be used as a baseline or a proof of concept,

play03:18

which could eventually end up being your production model.

play03:22

But if you are looking to improve on your existing

play03:25

baseline, or heuristics, then you

play03:27

might want to write your own custom model

play03:30

to test out the possibilities.

play03:33

Hopefully, these factors have clarified

play03:35

which path to take when it comes to building the models.

play03:39

Now let's see how to build and train the AutoML model

play03:42

using Vertex AI.

play03:44

With that, onto the Google Cloud console.

play03:47

We learned how to create data sets in the previous episode.

play03:50

But for the sake of completeness,

play03:52

let's create a data set.

play03:53

In this example, we're using credit card fraud

play03:56

detection data set available on BigQuery

play03:59

public data sets to create a credit card fraud

play04:02

detection model.

play04:03

I have included the link to this data set below if you

play04:06

would like to follow along.

play04:08

Once the data is uploaded, we can analyze our data

play04:12

in the rows and columns.

play04:14

Right from the data set details page,

play04:16

we can select Train New Model, define our objective,

play04:21

which is classification here since we are labeling examples

play04:24

as either fraudulent or non fraudulent.

play04:28

This is where you decide whether you

play04:30

want to use AutoML or custom training.

play04:33

In this video, we're focusing on AutoML.

play04:36

So we will select that.

play04:38

Stay tuned for the next episode, where

play04:40

I will cover a custom model.

play04:42

Next, we give our model a name.

play04:45

Under the Target column, we select Class.

play04:48

This is an integer indicating whether or not

play04:50

a particular transaction was fraudulent, zero for non fraud,

play04:54

and one for fraud.

play04:56

In the advanced options, you can specify a specific train test

play05:01

split if you don't want Vertex AI to handle that automatically

play05:05

for you.

play05:05

In this case, we're using the random assignment.

play05:08

But you can also specify this manually

play05:11

when you upload a CSV of your data.

play05:14

Or you can have the data split chronologically

play05:17

if it has a time column.

play05:19

In the Choose Training Options section,

play05:22

we will go to the Advanced option.

play05:24

And since this data is heavily imbalanced, less than 1%

play05:28

of the data here contains fraudulent transactions,

play05:31

we will choose the AUC PRC option,

play05:34

which will maximize precision recall for the less

play05:37

common class.

play05:39

In this case, we care more about ensuring our model

play05:43

can classify fraudulent transactions correctly.

play05:47

Now the last step is compute and pricing.

play05:50

Here we enter one as the number of compute hours for our budget

play05:54

and leave early stopping enabled.

play05:57

Training your AutoML model for one compute hour

play06:00

is typically a good start for understanding whether there

play06:03

is a relationship between the features and labels you've

play06:07

selected.

play06:08

From there, you can modify your features

play06:11

and train for more time to improve model performance.

play06:14

Then we are ready to start training.

play06:16

From here, we can leave the UI and will get an email when

play06:20

our training job completes.

play06:22

All right.

play06:23

So our model is ready.

play06:24

Let's explore the model evaluation metrics.

play06:27

We head to our Model tab and evaluate

play06:30

the model we just trained.

play06:31

There are many evaluation metrics here.

play06:34

We will focus on two, the confusion matrix, and feature

play06:37

importance.

play06:38

A confusion matrix tells us the percentage of examples

play06:42

from each class in our test set that our model predicted

play06:46

correctly.

play06:47

In the case of an imbalanced data

play06:48

set like the one we're dealing with here,

play06:51

this is a better measure of our model's performance

play06:54

than overall accuracy.

play06:56

Remember that less than 1% of the examples in our data set

play07:00

were fraudulent transactions.

play07:02

So if our model accuracy is 99%, there is a good chance

play07:06

that it's just randomly guessing the non fraudulent class 99%

play07:11

of the time.

play07:11

That's why looking at our model's accuracy for each class

play07:16

is a better metric here.

play07:18

The confusion matrix shows that our initial model

play07:21

is able to classify 85% of the fraudulent examples

play07:26

in our test set correctly.

play07:28

This is pretty good, especially considering

play07:30

our significant data set imbalance.

play07:33

Next, we could try training our model for more compute hours,

play07:37

or gathering more training data to see if we can improve that

play07:42

from this 85%.

play07:45

Now this shows us the features that

play07:47

provided the biggest signal to our model

play07:50

when making predictions.

play07:51

The feature importance is one type

play07:54

of explainable AI, a field that includes various methods

play07:58

for getting more insight into how animal model is making

play08:02

predictions.

play08:02

The feature importance chart is calculated as an aggregate

play08:06

by looking at all of our model's predictions on our test set.

play08:12

It shows us the most important features

play08:14

across a batch of examples.

play08:16

This chart would be more exciting

play08:18

if most of the features in our data set were not obscured.

play08:22

We might learn, for example, that the type of transaction,

play08:26

transfer, deposit, et cetera can be the biggest

play08:29

indicators of fraud.

play08:30

In a real world scenario, these feature importance values

play08:34

could be used to help us improve our model

play08:37

and to have more confidence in its prediction.

play08:40

We might decide to remove the least important features

play08:44

next time we train a model, or to combine

play08:46

two of our more significant features into a feature cross

play08:51

to see if this improves our model's performance.

play08:55

We are looking at feature importance across a batch here.

play08:57

But we can also get feature importance

play09:00

for individual predictions in Vertex AI.

play09:03

And we'll see how to do that once we've deployed our model.

play09:07

Now that we have trained model, the next step

play09:09

is to create an endpoint in Vertex AI.

play09:11

A model resource in Vertex AI can have multiple endpoints

play09:15

associated with it.

play09:16

And you can split traffic between endpoints.

play09:20

On our model page, there is Deploy and Test tab.

play09:23

There we click Deploy To Endpoint.

play09:26

Give your endpoint a name like fraud version one or two.

play09:30

And then leave the traffic splitting settings as is.

play09:33

And then select a machine type for your model deployment.

play09:36

We used an n1-highcpu-2 here but you

play09:40

can choose whichever machine type you would like,

play09:43

including one with GPUs.

play09:45

Then select Done and click Continue.

play09:47

Leave the selected location settings as is

play09:50

and then click Deploy.

play09:52

Your endpoint will take a few minutes to deploy.

play09:54

When it is completed, you will see a green checkmark

play09:57

next to it just like my version one here.

play10:00

Now we are ready to get predictions

play10:02

on our deployed model.

play10:03

There are a few options for getting model predictions,

play10:06

the UI and the API.

play10:08

Let's check out both one by one.

play10:10

On your model page where your endpoint is shown,

play10:14

scroll down to the Test Your Model section.

play10:16

Here, Vertex AI has chosen random values

play10:19

for each of our model's features that we can

play10:22

use to get a test prediction.

play10:24

You're welcome to change these values if you like

play10:27

and then scroll down to the bottom of the page

play10:29

and select Predict.

play10:31

In the prediction results section,

play10:33

you should see your models predicted percentage

play10:36

for each class.

play10:38

A confidence score of 0.99 for class zero for example

play10:42

means that our model thinks this example is 99% non fraudulent.

play10:47

The UI is a great way to make sure the deployed endpoint is

play10:51

working as expected.

play10:52

But chances are that you will want

play10:54

to get prediction dynamically via a REST API call.

play10:58

To show you how to get model predictions here,

play11:01

let's set up a notebook.

play11:02

For that, we navigate to Notebooks option

play11:05

and select TensorFlow Without GPUs.

play11:08

Once created, open the notebook instance.

play11:10

And then we open Python 3 notebook form the launcher.

play11:14

In the notebook, we run the command in a cell

play11:17

to install the Vertex AI SDK.

play11:20

And below that, we add and run a new cell and the example

play11:24

from our test set.

play11:26

Next, we need to create the endpoint object

play11:29

and then change the endpoint ID and project number

play11:32

to your specific endpoint.

play11:34

You can get the endpoint from the URL and the project ID

play11:39

from the project dashboard.

play11:41

We use that to make a prediction request to our endpoint.

play11:44

And we see our prediction around 0.99 for the zero class,

play11:49

which means the model thinks there

play11:51

is a 99% chance this transaction is non fraudulent.

play11:57

With that, we've learned about the two options

play11:59

to train our models in Vertex AI, AutoML and custom training,

play12:04

and when to use which one.

play12:06

Then we went into the console and trained an ML model

play12:09

from scratch.

play12:10

In the next episode of AI Simplified,

play12:13

we will look at building and training a custom model.

play12:16

In the meantime, let's continue our discussion

play12:18

in the comments below.

play12:20

And don't forget to like and subscribe

play12:21

to catch that next episode.

Rate This

5.0 / 5 (0 votes)

Related Tags
AIデータ分析機械学習AutoMLカスタムモデルモデルトレーニングデータセット管理予測精度信用カード詐欺Google CloudデータサイエンスAIイノベーションチュートリアル
Do you need a summary in English?