Bayesian Optimization (Bayes Opt): Easy explanation of popular hyperparameter tuning method

paretos
25 Jan 202109:49

Summary

TLDRIn diesem Video erklärt der Sprecher die Grundlagen der Bayesianischen Optimierung und zeigt, wie man sie zur Lösung von Optimierungsproblemen anwenden kann. Er führt die Zuschauer schrittweise durch den Prozess, von der anfänglichen Stichprobenauswahl über die Anwendung des Gaussian Process Regressors bis hin zur Berechnung der Akquisitionsfunktion. Mit einem einfachen Beispiel für ein Blackbox-Problem veranschaulicht er die Iterationen des Optimierungsprozesses. Am Ende betont der Sprecher die Bedeutung von Hyperparametern und lädt die Zuschauer ein, Fragen zu stellen und zukünftige Videos vorzuschlagen.

Takeaways

  • 😀 Bias-Optimierung ist ein iterativer Prozess zur Optimierung von Zielen in einem Black-Box-Problem.
  • 🤖 Beispiel für die Optimierung eines neuronalen Netzes durch Anpassung von Hyperparametern wie Lernrate und Batch-Größe.
  • 📊 In einem Black-Box-Problem haben wir viele Eingabevariablen, aber wir wissen nicht genau, was im Inneren passiert, daher ist Bias-Optimierung nützlich.
  • 🔄 Bias-Optimierung besteht aus fünf Schritten, die iterativ wiederholt werden: Initiale Stichprobe, Bewertung, Training des Gaussian-Prozess-Regressors, Berechnung der Akquisitionsfunktion und Auswahl des nächsten Evaluierungspunkts.
  • 📐 Ein Gaussian-Prozess-Regressor verwendet viele verschiedene Regressionsfunktionen, um Vorhersagen zu treffen und Unsicherheiten zu bewerten.
  • 📈 Die Akquisitionsfunktion bewertet, welcher Eingabewert als nächstes untersucht werden soll, basierend auf Unsicherheit und Mittelwert der Vorhersagen.
  • 🔍 Ein niedrigerer Kappa-Wert fokussiert die Optimierung lokal, während ein höherer Wert globalere Optimierungen bevorzugt.
  • 🎯 Das Ziel der Optimierung ist die Minimierung einer Zielfunktion, wobei es wichtig ist, ob eine lokale oder globale Lösung angestrebt wird.
  • 🔧 Hyperparameter haben einen erheblichen Einfluss auf die Optimierung und können das Endergebnis stark beeinflussen.
  • 💡 Die Iteration wird wiederholt, bis eine bestimmte Bedingung erfüllt ist, z. B. eine maximale Anzahl von Läufen oder eine gewünschte Konvergenz.

Q & A

  • Was ist das Ziel des Videos?

    -Das Ziel des Videos ist es, eine Schritt-für-Schritt-Erklärung zur Bias-Optimierung zu geben, um zu zeigen, wie man sie effizient zur Lösung von Optimierungsproblemen nutzen kann.

  • Was bedeutet Bias-Optimierung in diesem Zusammenhang?

    -Bias-Optimierung bezieht sich auf einen iterativen Prozess, der verwendet wird, um die besten Parameter für eine bestimmte Funktion oder ein Modell zu finden, insbesondere in 'Black-Box'-Problemen, bei denen der innere Mechanismus unbekannt ist.

  • Welche Art von Problemen kann man mit Bias-Optimierung lösen?

    -Bias-Optimierung ist besonders nützlich für 'Black-Box'-Probleme, bei denen viele Eingabevariablen existieren, aber der genaue Ablauf oder die interne Funktionsweise nicht bekannt ist. Ein Beispiel wäre die Optimierung von Hyperparametern in neuronalen Netzwerken.

  • Was ist ein 'Black-Box'-Problem?

    -Ein 'Black-Box'-Problem ist ein Problem, bei dem man zwar die Eingaben und Ausgaben kennt, aber die inneren Mechanismen, die zur Berechnung der Ausgabe führen, unbekannt oder unverständlich sind.

  • Wie beginnt man mit Bias-Optimierung?

    -Die Bias-Optimierung beginnt mit einer anfänglichen Stichprobe, die man durch verschiedene Methoden wie Zufallsauswahl oder Lateinisches Hyperkubus-Sampling erhält.

  • Was ist ein Gauß-Prozess-Regressor und wie wird er in diesem Prozess verwendet?

    -Ein Gauß-Prozess-Regressor ist ein Modell, das nicht nur eine einzelne Regressionsfunktion, sondern viele verschiedene Modelle mit unterschiedlichen Annahmen trainiert. Es erzeugt Vorhersagen mit einer Mittelwertlinie und einem Unsicherheitsbereich, der durch die Standardabweichung angezeigt wird.

  • Was ist eine Akquisitionsfunktion und wie wird sie verwendet?

    -Eine Akquisitionsfunktion ist eine mathematische Funktion, die verwendet wird, um die nächsten zu bewertenden Eingaben im Optimierungsprozess auszuwählen. Sie berücksichtigt den Vorhersagewert (Mittelwert) und die Unsicherheit (Standardabweichung) des Modells.

  • Was bedeutet der Parameter 'Kappa' in der Akquisitionsfunktion?

    -Der Parameter 'Kappa' beeinflusst, wie stark die Optimierung lokal oder global fokussiert ist. Ein höherer Kappa-Wert bedeutet, dass die Unsicherheit stärker gewichtet wird, was zu einer globaleren Suche nach dem besten Punkt führt.

  • Wie wirkt sich die Wahl von Kappa auf die Optimierung aus?

    -Bei einem niedrigen Kappa-Wert wird der Fokus mehr auf lokale Optimierung gelegt, während ein hoher Kappa-Wert eine globalere Suche ermöglicht. Je nach Kappa-Wert werden Punkte entweder in der Nähe oder weiter entfernt von den bisherigen Stichproben bewertet.

  • Wann stoppt man den Bias-Optimierungsprozess?

    -Der Prozess kann gestoppt werden, wenn eine bestimmte Bedingung erfüllt ist, wie z.B. eine begrenzte Anzahl von Durchläufen oder das Erreichen eines Konvergenzkriteriums.

Outlines

00:00

📈 Einführung in Bias und Optimierung

Das Video beginnt mit einer Begrüßung und einem Überblick über das Thema des Tages: Bias und Optimierung. Der Sprecher beschreibt, wie er in letzter Zeit mit Multi-Objective-Optimierung und insbesondere mit der Anwendung von Bayesian Optimization für Single-Objective-Probleme gearbeitet hat. Ziel des Videos ist es, den Zuschauern schrittweise zu erklären, wie Bayesian Optimization funktioniert, um das Beste daraus zu machen. Am Ende fordert der Sprecher die Zuschauer auf, den Kanal zu abonnieren und Kommentare zu hinterlassen.

05:01

🧠 Optimierung eines neuronalen Netzwerks

Der Sprecher erklärt, dass man bei der Arbeit mit neuronalen Netzwerken oft nicht genau weiß, was im Inneren passiert. Trotzdem will man die Präzision des Modells maximieren, indem man verschiedene Hyperparameter wie Lernrate oder Batch-Größe anpasst. Dies wird als ein 'Black-Box-Problem' beschrieben, bei dem viele Eingabevariablen optimiert werden müssen, um den besten Zielwert zu erreichen. Bayesian Optimization hilft dabei, dieses Problem effizient zu lösen. Es folgt eine Einführung in die fünf iterativen Schritte der Bayesian Optimization, die der Sprecher später detaillierter erläutern wird.

🔄 Iterativer Prozess der Bayesian Optimization

Die fünf Schritte der Bayesian Optimization werden vorgestellt: Initiale Stichprobenauswahl, Bewertung der Stichproben, Training eines Gaußprozesses, Berechnung einer Akquisitionsfunktion und Auswahl des nächsten zu bewertenden Inputs. Diese Schritte wiederholen sich iterativ, bis ein Kriterium erfüllt ist. Der Sprecher beginnt mit einem einfachen Beispiel, bei dem es um eine mathematische Funktion geht, die optimiert werden soll. Dabei zeigt er, wie die initiale Stichprobe zufällig ausgewählt wird und welche Zielwerte die Stichproben ergeben.

🔵 Gaussian Process Regressor verstehen

Der Sprecher erklärt den Gaussian Process Regressor (GPR) und wie er durch die verschiedenen Stichproben trainiert wird. Der GPR besteht nicht aus einer einzigen Regressionsfunktion, sondern aus einer Vielzahl verschiedener Modelle. Die blaue Linie repräsentiert den Mittelwert aller Vorhersagen, während der gelbe Bereich die Unsicherheit anzeigt, die aus der Standardabweichung der Modelle resultiert. Je weiter die Stichproben voneinander entfernt sind, desto größer ist die Unsicherheit.

📊 Die Rolle der Akquisitionsfunktion

Eine Akquisitionsfunktion dient dazu, das nächste zu evaluierende Eingabeparameter zu bestimmen. Der Sprecher erläutert den Lower Confidence Bound (LCB), eine weit verbreitete Akquisitionsfunktion. Hierbei wird der Mittelwert der Vorhersagen (blaue Linie) genommen und um ein Vielfaches der Standardabweichung angepasst, um zu entscheiden, ob lokal oder global optimiert wird. Dies wird durch den Hyperparameter 'Kappa' gesteuert, wobei größere Kappa-Werte zu globaleren Optimierungen führen. Im Beispiel wird gezeigt, wie sich unterschiedliche Kappa-Werte auf die Auswahl der nächsten Stichproben auswirken.

📉 Iteration und Optimierung der Zielwerte

Der Sprecher demonstriert, wie der iterative Prozess der Bayesian Optimization funktioniert, indem er die Akquisitionsfunktion erneut anwendet und neue Stichproben generiert. Dabei zeigt sich, dass die Unsicherheiten bei höheren Kappa-Werten stärker gewichtet werden, was zu einer breiteren Streuung der Stichproben führt. Das Beispiel zeigt, dass die Wahl des Hyperparameters Kappa einen großen Einfluss darauf hat, ob ein globales oder lokales Optimum gefunden wird. Der Sprecher weist darauf hin, dass er ein zukünftiges Video zur Hyperparameter-Optimierung plant.

🎯 Abschluss und Einladung zu weiteren Themen

Der Sprecher fasst die wichtigsten Punkte des Videos zusammen und betont, dass die Wahl der Hyperparameter entscheidend für den Erfolg der Optimierung ist. Er ermutigt die Zuschauer, weitere Kommentare zu hinterlassen, wenn sie tiefer in bestimmte Themen, wie z.B. Akquisitionsfunktionen, eintauchen möchten. Abschließend erinnert er daran, den Kanal zu abonnieren, um auf dem Laufenden zu bleiben, und wünscht den Zuschauern viel Erfolg bei der Optimierung.

Mindmap

Keywords

💡Bias-Optimierung

Bias-Optimierung ist eine Methode zur Optimierung, die darauf abzielt, die besten möglichen Ergebnisse bei einer Vielzahl von Eingabeparametern zu erzielen. Im Video wird erklärt, wie Bias-Optimierung in einem iterativen Prozess funktioniert, um optimale Zielwerte aus einer Black-Box-Problematik zu finden, z. B. bei der Feinabstimmung von Hyperparametern in neuronalen Netzwerken.

💡Hyperparameter

Hyperparameter sind Parameter in einem Modell, die vor dem Training festgelegt werden müssen und während des Lernprozesses nicht angepasst werden. Im Video werden Beispiele wie die Lernrate und die Batch-Größe genannt, die optimiert werden müssen, um die Präzision eines neuronalen Netzes zu verbessern.

💡Neurales Netzwerk

Neurale Netzwerke sind Modelle, die häufig in maschinellen Lernprozessen verwendet werden, um Daten zu analysieren und Vorhersagen zu treffen. Der Sprecher erwähnt, dass die Optimierung von Parametern wie der Lernrate wichtig ist, um die Genauigkeit eines neuronalen Netzes zu verbessern, obwohl man oft nicht genau weiß, was im Inneren des Netzwerks vor sich geht.

💡Black-Box-Problem

Ein Black-Box-Problem tritt auf, wenn man die inneren Abläufe eines Systems nicht kennt, sondern nur die Eingaben und Ausgaben betrachtet. Im Video beschreibt der Sprecher das Optimierungsproblem als ein Black-Box-Problem, bei dem versucht wird, die Zielwerte zu verbessern, ohne zu wissen, was genau im Inneren passiert.

💡Gaußscher Prozessregressor

Ein Gaußscher Prozessregressor ist ein statistisches Modell, das zur Vorhersage verwendet wird und nicht nur eine einzige Regressionsfunktion, sondern viele unterschiedliche Regressionen trainiert. Der Sprecher erläutert, wie dieses Modell bei der Bias-Optimierung verwendet wird, um basierend auf den bisherigen Ergebnissen den nächsten besten Eingabewert zu ermitteln.

💡Akquisitionsfunktion

Eine Akquisitionsfunktion ist eine mathematische Funktion, die den nächsten Schritt im Optimierungsprozess bestimmt, indem sie den möglichen Gewinn oder das Potenzial bewertet. Im Video wird die ‚Lower Confidence Bound‘-Funktion als Beispiel für eine Akquisitionsfunktion verwendet, um zu zeigen, wie die nächste Eingabe im Optimierungsprozess ausgewählt wird.

💡Kappa

Kappa ist ein Hyperparameter, der in der Akquisitionsfunktion verwendet wird, um festzulegen, ob sich die Optimierung mehr auf lokale oder globale Bereiche konzentriert. Der Sprecher erklärt, dass durch die Anpassung des Kappa-Werts entschieden wird, ob sich die Optimierung auf bekannte oder unsichere Bereiche des Modells konzentriert.

💡Unsicherheit

Unsicherheit bezieht sich auf die Standardabweichung im Gaußschen Prozessmodell, die anzeigt, wie sicher oder unsicher das Modell bei seinen Vorhersagen ist. Im Video wird gezeigt, wie Bereiche mit hoher Unsicherheit in der Modellierung stärker berücksichtigt werden, um möglicherweise bessere Lösungen zu finden.

💡Sampling

Sampling ist der Prozess, durch den in einem Optimierungsmodell Eingabewerte ausgewählt werden. Im Video wird das anfängliche Sampling als wichtiger Schritt beschrieben, um eine Auswahl von Eingabewerten zu testen, bevor man mit der Optimierung fortfährt.

💡Lokale vs. Globale Optimierung

Lokale Optimierung bezieht sich auf die Suche nach der besten Lösung in einem kleinen, spezifischen Bereich, während globale Optimierung den gesamten Lösungsraum untersucht. Im Video wird diskutiert, wie die Wahl des Kappa-Werts bestimmt, ob der Fokus mehr auf lokalen oder globalen Optimierungen liegt.

Highlights

Introduction to the concept of bias and optimization with focus on multi-objective optimization.

Explanation of Bayesian optimization for solving single-objective problems.

Overview of hyperparameters like learning rate and batch size that affect neural network precision.

The process of optimizing a black box problem where inputs are optimized for a target outcome.

Five iterative steps in Bayesian optimization, starting with initial sampling, evaluation, and Gaussian process regressor training.

Detailed explanation of Gaussian process regressors and their role in predicting mean and uncertainty in model outputs.

Introduction to acquisition functions, used to calculate the next best evaluation input.

Lower confidence bound (LCB) as a common acquisition function, and its usage in minimizing optimization problems.

Discussion on the effect of the kappa parameter on local versus global optimization approaches.

Example of sampling points with different kappa values, showing local vs. global search behavior.

Reiteration of the iterative process to fine-tune model predictions based on uncertainty and acquisition functions.

Highlight on how the best point is identified during iterations, with kappa impacting the accuracy.

Impact of hyperparameter choice on achieving global vs. local optimization, a topic for future exploration.

Invitation for feedback on acquisition functions and other topics for deeper exploration.

Encouragement to subscribe for updates on future videos related to optimization and hyperparameter tuning.

Transcripts

play00:00

hey geeks welcome to a new video today

play00:03

i'm going to talk about bias and

play00:04

optimization

play00:05

besides working a lot with our own

play00:07

multi-objective optimization so

play00:09

protested burritos

play00:10

i really enjoyed using bios opt the last

play00:13

weeks to solve

play00:14

single objective problems i think to

play00:17

best possible apply it

play00:18

you really need to understand it in a

play00:20

nice way that's what i'm gonna do today

play00:22

i'm gonna explain it to you step by step

play00:24

how it works that you can get most out

play00:26

of it

play00:27

if you enjoyed the video don't forget to

play00:29

like and subscribe the channel

play00:31

and if you have feedback or comments

play00:33

just drop them below

play00:35

let's get started

play00:41

let's start with an example for neural

play00:44

networks

play00:45

if you have a neural network you hardly

play00:47

know what is

play00:48

happening inside but what you want to

play00:51

achieve is that you want to optimize for

play00:53

example the precision

play00:55

that it finds stuff so what you need to

play00:57

do

play00:58

normally is you have different hyper

play00:59

parameters like the learning rate

play01:01

or the batch size and many others that

play01:04

you can tune

play01:05

before you start the training to

play01:07

optimize the precision

play01:10

if you look in more general on this

play01:12

problem we just can call it

play01:14

we have a black box problem where we

play01:15

don't know 100

play01:17

what is really happening inside we have

play01:19

a lot of different input variables

play01:21

and what we try to do is to optimize the

play01:24

target value

play01:25

so what's coming out of the black box

play01:27

problem and

play01:29

this is exactly where bison optimization

play01:32

is

play01:32

really well suited to help you to find

play01:36

most efficiently or really efficiently

play01:38

the best target solution

play01:41

how it works is a iterative process in

play01:45

this case

play01:46

so we have five steps that are partially

play01:49

repeated iteratively i'm going to

play01:52

explain every step afterwards with an

play01:54

example

play01:55

in detail but yeah first you have an

play01:58

initial sampling set

play02:00

so you need to start with something so

play02:02

you start

play02:03

the initial sampling after having this

play02:06

sampling

play02:07

you evaluate all the samplings out of

play02:10

the initial samplings

play02:12

with the black box problem so for

play02:14

example before

play02:15

you would have different training runs

play02:18

for neural networks

play02:20

to see how they perform based on their

play02:22

hyper parameters

play02:23

based on these results you can start a

play02:26

training of a gaussian process regressor

play02:29

what this means in detail we get to this

play02:31

later

play02:33

based on these results you do a

play02:35

calculation of an

play02:36

acquisition function and you use this

play02:39

acquisition function the last step to

play02:41

identify

play02:42

the next to evaluate

play02:45

input so you try to minimize that

play02:48

function and see

play02:49

which evaluation am i going to do next

play02:51

in the black box problem

play02:52

and then you start the process over and

play02:54

over again until

play02:56

a certain criterion is met let's start

play03:00

with a simple example

play03:01

where we have a black box problem

play03:04

where we only have one input which is

play03:07

allowed to be in a range

play03:09

between 0 and 10 and we have also one

play03:13

target that we want to optimize

play03:16

in this case i take a mathematical

play03:18

function

play03:19

just for you to see clearly

play03:22

the conditions between and that we can

play03:24

later see how good the optimization were

play03:27

so we take the input and we multiply it

play03:30

with the

play03:30

sign of the input

play03:34

so let's take a look i said we start

play03:36

with the initial sampling

play03:38

which is in this case you have a lot of

play03:40

different possibilities to do initial

play03:42

samplings like

play03:43

latin hypercube sampling guessing

play03:47

or just yeah a random crop so this is

play03:50

you don't have one option that is

play03:52

mandatory i just

play03:54

took a random crop here and have

play03:57

five samples which when i one after the

play04:00

other evaluate them

play04:02

have different target values like you

play04:04

can see here

play04:07

based on these values we have now and

play04:09

the

play04:10

correct input values based on them

play04:13

we can now train our gaussian process

play04:16

regressor

play04:17

it looks like this so we have now two

play04:21

different

play04:22

indicators here i'm going to explain

play04:24

them to you so

play04:25

the difference in gaussian probes and

play04:27

regressors is you don't train

play04:29

like one regression function but you

play04:32

rather train

play04:33

a set of a lot of different tuned

play04:36

regression functions with different

play04:38

kernels different tails

play04:40

and what you do is the blue line is the

play04:43

mean

play04:43

of all predictions of all functions

play04:47

while the yellow area indicates the

play04:49

uncertainty

play04:50

of the model and is

play04:53

the standard deviation of

play04:57

all models and their predictions so you

play04:59

can see here obviously

play05:01

when we don't have noise at all points

play05:03

when we have a sample

play05:05

there's no uncertainty while the more

play05:07

the points are out

play05:08

away from each other the uncertainty

play05:10

rises

play05:12

in the next step we now have our

play05:15

gaussian process regressor and we start

play05:17

to

play05:18

do our acquisition function um what is

play05:21

an acquisition function

play05:23

basically you can have a lot of

play05:25

different approaches but it's

play05:27

somehow a mathematical function

play05:30

describing a gain or potential

play05:33

optimization volume by a function in

play05:38

this case

play05:38

i took a very common one it's called

play05:41

lower confidence bound

play05:43

some know it as upper confidence bound

play05:46

what it says is the acquisition function

play05:50

means that we take the normal standard

play05:53

we take the mean

play05:54

so the blue line and we

play05:57

take from that the standard deviation

play05:59

times kappa

play06:00

kappa at this place is a hyperparameter

play06:03

so

play06:04

it just you want to see it later

play06:06

depending how i choose this cover my

play06:08

optimization is going to be

play06:10

more locally focused or more global

play06:12

focused

play06:15

at this point i just want to let you

play06:17

know that we talk you about a

play06:18

minimization problem i forgot to tell

play06:20

this before

play06:21

so our goal is to get a target as small

play06:24

as possible

play06:28

i did the same acquisition function on

play06:30

the right

play06:31

taking a couple of 10 just for you to

play06:33

get a first feeling how it looks like

play06:36

what you can see like depending how

play06:39

big my copper is the more my uncertainty

play06:42

gains in value

play06:43

and at this point for example we see

play06:46

that

play06:47

for both we more or less sample at the

play06:50

value between four and six

play06:51

but still for the copper that is ten the

play06:55

value is more or less between five or

play06:56

six

play06:57

and for the copper with one it is nearer

play07:00

to

play07:01

4. sampling now

play07:04

these two values will lead us to a new

play07:07

point

play07:08

and we start our iteration so we now

play07:11

have one more point that we

play07:13

evaluate so we retrain our model and

play07:16

what you can now

play07:16

see really beautifully here on the left

play07:20

side where we have the acquisition

play07:21

function with copper one

play07:23

the next sample that we should do is

play07:25

still very close to

play07:27

already the one that we did now and

play07:30

where we have the copper 10 on the other

play07:32

side

play07:33

you can see that it's far away so it's

play07:35

at a totally new point because the

play07:36

uncertainties are much

play07:38

higher prioritized so here we sample at

play07:41

10

play07:42

at the other one we sample at one uh not

play07:44

that one sorry

play07:45

at five and what you see here is

play07:50

now the model for copper 10 we have a

play07:53

really really good point actually there

play07:55

um but the model didn't expect the point

play07:57

to be so low so the uncertainties rise

play08:00

and this process now is actually

play08:02

repeated

play08:03

iteratively so it's done one more time

play08:06

and as you see

play08:07

the best point that is found by

play08:11

kappa one is more or less between four

play08:14

and six and you see that the samples are

play08:15

getting very close to each other already

play08:18

while with a couple of ten we still try

play08:20

to go in a

play08:21

wide variety so now the next sample

play08:23

point would be between zero and two

play08:27

we can now iterate this process as long

play08:29

as we want or we can say okay stop

play08:31

condition is i

play08:32

only have 20 runs because the training

play08:33

is expensive or

play08:35

i want to converge in such a way but in

play08:38

the end

play08:38

yeah this is up to you and it's probably

play08:41

an

play08:41

own topic or video to talk about this

play08:44

but

play08:44

now what is interesting in the end we

play08:47

can see it more or less already that

play08:49

in this time kappa with 10 was better

play08:51

but just taking a look in the end on the

play08:54

real function we see that

play08:58

the hyper parameter we choose is really

play09:01

mandatory or has a big impact

play09:03

if we find the best point or if we find

play09:05

just a locally best point and

play09:08

i'm going to do a video about hyper

play09:10

parameter tuning soon for

play09:12

exactly these optimization problems for

play09:15

now i just hope that you enjoy that's it

play09:18

that's all you needed to know

play09:19

to start with biogen optimization wasn't

play09:22

that hard wasn't

play09:23

it if you want to get even deeper into

play09:25

some parts like acquisition functions

play09:28

just drop in the comments below what

play09:29

you're missing or where you want to go

play09:31

deep in

play09:32

and i make a video about it in general

play09:34

don't forget to subscribe

play09:36

to stay always up to date with the

play09:38

topics that we are providing for you

play09:40

i wish you a nice day and keep

play09:48

optimizing

Rate This

5.0 / 5 (0 votes)

関連タグ
Bayes-OptimierungNeurale NetzeHyperparameterKI-TrainingMaschinelles LernenBlackbox-ProblemeGaussian ProzessorIterative ProzesseAcquisition-FunktionOptimierungstechniken
英語で要約が必要ですか?