Neuronale Netze unter der Lupe | Die Welt der KI entdecken 10

Tilman Michaeli
15 Feb 202319:25

Summary

TLDRDieses Skript bietet einen umfassenden Überblick über neuronale Netze, ihre Funktionsweise und ihre Anwendungen in Bereichen wie Bildrkennung, Übersetzung und mehr. Es erklärt die Grundstruktur von Neuronen und wie sie in künstlichen neuronalen Netzwerken zusammenarbeiten, um Lernprozesse und Erinnerungen zu simulieren. Es geht auch auf das Training solcher Netze ein, wie sie Gewichte und Bias anpassen, um Vorhersagen zu optimieren, und stellt verschiedene Netztypen wie Feed-Forward-Netzwerke, CNNs und GANs vor. Der Fokus liegt auf der Fähigkeit von neuronalen Netzen, komplexe Datenmuster zu verarbeiten und zu lernen.

Takeaways

  • 🧠 Neuronale Netze sind eine Sammlung verschiedener, aber verwandter Methoden, die Eingabedaten verarbeiten und nützliche Ausgaben liefern.
  • 💡 Diese Netze sind inspiriert vom menschlichen Gehirn, das aus Nervenzell组团, sogenannten Neuronen, besteht.
  • 🔄 Neurone reagieren auf eingehende Signale und passen ihre Reaktionen im Laufe der Zeit an, was das Lernen und Merken ermöglicht.
  • 🤖 Künstliche Neuronen werden durch Computer implementiert, wobei elektrische Signale die Eingabedaten repräsentieren.
  • 🔢 Die Funktionsweise eines Neurons basiert auf der Multiplikation von Eingabewerten mit Gewichten, Summierung und Aktivierung durch eine Aktivierungsfunktion.
  • 📈 Aktivierungsfunktionen wie der ReLU (Rectified Linear Unit) ermöglichen es neuronalen Netzen, die Beziehung zwischen Ein- und Ausgabe zu modellieren.
  • 🌐 Neuronale Netze bestehen aus Schichten, wobei die Ausgabe einer Schicht als Eingabe für die nächste Schicht dient.
  • 📊 Das Training neuronaler Netze erfolgt durch überwachtes Lernen, bei dem die tatsächliche Ausgabe mit dem Sollwert verglichen und Fehler minimiert werden.
  • 🔧 Das Ziel des Trainings ist es, die Gewichte und Biaswerte so anzupassen, dass das Netzwerk die richtige Vorhersage trifft.
  • 🖼️ Spezialisierungen von Neuronale Netzen, wie Convolutional Neural Networks (CNNs), sind für Aufgaben wie die Bilderkennungs optimiert.
  • 🎨 Generative Adversarial Networks (GANs) bestehen aus zwei Netzwerken, einem Generator und einem Diskriminator, die gegenseitig trainiert werden, um Daten zu generieren oder zu fälschen.

Q & A

  • Was sind neuronale Netze und wofür werden sie verwendet?

    -Neurnale Netze sind eine Reihe verschiedener, aber verwandter Methoden, die Eingabedaten verarbeiten und nützliche Ausgaben liefern. Sie werden für eine Vielzahl von Anwendungen verwendet, darunter Bilderkennung, Nachahmung von Kunststilen, Computer-Übersetzung und mehr.

  • Wie funktionieren neuronale Netze im Vergleich zu unserem Gehirn?

    -Neurnale Netze sind entfernt von unserem Gehirn inspiriert. Sie bestehen aus sogenannten Neuronen, die eingehende Signale aufnehmen und bei Erreichen eines Schwellenwerts ein Signal an andere Neuronen ausgeben. Im Vergleich zum menschlichen Gehirn sind sie jedoch stark vereinfacht und arbeiten mit Zahlen anstatt Nervenzellen.

  • Was ist ein künstliches Neuron und wie verhält es sich zu einem echten Neuron?

    -Ein künstliches Neuron ist eine vereinfachte Version eines echten Neurons. Es nimmt Eingabesignale, multipliziert sie mit Gewichten, summiert sie und gibt bei Erreichen eines bestimmten Schwellenwerts ein Signal aus. Es kann jedoch nicht besonders viel ohne die Zusammenarbeit mit vielen anderen künstlichen Neuronen.

  • Was ist eine Aktivierungsfunktion und welche Rolle spielt sie in neuronalen Netzen?

    -Eine Aktivierungsfunktion ist ein Mechanismus, der die Beziehung zwischen Ein- und Ausgabe in neuronalen Netzen modelliert. Sie gibt neuronalen Netzen mehr Möglichkeiten, indem sie die Ausgaben der Neuronen in einer Schicht verändert, um die Ausgaben der nächsten Schicht zu beeinflussen.

  • Wie wird ein neuronales Netz trainiert?

    -Ein neuronales Netz wird durch überwachtes Lernen trainiert. Das bedeutet, dass es Eingabe- und Erwartungsausgabe-Paare erhält, um die Gewichte und Biase im Netz anzupassen, um den Fehler zu minimieren. Dieser Prozess wird als Backpropagation bezeichnet.

  • Was sind einige der bekanntesten Aktivierungsfunktionen in neuronalen Netzen?

    -Zu den bekanntesten Aktivierungsfunktionen gehören der ReLU (Rectified Linear Unit), der nur positive Werte weitergibt, und die Sigmoid-Funktion, die negative Werte annähernd Null und positive Werte annähernd Eins auf eine S-förmige Kurve abbildet.

  • Was sind die Vorteile von Mehr-Schichten-Netzwerken im Vergleich zu Ein-Schicht-Netzwerken?

    -Mehr-Schichten-Netzwerke können komplexere Beziehungen zwischen Eingabe und Ausgabe abdecken und modellieren. Sie ermöglichen es, Daten in mehreren Abstraktionsebenen zu verarbeiten, was zu besseren Lernresultaten führt.

  • Was sind Convolutional Neural Networks (CNNs) und wie unterscheiden sie sich von regulären neuronalen Netzen?

    -Convolutional Neural Networks (CNNs) sind spezialisierte neuronale Netze, die für die Bildverarbeitung entwickelt wurden. Sie verwenden Convolution und Pooling Schichten, um Muster in Bildern zu erkennen und zu klassifizieren, was sie effektiver für die Bildrkennung macht.

  • Was sind Generative Adversarial Networks (GANs) und wie funktionieren sie?

    -Generative Adversarial Networks (GANs) bestehen aus zwei Teilnetzwerken: einem Generator, der neue Inhalte erzeugt, und einem Diskriminator, der beurteilt, ob ein Inhalt echt oder gefälscht ist. Sie werden durch gegenseitiges Lernen trainiert, wobei der Generator immer besser im Erzeugen von Inhalten und der Diskriminator im Unterscheiden von echten und gefälschten Inhalten wird.

  • Warum ist es manchmal schwierig, die Entscheidungen von neuronalen Netzen zu erklären?

    -Neurnale Netze können sehr komplex sein mit vielen Parametern, die optimiert werden müssen. Dies kann dazu führen, dass bestimmte Entscheidungen des Netzes schwer zu verstehen sind, da die Beziehung zwischen Eingabe und Ausgabe nicht immer klar ist.

Outlines

00:00

🧠 Grundlagen neuronaler Netze

Der erste Absatz behandelt die Grundlagen von neuronalen Netzen, ihre Beliebtheit und Anwendungsbereiche wie Bildrkennung, Übersetzung und mehr. Er erklärt, wie Neuronen in einem neuronalen Netzwerk funktionieren, wie sie Signale verarbeiten und wie sie durch Gewichte und Aktivierungsfunktionen miteinander verbunden sind. Der Absatz stellt ein einfaches Beispiel eines künstlichen Neurons zur Veranschaulichung vor und erklärt, wie es Daten verarbeiten kann.

05:00

🤖 Anwendung von neuronalen Netzen im maschinellen Lernen

In diesem Absatz wird beschrieben, wie neuronale Netze in der Praxis eingesetzt werden, insbesondere im maschinellen Lernen. Es wird ein Beispiel gegeben, wie ein neuronales Netz trainiert werden kann, um zwischen Obst und Gemüse zu unterscheiden, basierend auf den Eingabeparametern wie Ballaststoffe und Proteine. Der Absatz erklärt auch, wie Aktivierungsfunktionen die Leistung von Neuronen beeinflussen und wie das Konzept der Schichten im neuronalen Netz die Komplexität von Mustern ermöglicht.

10:02

📈 Das Training neuronaler Netze und die Bedeutung von Gewichten und Bias

Der dritte Absatz konzentriert sich auf das Training neuronaler Netze und die Bedeutung von Gewichten und Bias. Er erklärt, wie durch das Anpassen dieser Parameter die Leistung des Netzes verbessert werden kann. Es wird veranschaulicht, wie das Lernen durch Überwachung und Rückpropagation funktioniert, wobei der Fehler gemessen und die Parameter entsprechend angepasst werden. Der Absatz zeigt auch, wie die Wahl der Aktivierungsfunktion die Fähigkeit des Netzes, komplexe Datenmuster zu verstehen, beeinflusst.

15:03

🔍 Spezialisierte neuronale Netze und Deep Learning

In diesem Absatz werden spezialisierte neuronale Netze wie Convolutional Neural Networks (CNNs) und Generative Adversarial Networks (GANs) vorgestellt. Es wird erklärt, wie diese Netze in spezifischen Aufgaben wie der Bild- und Spracherkennung oder der Datengenerierung verwendet werden. Der Absatz betont die Bedeutung von Deep Learning, bei dem sehr viele Schichten verwendet werden, um komplexe Datenmuster zu verstehen und zu klassifizieren.

🌐 Diversität von neuronalen Netzen und Herausforderungen

Der letzte Absatz diskutiert die Vielfalt von neuronalen Netzen und die damit verbundenen Herausforderungen. Es wird erklärt, dass es viele verschiedene Arten von neuronalen Netzen gibt, die für verschiedene Aufgaben optimal sind. Der Absatz spricht auch über die Schwierigkeiten, die mit dem Training dieser Netzen einhergehen, insbesondere die Notwendigkeit, große Mengen an Trainingsdaten zu haben und die Zeit, die für das Finden der optimalen Gewichtungen benötigt wird. Schließlich wird auf die potenziellen Auswirkungen von KI auf die Gesellschaft hingewiesen.

Mindmap

Keywords

💡Neuronales Netz

Ein neuronales Netz ist eine Art künstliches neuronales System, das von der Struktur des menschlichen Gehirns inspiriert ist und zur Verarbeitung von Eingabedaten und zur Erzeugung von nützlichen Ausgaben verwendet wird. Im Video wird es verwendet, um zu erklären, wie künstliche Intelligenz Bilderkennung, Textübersetzung und andere Aufgaben durchführt. Das neuronale Netz ist das zentrale Thema des Videos, das seine Funktionsweise und Anwendungen erläutert.

💡Eingabedaten

Eingabedaten sind die Informationen, die in ein neuronales Netz eingegeben werden, um eine bestimmte Aufgabe auszuführen. Im Kontext des Videos werden Eingabedaten wie Bilder in Pixeln oder chemische Zusammensetzungen von Obst und Gemüse verwendet, um Entscheidungen oder Klassifizierungen zu treffen. Die Verarbeitung dieser Eingabedaten ist entscheidend für die Leistung des neuronalen Netzes.

💡Ausgabe

Die Ausgabe ist das Ergebnis, das ein neuronales Netz nach der Verarbeitung der Eingabedaten liefert. Im Video wird die Ausgabe verwendet, um zu bestimmen, ob ein gegebenes Produkt Obst oder Gemüse ist, oder um die Wahrscheinlichkeit einer Handgezeichneten Ziffer zu schätzen. Die Genauigkeit der Ausgabe hängt von der Qualität der Eingabedaten und der Effizienz des neuronalen Netzes ab.

💡Aktivierungsfunktion

Aktivierungsfunktionen sind mathematische Funktionen, die in neuronalen Netzen verwendet werden, um die Verarbeitung der Eingabedaten zu steuern und die Form der Ausgabe zu bestimmen. Im Video werden verschiedene Aktivierungsfunktionen wie der Gleichrichter oder die Sigmoid-Funktion genannt, die dazu beitragen, die Beziehung zwischen Eingabe und Ausgabe zu modellieren.

💡Gewichte

Gewichte sind die Faktoren, mit denen die Eingabedaten in einem neuronalen Netz multipliziert werden, um die Bedeutung jedes Eingabesignals für die Ausgabe zu bestimmen. Im Video wird erklärt, wie die Gewichte zusammen mit den Bias-Werten die Summe der Eingabesignale beeinflussen und wie sie durch das Training des Netzes angepasst werden.

💡Bias

Ein Bias ist ein konstanter Wert, der zu den gewichteten Eingabedaten hinzugefügt wird, bevor die Aktivierungsfunktion angewendet wird. Im Video wird der Bias als Teil der Berechnung der neuronalen Aktivität beschrieben und zeigt, wie er die Schwelle für die Aktivierung eines Neurons beeinflusst.

💡Training

Training ist der Prozess, bei dem ein neuronales Netz lernen soll, wie die Gewichte und Bias-Werte angepasst werden, um die gewünschten Ausgaben zu erzeugen. Im Video wird das Training als ein iterativer Prozess beschrieben, bei dem das neuronale Netz durch Überwachtes Lernen mit Hilfe von Eingabe-Ausgabe-Paaren trainiert wird.

💡Fehler

Ein Fehler ist die Differenz zwischen der tatsächlichen Ausgabe des neuronalen Netzes und dem erwarteten Ergebnis. Im Video wird der Fehler verwendet, um die Leistung des Netzes zu messen und die Gewichte und Bias-Werte im Rahmen des Trainingsprozesses anzupassen.

💡Feed-Forward-Netzwerk

Ein Feed-Forward-Netzwerk ist ein Typ von neuronalem Netz, bei dem Informationen in eine Richtung, von der Eingabe- zur Ausgabeschicht, geleitet werden. Im Video wird erklärt, dass solche Netzwerke normalerweise durch Überwachtes Lernen trainiert werden und theoretisch in der Lage sind, komplexe Beziehungen zwischen Eingabe und Ausgabe zu modellieren.

💡Tiefes Lernen

Tiefes Lernen ist ein Begriff, der häufig mit neuronalen Netzen mit vielen Schichten oder 'Tiefen' verwendet wird. Im Video wird es als eine Form des maschinellen Lernens beschrieben, die es ermöglicht, komplexe Datenmuster zu erkennen und zu verarbeiten, oft in Verbindung mit großen Datenmengen und leistungsfähiger Hardware.

💡Konvolutionale Netzwerke (CNN)

Konvolutionale Netzwerke sind ein spezialisierter Typ von neuronalem Netz, der für die Bildverarbeitung und -kennung entwickelt wurde. Im Video werden CNNs als Netzwerke beschrieben, die Filter verwenden, um bestimmte Merkmale in Bildern zu erkennen, und dadurch die Leistung bei der Bilderkennung zu verbessern.

💡Generative Adversarial Networks (GAN)

Generative Adversarial Networks sind ein Typ von neuronalen Netz, der aus zwei Teilnetzwerken besteht: einem Generator, der neue Daten generiert, und einem Diskriminator, der zwischen echten und gefälschten Daten unterscheidet. Im Video wird GAN als ein System beschrieben, das in der Lage ist, kreative Prozesse zu simulieren, indem es ein Wettbewerbsverhältnis zwischen den beiden Teilnetzwerken aufbaut.

Highlights

Neuronale Netze sind in vielen Bereichen beliebt und werden für Aufgaben wie Bilderkennung, Übersetzung und mehr eingesetzt.

Das Gehirn ist die Inspiration für künstliche Neuronen, die Eingangssignale verarbeiten und bei Erreichen eines Schwellenwerts reagieren.

Ein künstliches Neuron multipliziert Eingaben mit Gewichten, summiert sie und kann mit Aktivierungsfunktionen verarbeiten.

Aktivierungsfunktionen wie der ReLU (Rectified Linear Unit) modellieren die Beziehung zwischen Ein- und Ausgabe.

Künstliche neuronale Netze bestehen aus Schichten, wobei die Ausgaben einer Schicht als Eingabe für die nächste dienen.

Ein Beispiel für ein neuronales Netz ist die Klassifizierung von Obst und Gemüse basierend auf Nährstoffen.

Das Training von neuronalen Netzen beinhaltet das Anpassen von Gewichten und Bias, um den Fehler zu minimieren.

Überwachtes Lernen verbessert die Vorhersage des Netzes durch Vergleich von tatsächlicher und erwarteter Ausgabe.

Nichtlineare Aktivierungsfunktionen ermöglichen es, komplexe Datenmuster zu modellieren.

Tiefes Lernen mit vielen verborgenen Schichten führt zu besseren Ergebnissen in der Bildklassifizierung.

Konvolutionale Schichten (CNNs) sind spezialisiert auf die Erkennung von Mustern in Bildern.

Pooling-Schichten reduzieren die Anzahl der Pixel, die das Netz verarbeiten muss, ohne Details zu verlieren.

Generative Adversarial Networks (GANs) bestehen aus zwei Netzen, die gegenseitig trainiert werden, um echte und gefälschte Daten zu erzeugen und zu unterscheiden.

Neuronale Netze sind in der Lage, riesige Datenmengen zu verarbeiten und komplexe Modelle zu erstellen.

Das Training neuronaler Netze kann je nach Größe und Komplexität des Netzes und der Hardware Tage oder sogar Monate dauern.

Es gibt viele verschiedene Arten von neuronalen Netzen, die für verschiedene Aufgaben optimiert sind.

Neuronale Netze sind nicht immer in der Lage, die Entscheidungsprozesse hinter ihren Ausgaben vollständig zu erklären.

Die Diskussion über künstliche Intelligenz und ihre Auswirkungen auf die Gesellschaft wird in zukünftigen Folgen fortgesetzt.

Transcripts

play00:05

hey möglich

play00:09

neuronale netze gehört in dieser einheit

play00:12

ansehen was man alle netze sind wie sie

play00:14

funktionieren und warum sie so beliebt

play00:16

sind die netze werden für alles mögliche

play00:18

verwendet bilderkennung nachstellen

play00:21

eines bestimmten kunst stils computer

play00:23

übersetzung und so weiter der begriff

play00:25

neuronales netz schreibt eine reihe

play00:27

unterschiedlicher aber verwandter

play00:28

methoden die eingabedaten verarbeiten

play00:31

und nützliche ausgaben liefern

play00:33

neuronale netze sind ganz entfernt von

play00:35

unserem gehirn inspiriert unser gehirn

play00:37

besteht aus nervenzellen sogenannte

play00:39

neuronen ein euro ist eine einfache

play00:42

zelle die eingehende signale aufnimmt

play00:45

und unter bestimmten bedingungen zb bei

play00:48

erreichen eines bestimmten schwellenwert

play00:49

ein signal an andere neuronen ausgibt

play00:52

ein einzelnes neuron kann natürlich

play00:55

nicht besonders viel aber wenn wir eben

play00:58

nicht nur eines sondern millionen oder

play01:00

milliarden davon haben dann schon jedes

play01:04

neuron reagiert anders auf eingehende

play01:07

signale und kann diese reaktion im laufe

play01:09

der zeit auch anpassen oder verändern

play01:11

und genau das ist der schlüssel zum

play01:13

erinnern und lernen wir können jetzt

play01:16

diese einfache ideen nehmen um ein

play01:19

künstliches neuronen zu erzeugen

play01:21

wir wissen ja computer arbeiten mit

play01:23

zahlen

play01:24

die signale sind also diesmal

play01:25

elektrische signale die alt zahlen

play01:27

darstellen

play01:28

diese eingaben werden dann quasi mit

play01:30

einem bestimmten faktor dem gewicht

play01:32

multipliziert er ein konstanter faktor

play01:33

dabei ist hinzugefügt und alles

play01:36

aufsummiert wird das bestimmt quasi wie

play01:39

stark das kumulierte signal sein muss

play01:41

damit dass neurone überhaupt angeregt

play01:44

wird überhaupt etwas ausgibt bevor das

play01:46

künstliche neuronen jetzt eine ausgabe

play01:48

erzeugt wird noch eine aktivierungs

play01:51

funktion angewendet mehr dazu gleich

play01:52

neuronen besteht also im wesentlichen

play01:54

aus gewichteten eingaben etwas matt und

play01:57

nach ausgabe nutzen jetzt mal dieses

play02:00

einfache beispiel eines künstlichen euro

play02:02

und ein paar daten zu verarbeiten

play02:04

dazu habe ich einfach mal eingaben

play02:06

gewichtung im weißen zugefügt unser

play02:09

künstliches neuronen nimmt die eingabe

play02:11

multipliziert sie mit den gewichten hat

play02:13

ihr dehnbares und summiert alles in

play02:14

diesem fall haben wir also einmal 0,2

play02:16

plus 0 x 0,7 plus - 2001 und so weiter

play02:21

wenn das ganze ausrechnen konnten darf

play02:24

6 bevor die ausgabe ist aber weiter

play02:27

geben wenden wir eine aktivierungs

play02:28

funktional aktivierungs funktionen geben

play02:30

neuronalen netzen mehr möglichkeiten die

play02:32

beziehung zwischen ein- und ausgabe

play02:34

nachzubilden bzw zu modellieren zu den

play02:37

gebräuchlichsten aktivierungs funktionen

play02:39

gehören der gleichrichter der nur

play02:41

positive werte weitergibt und geht mit

play02:43

negativen wert durch neue ersetzt wenn

play02:45

wir den jetzt hier als aktivierungs

play02:46

funktionen verwenden gibt unser neuronen

play02:49

da kann man sechs positives auf 0,6 aus

play02:53

darüber hinaus gibt es aber auch andere

play02:55

aktivierungs funktionen verwenden

play02:57

könnten beispielsweise sieg nord diese

play02:59

funktionen die hatten s förmigen verlauf

play03:01

und bildet negative werte auf annähernd

play03:03

null ab positive werte auf annähernd 1 1

play03:05

hat um die neue leben an den glatten s

play03:08

förmigen übergang

play03:09

genau wie bei unserem gehirn wird uns

play03:12

ein einzelnes neuron nicht so weit

play03:13

bringen aber kombinieren wir unsere

play03:15

künstliche neuronen zu netzwerken dann

play03:18

erhalten wir ein künstliches neuronales

play03:20

netz auf 2 dargestellt

play03:21

wir wollen nun untersuchen dass all

play03:23

diese knoten und kanten die

play03:25

verschiedenen schichten und auch deren

play03:26

vernetzung bedeutet dafür schauen sie

play03:29

uns ein einfaches beispiel an du

play03:31

erinnerst dich vielleicht an unser

play03:32

problem aus dem video zu überwachen

play03:33

lernen bei denen wir anhand des problems

play03:35

in der glas stoffe pro 100 gramm

play03:37

entscheiden sollten ob etwas an folgt

play03:40

also obst oder gemüse schauen wir uns

play03:44

mal an wie wir das mit einem neuronalen

play03:46

mehr zu umsetzen können

play03:47

unser nationales netz besteht aus einer

play03:49

eingabe schicht die zwei eingaben

play03:50

hingegen nimmt die menge an

play03:51

ballaststoffen und proteinen programm

play03:53

und eine ausgabe schicht die ausgabe der

play03:56

in der ausgabe schicht geben die

play03:58

wahrscheinlichkeit an ob es sich bei der

play04:00

eingabe im obst oder gemüse handelt

play04:02

die eingabe schicht empfängt der eingabe

play04:04

die ausgabe schicht sagt die ausgabe

play04:06

voraus wir können aber auch noch einige

play04:08

nach außen verbauten der

play04:10

zwischenschichten zwischen diesen beiden

play04:12

schichten hinzufügen einen ausgabe

play04:14

schicht sind zwar immer noch miteinander

play04:15

verbunden

play04:16

aber die zwischenschichten ermöglichen

play04:18

es uns jetzt komplexere beziehungen

play04:20

abzudecken und abzubilden

play04:22

die neuerungen verhalten sich wie das

play04:24

einzelnen dass wir uns vorher angesehen

play04:25

haben mit einer ausnahme

play04:27

die ausgaben der neuronen einer schicht

play04:29

dienen jetzt als eingabe für jedes

play04:31

neuron der nächsten schicht

play04:33

das trifft natürlich auf jedes neuron in

play04:35

jeder schicht zu welche ausgabe erhalten

play04:38

wir jetzt wenn wir unser netzwerk mit

play04:39

0,3 gramm protein pro 100 gramm und 2,4

play04:41

gramm ballaststoffe pro 100 gramm

play04:43

aufrufen

play04:44

die eingabe wird jetzt an jedes neuronen

play04:48

der nächsten der verdeckten schicht

play04:49

gegeben

play04:50

für jedes dieser neuronen müssen wir die

play04:52

gewichtete ist somit der eingaben

play04:53

berechnen also für das erste runde in

play04:56

der verborgenen schicht ist es dann

play04:57

dreimal protein plus 0,7 mehr

play05:00

ballaststoffe also 0,7 mal 2,4 dann

play05:03

addieren wir den bayers also 0,3 hinzu

play05:05

und wenden die aktivierungs funktionen

play05:07

die ich jetzt hier mal nur mit hf

play05:08

bezeichnet habe dasselbe gilt auch für

play05:12

die anderen euro-länder zwischenschicht

play05:14

anstatt bestimmte zahlen zu verwenden

play05:17

verwende ich jetzt immer nur noch

play05:17

platzhalter wie einst wie zwei und so

play05:19

weiter das heißt für das zweite neue

play05:21

runde zwischenschicht berechnen ihr

play05:23

gewicht wieder einmal protein plus

play05:25

gewicht wie viermal ballaststoffe

play05:26

addieren den anderen byers und wenn die

play05:29

aktivierungs funktionen und hörtest

play05:31

dritten euro und mama genau dasselbe

play05:33

auch auf der ausgabe schicht gehen wir

play05:36

genauso vor was wir als ausgabe für die

play05:38

neuronen in der zwischenschicht

play05:39

berechnet haben dient jetzt als eingabe

play05:41

für die neuronen in der ausgabe schicht

play05:42

wir können also die wahrscheinlichkeit

play05:44

für obst und gemüse berechnen

play05:46

indem wir die gewichtete summe der

play05:49

ausgaben der zwischenschicht berechnen

play05:51

den jeweiligen bayers agieren und die

play05:53

aktivierungs funktion anwenden

play05:56

stellen wir uns mal vor wir hätten die

play05:58

folgenden gewichte und weise in unserem

play05:59

netzwerk mit diesen wetten können wir

play06:01

jetzt die auskleidung des netzwerks

play06:03

berechnen und in diesem fall sagt unser

play06:05

netzwerk dann voraus dass es sich im

play06:07

obsthandel thomas bei den eingabedaten

play06:09

bei denen es sich um einen apfel haben

play06:10

tut er auch korrekt ist entscheidend für

play06:13

die vorhersage des richtigen ergebnis

play06:14

ist es dass wir passen die gewichte und

play06:17

bayers verwenden

play06:19

aber wie weiß unser netzwerk etwas gutes

play06:22

und gewichte sind und woher kommen diese

play06:24

werte

play06:26

bisher sind wir davon ausgegangen dass

play06:28

wir ein trainiertes funktionierendes

play06:30

neuronales netz vor und halten

play06:32

aber setzen wir mal das netzwerk in den

play06:34

zustand zurück bevor es trainiert worden

play06:36

ist da wir nur zwei eingabe dimensionen

play06:39

haben also proteine und ballaststoffe

play06:40

kann mit die entscheidung unseres

play06:42

neuronalen netzes auch in einem

play06:43

zweidimensionalen koordinatensystem

play06:45

visualisieren in der visualisierung hier

play06:48

habe ich den bereich hervorgehoben in

play06:50

dem die wahrscheinlichkeit für obst

play06:51

höher ist als für gemüse in rot und der

play06:54

bereich in dem die wahrscheinlichkeit

play06:56

für gemüse höher ist als für grün helfe

play06:58

obst in grün

play07:00

daher werden jetzt all die punkte hier

play07:03

im grünen bereich als gemüse

play07:04

klassifiziert

play07:06

wir sehen auch der apfel mit seinen

play07:09

beiden werten wird jetzt das gemüse

play07:11

klassifiziert das ist halt nicht ganz

play07:13

das was wir erwarten und noch nicht ganz

play07:15

das was wir wollen aber durch

play07:17

anpassungen der gewichte im bus können

play07:19

wir die grenze anpassen an der etwas

play07:21

obst und gemüse klassifiziert

play07:23

falls aktivierungs funktion nehmen wir

play07:26

hier erst mal eine einfache funktion die

play07:28

identität dieser funktion den gleichen

play07:30

wert zurück der auch als argument

play07:32

verwendet wurde

play07:33

ich beginne jetzt damit hier die

play07:35

gewichte zu verändern und wir sehen wir

play07:38

haben insgesamt zwölf gewichte dich

play07:40

manipulieren kann

play07:41

wenn ich also jetzt die werte der

play07:43

gewichtige ändere dann sehen wir die

play07:47

grenzen zwischen den beiden bereichen

play07:49

verschiebt sich aber blöderweise erlaubt

play07:52

uns die anpassung der gehweg denn nur

play07:53

die steigungen der grenze zu verändern

play07:56

deshalb brauchen wir auch dem die bayern

play07:59

durch anpassung dabei ist können wir den

play08:01

ex und y achsen abschnitt unserer grenze

play08:03

verändern

play08:04

trotzdem wenn wir das machen bekommen

play08:08

wir immer noch eine gerade linie

play08:09

die reicht aber offensichtlich nicht um

play08:12

die daten richtig abzugrenzen was machen

play08:15

hat die lösung ist gar nicht so schwer

play08:17

wir wechseln einfach auf eine nicht

play08:19

lineare aktivierungs funktion also an

play08:21

die funktion als aktivierungs

play08:23

funktionieren keine linie oder keine

play08:24

gerade darstellt zusammen mit der cygnet

play08:28

funktion die wir vorhin haben oder von

play08:30

gesehen haben haben wir jetzt genügend

play08:32

kontrolle über die grenze um obst und

play08:34

gemüse sinnvoll zu trennen und damit

play08:37

werde ich jetzt erstmal versuchen

play08:38

geeignete gewichte und beißt zu finden

play09:02

wenn wir gerade gesehen haben haben wir

play09:04

sehr viel ausprobieren müssen um

play09:06

passende gewichte in bayers zu finden

play09:08

aber das kann es ja wohl eh sein da

play09:10

musst du einen besseren weg gehen und

play09:12

klar den gibt's die gewichte beides

play09:16

automatisch bestimmen zu lassen sagt

play09:17

einen ganzen punkt warum in alle netze

play09:19

einsetzen und dem automatischen prozess

play09:22

den wir als training bezeichnen lernt

play09:23

das netzwerk geben selbst geeignete

play09:25

gewichte in bars und bei diesem jetzt

play09:28

untrainierten netz sehen wir dass die

play09:30

vorher gesagt der ausgabe eben nicht

play09:32

ganz das was wir uns gewünscht hätten

play09:34

die wahrscheinlichkeit dass es sich bei

play09:36

unserem abfüllung gemüsehandel beträgt 0

play09:38

56 ein die wahrscheinlichkeit für obst

play09:41

00 42 beträgt wir werden nun überwachtes

play09:45

lernen nutzen um die vorhersage des

play09:47

netzwerks zu verbessern

play09:48

beim überwachten lern haben wir zusammen

play09:50

mit der eingabe auch die erwartete

play09:52

ausgabe also den sollwert mitgeliefert

play09:54

wenn es jetzt vergleichen also ist

play09:56

gemüse das waren 0 56 eigentlich soll

play09:59

aber hier null rauskommen ist ja gar

play10:01

kein gemüse sondern obst das heißt wir

play10:04

können aus ist und soll jetzt durch ein

play10:07

vergleich der vorhergesagten und eben

play10:09

tatsächlichen ausgabe berechnen wie groß

play10:11

der fehler ist und auf grundlage dieses

play10:13

fehlers wissen wir nun in welche

play10:15

richtung und in welchem umfang die

play10:17

parameter also die gewichtung die beiers

play10:19

angepasst werden müssen diese

play10:21

information wird jetzt rückwärts durch

play10:23

das netzwerk übertragen sodass

play10:25

gewichtung bei es jeder schicht

play10:26

angepasst werden kann um den fehler zu

play10:28

minimieren

play10:29

ein prozess das bag kooperation

play10:32

bezeichnet wird dieser prozess in dem

play10:34

die eingabe neben zunächst vorwärts

play10:36

durch das netzwerk geleitet und dann nie

play10:37

vorher gesagt und erwartete ausgabe zur

play10:40

rückwärts berechnung des fehlers

play10:41

verwendet werden wird jetzt so lange

play10:44

wiederholt bis unser netzwerk in den

play10:45

meisten fällen das richtige ergebnis

play10:47

vorhersagen kann

play10:48

und genau dieser idee basieren jetzt

play10:51

auch größere neuronale netze

play10:53

das zweite netzwerk das wir uns ansehen

play10:55

erkennt ob eine handgezeichnete ziffer 9

play10:57

12 ist und so weiter

play11:00

bekanntes beispiel für bilderkennung

play11:02

jedes bild besteht hierbei aus 28 28

play11:06

pixeln jedes pixel wird durch eine zahl

play11:08

zwischen 1 dargestellt die angibt wie

play11:09

hell oder dunkel des pixel ist 28 28

play11:13

wechsel führen pro bild zu 784 pixel mit

play11:16

einem wert zwischen 0 und 1 diese 784

play11:20

werte können jetzt als eingabe für

play11:22

unsere neuronales netz verwendet werden

play11:24

das heißt wir haben 784 eingabe neuronen

play11:28

die jeweils ein pixel

play11:29

sicherlich jetzt zu viel und das sind

play11:31

zwei dimensionen darzustellen die anzahl

play11:33

der ausgang des neuronen entspricht der

play11:35

anzahl der möglichen kategorien wie wir

play11:36

unterscheiden wollen in diesem fall zehn

play11:39

stück eines für jede ziffer von 0 bis 9

play11:43

dieses mal haben wir jetzt zwei

play11:44

verborgenen zwischenschichten dazwischen

play11:46

die zwischen schichten enthalten zwölf

play11:48

beziehungsweise acht neuronen er selber

play11:50

tatsächlich bloß eine willkürliche

play11:51

festlegung tatsächlich kann es anpassen

play11:54

und verändern dieser zahlen dazu

play11:55

beitragen bessere netzwerke zu erhalten

play11:58

und sogar die anzahl der

play12:00

zwischenschichten in diesem fall zwei

play12:01

dient eigentlich bloß der

play12:03

veranschaulichung kann nahezu beliebig

play12:05

angepasst werden

play12:06

mit vielen zwischenschichten können die

play12:08

netzwerke dann ziemlich tief werden

play12:11

daher kommt auch der begriff die

play12:12

learning also tiefes lernen lernen mit

play12:15

sehr vielen zwischenschichten und auch

play12:18

hier in diesem netzwerk dient die

play12:19

ausgabe eines nur uns einer schicht

play12:21

jetzt als eingabe für jedes neuron der

play12:23

nächsten schicht wenn wir die gesamte

play12:26

verschaltung vornehmen haben wir am ende

play12:28

eine ganze menge verbindungen wie sage

play12:30

ich jetzt mal die ausgabe jeweils mit

play12:32

einer farbe also die aufgabe jedes neue

play12:34

wohnung sah ich eine zahl da das sehr

play12:36

unübersichtlich würde haben wir mal

play12:37

farben gewählt schwarz bedeutet dass wir

play12:40

eine niedrige aktivierung oder ein wert

play12:41

von null haben weiß bedeutet das für

play12:44

eine hohe aktivierung oder mehr von

play12:45

einst haben kaum berührte

play12:47

dementsprechend dass die werte und

play12:48

dazwischen liegen je nach dem wie hell

play12:50

des grauens ist der wert nähernder 1

play12:53

wenn wir die simplen berechnungen jetzt

play12:56

für jedes neuron in der ersten

play12:57

zwischenschicht durchführen erhalten wir

play12:59

ausgaben die wieder als eingabe für die

play13:01

nächste die zweite zwischenschicht

play13:03

dienen

play13:04

und die könnten dann irgendwann in der

play13:07

ausgabe unseres neuronalen netzes

play13:09

insgesamt in der ausgabe schicht ist die

play13:12

aktivierung jetzt hier für das dritte

play13:14

neuerung von oben am höchsten

play13:15

das netz sei gesagt dementsprechend

play13:17

voraus das ist ja ne 2 sind es ist ganz

play13:20

leicht zu erfassen dass die werte der

play13:21

eingabe schicht sind wenn man direkte

play13:23

verbindung was diese werte bedeuten

play13:24

pixel

play13:25

wir wissen auch was der was die ausgabe

play13:28

bedeutet da wird diesen wert ja

play13:29

interpretieren wie sicher sein wie hände

play13:30

2 und so weiter aber es ist viel

play13:34

schwieriger zu verstehen was die ausgabe

play13:36

wert inzwischen schichten darstellen

play13:38

im wesentlichen stellt ein neuron einer

play13:41

zwischenschicht auch ein merkmal dar

play13:43

eines das ich ihm aus merkmalen der

play13:45

vorangegangenen schicht zusammensetzt im

play13:48

falle der ersten zwischenschicht handelt

play13:49

es sich also um eine kombination der

play13:51

merkmale die einzelnen pixel

play13:53

repräsentieren ein blick auf die

play13:55

gewichtung der eingänge eines neurons

play13:56

richtung zu erkennen wie stark jedes

play13:59

merkmal berücksichtigt wurde

play14:01

selbst dieses netzwerk das gerade mal 28

play14:04

28 pixel hingegen nimmt hat bereits

play14:07

circa 10.000 gewichten beides die

play14:08

optimieren können das können wir uns

play14:10

wieso ein riesiges mischpult vorstellen

play14:11

bei dem wir die perfekte kombination

play14:12

finden müssen weder all diese knapp für

play14:16

richtig einstellen neuronale netze haben

play14:19

aber oft noch viel mehr parameter dies

play14:21

zu optimieren gilt und deshalb hört man

play14:23

manchmal auch experten sagen dass sie

play14:25

nicht richtig erklären können warum

play14:26

bestimmte entscheidungen vom system

play14:28

getroffen worden und je nach größe des

play14:32

neuronalen netzes und sicherlich auch

play14:34

der verwendeten hardware kann es dann

play14:36

stunden tage oder sogar monate dauern

play14:38

bis das training also die bestimmt und

play14:40

geeigneter gewichte in bayern auf basis

play14:42

vorliegender daten abgeschlossen ist in

play14:44

wirklichkeit ist es so dass es viele

play14:46

verschiedene arten von neuronalen netzen

play14:48

gibt die bei verschiedenen

play14:50

problemstellungen oder datensätzen ihm

play14:52

unterschiedlich gute ergebnisse liefern

play14:53

wir wollen jetzt hier noch einige

play14:55

bekannte arten hervorheben

play14:57

beide netzwerk gibt uns gerade an

play14:59

gesehen haben sind sogenannte feed

play15:01

forward netzwerke sie leiten

play15:03

informationen vorwärts durch das

play15:04

netzwerk um herausgabe vorherzusagen und

play15:06

werden in der regel durch überwachtes

play15:07

lernen trainiert das heißt sie erhalten

play15:09

eine kombination aus ein- und ausgabe

play15:10

daten die verwendet werden um den fehler

play15:13

zurück zu verfolgen möchte das netzwerk

play15:15

und die gewichtung bei ist

play15:17

durchweg kooperation anzupassen

play15:20

angenommen jetzt genügend neuronen

play15:22

dazwischen schicht kann solches netzwerk

play15:23

tatsächlich theoretisch wie die

play15:25

beziehung zwischen einen ausgabe

play15:27

unabhängig jetzt von der komplexität

play15:28

modulieren

play15:29

in der praxis gibt es jedoch noch andere

play15:32

hürden beispielsweise notwendigkeit und

play15:35

unglaublich vielen gerichten oder noch

play15:36

mehr trainingsdaten und daher gibt es

play15:39

netzwerke die auf ganz bestimmte

play15:40

aufgaben spezialisiert sind

play15:42

beispielsweise ein besonders auf bilder

play15:44

spezialisierter netzwerk typ sind

play15:46

conditional networks oder cnnc enhance

play15:50

verwenden zusätzliche arten von

play15:51

schichten nämlich conditional und polen

play15:54

geschichten um die leistung bei

play15:56

bestimmten aufgaben geben der

play15:57

bilderkennung zu steigern

play15:59

conversion geschichten wenn quasi filter

play16:02

auf das bild an das kann man sich

play16:04

ähnlich wie die verwendung eines filters

play16:05

in ein bildbearbeitungsprogramm

play16:06

vorstellen zum beispiel ein filter der

play16:09

uns hilft vertikale linie zu erkennen

play16:10

er nimmt bestimmtes fenster von pixeln

play16:13

und nicht das ganze bild um den wert

play16:15

eines neuen pixies zu berechnen mit

play16:17

hilfe von training kann das netzwerk

play16:18

eben geeignete filter bestimmen

play16:21

daneben verfügen endes auch über pulling

play16:24

geschichten bei denen wir beispielsweise

play16:26

zweimal zwei pixel nehmen und den pixel

play16:28

mit dem höchsten rotanteil weitergeben

play16:30

das reduziert die gesamte anzahl der

play16:32

pixel yvonnes hintern action schicht

play16:34

ansehen müssen uns hängt ebenso die

play16:36

komplexität nach dem einsatz von einem

play16:40

oder mehreren solchen kommunen in

play16:41

pulling schichten werden bei 71 oft noch

play16:44

viele forderten erzählen sandy gepackt

play16:45

also um sie beispielsweise dazu zu

play16:48

verwenden die daten weiterzuverarbeiten

play16:50

und am ende auch eine entscheidung zu

play16:52

treffen

play16:52

sehen wir jetzt hier einen hund oder

play16:54

eine katze und so weiter einige

play16:57

neuronale netze können sogar zur

play16:59

generierung von daten trainiert werden

play17:02

stichwort die pace der begriff die fakes

play17:04

beschreibt medien die von einer ki

play17:06

erzeugt oder verändert wurden

play17:09

einige beispiele finden sich auf der

play17:10

website des bösen dass nordex ist sie

play17:12

existiert nicht existieren auch nicht

play17:15

und er existiert auch nicht hättest du

play17:17

das gedacht das system hier verwendet

play17:20

ein sogenanntes generated etwas array

play17:22

networks eingang enthält zwei netzwerke

play17:27

die zusammenarbeit

play17:28

dabei kann sich um zwei beliebige daten

play17:30

von netzwerken handeln obwohl auf eine

play17:32

kombination aus viel vorweg netzen und

play17:33

ziehen es verwendet wird

play17:35

das erste match der generator der soll

play17:39

inhalte wie bilder von personen aus

play17:41

früheren eingaben erzeugen also das kann

play17:44

ja nie was vom benutzer hingekritzelt

play17:46

ist sein oder einfach nur zufälliges

play17:48

rauschen das zweite netzwerk der des

play17:52

kriminellen muss die eingabe oder die

play17:54

inhalte die wo erstellt wurde jetzt

play17:55

beurteilen

play17:56

er urteilt indem er entweder sagt dass

play17:59

diese daten echt oder gefälscht

play18:01

gefälscht würde heißen dass sie vom

play18:03

ersten netz erzeugt wurden damit beginnt

play18:07

jetzt eine art wettbewerb in dem seine

play18:10

trainings strategie wie vorher auch

play18:11

angewendet wird wird das zweite netzwerk

play18:13

immer besser darin echte von gefälschten

play18:15

oder von generierten daten zu

play18:17

unterscheiden und das erste netzwerk

play18:19

gelernt wiederum aus der rückmeldung des

play18:21

anderen

play18:22

ob oder wie er bilder besser fälschen

play18:27

muss es wird also man besser im fälschen

play18:30

egal welches neuronale netzwerks

play18:32

verwenden oder welche art von neuronalen

play18:34

netzen jetzt verwenden neuronale netze

play18:36

unterstützen uns beim umgang mit

play18:37

riesigen datenmengen die wehr beim

play18:39

maschinellen lernens sehr oft haben im

play18:41

prinzip finden sie den weg eingabedaten

play18:43

in ausgaben zu verwandeln

play18:44

die pixel eines bildes in der

play18:46

bildunterschrift in deutschland satz in

play18:47

englischen raus staaten ein gefälschtes

play18:49

bild und so weiter freilich keine magie

play18:52

im spiel nur eine menge geschickter

play18:54

matte und dann neuronale netz immer

play18:56

größer werden das ist manchmal wirklich

play18:58

schwer zu erklären warum sie bestimmte

play18:59

ausgaben sie zu bestimmten ausgaben

play19:01

führen bei all den unterschiedlichen

play19:03

gewichtungen & byers fällt es uns

play19:05

einfach schwer zu sagen welche aspekte

play19:06

der eingabe für welche aspekte der

play19:08

ausgabe verantwortlich sind

play19:10

das war's für die heutige folge

play19:13

danke fürs zu sehen und wir sehen uns

play19:15

morgen wenn wir über ki und die

play19:16

auswirkungen auf unsere gesellschaft

play19:17

sprechen

play19:18

macht's gut

Rate This

5.0 / 5 (0 votes)

Related Tags
Neuronales NetzMaschinelles LernenDatenverarbeitungBildrkennungÜberwachtes LernenNetzwerk-TrainingArtifizielles GehirnDeep LearningKünstliche IntelligenzInnovation
Do you need a summary in English?