Die Geschichte der Künstlichen Intelligenz

Everlast KI
25 Jul 202410:57

Summary

TLDRDieses Video führt durch die wichtigsten Meilensteine der künstlichen Intelligenz (KI), von den frühen Konzepten bis zu den bahnbrechenden Fortschritten der Gegenwart. Es zeigt, wie Mathematik, Informatik und menschliche Kreativität zusammengewirkt haben, um KI-Modelle zu schaffen, die unser Leben verändern. Von Leibniz' Kettenregel über die Entwicklung von neuronalen Netzwerken bis hin zu modernen Technologien wie LSTM und Transformer, bietet es einen faszinierenden Einblick in die Geschichte der KI und ihre Auswirkungen auf unsere Welt.

Takeaways

  • 🧩 Die künstliche Intelligenz (KI) hat unser Leben grundlegend verändert, aber die Geschichte und die Rolle der deutschen Forschung darin sind vielen unbekannt.
  • 📚 Der deutsche Mathematiker Gottfried Wilhelm Leibniz veröffentlichte im Jahr 1676 die Kettenregel, die heute für die KI und neuronale Netzwerke zentral ist.
  • 📉 Die Methode der kleinsten Quadrate, entwickelt von Adrien-Marie Legendre, war ein frühes Beispiel für lineare Regression und hat Auswirkungen auf heutige KI-Modelle.
  • 🔁 Die Entwicklung der ersten rekursiven neuronalen Netzwerke durch Ernst Ising und Wilhelm Lenz im frühen 20. Jahrhundert ermöglichte das Speichern von Kontextinformationen.
  • 🌐 Frank Rosenblatt führte 1958 die Perzeptrons ein, die als Vorläufer für heutige mehrschichtige neuronale Netzwerke (Multi-Layer Perceptrons, MLPs) gelten.
  • 🔍 Im Jahr 1965 entstanden die ersten Algorithmen für tiefes Lernen, was die Grundlage für moderne KI-Anwendungen legte.
  • 📉 Shun-Ichi Amari schlug 1967 das Stochastische Gradientenverfahren vor, was die Entwicklung von tiefen neuronalen Netzwerken vorantrieb.
  • 🔄 Die Backpropagation, veröffentlicht 1970 von Seppo Linnainmaa, ermöglichte es, Neuronale Netzwerke effizient zu trainieren und ist heute essentiell für das Lernen in KI.
  • 👀 Der Einstieg von Fukushimas konvolutionalen Neuronetzwerken (CNNs) im Jahr 1979 revolutionierte die Computer Vision und Bildverarbeitung.
  • 🤝 Generative Adversarial Networks (GANs), eingeführt in den frühen 1990er Jahren, ermöglichten die Selbstentwicklung von KI durch gegenseitiges Wettbewerbstraining.
  • 📝 Die Erfindung von Long Short-Term Memory (LSTM) durch Sepp Hochreiter im Jahr 1997 löste das Problem der langfristigen Informationsspeicherung in neuronalen Netzwerken.
  • 🚀 Die Leistungsfähigkeit von CNNs wurde 2011 durch die Nutzung von Grafikprozessoren (GPUs) erheblich gesteigert, was die Bildverarbeitung revolutionierte.
  • 🎨 Generative Adversarial Networks (GANs) wurden 2014 populär und revolutionierten die Generierung realistischer Bilder und Daten.
  • 🌐 Google Übersetzer, ab 2016 auf LSTM basierend, verbesserte die Qualität der Sprachübersetzung erheblich.
  • 🤖 Reinforcement Learning, populär ab 2018, ermöglichte es autonomen Systemen, durch Lernen aus Erfahrungen komplexe Aufgaben zu meistern.
  • 🔄 Die Entwicklung von Transformer-Modellen wie GPT hat die Sprachverarbeitung revolutioniert und ermöglichte die Erstellung von Texten, die kaum von menschlichen zu unterscheiden sind.

Q & A

  • Was ist das Ziel des Videos?

    -Das Ziel des Videos ist es, eine komprimierte Zusammenfassung der Geschichte der künstlichen Intelligenz zu bieten, sodass der Zuschauer genügend Hintergrundwissen hat, um heute profitabel mit diesen Technologien zu arbeiten.

  • Welche Rolle spielte die deutsche Forschung in der Entwicklung der künstlichen Intelligenz?

    -Die deutsche Forschung und deutsche Genies spielten eine entscheidende Rolle in der Entwicklung der künstlichen Intelligenz, wie zum Beispiel die Veröffentlichung der Kettenregel der Differentialrechnung von Gottfried Wilhelm Leibnitz im Jahr 1676.

  • Was ist die Kettenregel der Differentialrechnung und welche Rolle spielt sie bei neuronalen Netzwerken?

    -Die Kettenregel ist eine zentrale Regel für die Berechnung in tiefen neuronalen Netzwerken. Sie hilft, den Einfluss einer kleinen Änderung in einem Teil des Netzwerks auf das gesamte System zu verstehen und ist für das Training moderner neuronaler Netzwerke von großer Bedeutung.

  • Wer entwickelte die Methode der kleinsten Quadrate und wie wird sie heute bezeichnet?

    -Adrien-Marie Legendre entwickelte die Methode der kleinsten Quadrate, die heute als einfaches neuronales Netzwerk oder lineare Regression bekannt ist.

  • Was ist das erste rekurrente neuronale Netzwerk und welche Funktion hat es?

    -Das erste rekurrente neuronale Netzwerk ist das Easing-Modell, entwickelt von Ernst Heisig und Wilhelm Lenz in den 1920er Jahren. Es hat Rückkopplungsverbindungen, die es ermöglichen, sich an frühere Eingaben zu erinnern und ist für Aufgaben wie Spracherkennung und Textvorhersage besonders wertvoll.

  • Wer führte das Konzept der mehrschichtigen Perzeptrons ein und was bedeuten MLPs?

    -Frank Rosenblatt führte das Konzept der mehrschichtigen Perzeptrons ein, kurz MLPs. Diese Netzwerke bestehen aus mehreren Schichten, die voneinander lernen, und legten den Grundstein für spätere Entwicklungen im Bereich des Deep Learnings.

  • Was bedeuten tiefe Lernalgorithmen und welche Rolle spielen sie in der KI?

    -Tiefe Lernalgorithmen, heute als Deep Learning bekannt, ermöglichen es mehrschichtigen Netzwerken, mit vielen verborgenen Schichten zu trainieren. Sie sind für die Erkennung und Klassifizierung komplexer Muster in Daten verantwortlich und bilden die Basis für viele moderne KI-Anwendungen.

  • Was ist das stochastische Gradientenverfahren und wie hat es die KI geprägt?

    -Das stochastische Gradientenverfahren, vorgeschlagen von Shun-Ichi Amari im Jahr 1967, ermöglichte es, die Gewichte der neuronalen Netzwerke iterativ anzupassen, um die Fehler zu minimieren. Diese Technik ermöglichte tiefe neuronale Netzwerke effizient zu trainieren und war ein großer Fortschritt in der KI.

  • Was ist das Backpropagation-Algorithmus und wie funktioniert es?

    -Der Backpropagation-Algorithmus, veröffentlicht 1970 von Seppo Linnainmaa, ist essentiell für das Training neuronaler Netzwerke. Er ermöglicht es, Fehler von der Ausgabeschicht zu der Eingabeschicht zurückzuführen und die Gewichte im Netzwerk anzupassen, um die Fehler zu minimieren und die Modelle zu verbessern.

  • Was sind Convolutional Neural Networks (CNNs) und welche Anwendungen haben sie?

    -Convolutional Neural Networks (CNNs) sind eine Art von neuronalem Netzwerk, das die Computer Vision revolutionierte. Sie verwenden mehrere Schichten, um Merkmale aus Bildern zu extrahieren und finden Anwendung in der Gesichtserkennung, medizinischen Bildanalyse und vielen anderen Bereichen.

  • Was sind Generative Adversarial Networks (GANs) und wie wurden sie entwickelt?

    -Generative Adversarial Networks (GANs) bestehen aus einem Generator und einem Diskriminator, die gegeneinander trainiert werden. Sie wurden in den frühen 1990er Jahren eingeführt und ermöglichen die Generierung realistischer Bilder und anderer Daten, indem der Generator Daten erstellt, die der Diskriminator zu unterscheiden versucht, ob sie echt oder generiert sind.

  • Was bedeuten Long Short-Term Memory (LSTM) Netzwerke und welche Probleme lösen sie?

    -Long Short-Term Memory (LSTM) Netzwerke, eingeführt 1997 von Sepp Hochreiter, sind spezielle neuronale Netzwerke, die Informationen über längere Zeiträume speichern und nutzen können. Sie lösen das Problem der vergesslichen neuronalen Netzwerke, indem sie langfristige Abhängigkeiten lernen und speichern, was für Aufgaben wie Sprach- und Texterkennung besonders nützlich ist.

  • Wie hat die Leistungsfähigkeit von CNNs durch den Einsatz von Grafikprozessoren (GPUs) verbessert werden?

    -Die Leistungsfähigkeit von CNNs wurde im Jahr 2011 erheblich gesteigert, indem sie mit Grafikprozessoren (GPUs) eingesetzt wurden. Diese Netzwerke konnten Muster in großen Bilddatensätzen erkennen und haben die Computer Vision revolutioniert, was Anwendungen wie die Gesichtserkennung und die automatische Bildklassifizierung ermöglichte.

  • Was ist der Google Übersetzer und wie basiert seine Funktionsweise auf LSTM-Netzwerken?

    -Der Google Übersetzer ist ein Dienst, der die Qualität der Übersetzung durch den Einsatz von LSTM-Netzwerken verbessert hat. Diese Technologie ermöglicht es, Sprachbarrieren zu überwinden und die Kommunikation weltweit zu verbessern, indem sie eine präzise Übersetzung verschiedener Sprachen bietet.

  • Was ist Reinforcement Learning und wie hat es die KI in Robotik und autonomen Systemen vorangetrieben?

    -Reinforcement Learning ist eine Methode, bei der ein System durch Versuch und Irrtum lernt, indem es Feedback aus der realen Welt erhält. Ein bemerkenswertes Beispiel ist OpenAI, ein System, das eine robotische Hand steuern lernt. Diese Technologie hat das Potenzial, autonome Systeme zu entwickeln, die komplexe Aufgaben ohne menschliches Eingreifen ausführen können.

  • Was sind Transformer-Modelle und wie haben sie die Sprachverarbeitung revolutioniert?

    -Transformer-Modelle, wie z.B. GPT-4, sind neuronale Netzwerke, die die Sprachverarbeitung revolutioniert haben. Sie ermöglichen die Generierung von Texten, die kaum von menschlichen Autoren zu unterscheiden sind und haben die Effizienz und Qualität von Textgenerierungsaufgaben erheblich verbessert.

Outlines

00:00

😲 Die Geschichte der künstlichen Intelligenz

Dieses Video führt durch die wichtigsten Meilensteine der künstlichen Intelligenz (KI), von den frühesten Konzepten bis zu den bahnbrechenden Fortschritten der Gegenwart. Es zeigt die Rolle der deutschen Forschung und wie Mathematik, Informatik und menschliche Kreativität zusammengewirkt haben, um die heutigen KI-Technologien zu schaffen. Von Gottfried Wilhelm Leibniz' Kettenregel bis hin zu modernen neuronalen Netzwerken und Deep Learning, das Video bietet einen Einblick in die Entwicklung der KI und verspricht, den Zuschauer zu einem Experten zu machen.

05:01

🌟 Schlüsseltechnologien der KI-Entwicklung

Der Abschnitt bietet einen Überblick über die Entwicklung von KI-Technologien wie die Methode der kleinsten Quadrate, rekurrente neuronale Netzwerke, Multi-Layer Perceptrons (MLPs) und tiefes Lernen. Es erklärt die Bedeutung von Leibniz' Kettenregel für die heutigen neuronalen Netzwerke, wie Gauss seine Methode zur Vorhersage der Position von Ceres anwendete und wie die Entwicklung von LSTMs und CNNs die KI-Forschung vorangetrieben hat. Auch die Einführung von Generativen Adversarial Networks (GANs) und die Verbesserung der Bildverarbeitung durch GPU-Einsätze werden behandelt.

10:01

🚀 Aktuelle Fortschritte und Anwendungen der KI

Dieser Teil des Skripts zeigt die jüngsten Fortschritte in der KI, einschließlich der Verbesserung der Übersetzungsqualität durch LSTM-Netzwerke, der Popularisierung von GANs für die Generierung realistischer Bilder und die Anwendung von Reinforcement Learning in der Robotik. Es wird auch auf die Transformation der Sprachverarbeitung durch Transformer-Modelle wie GPT-4 hingewiesen und wie diese Technologien das tägliche Leben revolutionieren und in immer mehr Lebensbereichen Einzug halten.

📚 Zusammenfassung und Aufruf zur Teilnahme

Der Schlussteil des Videos bietet eine zusammenfassende Betrachtung der Geschichte der künstlichen Intelligenz und motiviert die Zuschauer, das Wissen zu nutzen, um erfolgreich mit KI-Technologien zu arbeiten. Der Sprecher lädt die Zuschauer ein, das Video zu liken, den Kanal zu abonnieren und sich auf weitere Videos zu freuen, die die KI-Revolution und ihre Auswirkungen auf die Gesellschaft weiter erkunden werden.

Mindmap

Keywords

💡Künstliche Intelligenz (KI)

Künstliche Intelligenz, kurz KI, bezeichnet Systeme und Algorithmen, die die Fähigkeit haben, zu lernen, zu problemlösen und Entscheidungen zu treffen ähnlich wie ein Mensch. Im Video wird die KI als zentrale Revolutionierungskraft im Leben aller Menschen dargestellt, die durch verschiedene Technologien und Entwicklungsschritte geprägt wird, von den frühesten Konzepten bis zu den modernen Anwendungen.

💡Differentialrechnung

Die Differentialrechnung ist ein Zweig der Mathematik, der sich mit Veränderungen und kleinen Unterschieden in Funktionen befasst. Im Kontext des Videos ist die Kettenregel der Differentialrechnung entscheidend für die Berechnungen in neuronalen Netzwerken, wie sie in der KI verwendet werden, und wurde von Gottfried Wilhelm Leibnitz im 17. Jahrhundert veröffentlicht.

💡Neuronale Netzwerke

Neuronale Netzwerke sind ein Konzept der KI, das auf dem Prinzip der Verbindung von Neuronen im menschlichen Gehirn basiert. Im Video werden sie als Grundlage für KI-Modelle beschrieben, die durch die Kettenregel und andere Entwicklungen wie das Perzeptron und rekurrente Netzwerke ermöglicht wurden.

💡Lineare Regression

Lineare Regression ist eine statistische Methode, die verwendet wird, um die Beziehung zwischen einer abhängigen Variablen und einer oder mehreren unabhängigen Variablen zu modellieren. Im Video wird sie als Vorläufer des neuronalen Netzwerks und als Anwendung des Methoden der kleinsten Quadrate von Adrien-Marie Legendre erwähnt.

💡Rekurrente neuronale Netzwerke

Rekurrente neuronale Netzwerke sind ein Typ von Netzwerken, die rückkopplungsverbindungen besitzen und in der Lage sind, sich an frühere Eingaben zu erinnern. Im Video werden sie als erstes rekurrentes neuronales Netzwerk von Ernst Ising und Wilhelm Lenz in den 1920er Jahren entwickelt und für ihre Fähigkeit, Kontextinformationen zu speichern und zu nutzen, hervorgehoben.

💡Perzeptron

Ein Perzeptron ist ein einfaches Modell eines neuronalen Netzwerks, das aus mehreren Schichten besteht, die voneinander lernen können. Im Video wird das Perzeptron von Frank Rosenblatt als grundlegende Schicht für spätere Entwicklungen in der KI-Forschung eingeführt.

💡Tiefes Lernen

Tiefes Lernen ist eine Methode der KI, die es neuronalen Netzwerken mit vielen verborgenen Schichten ermöglicht, komplexe Muster in Daten zu erkennen. Im Video wird das Konzept des tiefen Lernens von Alexei Iwanenko und Valentin Lapar als Schlüssel für moderne KI-Anwendungen beschrieben.

💡Stochastisches Gradientenverfahren

Das stochastische Gradientenverfahren ist ein Verfahren zur iterativen Anpassung der Gewichte in neuronalen Netzwerken, um Fehler zu minimieren. Im Video wird es von Shun-Ichi Amari als Methode vorgestellt, die tiefe neuronale Netzwerke effizient trainieren kann.

💡Backpropagation

Backpropagation ist ein Algorithmus, der verwendet wird, um die Gewichte in neuronalen Netzwerken zu optimieren, indem er Fehler von der Ausgabeschicht zur Eingabeschicht zurückführt. Im Video wird es als entscheidender Faktor für die Verbesserung der Genauigkeit von KI-Modellen beschrieben.

💡Konvolutionelle Neuronale Netzwerke (CNNs)

Konvolutionelle Neuronale Netzwerke, kurz CNNs, sind ein spezialisiertes neuronales Netzwerk, das in der Bildverarbeitung und -analyse verwendet wird. Im Video wird das CNN von Fukushima als Innovation vorgestellt, die die Computer Vision revolutionierte und heute für Anwendungen wie Gesichtserkennung und medizinische Bildanalyse wichtig ist.

💡LSTM-Netzwerke

LSTM (Long Short-Term Memory) sind eine Art von rekurrentem neuronalem Netzwerk, das Informationen über längere Zeiträume speichern kann. Im Video werden LSTM von Sepp Hochreiter als Lösung für das Problem des schnellen Vergessens in früheren neuronalen Netzwerken beschrieben und für ihre Rolle bei der Spracherkennung und Textgenerierung hervorgehoben.

💡Generative Adversarial Networks (GANs)

Generative Adversarial Networks sind ein Konzept der KI, bei dem zwei Netzwerke, ein Generator und ein Diskriminator, gegeneinander trainiert werden. Im Video werden GANs als eine Methode beschrieben, die es ermöglicht, realistische Bilder und Daten zu generieren und in Bereichen wie Kunst und Medizin Anwendung findet.

💡Reinforcement Learning

Reinforcement Learning ist eine Methode der KI, bei der ein System durch das Sammeln von Feedback aus der realen Welt lernt, komplexe Aufgaben zu meistern. Im Video wird OpenAI als Beispiel für ein System vorgestellt, das durch Reinforcement Learning eine robotische Hand steuern kann.

💡Transformer-Modelle

Transformer-Modelle sind eine neue Generation von neuronalen Netzwerken, die für die Sprachverarbeitung verwendet werden und die Fähigkeit haben, Texte zu generieren, die kaum von menschlichen Autoren zu unterscheiden sind. Im Video werden sie als eine der zuletzt erreichten Fortschritte in der KI-Forschung beschrieben.

Highlights

Die künstliche Intelligenz (KI) revolutioniert unser Leben, aber viele wissen nicht, welche Rolle die deutsche Forschung und deutsche Genies dabei spielten.

Gottfried Wilhelm Leibniz veröffentlichte 1676 die Kettenregel der Differentialrechnung, die heute für neuronale Netzwerke zentral ist.

Adrien-Marie Legendre entwickelte 1805 die Methode der kleinsten Quadrate, Grundlage für lineare Regression und neuronale Netze.

Johann Carl Friedrich Gauss nutzte die Methode der kleinsten Quadrate, um die Position des Planeten Ceres zu berechnen.

Ernst Ising und Wilhelm Lenz entwickelten 1920 das erste rekurrente neuronale Netzwerk, das rückkopplungsverbindungen hat.

Frank Rosenblatt führte 1958 das Konzept der mehrschichtigen Perzeptrons ein, was den Grundstein für Deep Learning legte.

Alexei Iwanenko und Valentin Lapar entwickelten 1965 die ersten Algorithmen für tiefes Lernen.

Shun-Ichi Amari schlug 1967 das stochastische Gradientenverfahren vor, um neuronale Netzwerke zu trainieren.

Seppo Linnainmaa veröffentlichte 1970 den Backpropagation-Algorithmus, der für das Training neuronaler Netzwerke essentiell ist.

Kunihiko Fukushima führte 1979 das konvolutionale Neuronetzwerk ein, was die Computer Vision revolutionierte.

In den frühen 1990er Jahren wurden Generative Adversarial Networks (GANs) eingeführt, die die KI-Selbstentwicklung ermöglichten.

Die Erfindung von Long Short-Term Memory (LSTM) Netzwerken durch Sepp Hochreiter 1997 löste das Problem des schnellen Vergessens in neuronalen Netzwerken.

2011: Google Übersetzer verwendete LSTM-Netzwerke, was die Qualität der Übersetzung verbesserte.

2014: GANs wurden populär und revolutionierten die Generierung realistischer Bilder.

2016: Der Google Übersetzer basierte auf LSTM-Netzwerken, was Sprachbarrieren überwinden half.

2018: Reinforcement Learning mit neuronalen Netzwerken wurde populär und ermöglichte autonome Systeme.

In den letzten Jahren haben sich Transformer-Modelle und KI in Robotik und autonomen Systemen rasant entwickelt.

Das Ziel des Videos ist eine komprimierte Zusammenfassung der KI-Geschichte, um Hintergrundwissen für heutige Technologien zu vermitteln.

Transcripts

play00:00

die künstliche Intelligenz

play00:01

revolutioniert momentan unser allerleben

play00:03

fundamental doch die meisten Leute haben

play00:06

keinen blassen Schimmer davon was

play00:08

eigentlich die Geschichte der KI ist und

play00:10

welche entscheidende Rolle auch die

play00:12

deutsche Forschung und deutsche Genies

play00:15

dabei spielten in diesem Video nehme ich

play00:17

dich mit auf eine Reise durch die

play00:18

wichtigsten Meilensteine der künstlichen

play00:20

Intelligenz von den frühesten Konzepten

play00:22

bis hin zu den bahnbrechenden

play00:24

Fortschritten der Gegenwart wir werden

play00:26

also sehen wie Mathematik Informatik und

play00:28

menschliche kativität zusammengewirkt

play00:31

haben um die Technologien zu erschaffen

play00:33

die heute unser allerleben prägen und

play00:36

fundamental verändern und ich garantiere

play00:38

dir wenn du bis zum Schluss drin bleibst

play00:40

dann wirst du mehr Ahnung über die

play00:41

Geschichte der KI haben als 99% aller

play00:44

Menschen ja und unsere Zeitreise die

play00:46

beginnt bereits im 17 Jahrhundert im

play00:48

Jahr

play00:49

1676 veröffentlichte der deutsche

play00:52

Mathematiker gottfried Wilhelm Leibnitz

play00:55

die Kettenregel der

play00:56

Differentialrechnung diese Regel ist

play00:58

heute zentral für die Berechnung in

play01:01

tiefen neuronalen Netzwerken auf denen

play01:04

die ki-modelle basieren um das zu

play01:06

verstehen stell dir vor du arbeitest an

play01:08

einem riesigen Puzzle bei dem jedes

play01:11

einzelne Teil die Position der anderen

play01:13

Teile beeinflusst die Kettenregel hilft

play01:15

uns zu verstehen wie sich eine kleine

play01:17

Änderung in einem Teil auf das gesamte

play01:19

Puzzle auswirkt ohne diese Regel wäre

play01:21

das Training moderner neuronaler

play01:23

Netzwerke kaum möglich um das Jahr 1805

play01:27

entwickelte Adrien Marie leendre den

play01:29

Methode der kleinsten Quadrate die heute

play01:32

als einfaches neuronales Netzwerk oder

play01:34

lineare Regression bekannt ist Johan

play01:37

Karl Friedrich Gaus einer der größten

play01:39

Mathematiker seiner Zeit nutzte diese

play01:41

Methode um die Position des

play01:43

Zwergplaneten sereres vorherzusagen Gaus

play01:46

hatte nur wenige Datenpunkte und nutzte

play01:48

seine mathematischen Modelle um die

play01:50

genaue Position des Planeten zu

play01:52

berechnen das ist ein frühes Beispiel

play01:54

für die Vorhersagekraft derartiger

play01:56

Algorithmen weiter geht es im Jahr 1920

play02:00

bis

play02:00

1925 mit der Entwicklung der ersten

play02:03

Rekurrenten neuronalen Netzwerke in den

play02:06

1920er Jahren entwickelten die Physiker

play02:08

Ernst easing und Wilhelm Lenz das easing

play02:11

Modell das als erstes rekurrentes

play02:14

neuronales Netzwerk gilt diese Netzwerke

play02:16

haben

play02:17

rückkopplungsverbindungen die es Ihnen

play02:19

ermöglichen sich an frühere Eingaben zu

play02:21

erinnern stell dir also vor du bist in

play02:23

einem Gespräch und vergissst sofort

play02:24

alles was bisher besprochen wurde durch

play02:27

die Rekurrenten neuronalen Netzwerke

play02:29

kannst du dich jetzt an alles erinnern

play02:31

was zuvor gesagt wurde und das ist genau

play02:33

die Stärke dieser Technologie sie sind

play02:36

also in der Lage kontextinformation zu

play02:39

speichern und zu nutzen was sie für

play02:40

Aufgaben wie die Spracherkennung und

play02:43

textvorhersage besonders wertvoll macht

play02:45

im Jahr 1958 führte Frank Rosenblatt das

play02:48

Konzept der mehrchichtigen perzeptrons

play02:50

kururz mlps ein diese Netzwerke

play02:52

bestanden aus mehreren Schichten in

play02:54

denen jede Schicht von der vorherigen

play02:57

lernte obwohl dies noch kein richtiges

play02:59

deep learning war legte rosenblatts

play03:01

Arbeit den Grundstein für spätere

play03:03

Entwicklung stell dir z.B vor du lernst

play03:06

Klavier zu spielen und jede neue Lektion

play03:09

baut auf der vorherigen auf genauso

play03:12

funktioniert das Lernen in mlps im Jahr

play03:15

1965 entwickelten Alexei ivanenko und

play03:18

Valentin lapar die ersten Algorithmen

play03:21

für tiefes lernen heute als deep

play03:24

learning bekannt ihre Methoden

play03:26

ermöglichten es mehrschichtige Netzwerke

play03:29

mit vielen geborgenen Schichten zu

play03:30

trainieren ein beeindruckendes Beispiel

play03:32

ist die Fähigkeit dieser Netzwerke

play03:34

komplexe Muster in Daten zu erkennen und

play03:36

zu klassifizieren wie etwa

play03:38

handgeschriebene Ziffern oder

play03:40

Sprachbefehle diese Algorithmen legten

play03:42

den Grundstein für viele moderne

play03:44

Anwendung der KI und auch heute basieren

play03:47

alle KI mododelle auf den neuronalen

play03:50

Netzwerken des deep Learnings im Jahr

play03:52

1967 schlug Shun Ichi Amari vor

play03:56

neuronale Netzwerke mit vielen Schichten

play03:58

mit Hilfe eines stochas

play04:00

Gradientenverfahren zu trainieren diese

play04:02

Methode ermöglichte es die Gewichte der

play04:04

neuronalen Netzwerke iterativ anzupassen

play04:07

um die Fehler zu minimieren stell dir

play04:10

vor du lernst Fahrradfahren bei jedem

play04:12

Versuch das Gewicht zu halten justierst

play04:14

du deine Bewegung um nicht zu stürzen

play04:16

ähnlich passt dieses Netzwerk seine

play04:18

Verbindung an um bessere Ergebnisse zu

play04:20

erzielen diese Technik ermöglichte es

play04:23

tiefe neuronale Netzwerke effizient zu

play04:25

trainieren und interne Repräsentation

play04:27

von Daten zu erlernen was ein groß grßen

play04:29

Fortschritt in der KI darstellte im Jahr

play04:32

1970 machte die KI dann große Sprünge

play04:35

durch die Erfindung der sogenannten back

play04:38

propagation sepo linin ma

play04:40

veröffentlichte 1970 den back

play04:43

propagation Algorithmus der heute

play04:45

essentiell für das Training neuronaler

play04:47

Netzwerke ist back propagation

play04:49

ermöglicht es Fehler von der

play04:51

ausgabeschicht zu eingabeschicht

play04:53

effizient zurückzuführen und die

play04:55

Gewichte in dem neuronalen Netzwerk

play04:57

anzupassen um die Fehler zu en und die

play05:00

Modelle zu verbessern das funktioniert

play05:02

ähnlich wie ein Lehrer der einem Schüler

play05:05

nach jedem Fehler sofort eine

play05:06

Rückmeldung gibt diese Methode

play05:08

revolutionierte die künstliche

play05:09

Intelligenz da sie neuronalen Netzwerken

play05:11

erlaubte aus großen datenbangen zu

play05:13

lernen und ihre Genauigkeit erheblich zu

play05:15

verbessern im Jahr 1979 führte der

play05:18

japanische kiforscher Fukushima das

play05:21

konvolutionale neuronetzwerk kurz CNN

play05:24

ein dass die computer vision

play05:27

revolutionierte cnns verwenden mehrere

play05:30

Schichten und Merkmale aus Bildern zu

play05:32

extrahieren stell dir vor du hast eine

play05:34

Kamera die nicht nur Fotos macht sondern

play05:36

auch versteht was auf den Bildern zu

play05:38

sehen ist cnns haben Anwendung in der

play05:42

Gesichtserkennung der medizinischen

play05:43

Bildanalyse und vielen anderen Bereichen

play05:46

gefunden und sind heute entscheidend für

play05:48

die KI Bilderkennung in den frühen

play05:51

1990er Jahren wurden bedeutende

play05:53

Fortschritte durch die Kombination und

play05:55

Weiterentwicklung verschiedener

play05:57

Techniken der Vergangenheit erzielt

play05:58

generative advisarial Networks wurden

play06:01

eingeführt wobei zwei Netzwerke ein

play06:04

Generator und ein Diskriminator

play06:06

gegeneinander trainieren gleichzeitig

play06:08

entwickelten forschermethoden wie

play06:10

selbstüberwachtes pretraining und

play06:12

hierarchische Handlungspläne dieses

play06:14

neuronalen Netzwerken möglichten

play06:16

komplexe Aufgaben effizienter zu

play06:17

bewältigen wir sehen also bereits in den

play06:19

1990er Jahren einige Entwicklung die es

play06:22

ermöglichten dass sich künstlich

play06:23

Intelligenz selbst weiterentwickelt ein

play06:26

großes Problem war jedoch immer noch

play06:28

dass diese neur Netzwerke Information

play06:31

schnell wieder vergaßen und sich nicht

play06:33

mehr an die Eingaben erinnerten die sie

play06:35

nur wenige Sätze und Wörter vorher

play06:37

erhalten haben genau hier kommt die

play06:38

Erfindung des deutschen Informatikers dr

play06:41

se Hochreiter ins Spiel der die long

play06:43

shortter memory kurz lstms erfunden hat

play06:46

die lstm Netzwerke die 1997 eingeführt

play06:49

wurden boten eine Lösung für das Problem

play06:51

der verschiedenen Gradienten LSM

play06:54

Netzwerke haben spezielle Einheiten die

play06:56

es Ihnen ermöglichen Information über

play06:58

längere Zeiträume zu ichern und zu

play07:00

nutzen stell dir vor du hast ein

play07:02

Tagebuch in dem du die wichtigsten

play07:03

Ereignisse notierst damit du sie später

play07:05

nachlesen kannst diese Fähigkeit

play07:07

langfristige Abhängigkeiten zu lernen

play07:09

und zu speichern machte lscm Netzwerke

play07:12

besonders nützlich für Aufgaben wie

play07:14

sprach und Texterkennung und ist

play07:15

maßgeblich für die aktuellen Transformer

play07:18

Technologien wie wir sie unter anderem

play07:20

von Chat gbt kennen im Jahr 2011 wurde

play07:23

die Leistungsfähigkeit konvolutionaler

play07:25

neuronaler Netzwerke durch den Einsatz

play07:27

von Grafikprozessoren also pus erheblich

play07:31

gesteigert diese Netzwerke wurden in der

play07:33

Bildverarbeitung eingesetzt und konnten

play07:35

Muster in großen bilddatensätzen

play07:37

erkennen stell dir vor du hast einen

play07:39

extrem leistungsfähigen Scanner der

play07:41

Bilder in Bruchteilen von Sekunden

play07:43

analysieren und kategorisieren kann

play07:45

diese Technologie revolutionierte die

play07:47

Computer Vision und er möglichte

play07:49

Anwendung wie die Gesichtserkennung und

play07:51

die automatische bildklassifizierung im

play07:54

Jahr 2014 wurden die generativen

play07:57

adversarial Networks erst malig populär

play08:00

und revolutionierten die Generierung

play08:02

realistischer Bilder und anderer Daten

play08:05

ein Gen besteht wie wir bereits gelernt

play08:07

haben aus einem Diskriminator und einem

play08:09

Generator und der Generator erstellt

play08:11

Daten die der Diskriminator zu

play08:13

unterscheiden versucht ob sie echt oder

play08:15

generiert sind stell dir vor du hast

play08:17

zwei Künstler einer mal Bilder und der

play08:20

andere versucht echte von gefälschten zu

play08:22

unterscheiden durch dieses

play08:24

wettbewerbstraining werden beide immer

play08:25

besser in ihrer Aufgabe GS haben

play08:28

Anwendung in der BILD und

play08:29

videogenerierung der Kunst und sogar der

play08:31

Medizin gefunden im Jahr 2016 basierte

play08:34

der google übersetzer schon auf lstm

play08:36

Netzwerken was die Qualität der

play08:38

Überzeugung erheblich verbesserte also

play08:41

stell dir vor du hast einen persönlichen

play08:43

dolmetcher der sofort jede Sprache

play08:46

präzise übersetzen kann so wie der

play08:48

Google Übersetzer und dieser basiert auf

play08:50

der Erfindung der lstms diese

play08:52

Technologie ermöglichte es

play08:53

Sprachbarrieren zu überwinden und die

play08:56

Kommunikation weltweit zu verbessern ab

play08:58

dem jah 2018 wurde das sogenannte

play09:01

reinforcement learning mit neuronalen

play09:03

Netzwerken immer populärer ein

play09:05

bemerkenswertes Beispiel dafür ist Open

play09:08

dctyl ein reinforcement learning system

play09:10

das lernte eine robotische Hand zu

play09:12

steuern stell dir vor du hast ein

play09:14

Roboter der durch Versuch und irturm

play09:17

lernt eine Aufgabe zu meistern wie das

play09:19

Greifen eines Balls diese Technologie

play09:22

hat das Potenzial autonome Systeme in

play09:24

der realen Welt zu entwickeln die

play09:26

komplexe Aufgaben ohne menschliches

play09:28

Eingreifen ausführen können und allein

play09:31

durch das erfahren und Feedback aus der

play09:33

realen Welt lernen und sich ständig

play09:36

weiterentwickeln auch in den letzten

play09:37

Jahren hat sich die künstliche

play09:38

Intelligenz weiter rasant entwickelt

play09:41

Transformer Modelle wie gbt 4o haben die

play09:44

Sprachverarbeitung revolutioniert und

play09:46

ermöglichen die Generierung von Texten

play09:48

die kaum von menschlichen Autoren zu

play09:50

unterscheiden sind im Bereich der

play09:52

Bildverarbeitung haben kimodelle die

play09:54

Erstellung hochrealistischer Bilder und

play09:56

Videos ermöglicht reinforcement learning

play09:58

hat durch den Einsatz von KI in Robotik

play10:01

und autonom System neue Höhen erreicht

play10:04

diese Entwicklung haben dazu beigetragen

play10:06

dass KI in immer mehr Lebensbereichen

play10:08

Einzug hält und heute unser

play10:10

allertägliches Leben revolutioniert das

play10:13

Ziel dieses Videos war es die eine

play10:15

komprimierte Zusammenfassung der

play10:16

Geschichte der künstlichen Intelligenz

play10:18

zu bieten s dass du genügend

play10:20

Hintergrundwissen hast um heute

play10:22

profitabel mit diesen Technologien zu

play10:25

arbeiten und wenn dich das ganze

play10:26

interessiert wenn du künstliche

play10:28

Intelligenz profitabel einsetzen

play10:30

möchtest wenn du Vorreiter in dieser KI

play10:33

Revolution die nun immer weiter an Fahrt

play10:35

aufnimmt und sich immer exponentieller

play10:37

entwickelt wenn du davon profitieren

play10:39

möchtest dann freue ich mich über ein

play10:41

Like auf diesem Video abonniere den

play10:43

Kanal bleib am Ball und ich freue mich

play10:46

Dich im nächsten Video wiederzusehen bis

play10:48

dahin dein Leo

Rate This

5.0 / 5 (0 votes)

Related Tags
Künstliche IntelligenzGeschichteInnovationTechnologieLeibnizNeuronale NetzwerkeDeep LearningReinforcement LearningLSTMTransformerKI-Modelle
Do you need a summary in English?