Die Geschichte der Künstlichen Intelligenz
Summary
TLDRDieses Video führt durch die wichtigsten Meilensteine der künstlichen Intelligenz (KI), von den frühen Konzepten bis zu den bahnbrechenden Fortschritten der Gegenwart. Es zeigt, wie Mathematik, Informatik und menschliche Kreativität zusammengewirkt haben, um KI-Modelle zu schaffen, die unser Leben verändern. Von Leibniz' Kettenregel über die Entwicklung von neuronalen Netzwerken bis hin zu modernen Technologien wie LSTM und Transformer, bietet es einen faszinierenden Einblick in die Geschichte der KI und ihre Auswirkungen auf unsere Welt.
Takeaways
- 🧩 Die künstliche Intelligenz (KI) hat unser Leben grundlegend verändert, aber die Geschichte und die Rolle der deutschen Forschung darin sind vielen unbekannt.
- 📚 Der deutsche Mathematiker Gottfried Wilhelm Leibniz veröffentlichte im Jahr 1676 die Kettenregel, die heute für die KI und neuronale Netzwerke zentral ist.
- 📉 Die Methode der kleinsten Quadrate, entwickelt von Adrien-Marie Legendre, war ein frühes Beispiel für lineare Regression und hat Auswirkungen auf heutige KI-Modelle.
- 🔁 Die Entwicklung der ersten rekursiven neuronalen Netzwerke durch Ernst Ising und Wilhelm Lenz im frühen 20. Jahrhundert ermöglichte das Speichern von Kontextinformationen.
- 🌐 Frank Rosenblatt führte 1958 die Perzeptrons ein, die als Vorläufer für heutige mehrschichtige neuronale Netzwerke (Multi-Layer Perceptrons, MLPs) gelten.
- 🔍 Im Jahr 1965 entstanden die ersten Algorithmen für tiefes Lernen, was die Grundlage für moderne KI-Anwendungen legte.
- 📉 Shun-Ichi Amari schlug 1967 das Stochastische Gradientenverfahren vor, was die Entwicklung von tiefen neuronalen Netzwerken vorantrieb.
- 🔄 Die Backpropagation, veröffentlicht 1970 von Seppo Linnainmaa, ermöglichte es, Neuronale Netzwerke effizient zu trainieren und ist heute essentiell für das Lernen in KI.
- 👀 Der Einstieg von Fukushimas konvolutionalen Neuronetzwerken (CNNs) im Jahr 1979 revolutionierte die Computer Vision und Bildverarbeitung.
- 🤝 Generative Adversarial Networks (GANs), eingeführt in den frühen 1990er Jahren, ermöglichten die Selbstentwicklung von KI durch gegenseitiges Wettbewerbstraining.
- 📝 Die Erfindung von Long Short-Term Memory (LSTM) durch Sepp Hochreiter im Jahr 1997 löste das Problem der langfristigen Informationsspeicherung in neuronalen Netzwerken.
- 🚀 Die Leistungsfähigkeit von CNNs wurde 2011 durch die Nutzung von Grafikprozessoren (GPUs) erheblich gesteigert, was die Bildverarbeitung revolutionierte.
- 🎨 Generative Adversarial Networks (GANs) wurden 2014 populär und revolutionierten die Generierung realistischer Bilder und Daten.
- 🌐 Google Übersetzer, ab 2016 auf LSTM basierend, verbesserte die Qualität der Sprachübersetzung erheblich.
- 🤖 Reinforcement Learning, populär ab 2018, ermöglichte es autonomen Systemen, durch Lernen aus Erfahrungen komplexe Aufgaben zu meistern.
- 🔄 Die Entwicklung von Transformer-Modellen wie GPT hat die Sprachverarbeitung revolutioniert und ermöglichte die Erstellung von Texten, die kaum von menschlichen zu unterscheiden sind.
Q & A
Was ist das Ziel des Videos?
-Das Ziel des Videos ist es, eine komprimierte Zusammenfassung der Geschichte der künstlichen Intelligenz zu bieten, sodass der Zuschauer genügend Hintergrundwissen hat, um heute profitabel mit diesen Technologien zu arbeiten.
Welche Rolle spielte die deutsche Forschung in der Entwicklung der künstlichen Intelligenz?
-Die deutsche Forschung und deutsche Genies spielten eine entscheidende Rolle in der Entwicklung der künstlichen Intelligenz, wie zum Beispiel die Veröffentlichung der Kettenregel der Differentialrechnung von Gottfried Wilhelm Leibnitz im Jahr 1676.
Was ist die Kettenregel der Differentialrechnung und welche Rolle spielt sie bei neuronalen Netzwerken?
-Die Kettenregel ist eine zentrale Regel für die Berechnung in tiefen neuronalen Netzwerken. Sie hilft, den Einfluss einer kleinen Änderung in einem Teil des Netzwerks auf das gesamte System zu verstehen und ist für das Training moderner neuronaler Netzwerke von großer Bedeutung.
Wer entwickelte die Methode der kleinsten Quadrate und wie wird sie heute bezeichnet?
-Adrien-Marie Legendre entwickelte die Methode der kleinsten Quadrate, die heute als einfaches neuronales Netzwerk oder lineare Regression bekannt ist.
Was ist das erste rekurrente neuronale Netzwerk und welche Funktion hat es?
-Das erste rekurrente neuronale Netzwerk ist das Easing-Modell, entwickelt von Ernst Heisig und Wilhelm Lenz in den 1920er Jahren. Es hat Rückkopplungsverbindungen, die es ermöglichen, sich an frühere Eingaben zu erinnern und ist für Aufgaben wie Spracherkennung und Textvorhersage besonders wertvoll.
Wer führte das Konzept der mehrschichtigen Perzeptrons ein und was bedeuten MLPs?
-Frank Rosenblatt führte das Konzept der mehrschichtigen Perzeptrons ein, kurz MLPs. Diese Netzwerke bestehen aus mehreren Schichten, die voneinander lernen, und legten den Grundstein für spätere Entwicklungen im Bereich des Deep Learnings.
Was bedeuten tiefe Lernalgorithmen und welche Rolle spielen sie in der KI?
-Tiefe Lernalgorithmen, heute als Deep Learning bekannt, ermöglichen es mehrschichtigen Netzwerken, mit vielen verborgenen Schichten zu trainieren. Sie sind für die Erkennung und Klassifizierung komplexer Muster in Daten verantwortlich und bilden die Basis für viele moderne KI-Anwendungen.
Was ist das stochastische Gradientenverfahren und wie hat es die KI geprägt?
-Das stochastische Gradientenverfahren, vorgeschlagen von Shun-Ichi Amari im Jahr 1967, ermöglichte es, die Gewichte der neuronalen Netzwerke iterativ anzupassen, um die Fehler zu minimieren. Diese Technik ermöglichte tiefe neuronale Netzwerke effizient zu trainieren und war ein großer Fortschritt in der KI.
Was ist das Backpropagation-Algorithmus und wie funktioniert es?
-Der Backpropagation-Algorithmus, veröffentlicht 1970 von Seppo Linnainmaa, ist essentiell für das Training neuronaler Netzwerke. Er ermöglicht es, Fehler von der Ausgabeschicht zu der Eingabeschicht zurückzuführen und die Gewichte im Netzwerk anzupassen, um die Fehler zu minimieren und die Modelle zu verbessern.
Was sind Convolutional Neural Networks (CNNs) und welche Anwendungen haben sie?
-Convolutional Neural Networks (CNNs) sind eine Art von neuronalem Netzwerk, das die Computer Vision revolutionierte. Sie verwenden mehrere Schichten, um Merkmale aus Bildern zu extrahieren und finden Anwendung in der Gesichtserkennung, medizinischen Bildanalyse und vielen anderen Bereichen.
Was sind Generative Adversarial Networks (GANs) und wie wurden sie entwickelt?
-Generative Adversarial Networks (GANs) bestehen aus einem Generator und einem Diskriminator, die gegeneinander trainiert werden. Sie wurden in den frühen 1990er Jahren eingeführt und ermöglichen die Generierung realistischer Bilder und anderer Daten, indem der Generator Daten erstellt, die der Diskriminator zu unterscheiden versucht, ob sie echt oder generiert sind.
Was bedeuten Long Short-Term Memory (LSTM) Netzwerke und welche Probleme lösen sie?
-Long Short-Term Memory (LSTM) Netzwerke, eingeführt 1997 von Sepp Hochreiter, sind spezielle neuronale Netzwerke, die Informationen über längere Zeiträume speichern und nutzen können. Sie lösen das Problem der vergesslichen neuronalen Netzwerke, indem sie langfristige Abhängigkeiten lernen und speichern, was für Aufgaben wie Sprach- und Texterkennung besonders nützlich ist.
Wie hat die Leistungsfähigkeit von CNNs durch den Einsatz von Grafikprozessoren (GPUs) verbessert werden?
-Die Leistungsfähigkeit von CNNs wurde im Jahr 2011 erheblich gesteigert, indem sie mit Grafikprozessoren (GPUs) eingesetzt wurden. Diese Netzwerke konnten Muster in großen Bilddatensätzen erkennen und haben die Computer Vision revolutioniert, was Anwendungen wie die Gesichtserkennung und die automatische Bildklassifizierung ermöglichte.
Was ist der Google Übersetzer und wie basiert seine Funktionsweise auf LSTM-Netzwerken?
-Der Google Übersetzer ist ein Dienst, der die Qualität der Übersetzung durch den Einsatz von LSTM-Netzwerken verbessert hat. Diese Technologie ermöglicht es, Sprachbarrieren zu überwinden und die Kommunikation weltweit zu verbessern, indem sie eine präzise Übersetzung verschiedener Sprachen bietet.
Was ist Reinforcement Learning und wie hat es die KI in Robotik und autonomen Systemen vorangetrieben?
-Reinforcement Learning ist eine Methode, bei der ein System durch Versuch und Irrtum lernt, indem es Feedback aus der realen Welt erhält. Ein bemerkenswertes Beispiel ist OpenAI, ein System, das eine robotische Hand steuern lernt. Diese Technologie hat das Potenzial, autonome Systeme zu entwickeln, die komplexe Aufgaben ohne menschliches Eingreifen ausführen können.
Was sind Transformer-Modelle und wie haben sie die Sprachverarbeitung revolutioniert?
-Transformer-Modelle, wie z.B. GPT-4, sind neuronale Netzwerke, die die Sprachverarbeitung revolutioniert haben. Sie ermöglichen die Generierung von Texten, die kaum von menschlichen Autoren zu unterscheiden sind und haben die Effizienz und Qualität von Textgenerierungsaufgaben erheblich verbessert.
Outlines
😲 Die Geschichte der künstlichen Intelligenz
Dieses Video führt durch die wichtigsten Meilensteine der künstlichen Intelligenz (KI), von den frühesten Konzepten bis zu den bahnbrechenden Fortschritten der Gegenwart. Es zeigt die Rolle der deutschen Forschung und wie Mathematik, Informatik und menschliche Kreativität zusammengewirkt haben, um die heutigen KI-Technologien zu schaffen. Von Gottfried Wilhelm Leibniz' Kettenregel bis hin zu modernen neuronalen Netzwerken und Deep Learning, das Video bietet einen Einblick in die Entwicklung der KI und verspricht, den Zuschauer zu einem Experten zu machen.
🌟 Schlüsseltechnologien der KI-Entwicklung
Der Abschnitt bietet einen Überblick über die Entwicklung von KI-Technologien wie die Methode der kleinsten Quadrate, rekurrente neuronale Netzwerke, Multi-Layer Perceptrons (MLPs) und tiefes Lernen. Es erklärt die Bedeutung von Leibniz' Kettenregel für die heutigen neuronalen Netzwerke, wie Gauss seine Methode zur Vorhersage der Position von Ceres anwendete und wie die Entwicklung von LSTMs und CNNs die KI-Forschung vorangetrieben hat. Auch die Einführung von Generativen Adversarial Networks (GANs) und die Verbesserung der Bildverarbeitung durch GPU-Einsätze werden behandelt.
🚀 Aktuelle Fortschritte und Anwendungen der KI
Dieser Teil des Skripts zeigt die jüngsten Fortschritte in der KI, einschließlich der Verbesserung der Übersetzungsqualität durch LSTM-Netzwerke, der Popularisierung von GANs für die Generierung realistischer Bilder und die Anwendung von Reinforcement Learning in der Robotik. Es wird auch auf die Transformation der Sprachverarbeitung durch Transformer-Modelle wie GPT-4 hingewiesen und wie diese Technologien das tägliche Leben revolutionieren und in immer mehr Lebensbereichen Einzug halten.
📚 Zusammenfassung und Aufruf zur Teilnahme
Der Schlussteil des Videos bietet eine zusammenfassende Betrachtung der Geschichte der künstlichen Intelligenz und motiviert die Zuschauer, das Wissen zu nutzen, um erfolgreich mit KI-Technologien zu arbeiten. Der Sprecher lädt die Zuschauer ein, das Video zu liken, den Kanal zu abonnieren und sich auf weitere Videos zu freuen, die die KI-Revolution und ihre Auswirkungen auf die Gesellschaft weiter erkunden werden.
Mindmap
Keywords
💡Künstliche Intelligenz (KI)
💡Differentialrechnung
💡Neuronale Netzwerke
💡Lineare Regression
💡Rekurrente neuronale Netzwerke
💡Perzeptron
💡Tiefes Lernen
💡Stochastisches Gradientenverfahren
💡Backpropagation
💡Konvolutionelle Neuronale Netzwerke (CNNs)
💡LSTM-Netzwerke
💡Generative Adversarial Networks (GANs)
💡Reinforcement Learning
💡Transformer-Modelle
Highlights
Die künstliche Intelligenz (KI) revolutioniert unser Leben, aber viele wissen nicht, welche Rolle die deutsche Forschung und deutsche Genies dabei spielten.
Gottfried Wilhelm Leibniz veröffentlichte 1676 die Kettenregel der Differentialrechnung, die heute für neuronale Netzwerke zentral ist.
Adrien-Marie Legendre entwickelte 1805 die Methode der kleinsten Quadrate, Grundlage für lineare Regression und neuronale Netze.
Johann Carl Friedrich Gauss nutzte die Methode der kleinsten Quadrate, um die Position des Planeten Ceres zu berechnen.
Ernst Ising und Wilhelm Lenz entwickelten 1920 das erste rekurrente neuronale Netzwerk, das rückkopplungsverbindungen hat.
Frank Rosenblatt führte 1958 das Konzept der mehrschichtigen Perzeptrons ein, was den Grundstein für Deep Learning legte.
Alexei Iwanenko und Valentin Lapar entwickelten 1965 die ersten Algorithmen für tiefes Lernen.
Shun-Ichi Amari schlug 1967 das stochastische Gradientenverfahren vor, um neuronale Netzwerke zu trainieren.
Seppo Linnainmaa veröffentlichte 1970 den Backpropagation-Algorithmus, der für das Training neuronaler Netzwerke essentiell ist.
Kunihiko Fukushima führte 1979 das konvolutionale Neuronetzwerk ein, was die Computer Vision revolutionierte.
In den frühen 1990er Jahren wurden Generative Adversarial Networks (GANs) eingeführt, die die KI-Selbstentwicklung ermöglichten.
Die Erfindung von Long Short-Term Memory (LSTM) Netzwerken durch Sepp Hochreiter 1997 löste das Problem des schnellen Vergessens in neuronalen Netzwerken.
2011: Google Übersetzer verwendete LSTM-Netzwerke, was die Qualität der Übersetzung verbesserte.
2014: GANs wurden populär und revolutionierten die Generierung realistischer Bilder.
2016: Der Google Übersetzer basierte auf LSTM-Netzwerken, was Sprachbarrieren überwinden half.
2018: Reinforcement Learning mit neuronalen Netzwerken wurde populär und ermöglichte autonome Systeme.
In den letzten Jahren haben sich Transformer-Modelle und KI in Robotik und autonomen Systemen rasant entwickelt.
Das Ziel des Videos ist eine komprimierte Zusammenfassung der KI-Geschichte, um Hintergrundwissen für heutige Technologien zu vermitteln.
Transcripts
die künstliche Intelligenz
revolutioniert momentan unser allerleben
fundamental doch die meisten Leute haben
keinen blassen Schimmer davon was
eigentlich die Geschichte der KI ist und
welche entscheidende Rolle auch die
deutsche Forschung und deutsche Genies
dabei spielten in diesem Video nehme ich
dich mit auf eine Reise durch die
wichtigsten Meilensteine der künstlichen
Intelligenz von den frühesten Konzepten
bis hin zu den bahnbrechenden
Fortschritten der Gegenwart wir werden
also sehen wie Mathematik Informatik und
menschliche kativität zusammengewirkt
haben um die Technologien zu erschaffen
die heute unser allerleben prägen und
fundamental verändern und ich garantiere
dir wenn du bis zum Schluss drin bleibst
dann wirst du mehr Ahnung über die
Geschichte der KI haben als 99% aller
Menschen ja und unsere Zeitreise die
beginnt bereits im 17 Jahrhundert im
Jahr
1676 veröffentlichte der deutsche
Mathematiker gottfried Wilhelm Leibnitz
die Kettenregel der
Differentialrechnung diese Regel ist
heute zentral für die Berechnung in
tiefen neuronalen Netzwerken auf denen
die ki-modelle basieren um das zu
verstehen stell dir vor du arbeitest an
einem riesigen Puzzle bei dem jedes
einzelne Teil die Position der anderen
Teile beeinflusst die Kettenregel hilft
uns zu verstehen wie sich eine kleine
Änderung in einem Teil auf das gesamte
Puzzle auswirkt ohne diese Regel wäre
das Training moderner neuronaler
Netzwerke kaum möglich um das Jahr 1805
entwickelte Adrien Marie leendre den
Methode der kleinsten Quadrate die heute
als einfaches neuronales Netzwerk oder
lineare Regression bekannt ist Johan
Karl Friedrich Gaus einer der größten
Mathematiker seiner Zeit nutzte diese
Methode um die Position des
Zwergplaneten sereres vorherzusagen Gaus
hatte nur wenige Datenpunkte und nutzte
seine mathematischen Modelle um die
genaue Position des Planeten zu
berechnen das ist ein frühes Beispiel
für die Vorhersagekraft derartiger
Algorithmen weiter geht es im Jahr 1920
bis
1925 mit der Entwicklung der ersten
Rekurrenten neuronalen Netzwerke in den
1920er Jahren entwickelten die Physiker
Ernst easing und Wilhelm Lenz das easing
Modell das als erstes rekurrentes
neuronales Netzwerk gilt diese Netzwerke
haben
rückkopplungsverbindungen die es Ihnen
ermöglichen sich an frühere Eingaben zu
erinnern stell dir also vor du bist in
einem Gespräch und vergissst sofort
alles was bisher besprochen wurde durch
die Rekurrenten neuronalen Netzwerke
kannst du dich jetzt an alles erinnern
was zuvor gesagt wurde und das ist genau
die Stärke dieser Technologie sie sind
also in der Lage kontextinformation zu
speichern und zu nutzen was sie für
Aufgaben wie die Spracherkennung und
textvorhersage besonders wertvoll macht
im Jahr 1958 führte Frank Rosenblatt das
Konzept der mehrchichtigen perzeptrons
kururz mlps ein diese Netzwerke
bestanden aus mehreren Schichten in
denen jede Schicht von der vorherigen
lernte obwohl dies noch kein richtiges
deep learning war legte rosenblatts
Arbeit den Grundstein für spätere
Entwicklung stell dir z.B vor du lernst
Klavier zu spielen und jede neue Lektion
baut auf der vorherigen auf genauso
funktioniert das Lernen in mlps im Jahr
1965 entwickelten Alexei ivanenko und
Valentin lapar die ersten Algorithmen
für tiefes lernen heute als deep
learning bekannt ihre Methoden
ermöglichten es mehrschichtige Netzwerke
mit vielen geborgenen Schichten zu
trainieren ein beeindruckendes Beispiel
ist die Fähigkeit dieser Netzwerke
komplexe Muster in Daten zu erkennen und
zu klassifizieren wie etwa
handgeschriebene Ziffern oder
Sprachbefehle diese Algorithmen legten
den Grundstein für viele moderne
Anwendung der KI und auch heute basieren
alle KI mododelle auf den neuronalen
Netzwerken des deep Learnings im Jahr
1967 schlug Shun Ichi Amari vor
neuronale Netzwerke mit vielen Schichten
mit Hilfe eines stochas
Gradientenverfahren zu trainieren diese
Methode ermöglichte es die Gewichte der
neuronalen Netzwerke iterativ anzupassen
um die Fehler zu minimieren stell dir
vor du lernst Fahrradfahren bei jedem
Versuch das Gewicht zu halten justierst
du deine Bewegung um nicht zu stürzen
ähnlich passt dieses Netzwerk seine
Verbindung an um bessere Ergebnisse zu
erzielen diese Technik ermöglichte es
tiefe neuronale Netzwerke effizient zu
trainieren und interne Repräsentation
von Daten zu erlernen was ein groß grßen
Fortschritt in der KI darstellte im Jahr
1970 machte die KI dann große Sprünge
durch die Erfindung der sogenannten back
propagation sepo linin ma
veröffentlichte 1970 den back
propagation Algorithmus der heute
essentiell für das Training neuronaler
Netzwerke ist back propagation
ermöglicht es Fehler von der
ausgabeschicht zu eingabeschicht
effizient zurückzuführen und die
Gewichte in dem neuronalen Netzwerk
anzupassen um die Fehler zu en und die
Modelle zu verbessern das funktioniert
ähnlich wie ein Lehrer der einem Schüler
nach jedem Fehler sofort eine
Rückmeldung gibt diese Methode
revolutionierte die künstliche
Intelligenz da sie neuronalen Netzwerken
erlaubte aus großen datenbangen zu
lernen und ihre Genauigkeit erheblich zu
verbessern im Jahr 1979 führte der
japanische kiforscher Fukushima das
konvolutionale neuronetzwerk kurz CNN
ein dass die computer vision
revolutionierte cnns verwenden mehrere
Schichten und Merkmale aus Bildern zu
extrahieren stell dir vor du hast eine
Kamera die nicht nur Fotos macht sondern
auch versteht was auf den Bildern zu
sehen ist cnns haben Anwendung in der
Gesichtserkennung der medizinischen
Bildanalyse und vielen anderen Bereichen
gefunden und sind heute entscheidend für
die KI Bilderkennung in den frühen
1990er Jahren wurden bedeutende
Fortschritte durch die Kombination und
Weiterentwicklung verschiedener
Techniken der Vergangenheit erzielt
generative advisarial Networks wurden
eingeführt wobei zwei Netzwerke ein
Generator und ein Diskriminator
gegeneinander trainieren gleichzeitig
entwickelten forschermethoden wie
selbstüberwachtes pretraining und
hierarchische Handlungspläne dieses
neuronalen Netzwerken möglichten
komplexe Aufgaben effizienter zu
bewältigen wir sehen also bereits in den
1990er Jahren einige Entwicklung die es
ermöglichten dass sich künstlich
Intelligenz selbst weiterentwickelt ein
großes Problem war jedoch immer noch
dass diese neur Netzwerke Information
schnell wieder vergaßen und sich nicht
mehr an die Eingaben erinnerten die sie
nur wenige Sätze und Wörter vorher
erhalten haben genau hier kommt die
Erfindung des deutschen Informatikers dr
se Hochreiter ins Spiel der die long
shortter memory kurz lstms erfunden hat
die lstm Netzwerke die 1997 eingeführt
wurden boten eine Lösung für das Problem
der verschiedenen Gradienten LSM
Netzwerke haben spezielle Einheiten die
es Ihnen ermöglichen Information über
längere Zeiträume zu ichern und zu
nutzen stell dir vor du hast ein
Tagebuch in dem du die wichtigsten
Ereignisse notierst damit du sie später
nachlesen kannst diese Fähigkeit
langfristige Abhängigkeiten zu lernen
und zu speichern machte lscm Netzwerke
besonders nützlich für Aufgaben wie
sprach und Texterkennung und ist
maßgeblich für die aktuellen Transformer
Technologien wie wir sie unter anderem
von Chat gbt kennen im Jahr 2011 wurde
die Leistungsfähigkeit konvolutionaler
neuronaler Netzwerke durch den Einsatz
von Grafikprozessoren also pus erheblich
gesteigert diese Netzwerke wurden in der
Bildverarbeitung eingesetzt und konnten
Muster in großen bilddatensätzen
erkennen stell dir vor du hast einen
extrem leistungsfähigen Scanner der
Bilder in Bruchteilen von Sekunden
analysieren und kategorisieren kann
diese Technologie revolutionierte die
Computer Vision und er möglichte
Anwendung wie die Gesichtserkennung und
die automatische bildklassifizierung im
Jahr 2014 wurden die generativen
adversarial Networks erst malig populär
und revolutionierten die Generierung
realistischer Bilder und anderer Daten
ein Gen besteht wie wir bereits gelernt
haben aus einem Diskriminator und einem
Generator und der Generator erstellt
Daten die der Diskriminator zu
unterscheiden versucht ob sie echt oder
generiert sind stell dir vor du hast
zwei Künstler einer mal Bilder und der
andere versucht echte von gefälschten zu
unterscheiden durch dieses
wettbewerbstraining werden beide immer
besser in ihrer Aufgabe GS haben
Anwendung in der BILD und
videogenerierung der Kunst und sogar der
Medizin gefunden im Jahr 2016 basierte
der google übersetzer schon auf lstm
Netzwerken was die Qualität der
Überzeugung erheblich verbesserte also
stell dir vor du hast einen persönlichen
dolmetcher der sofort jede Sprache
präzise übersetzen kann so wie der
Google Übersetzer und dieser basiert auf
der Erfindung der lstms diese
Technologie ermöglichte es
Sprachbarrieren zu überwinden und die
Kommunikation weltweit zu verbessern ab
dem jah 2018 wurde das sogenannte
reinforcement learning mit neuronalen
Netzwerken immer populärer ein
bemerkenswertes Beispiel dafür ist Open
dctyl ein reinforcement learning system
das lernte eine robotische Hand zu
steuern stell dir vor du hast ein
Roboter der durch Versuch und irturm
lernt eine Aufgabe zu meistern wie das
Greifen eines Balls diese Technologie
hat das Potenzial autonome Systeme in
der realen Welt zu entwickeln die
komplexe Aufgaben ohne menschliches
Eingreifen ausführen können und allein
durch das erfahren und Feedback aus der
realen Welt lernen und sich ständig
weiterentwickeln auch in den letzten
Jahren hat sich die künstliche
Intelligenz weiter rasant entwickelt
Transformer Modelle wie gbt 4o haben die
Sprachverarbeitung revolutioniert und
ermöglichen die Generierung von Texten
die kaum von menschlichen Autoren zu
unterscheiden sind im Bereich der
Bildverarbeitung haben kimodelle die
Erstellung hochrealistischer Bilder und
Videos ermöglicht reinforcement learning
hat durch den Einsatz von KI in Robotik
und autonom System neue Höhen erreicht
diese Entwicklung haben dazu beigetragen
dass KI in immer mehr Lebensbereichen
Einzug hält und heute unser
allertägliches Leben revolutioniert das
Ziel dieses Videos war es die eine
komprimierte Zusammenfassung der
Geschichte der künstlichen Intelligenz
zu bieten s dass du genügend
Hintergrundwissen hast um heute
profitabel mit diesen Technologien zu
arbeiten und wenn dich das ganze
interessiert wenn du künstliche
Intelligenz profitabel einsetzen
möchtest wenn du Vorreiter in dieser KI
Revolution die nun immer weiter an Fahrt
aufnimmt und sich immer exponentieller
entwickelt wenn du davon profitieren
möchtest dann freue ich mich über ein
Like auf diesem Video abonniere den
Kanal bleib am Ball und ich freue mich
Dich im nächsten Video wiederzusehen bis
dahin dein Leo
Browse More Related Video
Was ist KI? | Die Welt der KI entdecken 01
10 Things They're NOT Telling You About The Coming AI (Must Watch!)
7 Jahreszahlen, die ihr kennen solltet
Elon Musk and Sam Altman SHOCKING Prediction for Humanoid Robots!!
Where AI is today and where it's going. | Richard Socher | TEDxSanFrancisco
Geheimnisvolle Erde #5 / 2024 u.a. Grüße vom Dyatlov Pass ++ Kasper Hauser, neues von Identität.
5.0 / 5 (0 votes)