Eine deutliche Warnung

Karl Olsberg
19 May 202411:33

Summary

TLDRIn diesem Video spricht der Sprecher über die aktuellen Entwicklungen bei OpenAI, insbesondere über die Abkehr mehrerer wichtiger Mitarbeiter im Bereich der KI-Sicherheit. Er erwähnt die Entlassung von Sam Altman und die darauf folgende Kontroverse, bei der Mitarbeiter drohten, zu Microsoft zu wechseln. Der Fokus liegt auf der Bedenken hinsichtlich der Fähigkeit von OpenAI, sichere KI zu entwickeln, und der Kritik von ehemaligen Mitarbeitern, die die Prioritäten der Firma bezüglich Sicherheit und Überwachung infrage stellen. Der Sprecher betont die Dringlichkeit, die KI-Entwicklung ernst zu nehmen und die notwendigen Maßnahmen zu ergreifen, um eine zukünftige Krise zu vermeiden.

Takeaways

  • 🌐 Die Open AI hat in letzter Zeit mehrere wichtige Mitarbeiter verloren, was als Alarmsignal gewertet werden kann.
  • 😱 Sam Altman, der CEO von Open AI, wurde vor einem halben Jahr überraschend gefeuert und später trotz eines Aufstands wieder in seine Position zurückgekehrt.
  • 🤔 Die genauen Gründe für die Feuerungen bei Open AI sind nicht öffentlich geklärt, aber es wird vermutet, dass Altman gegen ein Aufsichtsratsmitglied intrigiert hat.
  • 🛠 Ilya Sutskever, der Co-Gründer und Chef der KI bei Open AI, verließ das Unternehmen, was als überraschend gilt, da er maßgeblich an der Erfolgsgeschichte von GPT-3 beteiligt war.
  • 👨‍🏫 Daniel Kocot, der ehemals Mentor beim AI Safety Camp war und später bei Open AI tätig war, verließ ebenfalls das Unternehmen.
  • 🚨 Jan Leike, der Leiter der KI Sicherheit und des Super Alignment Teams, kündigte ebenfalls und drückte in Tweets seine Bedenken hinsichtlich der KI-Sicherheit bei Open AI aus.
  • 💡 Jan Leike gab an, dass er der Meinung ist, Open AI stehe nicht auf dem richtigen Weg, um sicherheitskritische KI-Forschung voranzutreiben.
  • 🔄 Es gab Meinungsverschiedenheiten zwischen Jan Leike und dem Management von Open AI, was zu einem Bruch führte.
  • 🚫 Leike kritisierte, dass bei Open AI die Sicherheitskultur und Prozesse zunehmend in den Hintergrund rückten hinter den Produkten.
  • 🌍 Die Entwicklung von KI, die intelligenter ist als Menschen, wird als ein inherent gefährliches Unterfangen betrachtet, das ernsthafte Überlegungen und Vorsicht erfordert.
  • 📢 Jan Leike rief zu einer größeren Aufmerksamkeit für die Sicherheit von KI und die Notwendigkeit, Maßnahmen zu ergreifen, um zu verhindern, dass KI die Menschheit bedroht.

Q & A

  • Was war das Hauptthema des Kanals, auf dem der Sprecher ursprünglich sprechen wollte?

    -Das Hauptthema sollte sich auf die Frage konzentrieren, wie man in Zeiten düsterer Aussichten Glück empfinden kann und das Beste aus dem Leben in solchen Situationen machen kann.

  • Was war das Hauptereignis, das in letzter Zeit bei OpenAI passiert ist?

    -Mehrere wichtige Personen sind von OpenAI abgegangen, was als großes Alarmsignal betrachtet wird.

  • Was geschah vor etwa einem halben Jahr mit Sam Altman, dem ehemaligen CEO von OpenAI?

    -Sam Altman wurde überraschend von seinem Posten als CEO entfernt, nachdem der Aufsichtsrat entschieden hatte, dass er nicht mehr tragbar ist.

  • Was war die Reaktion von Mitarbeitern von OpenAI auf die Absetzung von Sam Altman?

    -Die meisten Mitarbeiter setzten sich dafür ein, dass Sam Altman zurückkehren sollte und drohten, zu Microsoft zu wechseln.

  • Wer war Ilya Sutskever und welche Rolle spielte er bei OpenAI?

    -Ilya Sutskever war der Co-Gründer und der Chefingenieur von OpenAI, verantwortlich für die Entwicklung von KI-Modellen wie GPT.

  • Weshalb verließ Ilya Sutskever OpenAI?

    -Er war nicht mehr mit der Führungspolitik einverstanden und hatte praktisch keine aktiven Aufgaben mehr, was zu seinem Austritt führte.

  • Wer war Daniel Kokotailo und welche Bedeutung hatte er für OpenAI?

    -Daniel Kokotailo war ein wichtiger Mitarbeiter in der Bereich der KI-Sicherheit und war auch Mentor beim AI Safety Camp 2022.

  • Was war der Grund für den Austritt von Jan Leike, dem ehemaligen Leiter der KI-Sicherheit bei OpenAI?

    -Jan Leike verließ OpenAI, weil er nicht mehr glaubte, dass die Firma in der Lage ist, sichere KI zu entwickeln.

  • Was war das Hauptanliegen von Jan Leike in seinen Tweets nach seinem Austritt?

    -Jan Leike drückte in seinen Tweets aus, dass er ernsthafte Bedenken hinsichtlich der Prioritäten und der Fähigkeit von OpenAI, sichere KI zu entwickeln, hat.

  • Was waren die Hauptbedenken von Jan Leike in Bezug auf die KI-Entwicklung bei OpenAI?

    -Leike war besorgt darüber, dass Sicherheitskultur und Prozesse hinter Produkten zurückgedrängt wurden und dass die Implikationen einer allgemeinen KI (AGI) nicht ernst genug genommen wurden.

  • Was fordert der Sprecher von OpenAI und anderen KI-Unternehmen?

    -Der Sprecher fordert, dass solche Firmen nicht ungebremst ihre Technologie entwickeln und machen dürfen, was sie wollen, ohne die Zukunft aller aufs Spiel zu setzen.

  • Was ist der Appell des Sprechers am Ende des Skripts?

    -Der Sprecher appelliert an die Zuschauer, das Video und die Tweets von Jan Leike zu verbreiten, um das Bewusstsein für die Ernsthaftigkeit der Situation zu schärfen.

Outlines

00:00

😨 Interne Konflikte bei OpenAI

Der erste Absatz behandelt interne Konflikte und Abspaltungen innerhalb von OpenAI. Es wird über die Abkehr mehrerer wichtiger Mitarbeiter diskutiert, darunter der Mitgründer und Chef des AI-Teams, Ilya Sutskever, sowie der ehemalige AI-Sicherheitsleiter, Daniel Cocato. Der Fokus liegt auf der Ablehnung dieser Mitarbeiter, die mit der Führung und der Richtung, die OpenAI eingeschlagen hat, nicht mehr einverstanden sind. Besonderes Augenmerk wird auf die Rolle von Sam Altman und die damalige Entlassung und Wiedereinsetzung als CEO gelegt. Zudem wird die Bedenken hinsichtlich der Fähigkeit von OpenAI, sicherheitsbewusste KI-Entwicklungen durchzuführen, thematisiert.

05:03

🚨 Warnung vor KI-Sicherheitsrisiken durch OpenAI

In diesem Absatz werden die Bedenken des Verfassers über die KI-Sicherheit bei OpenAI vertieft. Jan Leike, der sich als Ex-Führungskraft von OpenAI's KI-Sicherheitsteams positioniert, kritisiert die interne Prioritätensetzung und die Abdrift von grundlegenden Sicherheitskultur und Prozessen hin zu opulenten Produkten. Er betont die Verantwortung gegenüber der Menschheit und die Notwendigkeit, die Sicherheit von KI, insbesondere in Bezug auf künstliche Allgemeine Intelligenz (AGI), ernst zu nehmen. Leike gibt an, dass er OpenAI verlassen hat, weil er der Meinung ist, dass die Firma nicht mehr in der Lage ist, sicherheitsorientierte KI zu entwickeln und betont die Dringlichkeit, dass die Öffentlichkeit und die Regulierungsbehörden die potenziellen Risiken ernst nehmen.

10:04

🛑 Aufruf zur Verantwortung und zum Handeln

Der dritte Absatz ist ein Appell an die Zuschauer, die Warnungen ernst zu nehmen und Maßnahmen zu ergreifen. Der Sprecher betont die Bedeutung von Jan Leikes offenen Brief und dessen finanziellen Opfern, um Klarheit zu schaffen und die Öffentlichkeit zu sensibilisieren. Es wird auf die Verantwortung der KI-Firmen und der Gesellschaft als Ganzes hingewiesen, um sicherzustellen, dass KI-Entwicklungen nicht die Zukunft der Menschheit gefährden. Der Sprecher fordert die Zuschauer auf, das Video und die Tweets von J. Leike zu teilen, um das Bewusstsein für die Themen zu schärfen und zu einem Wandel beizutragen.

Mindmap

Keywords

💡OpenAI

OpenAI ist eine künstliche Intelligenz (KI)-Forschungsorganisation, die für ihre bahnbrechenden KI-Modelle bekannt ist. Im Video wird OpenAI als zentrale Organisation im Kontext der KI-Entwicklung und der damit verbundenen Herausforderungen hervorgehoben. Beispielsweise wird die Abkehr mehrerer wichtiger Mitarbeiter von OpenAI und die Auswirkungen auf die KI-Sicherheitsforschung diskutiert.

💡KI-Sicherheit

KI-Sicherheit bezieht sich auf die Maßnahmen, die ergriffen werden, um sicherzustellen, dass künstliche Intelligenzen sicher, zuverlässig und ethisch handeln. Im Video wird die KI-Sicherheit als ein zentrales Thema diskutiert, insbesondere in Bezug auf die Abkehr von Experten von OpenAI und die Sorge, dass die Entwicklung von KI ohne ausreichende Sicherheitsvorkehrungen gefährlich sein könnte.

💡Sam Altman

Sam Altman ist ein US-amerikanischer Unternehmer und einer der Mitgründer von OpenAI. Im Video wird er als zentrale Figur in einem Konflikt beschrieben, der zu seiner vorübergehenden Entfernung als CEO von OpenAI geführt hat. Sein Management und die Auseinandersetzungen mit dem Aufsichtsrat sind für das Verständnis der internen Probleme von OpenAI wichtig.

💡Illes Sutskever

Illes Sutskever ist der Chef der KI-Technologie bei OpenAI und gilt als einer der Architekten hinter den Erfolgen von OpenAI. Im Video wird seine Abkehr als ein Schlag für die KI-Sicherheitsforschung dargestellt und zeigt die Schwere der Situation, in der wichtige Mitarbeiter aufgrund von Konflikten oder Missverhältnissen gehen.

💡Daniel Kokotailoff

Daniel Kokotailoff ist ein Experte für KI-Sicherheit und wurde als Mentor im AI-Sicherheitscamp 2022 erwähnt. Im Video wird seine Abkehr von OpenAI und sein Zweifel an der Fähigkeit von OpenAI, sichere KI zu entwickeln, als ein Zeichen der Ernsthaftigkeit der Diskussion um die KI-Sicherheit betrachtet.

💡Jan Leike

Jan Leike war der Leiter der KI-Sicherheit und des sogenannten Super-Alignment-Teams bei OpenAI. Sein Austritt und die Gründe dafür, die er in einer Reihe von Tweets erklärt, sind zentrale Elemente des Videos und zeigen die tiefgreifenden Bedenken hinsichtlich der Prioritäten und Richtung von OpenAI.

💡Super-Alignment

Super-Alignment ist ein Ansatz, der von OpenAI entwickelt wurde, um sicherzustellen, dass KI-Systeme das tun, was von ihnen erwartet wird. Im Video wird das Super-Alignment-Team als Teil der Bemühungen um KI-Sicherheit beschrieben, und die Abkehr von Jan Leike, der das Team geleitet hat, zeigt die Schwierigkeiten, die mit solchen Anstrengungen verbunden sind.

💡AGI (Artificial General Intelligence)

AGI, auch als allgemeine künstliche Intelligenz bekannt, bezieht sich auf KI, die die Fähigkeiten eines erwachsenen Menschen übertrifft und in vielen Bereichen intelligent agieren kann. Im Video wird die Entwicklung von AGI als ein inherently gefährliches Unterfangen dargestellt, das sorgfältige Überwachung und Kontrolle erfordert.

💡KI-Entwicklung

Die KI-Entwicklung beinhaltet die Fortschritte in der Erstellung neuer KI-Modelle und -Technologien. Im Video wird die KI-Entwicklung als ein Prozess diskutiert, der nicht nur technische Fortschritte beinhaltet, sondern auch ethische und sicherheitsrelevante Aspekte, insbesondere im Hinblick auf die zunehmende Intelligenz von KI-Systemen.

💡Kulturelle Veränderung

Kulturelle Veränderung bezieht sich auf die Notwendigkeit, die Arbeitsweise und die Denkweise in einer Organisation oder Gesellschaft zu ändern. Im Video wird die kulturelle Veränderung innerhalb von OpenAI und der gesamten KI-Industrie als notwendig hervorgehoben, um die Herausforderungen der KI-Sicherheit zu bewältigen.

💡Warnschuss

Ein Warnschuss ist ein klares Zeichen oder eine Warnung vor einer drohenden Gefahr oder einem Problem. Im Video wird der Austritt von Jan Leike und seine öffentlichen Äußerungen als ein Warnschuss interpretiert, der die Ernsthaftigkeit der Diskussion um die KI-Sicherheit und die Verantwortung von OpenAI unterstreicht.

Highlights

Das Verlassen mehrerer wichtiger Personen von OpenAI als großes Alarmsignal.

Sam Altman, der CEO von OpenAI, wurde überraschend entlassen und später gegen den Wunsch des Aufsichtsrats zurückkehren konnte.

Der Vorwurf, dass Altman gegen einen Aufsichtsratsmitglied intrigiert und Lügen verbreitet hat.

Illes Satzger, der Architekt der KI bei OpenAI, hat sich nach Konflikten mit Altman zurückgezogen.

Daniel Kokoc, Mentor beim AI Safety Camp 2022 und einst bei OpenAI, verließ das Unternehmen.

Jan Leike, Chef der KI Sicherheit und Leiter des Super Alignment Teams bei OpenAI, kündigte und gab seine Bedenken gegenüber der Sicherheit von KI öffentlich an.

Leike kritisierte, dass Sicherheitskultur und Prozesse hinter glanzvollen Produkten zurückgewichen sind.

Die Notwendigkeit, sich auf die nächste Generation von KI-Modellen vorzubereiten, insbesondere in Bezug auf Sicherheit, Überwachung und Prävention von Missbrauch.

Die Bedenken, dass OpenAI möglicherweise nicht den richtigen Weg einschlagen, um sichere KI zu entwickeln.

Die Herausforderungen, die mit dem Bau von KI-Systemen, die intelligenter sind als Menschen, einhergehen.

Die Verantwortung von OpenAI gegenüber der Menschheit und die Notwendigkeit, die Entwicklung von AGI ernst zu nehmen.

Die Forderung, OpenAI muss sich zu einer AGI-Firma entwickeln, bei der Sicherheit an erster Stelle steht.

Jan Leike verzichtet möglicherweise auf erhebliche finanzielle Interessen, um seine Bedenken öffentlich zu äußern.

Die Notwendigkeit, die Entwicklung von KI in Silicon Valley und deren Auswirkungen auf unsere Zukunft ernst zu nehmen.

Die Forderung nach Maßnahmen, um zu verhindern, dass Unternehmen wie OpenAI ohne Hemmungen ihre Technologie entwickeln.

Die Bedeutung der öffentlichen Wahrnehmung und des Handelns gegenüber den Warnungen von Experten wie Jan Leike.

Die Hoffnung, dass das Handeln von Jan Leike und die darauf folgenden Diskussionen zu positiven Veränderungen beitragen können.

Die Aufforderung an die Zuschauer, das Video und die Tweetserie von J. Leike weiterzuverbreiten, um das Bewusstsein für die KI-Sicherheitsproblematik zu schärfen.

Transcripts

play00:00

eigentlich wollte ich auf diesem Kanal

play00:01

ja nicht mehr so viel über KI reden und

play00:03

mich mehr mit der Frage beschäftigen wie

play00:05

man eigentlich auch in Zeiten mit

play00:07

düsteren Aussichten Glück empfinden kann

play00:10

wie man das Beste aus dem Leben in

play00:12

dieser Situation machen kann aber

play00:14

manchmal passieren eben auch Dinge die

play00:16

man nicht einfach so ignorieren kann und

play00:17

so war es in der letzten Woche bei Open

play00:20

ai dort sind gleich mehrere sehr

play00:23

wichtige Personen von Bord gegangen

play00:27

und das ist etwas was man schon als

play00:30

großes Alarmsignal Werten

play00:33

kann erinnert euch vielleicht vor einem

play00:35

halben Jahr gab es ein großes Drama bei

play00:37

Open ai damals wurde Sam Elman zur

play00:40

völligen Überraschung des Restes der

play00:42

Welt gefeuert er musste von einem Tag

play00:45

auf den anderen seinen Hut nehmen der

play00:47

Aufsichtsrat hatte entschieden dass er

play00:49

nicht mehr tragbar ist als CEO aber

play00:51

eltman hat sich natürlich damit nicht

play00:53

abgefunden hat einen Aufstand sozusagen

play00:56

angezettelt könnte man sagen das heißt

play00:58

die meisten Mitarbeiter die weitausm

play01:00

haben sich damals dafür ausgesprochen

play01:01

dass er zurückkehren muss haben damit

play01:03

gedroht allfs zu Microsoft zu wechseln

play01:05

Microsoft als wichtigster shareholder

play01:07

von openi hat sich ebenfalls be Erman

play01:09

ausgesprochen und das endete dann damit

play01:11

dass die Aufsichtsratsmitglieder gehen

play01:13

mussten die ihn gefeuert

play01:16

hatten der Grund für

play01:19

dieses für diese ganze Aktion ist nicht

play01:21

hundertprozentig öffentlich geklärt aber

play01:25

das die plausibelste Erklärung die ich

play01:27

dafür habe ist die dass der Altman

play01:29

versucht hat gegen eins der

play01:30

Aufsichtsratsmitglieder zu intrigieren

play01:32

das heißt er hat Lügen über sie

play01:34

verbreitet er hat auch Lügen darüber

play01:35

verbreitet was die anderen

play01:36

Aufsichtsratsmitglieder über sie denken

play01:38

und sagen und das ist aufgeflogen und da

play01:41

haben die natürlich dann völlig zurecht

play01:42

gesagt nee also ein CEO der uns hier

play01:44

anlügt den können wir nicht gebrauchen

play01:46

aber Elman ist eben ein geschickter

play01:50

Taktierer und hat es geschafft am Ende

play01:52

die Macht wieder

play01:53

zurückzuerlangen einer derjenigen die

play01:56

damals mit dafür gestimmt haben dass

play01:58

Elman gehen muss ist sein cogründer und

play02:01

der Technikchef bei Open ai ilas satzger

play02:04

satzger ist quasi der Architekt der KI

play02:08

bei Open ai kann man sagen er ist

play02:10

maßgeblich dafür verantwortlich dass

play02:12

eben ch B z.B so ein riesiger Erfolg

play02:15

wurde nachdem klar war dass er gegen

play02:18

alttmann gearbeitet hat sind keine

play02:20

Freunde mehr gewesen und satzger war

play02:23

zwar offiziell dann immer noch

play02:24

Technikchef ist aber praktisch nicht

play02:26

mehr in Aktion getreten und war

play02:28

wahrscheinlich die letzten Monate auch

play02:29

gar nicht mehr dort dass der also jetzt

play02:32

letzte Woche endgültig gesagt hat er

play02:34

geht ist nicht besonders überraschend

play02:38

allerdings ist er nicht der Einzige mit

play02:39

ihm sind einige sehr wichtige Menschen

play02:41

gegangen und fast alle waren im Bereich

play02:44

ai safety also im Bereich der Sicherheit

play02:46

der KI tätig einer davon ist daniel

play02:50

cocoto Daniel kenne ich persönlich er

play02:53

war mein Mentor beim ai safety Camp 2022

play02:56

damals war noch nicht bei Open ai und

play02:58

ich habe unglaublich viel von ih gelernt

play03:00

er hat mir sehr viel darüber beigebracht

play03:02

wie KI funktioniert wie schnell sich die

play03:05

entwickelt insbesondere bevor ich ihn

play03:07

kennenlernte dachte ich noch dass wir

play03:09

mindestens bis mittel des Jahrhunderts

play03:11

Zeit haben bevor eine KI

play03:12

menschenähnliche Fähigkeiten erreicht

play03:15

nachdem ich mit ihm gesprochen hatte war

play03:17

mir klar dass ich da falsch lag er hat

play03:20

also wirklich meine Augen in vieler

play03:22

Hinsicht geöffnet ich habe viel von demm

play03:24

gelernt und als er dann zur Open ai

play03:25

gegangen ist um dort eben auch für

play03:27

sichere KI zu arbeiten habe ich mich

play03:29

gefreut weil ich war sicher dass das gut

play03:32

für Open ai und für den Rest der Welt

play03:35

ist leider hat auch er den Hut genommen

play03:38

und er hat angedeutet in einem

play03:40

Blogbeitrag dass der Grund dafür war

play03:42

dass er nicht mehr glaubt dass Open ai

play03:45

wirklich in der Lage ist sichere KI zu

play03:49

entwickeln das war noch ein bisschen

play03:51

wage hat mich aber natürlich trotzdem

play03:54

schon erschreckt aber wer auch gegangen

play03:56

ist letzte Woche ist Jan leike das ist

play03:59

der Chef der KI Sicherheit bei Open ai

play04:03

gewesen er war unter anderem

play04:04

verantwortlich für das sogenannte super

play04:06

alignment Team super alignment ist so

play04:09

ein Ansatz den openi entwickelt hat um

play04:11

eben sichere KI zu bauen die wirklich

play04:13

das tut was wir von ihr wollen und die

play04:15

Idee war damals KI zu Hilfe zu nehmen um

play04:17

eine andere KI zu kontrollieren ob das

play04:20

erfolgfprechend war s mal dahingestellt

play04:22

aber zumindest war es ein Ansatz den man

play04:25

dort augenscheinlich sehr ernst genommen

play04:27

hat jetzt hat Jan leike Zeit gleich mit

play04:30

sitzger und Daniel kocot und noch

play04:33

mehreren anderen dort gekündigt das ist

play04:36

an sich schon sehr bedenklich noch viel

play04:39

bedenklicher ist allerdings ein eine

play04:41

Serie von Tweets die er gestern

play04:43

veröffentlicht hat in der er die

play04:44

Hintergründe erklärt warum er gegangen

play04:46

ist und ich muss ganz ehrlich sagen das

play04:48

hat mich so ein bisschen geschockt

play04:51

vielleicht vielleicht ist Schock auch

play04:52

übertrieben weil ich mir das so ähnlich

play04:54

schon gedacht hatte aber auf zumindest

play04:57

sehr stark erschreckt in welcher

play04:58

Deutlichkeit er das öffentlich macht ich

play05:02

lese euch das einfach mal

play05:08

vor gestern war mein letzter Tag als

play05:10

Leiter der KI Sicherheit Leiter des

play05:12

super alignment Teams und Führungskraft

play05:14

bei Open

play05:15

ai die letzten rund dre Jahre waren eine

play05:18

aufregende Reise mein Team hat mit

play05:20

instruct GPT das erste Sprachmodell

play05:22

gelancht das mit reinforcement learning

play05:24

from human Feedback trainiert wurde das

play05:26

erste skalierbare Überwachungssystem für

play05:28

ein Sprachmodell veröffentlicht und bei

play05:30

der automatischen Interpretation und

play05:31

schwach zu stark Generalisierung

play05:33

pianierarbeit geleistet mehr spannende

play05:36

Neuerungen folgen in

play05:38

kürze ich liebe mein Team ich bin so

play05:40

dankbar für die vielen außergewöhnlichen

play05:42

Menschen mit denen ich arbeiten durfte

play05:44

sowohl innerhalb als auch außerhalb des

play05:45

super alignment Teams open are hat so

play05:48

viele außergewöhnliche kluge

play05:50

liebenswürdige und produktive Talente

play05:52

diesen Job aufzugeben war eins der

play05:54

schwierigsten Dinge die ich je getan

play05:56

habe weil wir dringend herausfinden

play05:57

müssen wie wir kiysteme die viel

play05:59

intelligenter sind als wir steuern und

play06:01

kontrollieren können ich habe bei openi

play06:03

angefangen weil ich glaubte dies sei der

play06:05

beste Platz auf der Welt um diese Art

play06:06

von Forschung zu betreiben allerdings

play06:09

hatte ich mit dem Open ai Management

play06:10

schon seit einiger Zeit

play06:11

Meinungsverschiedenheiten über die

play06:13

Prioritäten der Firma die nun zu einem

play06:15

endgültigen Bruch

play06:16

führten ich glaube ein viel größerer

play06:18

Teil unserer Kapazität sollte dafür

play06:20

verwendet werden uns auf die nächste

play06:22

Generation von ki-modellen vorzubereiten

play06:24

im Bezug auf Sicherheit Überwachung

play06:26

Prävention Robustheit gegen Missbrauch

play06:28

super alignment Vertraulichkeit

play06:31

Auswirkung auf die Gesellschaft und

play06:32

ähnliche Themen diese Probleme sind sehr

play06:35

schwierig in den Griff zu bekommen und

play06:36

ich befürchte dass wir nicht auf dem

play06:38

richtigen Weg dorthin sind in den

play06:40

vergangenen Monaten hat mein Team eine

play06:42

Menge Gegenwind bekommen manchmal

play06:44

mussten wir um die für uns verfügbare

play06:46

Computerleistung kämpfen und es wurde

play06:47

immer schwieriger diese wichtige

play06:49

Forschung zu

play06:50

betreiben Maschinen zu bauen die

play06:52

intelligenter sind als Menschen ist ein

play06:53

inherent gefährliches Unterfangen openi

play06:56

trägt eine enorme Verantwortung

play06:58

gegenüber der gesamten Mensch

play07:00

doch im Verlauf der letzten Jahre

play07:01

rückten Sicherheitskultur und Prozesse

play07:03

gegenüber glanzvollen Produkten immer

play07:04

mehr in den Hintergrund es ist längst

play07:07

überfällig die Implikationen einer Agi

play07:09

artificial general intelligence äußerst

play07:12

ernst zu nehmen wir müssen die

play07:14

bestmögliche Vorbereitung darauf an

play07:16

erste Stelle setzen nur dann können wir

play07:18

sicherstellen dass Agi tatsächlich der

play07:20

gesamten Menschheit dient openi muss

play07:22

eine Agi Firma werden bei der Sicherheit

play07:24

an erster Stelle steht allen open

play07:28

Mitarbeiterinnen und Mitarbeitern möchte

play07:29

ich sagen lernt Agi zu fühlen handelt

play07:32

mit der Ernsthaftigkeit die dem was ihr

play07:34

da baut angemessen ist ich glaube ihr

play07:36

könnt den kulturellen Wandel schaffen

play07:37

der nötig ist ich verlasse mich auf euch

play07:40

die ganze Welt verlässt sich auf euch es

play07:43

ist sehr ungewöhnlich dass

play07:45

jemand eine der eine Firma verlässt so

play07:48

offen über die Missstände dort spricht

play07:50

besonders wenn es auch noch der für die

play07:52

Sicherheit in dieser Firma ihrre

play07:55

verantwortliche Mensch gewesen ist hinzu

play07:58

kommt dass J

play07:59

höchstwahrscheinlich auf sehr viel Geld

play08:02

verzichten musste um frei sprechen zu

play08:05

können denn es ist so dass wenn man open

play08:08

a verlässt man eine Klausel

play08:10

unterschreiben muss die einen quasi

play08:12

verbietet für den Rest seines Lebens den

play08:15

Arbeitgeber zu kritisieren oder man

play08:18

verzichtet auf sämtliche shareanteile

play08:21

die man bekommen hat und die sind bei

play08:24

Open ai bekanntlich sehr viel wert ich

play08:26

weiß nicht wie größte Anteil von Jan

play08:28

leike war aber ich vermute dass es sich

play08:30

um etliche Millionen handelt auf die er

play08:32

verzichtet hat das macht man nicht

play08:34

einfach nur weil man vielleicht sauer

play08:36

auf den Arbeitgeber ist das macht man

play08:38

wenn man sich ernsthafte Sorgen macht

play08:39

und wenn Jan leike sich ernsthafte

play08:41

Sorgen macht dann sollten wir das alle

play08:43

tun denn das was dort in Silicon Valley

play08:46

passiert was ein paar Bosse von Open ai

play08:48

und anderen Firmen dort entscheiden hat

play08:51

Auswirkungen auf unsere Zukunft ich weiß

play08:54

es ist schwer vorstellbar dass das

play08:56

tatsächlich eine existenzbedrohen Krise

play09:00

auslösen könnte dass eine Software die

play09:04

Open ai dort entwickelt oder jemand

play09:05

anders im Silicon Valley tatsächlich den

play09:08

Weltuntergang quasi auslösen könnte das

play09:11

klingt sehr

play09:13

sciencefictionmäßig aber es ist ein

play09:15

reales Problem darauf haben auch gerade

play09:17

die führenden kiforscher immer wieder

play09:19

hingewiesen letztes Jahr gab es mehrere

play09:21

Aufrufe die chorifen wie z.B Jeffrey

play09:25

Hinton der quasi als Vater der modernen

play09:29

egelt oder josu benio oder Stuart

play09:31

Russell mit unterzeichnet haben das sind

play09:34

Leute die absolut unangefrochtene Ex

play09:37

Experten sind die wirklich wissen

play09:41

was in KI heute drin steckt und wie sich

play09:43

das weiterentwickeln könnte natürlich

play09:45

weiß niemand ganz genau was passieren

play09:47

wird wann eine KI aus der Kontrolle

play09:50

geraten könnte und wie genau das dann

play09:51

ablaufen würde aber das heißt nicht dass

play09:53

wir kein Problem haben im Gegenteil das

play09:56

Problem ist umso größer je weniger gut

play09:58

wir es verstehen deswegen müssen wir

play10:00

aufhören damit so zu tun als wäre das

play10:01

alles nur ein Hype und müssen anfangen

play10:04

ernsthafte Maßnahmen zu ergreifen wir

play10:06

müssen dafür sorgen dass Firmen wie open

play10:08

ai nicht weiterhin ungebremst ihre

play10:10

Technik entwickeln können und machen

play10:12

können was sie wollen unsere aller

play10:14

Zukunft aufs Spiel setzen das kann so

play10:16

nicht weitergehen und die Bedingung

play10:18

dafür dass da sich das was dran ändert

play10:20

ist dass wir vor allen Dingen hier in

play10:21

Deutschland auch mal die das Problem

play10:24

ernzt nehmen tja es tut mir leid wenn

play10:27

ich euch damit so ein bisschen die

play10:29

Pfingstfeiertage versaue aber ich finde

play10:32

es wichtig dass wir darüber reden dass

play10:35

das wahrgenommen wird dass das ernst

play10:37

genommen wird so einen Warnschuss wie

play10:40

diesen von Jan leike bekommen wir

play10:42

wahrscheinlich nicht mehr so oft wenn

play10:44

überhaupt das heißt wenn wir jetzt nicht

play10:46

reagieren wenn wir das jetzt nicht ernst

play10:48

nehmen dann verpassen wir wirglich die

play10:49

letzte Chance etwas wirklich Sinnvolles

play10:52

zu tun wenn ihr das ähnlich seht dann

play10:55

freue ich mich wenn ihr dieses Video

play10:57

weiter verbreitet oder auch ins

play10:59

besondere die tweetserie von J Lee

play11:02

weiter verbreitet ich wünsche mir

play11:04

wirklich sehr dass das was er hier getan

play11:06

hat den Mut den er bewiesen hat das

play11:08

Opfer das er finanziell

play11:09

höchstwahrscheinlich gebracht hat dass

play11:11

das wirklich etwas bewirkt das wäre toll

play11:14

dann hätte diese ganze dramatische

play11:17

Aktion auch etwas sehr Positives

play11:19

gebracht nämlich einen wegruf und ich

play11:21

wünsche mir dass das so ist und ja

play11:24

vielleicht könnt ihr mir ein bisschen

play11:25

dabei helfen herzlichen Dank fürs

play11:27

zuschauen und ich hoffe das nächste

play11:29

Video ein bisschen erfreulicher und

play11:31

erbaulicher wird

Rate This

5.0 / 5 (0 votes)

Related Tags
KI-SicherheitOpen AIUnternehmensethikFührungswechselAI-EntwicklungKI-EthikInnovationskulturTechnologiekritikZukunftsstrategieAI-Forschung
Do you need a summary in English?