Eine deutliche Warnung
Summary
TLDRIn diesem Video spricht der Sprecher über die aktuellen Entwicklungen bei OpenAI, insbesondere über die Abkehr mehrerer wichtiger Mitarbeiter im Bereich der KI-Sicherheit. Er erwähnt die Entlassung von Sam Altman und die darauf folgende Kontroverse, bei der Mitarbeiter drohten, zu Microsoft zu wechseln. Der Fokus liegt auf der Bedenken hinsichtlich der Fähigkeit von OpenAI, sichere KI zu entwickeln, und der Kritik von ehemaligen Mitarbeitern, die die Prioritäten der Firma bezüglich Sicherheit und Überwachung infrage stellen. Der Sprecher betont die Dringlichkeit, die KI-Entwicklung ernst zu nehmen und die notwendigen Maßnahmen zu ergreifen, um eine zukünftige Krise zu vermeiden.
Takeaways
- 🌐 Die Open AI hat in letzter Zeit mehrere wichtige Mitarbeiter verloren, was als Alarmsignal gewertet werden kann.
- 😱 Sam Altman, der CEO von Open AI, wurde vor einem halben Jahr überraschend gefeuert und später trotz eines Aufstands wieder in seine Position zurückgekehrt.
- 🤔 Die genauen Gründe für die Feuerungen bei Open AI sind nicht öffentlich geklärt, aber es wird vermutet, dass Altman gegen ein Aufsichtsratsmitglied intrigiert hat.
- 🛠 Ilya Sutskever, der Co-Gründer und Chef der KI bei Open AI, verließ das Unternehmen, was als überraschend gilt, da er maßgeblich an der Erfolgsgeschichte von GPT-3 beteiligt war.
- 👨🏫 Daniel Kocot, der ehemals Mentor beim AI Safety Camp war und später bei Open AI tätig war, verließ ebenfalls das Unternehmen.
- 🚨 Jan Leike, der Leiter der KI Sicherheit und des Super Alignment Teams, kündigte ebenfalls und drückte in Tweets seine Bedenken hinsichtlich der KI-Sicherheit bei Open AI aus.
- 💡 Jan Leike gab an, dass er der Meinung ist, Open AI stehe nicht auf dem richtigen Weg, um sicherheitskritische KI-Forschung voranzutreiben.
- 🔄 Es gab Meinungsverschiedenheiten zwischen Jan Leike und dem Management von Open AI, was zu einem Bruch führte.
- 🚫 Leike kritisierte, dass bei Open AI die Sicherheitskultur und Prozesse zunehmend in den Hintergrund rückten hinter den Produkten.
- 🌍 Die Entwicklung von KI, die intelligenter ist als Menschen, wird als ein inherent gefährliches Unterfangen betrachtet, das ernsthafte Überlegungen und Vorsicht erfordert.
- 📢 Jan Leike rief zu einer größeren Aufmerksamkeit für die Sicherheit von KI und die Notwendigkeit, Maßnahmen zu ergreifen, um zu verhindern, dass KI die Menschheit bedroht.
Q & A
Was war das Hauptthema des Kanals, auf dem der Sprecher ursprünglich sprechen wollte?
-Das Hauptthema sollte sich auf die Frage konzentrieren, wie man in Zeiten düsterer Aussichten Glück empfinden kann und das Beste aus dem Leben in solchen Situationen machen kann.
Was war das Hauptereignis, das in letzter Zeit bei OpenAI passiert ist?
-Mehrere wichtige Personen sind von OpenAI abgegangen, was als großes Alarmsignal betrachtet wird.
Was geschah vor etwa einem halben Jahr mit Sam Altman, dem ehemaligen CEO von OpenAI?
-Sam Altman wurde überraschend von seinem Posten als CEO entfernt, nachdem der Aufsichtsrat entschieden hatte, dass er nicht mehr tragbar ist.
Was war die Reaktion von Mitarbeitern von OpenAI auf die Absetzung von Sam Altman?
-Die meisten Mitarbeiter setzten sich dafür ein, dass Sam Altman zurückkehren sollte und drohten, zu Microsoft zu wechseln.
Wer war Ilya Sutskever und welche Rolle spielte er bei OpenAI?
-Ilya Sutskever war der Co-Gründer und der Chefingenieur von OpenAI, verantwortlich für die Entwicklung von KI-Modellen wie GPT.
Weshalb verließ Ilya Sutskever OpenAI?
-Er war nicht mehr mit der Führungspolitik einverstanden und hatte praktisch keine aktiven Aufgaben mehr, was zu seinem Austritt führte.
Wer war Daniel Kokotailo und welche Bedeutung hatte er für OpenAI?
-Daniel Kokotailo war ein wichtiger Mitarbeiter in der Bereich der KI-Sicherheit und war auch Mentor beim AI Safety Camp 2022.
Was war der Grund für den Austritt von Jan Leike, dem ehemaligen Leiter der KI-Sicherheit bei OpenAI?
-Jan Leike verließ OpenAI, weil er nicht mehr glaubte, dass die Firma in der Lage ist, sichere KI zu entwickeln.
Was war das Hauptanliegen von Jan Leike in seinen Tweets nach seinem Austritt?
-Jan Leike drückte in seinen Tweets aus, dass er ernsthafte Bedenken hinsichtlich der Prioritäten und der Fähigkeit von OpenAI, sichere KI zu entwickeln, hat.
Was waren die Hauptbedenken von Jan Leike in Bezug auf die KI-Entwicklung bei OpenAI?
-Leike war besorgt darüber, dass Sicherheitskultur und Prozesse hinter Produkten zurückgedrängt wurden und dass die Implikationen einer allgemeinen KI (AGI) nicht ernst genug genommen wurden.
Was fordert der Sprecher von OpenAI und anderen KI-Unternehmen?
-Der Sprecher fordert, dass solche Firmen nicht ungebremst ihre Technologie entwickeln und machen dürfen, was sie wollen, ohne die Zukunft aller aufs Spiel zu setzen.
Was ist der Appell des Sprechers am Ende des Skripts?
-Der Sprecher appelliert an die Zuschauer, das Video und die Tweets von Jan Leike zu verbreiten, um das Bewusstsein für die Ernsthaftigkeit der Situation zu schärfen.
Outlines
😨 Interne Konflikte bei OpenAI
Der erste Absatz behandelt interne Konflikte und Abspaltungen innerhalb von OpenAI. Es wird über die Abkehr mehrerer wichtiger Mitarbeiter diskutiert, darunter der Mitgründer und Chef des AI-Teams, Ilya Sutskever, sowie der ehemalige AI-Sicherheitsleiter, Daniel Cocato. Der Fokus liegt auf der Ablehnung dieser Mitarbeiter, die mit der Führung und der Richtung, die OpenAI eingeschlagen hat, nicht mehr einverstanden sind. Besonderes Augenmerk wird auf die Rolle von Sam Altman und die damalige Entlassung und Wiedereinsetzung als CEO gelegt. Zudem wird die Bedenken hinsichtlich der Fähigkeit von OpenAI, sicherheitsbewusste KI-Entwicklungen durchzuführen, thematisiert.
🚨 Warnung vor KI-Sicherheitsrisiken durch OpenAI
In diesem Absatz werden die Bedenken des Verfassers über die KI-Sicherheit bei OpenAI vertieft. Jan Leike, der sich als Ex-Führungskraft von OpenAI's KI-Sicherheitsteams positioniert, kritisiert die interne Prioritätensetzung und die Abdrift von grundlegenden Sicherheitskultur und Prozessen hin zu opulenten Produkten. Er betont die Verantwortung gegenüber der Menschheit und die Notwendigkeit, die Sicherheit von KI, insbesondere in Bezug auf künstliche Allgemeine Intelligenz (AGI), ernst zu nehmen. Leike gibt an, dass er OpenAI verlassen hat, weil er der Meinung ist, dass die Firma nicht mehr in der Lage ist, sicherheitsorientierte KI zu entwickeln und betont die Dringlichkeit, dass die Öffentlichkeit und die Regulierungsbehörden die potenziellen Risiken ernst nehmen.
🛑 Aufruf zur Verantwortung und zum Handeln
Der dritte Absatz ist ein Appell an die Zuschauer, die Warnungen ernst zu nehmen und Maßnahmen zu ergreifen. Der Sprecher betont die Bedeutung von Jan Leikes offenen Brief und dessen finanziellen Opfern, um Klarheit zu schaffen und die Öffentlichkeit zu sensibilisieren. Es wird auf die Verantwortung der KI-Firmen und der Gesellschaft als Ganzes hingewiesen, um sicherzustellen, dass KI-Entwicklungen nicht die Zukunft der Menschheit gefährden. Der Sprecher fordert die Zuschauer auf, das Video und die Tweets von J. Leike zu teilen, um das Bewusstsein für die Themen zu schärfen und zu einem Wandel beizutragen.
Mindmap
Keywords
💡OpenAI
💡KI-Sicherheit
💡Sam Altman
💡Illes Sutskever
💡Daniel Kokotailoff
💡Jan Leike
💡Super-Alignment
💡AGI (Artificial General Intelligence)
💡KI-Entwicklung
💡Kulturelle Veränderung
💡Warnschuss
Highlights
Das Verlassen mehrerer wichtiger Personen von OpenAI als großes Alarmsignal.
Sam Altman, der CEO von OpenAI, wurde überraschend entlassen und später gegen den Wunsch des Aufsichtsrats zurückkehren konnte.
Der Vorwurf, dass Altman gegen einen Aufsichtsratsmitglied intrigiert und Lügen verbreitet hat.
Illes Satzger, der Architekt der KI bei OpenAI, hat sich nach Konflikten mit Altman zurückgezogen.
Daniel Kokoc, Mentor beim AI Safety Camp 2022 und einst bei OpenAI, verließ das Unternehmen.
Jan Leike, Chef der KI Sicherheit und Leiter des Super Alignment Teams bei OpenAI, kündigte und gab seine Bedenken gegenüber der Sicherheit von KI öffentlich an.
Leike kritisierte, dass Sicherheitskultur und Prozesse hinter glanzvollen Produkten zurückgewichen sind.
Die Notwendigkeit, sich auf die nächste Generation von KI-Modellen vorzubereiten, insbesondere in Bezug auf Sicherheit, Überwachung und Prävention von Missbrauch.
Die Bedenken, dass OpenAI möglicherweise nicht den richtigen Weg einschlagen, um sichere KI zu entwickeln.
Die Herausforderungen, die mit dem Bau von KI-Systemen, die intelligenter sind als Menschen, einhergehen.
Die Verantwortung von OpenAI gegenüber der Menschheit und die Notwendigkeit, die Entwicklung von AGI ernst zu nehmen.
Die Forderung, OpenAI muss sich zu einer AGI-Firma entwickeln, bei der Sicherheit an erster Stelle steht.
Jan Leike verzichtet möglicherweise auf erhebliche finanzielle Interessen, um seine Bedenken öffentlich zu äußern.
Die Notwendigkeit, die Entwicklung von KI in Silicon Valley und deren Auswirkungen auf unsere Zukunft ernst zu nehmen.
Die Forderung nach Maßnahmen, um zu verhindern, dass Unternehmen wie OpenAI ohne Hemmungen ihre Technologie entwickeln.
Die Bedeutung der öffentlichen Wahrnehmung und des Handelns gegenüber den Warnungen von Experten wie Jan Leike.
Die Hoffnung, dass das Handeln von Jan Leike und die darauf folgenden Diskussionen zu positiven Veränderungen beitragen können.
Die Aufforderung an die Zuschauer, das Video und die Tweetserie von J. Leike weiterzuverbreiten, um das Bewusstsein für die KI-Sicherheitsproblematik zu schärfen.
Transcripts
eigentlich wollte ich auf diesem Kanal
ja nicht mehr so viel über KI reden und
mich mehr mit der Frage beschäftigen wie
man eigentlich auch in Zeiten mit
düsteren Aussichten Glück empfinden kann
wie man das Beste aus dem Leben in
dieser Situation machen kann aber
manchmal passieren eben auch Dinge die
man nicht einfach so ignorieren kann und
so war es in der letzten Woche bei Open
ai dort sind gleich mehrere sehr
wichtige Personen von Bord gegangen
und das ist etwas was man schon als
großes Alarmsignal Werten
kann erinnert euch vielleicht vor einem
halben Jahr gab es ein großes Drama bei
Open ai damals wurde Sam Elman zur
völligen Überraschung des Restes der
Welt gefeuert er musste von einem Tag
auf den anderen seinen Hut nehmen der
Aufsichtsrat hatte entschieden dass er
nicht mehr tragbar ist als CEO aber
eltman hat sich natürlich damit nicht
abgefunden hat einen Aufstand sozusagen
angezettelt könnte man sagen das heißt
die meisten Mitarbeiter die weitausm
haben sich damals dafür ausgesprochen
dass er zurückkehren muss haben damit
gedroht allfs zu Microsoft zu wechseln
Microsoft als wichtigster shareholder
von openi hat sich ebenfalls be Erman
ausgesprochen und das endete dann damit
dass die Aufsichtsratsmitglieder gehen
mussten die ihn gefeuert
hatten der Grund für
dieses für diese ganze Aktion ist nicht
hundertprozentig öffentlich geklärt aber
das die plausibelste Erklärung die ich
dafür habe ist die dass der Altman
versucht hat gegen eins der
Aufsichtsratsmitglieder zu intrigieren
das heißt er hat Lügen über sie
verbreitet er hat auch Lügen darüber
verbreitet was die anderen
Aufsichtsratsmitglieder über sie denken
und sagen und das ist aufgeflogen und da
haben die natürlich dann völlig zurecht
gesagt nee also ein CEO der uns hier
anlügt den können wir nicht gebrauchen
aber Elman ist eben ein geschickter
Taktierer und hat es geschafft am Ende
die Macht wieder
zurückzuerlangen einer derjenigen die
damals mit dafür gestimmt haben dass
Elman gehen muss ist sein cogründer und
der Technikchef bei Open ai ilas satzger
satzger ist quasi der Architekt der KI
bei Open ai kann man sagen er ist
maßgeblich dafür verantwortlich dass
eben ch B z.B so ein riesiger Erfolg
wurde nachdem klar war dass er gegen
alttmann gearbeitet hat sind keine
Freunde mehr gewesen und satzger war
zwar offiziell dann immer noch
Technikchef ist aber praktisch nicht
mehr in Aktion getreten und war
wahrscheinlich die letzten Monate auch
gar nicht mehr dort dass der also jetzt
letzte Woche endgültig gesagt hat er
geht ist nicht besonders überraschend
allerdings ist er nicht der Einzige mit
ihm sind einige sehr wichtige Menschen
gegangen und fast alle waren im Bereich
ai safety also im Bereich der Sicherheit
der KI tätig einer davon ist daniel
cocoto Daniel kenne ich persönlich er
war mein Mentor beim ai safety Camp 2022
damals war noch nicht bei Open ai und
ich habe unglaublich viel von ih gelernt
er hat mir sehr viel darüber beigebracht
wie KI funktioniert wie schnell sich die
entwickelt insbesondere bevor ich ihn
kennenlernte dachte ich noch dass wir
mindestens bis mittel des Jahrhunderts
Zeit haben bevor eine KI
menschenähnliche Fähigkeiten erreicht
nachdem ich mit ihm gesprochen hatte war
mir klar dass ich da falsch lag er hat
also wirklich meine Augen in vieler
Hinsicht geöffnet ich habe viel von demm
gelernt und als er dann zur Open ai
gegangen ist um dort eben auch für
sichere KI zu arbeiten habe ich mich
gefreut weil ich war sicher dass das gut
für Open ai und für den Rest der Welt
ist leider hat auch er den Hut genommen
und er hat angedeutet in einem
Blogbeitrag dass der Grund dafür war
dass er nicht mehr glaubt dass Open ai
wirklich in der Lage ist sichere KI zu
entwickeln das war noch ein bisschen
wage hat mich aber natürlich trotzdem
schon erschreckt aber wer auch gegangen
ist letzte Woche ist Jan leike das ist
der Chef der KI Sicherheit bei Open ai
gewesen er war unter anderem
verantwortlich für das sogenannte super
alignment Team super alignment ist so
ein Ansatz den openi entwickelt hat um
eben sichere KI zu bauen die wirklich
das tut was wir von ihr wollen und die
Idee war damals KI zu Hilfe zu nehmen um
eine andere KI zu kontrollieren ob das
erfolgfprechend war s mal dahingestellt
aber zumindest war es ein Ansatz den man
dort augenscheinlich sehr ernst genommen
hat jetzt hat Jan leike Zeit gleich mit
sitzger und Daniel kocot und noch
mehreren anderen dort gekündigt das ist
an sich schon sehr bedenklich noch viel
bedenklicher ist allerdings ein eine
Serie von Tweets die er gestern
veröffentlicht hat in der er die
Hintergründe erklärt warum er gegangen
ist und ich muss ganz ehrlich sagen das
hat mich so ein bisschen geschockt
vielleicht vielleicht ist Schock auch
übertrieben weil ich mir das so ähnlich
schon gedacht hatte aber auf zumindest
sehr stark erschreckt in welcher
Deutlichkeit er das öffentlich macht ich
lese euch das einfach mal
vor gestern war mein letzter Tag als
Leiter der KI Sicherheit Leiter des
super alignment Teams und Führungskraft
bei Open
ai die letzten rund dre Jahre waren eine
aufregende Reise mein Team hat mit
instruct GPT das erste Sprachmodell
gelancht das mit reinforcement learning
from human Feedback trainiert wurde das
erste skalierbare Überwachungssystem für
ein Sprachmodell veröffentlicht und bei
der automatischen Interpretation und
schwach zu stark Generalisierung
pianierarbeit geleistet mehr spannende
Neuerungen folgen in
kürze ich liebe mein Team ich bin so
dankbar für die vielen außergewöhnlichen
Menschen mit denen ich arbeiten durfte
sowohl innerhalb als auch außerhalb des
super alignment Teams open are hat so
viele außergewöhnliche kluge
liebenswürdige und produktive Talente
diesen Job aufzugeben war eins der
schwierigsten Dinge die ich je getan
habe weil wir dringend herausfinden
müssen wie wir kiysteme die viel
intelligenter sind als wir steuern und
kontrollieren können ich habe bei openi
angefangen weil ich glaubte dies sei der
beste Platz auf der Welt um diese Art
von Forschung zu betreiben allerdings
hatte ich mit dem Open ai Management
schon seit einiger Zeit
Meinungsverschiedenheiten über die
Prioritäten der Firma die nun zu einem
endgültigen Bruch
führten ich glaube ein viel größerer
Teil unserer Kapazität sollte dafür
verwendet werden uns auf die nächste
Generation von ki-modellen vorzubereiten
im Bezug auf Sicherheit Überwachung
Prävention Robustheit gegen Missbrauch
super alignment Vertraulichkeit
Auswirkung auf die Gesellschaft und
ähnliche Themen diese Probleme sind sehr
schwierig in den Griff zu bekommen und
ich befürchte dass wir nicht auf dem
richtigen Weg dorthin sind in den
vergangenen Monaten hat mein Team eine
Menge Gegenwind bekommen manchmal
mussten wir um die für uns verfügbare
Computerleistung kämpfen und es wurde
immer schwieriger diese wichtige
Forschung zu
betreiben Maschinen zu bauen die
intelligenter sind als Menschen ist ein
inherent gefährliches Unterfangen openi
trägt eine enorme Verantwortung
gegenüber der gesamten Mensch
doch im Verlauf der letzten Jahre
rückten Sicherheitskultur und Prozesse
gegenüber glanzvollen Produkten immer
mehr in den Hintergrund es ist längst
überfällig die Implikationen einer Agi
artificial general intelligence äußerst
ernst zu nehmen wir müssen die
bestmögliche Vorbereitung darauf an
erste Stelle setzen nur dann können wir
sicherstellen dass Agi tatsächlich der
gesamten Menschheit dient openi muss
eine Agi Firma werden bei der Sicherheit
an erster Stelle steht allen open
Mitarbeiterinnen und Mitarbeitern möchte
ich sagen lernt Agi zu fühlen handelt
mit der Ernsthaftigkeit die dem was ihr
da baut angemessen ist ich glaube ihr
könnt den kulturellen Wandel schaffen
der nötig ist ich verlasse mich auf euch
die ganze Welt verlässt sich auf euch es
ist sehr ungewöhnlich dass
jemand eine der eine Firma verlässt so
offen über die Missstände dort spricht
besonders wenn es auch noch der für die
Sicherheit in dieser Firma ihrre
verantwortliche Mensch gewesen ist hinzu
kommt dass J
höchstwahrscheinlich auf sehr viel Geld
verzichten musste um frei sprechen zu
können denn es ist so dass wenn man open
a verlässt man eine Klausel
unterschreiben muss die einen quasi
verbietet für den Rest seines Lebens den
Arbeitgeber zu kritisieren oder man
verzichtet auf sämtliche shareanteile
die man bekommen hat und die sind bei
Open ai bekanntlich sehr viel wert ich
weiß nicht wie größte Anteil von Jan
leike war aber ich vermute dass es sich
um etliche Millionen handelt auf die er
verzichtet hat das macht man nicht
einfach nur weil man vielleicht sauer
auf den Arbeitgeber ist das macht man
wenn man sich ernsthafte Sorgen macht
und wenn Jan leike sich ernsthafte
Sorgen macht dann sollten wir das alle
tun denn das was dort in Silicon Valley
passiert was ein paar Bosse von Open ai
und anderen Firmen dort entscheiden hat
Auswirkungen auf unsere Zukunft ich weiß
es ist schwer vorstellbar dass das
tatsächlich eine existenzbedrohen Krise
auslösen könnte dass eine Software die
Open ai dort entwickelt oder jemand
anders im Silicon Valley tatsächlich den
Weltuntergang quasi auslösen könnte das
klingt sehr
sciencefictionmäßig aber es ist ein
reales Problem darauf haben auch gerade
die führenden kiforscher immer wieder
hingewiesen letztes Jahr gab es mehrere
Aufrufe die chorifen wie z.B Jeffrey
Hinton der quasi als Vater der modernen
egelt oder josu benio oder Stuart
Russell mit unterzeichnet haben das sind
Leute die absolut unangefrochtene Ex
Experten sind die wirklich wissen
was in KI heute drin steckt und wie sich
das weiterentwickeln könnte natürlich
weiß niemand ganz genau was passieren
wird wann eine KI aus der Kontrolle
geraten könnte und wie genau das dann
ablaufen würde aber das heißt nicht dass
wir kein Problem haben im Gegenteil das
Problem ist umso größer je weniger gut
wir es verstehen deswegen müssen wir
aufhören damit so zu tun als wäre das
alles nur ein Hype und müssen anfangen
ernsthafte Maßnahmen zu ergreifen wir
müssen dafür sorgen dass Firmen wie open
ai nicht weiterhin ungebremst ihre
Technik entwickeln können und machen
können was sie wollen unsere aller
Zukunft aufs Spiel setzen das kann so
nicht weitergehen und die Bedingung
dafür dass da sich das was dran ändert
ist dass wir vor allen Dingen hier in
Deutschland auch mal die das Problem
ernzt nehmen tja es tut mir leid wenn
ich euch damit so ein bisschen die
Pfingstfeiertage versaue aber ich finde
es wichtig dass wir darüber reden dass
das wahrgenommen wird dass das ernst
genommen wird so einen Warnschuss wie
diesen von Jan leike bekommen wir
wahrscheinlich nicht mehr so oft wenn
überhaupt das heißt wenn wir jetzt nicht
reagieren wenn wir das jetzt nicht ernst
nehmen dann verpassen wir wirglich die
letzte Chance etwas wirklich Sinnvolles
zu tun wenn ihr das ähnlich seht dann
freue ich mich wenn ihr dieses Video
weiter verbreitet oder auch ins
besondere die tweetserie von J Lee
weiter verbreitet ich wünsche mir
wirklich sehr dass das was er hier getan
hat den Mut den er bewiesen hat das
Opfer das er finanziell
höchstwahrscheinlich gebracht hat dass
das wirklich etwas bewirkt das wäre toll
dann hätte diese ganze dramatische
Aktion auch etwas sehr Positives
gebracht nämlich einen wegruf und ich
wünsche mir dass das so ist und ja
vielleicht könnt ihr mir ein bisschen
dabei helfen herzlichen Dank fürs
zuschauen und ich hoffe das nächste
Video ein bisschen erfreulicher und
erbaulicher wird
浏览更多相关视频
![](https://i.ytimg.com/vi/2Tt3j4QZsQo/hq720.jpg)
Vom ABC zu AI: KI in Schule und Unterricht
![](https://i.ytimg.com/vi/vo5VusS7-TY/hq720.jpg?sqp=-oaymwEmCIAKENAF8quKqQMa8AEB-AH-CYAC0AWKAgwIABABGEUgWShyMA8=&rs=AOn4CLAuaDNNAwpuW7J8nVVDpTWA8NQCdQ)
Is SEO Actually Dying? (Serious)
![](https://i.ytimg.com/vi/YFVTYhaDhsI/hqdefault.jpg?sqp=-oaymwEXCJADEOABSFryq4qpAwkIARUAAIhCGAE=&rs=AOn4CLCiDgNqkeENg45Px6P75sWEv6ZMdg)
The Way We're Thinking About AI Adoption is Totally Wrong
![](https://i.ytimg.com/vi/Lt4JLhBV-aU/hq720.jpg)
Wie erstelle ich gute Prompts für ChatGPT & Co?
![](https://i.ytimg.com/vi/mM0ncqO18oU/hq720.jpg)
So erstellst du fotorealistische KI Bilder in Canva. Schritt für Schritt Anleitung.
![](https://i.ytimg.com/vi/b-tVE1EFyRc/hq720.jpg)
Jura lernen: Alles zum Polizeirecht in 15 Minuten (oder weniger) - endlich jura.
5.0 / 5 (0 votes)