Wo wir in Sachen KI wirklich stehen und was uns erwartet: Deep Dive mit Philipp "Pip" Klöckner
Summary
TLDRPhilip Klöckner delivers an insightful presentation on the rapid growth and impact of generative AI, highlighting investments by tech conglomerates surpassing the entire Silicon Valley VC scene. He discusses AI's increasing role in efficiency and profitability, the peak of AI hype, and its potential to revolutionize industries. Klöckner also addresses the challenges of data scarcity, the importance of exclusive data, and the environmental impact of AI's energy consumption. He concludes by emphasizing the need for sovereign AI models in Europe to capture value creation and stresses the importance of developing talent in the field.
Takeaways
- 📈 The investment in generative AI by major corporations surpasses that of the entire Silicon Valley venture capital scene, indicating a significant interest and financial backing in this technology.
- 💡 AI efficiency has improved, with companies like Google and Microsoft increasing their revenue per employee, showcasing the potential for profitability through AI advancements.
- 📊 The tech industry's focus has shifted from just efficiency to also include AI in their quarterly discussions, reflecting a strategic emphasis on AI's role in business growth.
- 🔍 AI is reaching new milestones in various sectors, such as customer service with Chat Agents reducing call center workload and software development with tools like GitHub Copilot enhancing developer productivity.
- 🚀 Significant growth is expected in the AI market, with predictions of a $900 billion valuation by 2030, highlighting the enormous potential for AI in the future economy.
- 🤖 The development of AI models is becoming increasingly sophisticated, with a move towards multimodal capabilities that can process various forms of data, not just text.
- 💼 Large tech companies are building their own AI chips to gain a competitive edge in the market, emphasizing the importance of hardware in advancing AI capabilities.
- 🌐 The scarcity of unique digital data is becoming a challenge for training AI models, leading to concerns about the 'Habsburg Problem' where models may collapse due to overfitting on similar data.
- ⚙️ The rapid growth of AI is leading to an increased demand for energy, with tech companies consuming significant amounts of power and investing in solutions like green energy to sustain their operations.
- 💧 AI and data centers' water consumption is a growing concern, prompting companies to implement water replenishment projects to mitigate their environmental impact.
- 🌿 There is a push towards open-source AI models to democratize the technology and prevent a monopoly by a few large corporations, fostering a more collaborative and diverse AI ecosystem.
Q & A
Who is the speaker and what is the main topic of his presentation?
-The speaker is Philip Klöckner, and the main topic of his presentation is artificial intelligence (AI) and its impact on various industries.
What significant change in company focus did the speaker observe from last year to this year?
-The speaker observed that companies have shifted their focus from efficiency to discussing AI in their quarterly results, with one-third of companies mentioning AI.
What was the result of companies laying off employees in terms of revenue and efficiency?
-Companies that laid off employees saw an increase in revenue and a significant improvement in their gross profit per employee. For example, Google's gross profit per employee increased from $750,000 to over $1 million.
What is the Gartner Hype Cycle, and what did Scott Galloway and Gartner say about AI?
-The Gartner Hype Cycle is a graphical representation of the maturity and adoption of technologies. Scott Galloway and Gartner indicated that generative AI and foundation models are at the peak of their hype cycle.
What notable milestone did OpenAI achieve, and what is its significance?
-OpenAI surpassed the $2 billion revenue milestone, which is significant considering the company was a research lab just five years ago. This highlights the rapid growth and commercialization of AI technologies.
How has AI impacted real-world business operations according to the speaker?
-AI has led to significant cost savings and efficiency improvements in businesses. For example, Klarna reduced 700 call center jobs by using a chat agent, and Zoom saved 400,000 hours monthly by automating 90% of inquiries with a chatbot.
What is the 'Habsburg problem' mentioned by the speaker, and how does it relate to AI?
-The 'Habsburg problem' refers to the issue of inbreeding, which can cause genetic defects. In AI, it refers to the problem of models being trained on data generated by other models, leading to a degradation in the quality of the AI outputs.
What role does data play in the future of AI according to the speaker?
-Data, especially exclusive and high-quality data, will be the most valuable asset in the future of AI. Companies with unique data sources will have a significant advantage.
What environmental concerns are associated with AI development?
-AI development is associated with high energy consumption and water usage. For example, Microsoft has increased its water usage by 34% to support its data centers, and AI's energy consumption could reach over 10% of the world's total in the coming years.
What are some potential scientific advancements enabled by AI?
-AI can accelerate scientific research and discovery. For example, AI has helped predict protein folding structures, discover new antibiotics, and identify stable chemical compounds for battery technology.
Outlines
🚀 Generative AI Investments and Corporate Efficiency
The speaker, Philip Klöckner, discusses the massive investments in generative AI by major corporations, which surpass the entire Silicon Valley VC scene. He highlights the interest in AI due to its potential to increase corporate valuations significantly, as seen with Microsoft's data center chip sales. Klöckner also touches on the growth of his podcast, which has become successful since its inception three years ago, and its relation to AI. He emphasizes the rapid pace of AI development and its increasing presence in corporate discussions, with companies focusing on efficiency and profitability despite increasing employee counts and costs.
📈 AI's Impact on the Tech Industry and Market Valuations
This section delves into the impact of AI on the tech industry, with a focus on how tech conglomerates are becoming more profitable and efficient. Klöckner mentions the substantial increase in revenue per employee at Google and Meta, illustrating the improved efficiency. He also discusses the peak of AI hype and its potential trajectory according to Gartner's Hype Cycle. Furthermore, he highlights significant AI milestones, such as OpenAI's revenue achievements and the growing number of enterprise users adopting AI technologies. The paragraph also touches on the importance of AI in consulting and the substantial revenue generated by companies like Accenture through AI implementation in other businesses.
💡 Real-world AI Applications and Market Predictions
Klöckner presents real-world examples of AI applications, such as AI-driven chat agents in call centers leading to significant job savings for companies like Clana and Zoom. He also mentions the widespread use of AI tools like Microsoft GitHub's Copilot by developers, which enhances productivity. The speaker predicts a substantial growth in the generative AI market by 2030, as estimated by Bloomberg, and discusses the commoditization of large language models. He emphasizes the importance of proprietary data and exclusive hardware in the AI landscape.
🌐 AI's Rapid Evolution and the Future of Work
The speaker discusses the acceleration of AI development and its potential to replace human tasks sooner than anticipated. He cites surveys of AI scientists who believe that milestones in AI capabilities will be reached earlier than previously thought. Klöckner also touches on the multimodal capabilities of AI, its ability to understand and generate content across various formats, and the increasing cost and complexity of training AI models. He highlights the importance of hardware advancements, such as Nvidia's Blackwell 200 chip, in driving AI progress.
🛠️ Tech Giants' Custom AI Chips and Exascale Computing
Klöckner talks about the trend of tech companies developing their own AI-specific chips, such as Google's Axon and Apple's TSMC collaboration, and Meta's mtias. He explains the significance of exascale computing and the concept of 'M law,' which predicts the doubling of computational power every few years. The speaker also discusses the development of wafer-scale engines, which are massive chips that can perform computations at unprecedented speeds and could significantly reduce the time required to train AI models like Meta's Lama.
🌿 AI's Ethical Concerns and Environmental Impact
In this section, Klöckner addresses the ethical concerns surrounding AI, such as the use of deepfake technology in political campaigns and the potential for AI to exacerbate misinformation. He also discusses the environmental impact of AI, including the energy consumption of data centers and the efforts of companies like Microsoft and Google to mitigate their carbon footprint through initiatives like water replenishment and renewable energy projects.
💧 AI's Water Consumption and Corporate Initiatives
The speaker highlights the significant water consumption of data centers and the challenges companies face in managing this resource sustainably. Klöckner mentions Microsoft's investment in water restoration projects and Google's goal to return 120% of the water they use back to the environment. He also critiques the concept of water neutrality, comparing it to carbon offsetting and questioning its effectiveness and sincerity.
🔮 The Future of AI in Science and Medicine
Klöckner discusses the transformative potential of AI in scientific research and medicine. He cites examples of AI's role in protein folding predictions, discovering new antibiotic candidates, and material science advancements. The speaker emphasizes the importance of AI in accelerating scientific discovery and its potential to solve complex problems that were previously intractable.
🤖 Robotics and the Future of Work
This section focuses on the advancements in robotics and their potential to change the future of work. Klöckner mentions companies like Agility Robotics and Tesla, which are developing robots capable of performing tasks that are difficult for humans. He discusses the benefits of designing robots to resemble humans, allowing them to learn quickly from observing human actions and potentially taking over a significant portion of jobs by 2030.
🌐 Open Source AI and the Concentration of Power
Klöckner talks about the importance of open-source AI and the risks associated with the concentration of AI development in the hands of a few large tech companies. He contrasts the closed nature of companies like OpenAI with the success of open-source projects like Mistral and Meta's Lama models. The speaker also discusses the strategic moves of tech giants like Meta and Nvidia in the AI industry, highlighting the potential for these companies to dominate the market through their investments and resources.
🏛️ Sovereign AI Models and the Global Impact
The speaker emphasizes the need for sovereign AI models that respect local cultures and definitions of truth, as seen with China, Russia, and Iran developing their own language models. Klöckner also discusses the importance of creating specialized AI models for different languages and regions to ensure inclusivity and applicability. He expresses hope for the development of a German AI model and discusses the trend towards smaller, more efficient AI models that consume less power and data.
🌍 The Importance of European AI Sovereignty
Klöckner concludes by stressing the importance of developing European and German AI models to maintain sovereignty and prevent the concentration of value creation in the hands of a few US-based tech companies. He highlights the potential risks to state finances and value creation if Europe does not invest in its own AI infrastructure. The speaker also expresses optimism in the capabilities of German developers and their potential to contribute to the development of a sovereign AI model for the future.
Mindmap
Keywords
💡Generative AI
💡Silicon Valley VC Scene
💡Data Center
💡Efficiency
💡AI Hype Cycle
💡Peak AI
💡Enterprise Users
💡Commoditization
💡Hardware
💡Exascale Computing
💡AI Ethics and Privacy
Highlights
Investments in generative AI by major corporations surpass the entire Silicon Valley VC scene combined.
Tech conglomerates are becoming more profitable and efficient, with Google's revenue per employee increasing from $750k to over $1M.
Gartner's Hype Cycle suggests generative AI and Foundation Models are at the peak of inflated expectations, with a disillusionment valley ahead.
OpenAI broke the $2 billion revenue milestone, showcasing the rapid growth of AI businesses.
Accenture is making more money with AI than all AI startups combined by training and implementing AI in enterprises.
Real-world use cases of AI are already significant, with companies like Zoom saving 400,000 hours in their call center monthly using AI.
Bloomberg predicts generative AI to be a $900 billion market by 2030.
Large language models are becoming commoditized, making it difficult to earn money with them as they become more ubiquitous.
There are now over 150 large language models, with new ones being released daily, competing against each other for dominance.
AI models are becoming multimodal, capable of processing not just text but also graphics, videos, and understanding creative content.
Training AI models is becoming more expensive, with Google's Meena model costing over $100 million to train.
Tech companies are developing their own AI-specific chips to gain an edge in AI capabilities.
Exascale Computing represents a new level of computing power, with companies like Zebra's Wafer Scale Engine leading the charge.
AI is helping to make breakthroughs in various fields, including reducing water consumption in data centers by 40%.
The potential of AI in science is vast, with models like Google's Gemini achieving high accuracy rates in answering questions.
AI is contributing to scientific advancements by predicting protein folding and discovering new materials for battery technology.
Robotics is an emerging field where AI will play a significant role in creating robots that can perform human-like tasks.
Open Source AI models are becoming more prevalent, with companies like Mistral and Meta contributing to the field.
There is a growing concern about the energy consumption of AI, with tech companies investing in green solutions like exowatt.
AI has the potential to revolutionize various industries, but there is also a risk of value creation being siphoned off by a few large corporations.
Germany has a strong pool of AI-skilled developers, which is crucial for building competitive AI models.
Transcripts
jeder dieser Konzerne macht mehr
investments in generative ai wie dies
gesamte Silicon Valley VC Szene zusammen
die haben auch ein großes Interesse
daran weil wenn die Firma eine Million
geben womit sie mit mit dann wenn sie
mit der Million dann wieder bei
Microsoft sich ins Datacenter einkaufen
um die sozusagen Chips zu beanspruchen
zum zum Training macht Microsoft mit
diesem Umsatz s das 15fache an
Marktbewertung wieder gut
moin hambur uh voll vielen Dank fürs
zahlreiche erschein mein Name ist Philip
Klöckner ich kriege später eine Presi
genau die slide soll sagen dass ich
relevant bin der eigentliche Grund warum
ich hier bin ist aber diese Person der
hat mich vor dre Jahren zu einem Podcast
überredet der seitdem sehr erfolgreich
gewachsen ist und unter anderem deswegen
darf ich heute hier stehen es geht heute
um das Thema ai ich habe 150 fen
mitgebracht äh für 40 Minuten das heißt
es geht schnell ihr müsst gar nichts
machen ihr müsst keine Fotos ihr dürft
Fotos machen ihr müsst keine Fotos
machen ihr müsst euch nichts merken ihr
kriegt die Slides hinterher ihr kriegt
ein Video hinterher m versucht einfach
nur was ich sage zu genießen und merkt
euch drei vier spannende Fakten die ihr
noch nicht kanntet ich werde so ein
bisschen Bezug nehmen auf letztes Jahr
um zu schauen wie meine letzte
Präsentation gealtert ist letztes Jahr
ging es vor allen Dingen um Effizienz
ähm da haben Unternehmen sehr viel
darüber gesprochen wie sie effizienter
werden wollen heute äh dieses Jahr der
gleiche Chart sieht so aus dass sie über
ihr Ei sprechen jedes dritte Unternehmen
spricht in seinen Quartalsergebnissen
über das Thema ai ich habe letztes Jahr
gesagt dass die techkonzerern immer mehr
Geld verdienen aber es auch für immer
mehr neue Angestellte ausgeben und
deswegen nicht mehr profitabler oder
effizienter werden und die haben gut
zugehört was sie gemacht haben ist wenn
man ein Jahr vorspüt spult haben sie
viele Leute entlassen und sind trotzdem
stark gewachsen beim Umsatz dadurch hat
sich ihr auch das ist live vom letzten
Jahr hat sich ihr Rohertrag pro
Mitarbeiter deutlich verbessert bei
google ist er von 750 000 auf über eine
Million proertrag pro Mitarbeiter
hochgegangen in der kurzen Zeit bei
Meter hat er sich sogar verdoppelt von
250 000 auf eine halbe Million pro
Mitarbeiter das ist
Effizienz Scott Galloway hat gestern
gesagt wir haben Peak
ai das hatte sich vielleicht selber
ausgedacht aber das sagt auch Gartner
Gartner hat diesen berühmten Hype cycle
um Trends zu beschreiben und ner denkt
dass generative ai und Foundation Models
dies large language Models auf dem
Höhepunkt des Peaks sind gerade das
heißt nicht dass sie sterben danach das
heißt danach kommt dieses Tal der
Desillusion und dann kommt irgendwann
die wirkliche Anwendung anders sieht es
samman Oldman sagt dieses Jahr ist das
most interesting Jahr for Humanity
eigentlich und jedes daraufolgende wird
es von jetzt an auch sein weil ai sich
beschleunigt
entwickelt er hat Grund froh zu sein
letztes Jahr haben hat open eii den 2
Milliarden Umsatz Meilenstein gebrochen
das ist eine Firma die vor 5 Jahren noch
gar keine Firma war oder noch gar kein
Unternehmen war sondern ein
Forschungslabor macht jetzt 2 Milliarden
Umsatz mit AI und dieses Jahr
wahrscheinlich mehr hat über 600.000
Enterprise Nutzer die Chat gbt schon
nutzen noch mehr Geld macht aber
Accenture ausgerechnet exenture mit AI
Accenture die Unternehmensberatung oder
Systemintegrator könnte man sagen
verdient mehr Geld als alle ai Startups
zusammen mit AI gerade indem sie einfach
Unternehmen Schulen und ai
implementieren in diese Unternehmen sie
haben 600.000 Menschen weltweit schon
ausgebildet sie schulen ihr ganzes
inhaus ihr eigenes Personal zu ai
Experten um weil das das große Projekt
ist was Unternehmensberatung in Zukunft
machen können die Leute ist der Nummer
ein Partner für generative ai bei Google
die Leute ist auch im System i
independent Software Wender ISV und die
Unternehmen beschäftigen diese Beratung
um ai zu implementieren weil jeder CEO
unbedingt ai machen möchte aber niemand
möchte schuld sein wenn das AI Projekt
scheitert also lasse ich exenser oder
deloit oder irgendeine andere
Unternehmensberatung diese Projekte bei
mir implementieren und deswegen macht
exenser dieses Jahr 2,4 Milliarden
Umsatz mit AI es gibt aber auch echte
real world use cases von AI schon clana
hat 700 Jobs in Callcenter eingespart
indem man einen Chat Agent die Anfragen
beantworten lässt Zoom spart 400.000
Stunden im Callcenter jeden Monat indem
sie 90% der Anfragen von einem Chatbot
beantworten lassen über 1,3 Millionen
Entwickler weltweit nutzen schon den
Copiloten von Microsoft GitHub und
entwickelt damit 40 50 Mal schneller als
Entwickler die kein Copiloten haben neue
Software es gibt ein Startup das heißt
Devin das nach nur 6 Monaten 2
Milliarden Dollar wert ist weil sie den
ersten vollk automatisierten Entwickler
bauen möchten amazon hat einen inhaus
Copiloten für Entwicklung gebaut und
bietet den anderen Unternehmen an ja
also es gibt schon Unternehmen die
signifikant Umsatz machen und
Produktivität rausholen indem sie ai
einsetzen Bloomberg glaubt das
generative ai bis 2030 ein 900
Milliarden Markt
ist letztes Jahr war das in meinem Kopf
eigentlich so meine kernfolie ich glaube
diese ganzen Foundation Models large
language models werden nicht irrelevant
aber welches wir nutzen wird irrelevant
die werden commoditized das ist so als
wenn ich entscheide ob ich meine
Webseite irgendwie in GSP oder PHP
schreibe ob ich eine MongoDB oder inodb
oder MySQL nehme was für eine Datenbank
ich nutze das ist Open Source
wahrscheinlich am Ende und es wird
schwer damit Geld zu verdienen glaube
ich immer noch was ich gesagt habe ist
dass was wichtig wird sind Daten eigene
Daten exklusive Daten Hardware und
Distribution Modelle gibt's wie äh wie
sagt man Sand am Meer es gibt inzwischen
150 large language Models und es kommen
täglich neue raus diese Modell Modelle
schlagen sich ständig gegenseitig werden
immer schneller immer besser Mistral
schlägt Gemini Gemini schlägt irgendwie
entropic clot und das neue Metamodell
schlägt wieder alle anderen und so
weiter jede Woche oder wenn man unseren
Podcast hör jede Woche reden wir über
irgendein Modell was wieder das an das
letzte beste Modell geschlagen hat und
es ist überhaupt nicht abzusehen ob
jemand einen signifikanten Vorsprung äh
Ringen kann darin was man aber absehen
kann ist diese Beschleunigung
die wir erfahren die rechte Grafik zeigt
ganz einfach gesagt es wurden tausende
Wissenschaftler befragt die die sich mit
dem Thema auskennen ai der blaue Punkt
ist was sie 2022 geantwortet haben wann
diese Tasks ersetzt werden der rote
Punkt ist was sie letztes Jahr 2023
glaubenten wann diese Tasks oder diese
diese Aufgaben ersetzt werden können von
AI und was man ganz klar sieht mit
Ausnahme von gamingfällen ganz unten ist
dass alles nach vorne gezogen wird
Menschen die sich tagtäglich mit AI
beschäftigen glauben dass alle diese
milestones deutlich früher erreicht
werden nach nur einem Jahr Entwicklung
in deri und ich würde davon ausgehen
dass ich weiter beschleunigt auch die
hlmi ist high level machine intelligence
glauben die meisten Wissenschaftler dass
sie früher erreicht wird foal ist full
automation of labber also alle Arbeit
kann ersetzt werden auch das hat sich
deutlich nach oben links verlagert also
Wissenschaftler glaub das wird früher
eintreten als bisher
antizipiert diese Modelle werden immer
schlauer sie werden schlauer als die
schlauesten Menschen in den Sachen wo
man sie testen kann und wo sie wirklich
gut drin sind und sie sind so schlau in
200 Sprachen gleichzeitig das dürfen wir
nicht vergessen bei allen Dingen die wir
testen können kommen Modelle an
menschliche Fähigkeiten ran sie sind
nicht wirklich intelligent ja aber sie
können menschliche Fähigkeiten in vielen
vielen vielen Gebieten
schlagen
insbesondere z.B captures inzwischen
captures klären weiterhin ob man Mensch
oder Maschine ist aber inzwischen
funktionieren sie anders rum nämlich das
Maschinen sie besser lösen können als
Menschen ich habe in zum Test in Google
Gemini einmal ein capture reingepastet
gefragt was zeigt mir dieses capture und
es sagt was da drauf steht und es
erklärt mir noch was ich nicht wusste
das capture für completely automated
public Touring test to tell computers
and humans apart steht habe ich was
gelernt alle Modelle sind inzwischen
multimodal das heißt ich kann einfach
Grafiken reinschmeißen oder ich kann
Fragen dass ich Grafiken oder Videos
rausbekomme ich kann ein Modell ein
Video geben und sagen F mir das zusammen
multimodal heißt sousagen es muss nicht
mehr Text Text sein ähm ich habe mal
dieses diesen Werbestand in ein Modell
rein auch in Google Jamin reinkopiert
und gesagt mach mir eine ähnliche
Kampagne wie das irgendwas kreatives und
man sieht wie gut das erkennt was das
ist das sagt das ist ein Aldi Store kein
Lidl Store sondern Aldi Store man könnte
es für Lidl eine andere Kampagne machen
ist erkennt dass das ein Fake landing
Spot für Center ist also versteht genau
was was es sehen kann auf diesem Bild
und es schlägt mir ein Alternativen vor
aber diese Modelle werden auch immer
teurer zu trainieren google gerinal hat
über 100 Millionen gekostet und der
Grund dafür ist das Thema was ich
letztes Jahr schon besprochen habe die
Hardware und warum Hardware so
essentiell ist im Hintergrund sieht man
den neuest die neueste Generation Nvidia
Chips der Blackwell 200 Chip der hat
20.000 terfops statt 5000 vorher also
innerhalb von zwe Jahr 4000 innerhalb
von 2 Jahren konnte wieder die
Performance dieser Chips ver fünf faen
der Grund liegt daran dass wir diese
Chips im diese Transistoren die kleinen
01 Schalter in den Chips immer kleiner
bauen können sind 50 Nanometer groß
niemand weiß was ein Nanometer ist 50
Nanometer ist kleiner als dieses Virus
das Virus wo wir Millionen von
raushusten können
das vollkommen unsichtbar ist dieser
Chip ist noch kleiner als das Virus
menschliches Haar ist 2000 mal dick als
so ein Chip und von diesem auf dem
reisßkorn würden eine Milliarde Chips
nicht Chips sondern Entschuldigung
Transistoren passen so letzt J habe ich
gesagt alle techkonzerne bauen ihre
eigenen
Chips google hat einen neuen Chip
entwickelt den Axon vorher hat Google
2015 hat Google angefangen eigene tpus
zu bauen Tensor processing units die
eigentlich nur für AI gedacht sind 2015
hat Google gemerkt wir brauchen eigene
Chips um das AI Rennen zu gewinnen jetzt
haben sie eine zweite chipgenation
gebaut die andere Aufgabe hat den Axion
selbst Apple die letztes Jahr noch
keinen hatten und Meta haben dieses Jahr
begonnen Chips zu bauen Meta baut die
mtias das ist steht für metatraaining
und inference Accelerator und Apple soll
gerade mit TSMC was der größte
chipproduzent der Welt ist an einem
eigenen Chip Arbeiten es gibt aber eine
ganz neue ein ganz neues Level an
Computing nämlich exascale Computing das
was ihr seht ist sozusagen das
sogenannte m law dass ich alle paar
Jahre die Rechen Kapazität oder die
Anzahl der Transistoren damit die Rechen
le
das ist eine logarithmische Skala
verdoppelt und was man gut sieht ist
dass die Firma zerebras W unseren
Podcast hört hat vielleicht schon mal
gehört im letzten OMR Podcast habe ich
drüber geredet auch die hat einfach mal
von von 100 Milliarden Transistoren auf
eine eine was ist das dann eine Billion
Transistoren sozusagen eine ganze
zehnerptenz diesen Graf höher verlegt
was was die machen ist statt kleine
Chips es gibt diese halbleiterscheiben
die kennt ihr vielleicht so wo die die
Leute im Labor mit diesen rumlaufen den
Halbleiter Scheiben
die die sind übrigens so eingekleidet
weil wenn man z.B wenn ich heute im
Hotel den Messing Knauf meiner t an Tür
anfasse dann würden die Kupferatome die
noch an meiner Hand sind würden die
gesamte Produktion also so so fein sind
so empfindlich sind diese Chips wie auch
immer auf jeden Fall statt aus so einer
Scheibe kleine Chips
rauszustanzen wird die ganze Scheibe zu
einem großen Chip sozusagen diese ganze
Scheibe rechnet nicht kleine Chips die
man zusammen steckt und dch ist es
einfach nicht nur größer sondern vor
allen Dingen kann es viel schneller
miteinander kommunizieren es kann viel
schneller kleine Bits in den Speicher
rein und rausschreiben und diese Wafer
scale Engine also diese Computer die so
groß sind wie ein Wafer sind 57 mal
größer aber vor allem sind haben sie 52
mal so viele prozessorenkerne und 900
mal so viel Speicher verbraucht und Sie
können mit diesem Speicher 7000 Mal
schneller als normale Rechner
kommunizieren dann kann man einfach
diese wferscheiben ganz viele in einen
Server stecken und dann steckt man ganz
viele dieser Server zusammen und man hat
den größten Supercomputer der Welt der
vier exaflops rechnet jetzt weiß keiner
was vier exaflops sind oder was 4
Millionen Kerne können aber man muss
jetzt vorstellen das ist eine halbe
Million MacBooks oder die OMR gerade ne
mehr eine halbe Million MacBooks die
gleichzeitig rechnen und das führt dazu
dass das letzte Lama Modell vorletzte
Lama Modell was Meta ein Monat lang
berechnen hat könnte man mit dem Setup
an einem Tag
berechnen es gibt eine Firma die die
grock in die ich kürzlich investieren
durfte ein ganz kleinen Betrag die für
inferenzchips baut die besonders schnell
Modelle die kann keine Modelle Trieren
oder nicht besonders gut trainieren aber
sie kann besonders gut Antworten geben
mit bestehenden Modellen ist dabei
deutlich schneller deutlich günstiger
als alle anderen Modelle es gibt
corewave hat gestern gerade neues
funding bekannt gegeben hat seine seine
Bewertung innerhalb von 5 Monaten
verdreifacht auf 19 Millionen corwef
macht nichts anderes als Nvidia also es
ist eine AWS für Nvidias also für für AI
Training sie vermieten nur Nvidia ships
sie haben guten Zugang zu Nvidia Chips
vermieten die haben 20 Milliarden V
damit aufgebaut wir haben letztes Mal
über Risiken und ne Nebenwirkung
gesprochen von AI und natürlich hat der
Clown angefangen Fake Images zu nutzen
um da damit Wahlkampfwerbung zu machen
das ist ein Foto was niemals so hätte
entstehen können es wird aber von Donald
Trump eingesetzt um schwarze
wler zu gewinnen ich habe letztes mal
erzählt dass wir eigentlich weil wir
nicht mehr wissen wer uns wir werden so
viel Content haben und so viel Fake
Konversation mit AI dass wir eigentlich
wollen ich will eigentlich dass jemand
der mir was schickt mit seinem
Fingerscan oder retin Scan sich
authentifiziert damit ich weiß ist das
überhaupt von dem Mensch geschrieben und
ich habe gesagt dass dieses Projekt
worldcoin genau dieses
Gerät erfunden hat dass das macht oder
ja zusammengebaut hat dass dieses
Projekt von dem deutschen und Sam Oldman
gegründet wurde hätte man nach der
letzten Präsentation den World coin
gekauft der so als Krypto Projekt dazu
gehört hätte man sein Geld kurzfristig
verzehnfachen können und wä immer noch 3
280% im Plus heute wir haben
contenttinflation ich habe gerade drüber
geredet kenttinlation sag geben dass
jeder kann zu ohne ohne Geld kann
Content generieren unter anderem war
LinkedIn mir z.B erlaubt automatisch mit
ein paar Sätzen eine LinkedIn Post zu
kriieren mit mit
AI da hat jetzt jemand zurückgeschlagen
und sagt wenn LinkedIn das Kreieren kann
dann kann ich es auch mit AI beantworten
und hat ein Bot gebaut
ähm der vollkommen autom also er nennt
es ein Monster äh das einfach vollkommen
automatisiert mit einem Klick sämtliche
LinkedIn Post äh beantworten kann zack
fertig und auf eine sinnv ob sinnvoll
weiß man nicht worüber ich bei den
Gefahren letztte mal nicht geredet habe
sind die humanen Kosten von AI die
Menschen die gleichen Menschen die
normalerweise Content Moderation machen
also Kinder Kinderpornos oder Gewalt
rausfiltern müssen aus Youtube oder aus
aus Facebook und aus anderen sozialen
Plattform arbeiten inzwischen daran
Daten zu Labeln das heißt damit diese
ganzen Modelle lernen können sitzen
irgendwo in Südostasien Millionen von
Menschen die nur sagen das ist eine
Katze das ist ein Hund das ist ein Auto
das ist eine Ampel wenn wir es nicht
selber in capters machen ich habe
letztes mal gesagt dass
jetzt jeder Idiot ich kann nicht mit
Paint umgehen nicht mit powersh
Photoshop aber ich konnte letztes Jahr
diese Bilder innerhalb von Minuten
generieren mitjourney mitjourney ist
noch mal deutlich besser geworden ganz
links ist mit journey vor 2i Jahren in
der Mitte war ungefähr letztes Jahr
rechts ist wie gut wie hyperrealistisch
mit journey heute arbeitet in der
Zwischenzeit hat open auch sein erstes
videomodell Sora rausgegeben dass
Hollywood Angst und Schrecken einjagt
weil es qualitativ in der ersten Version
schon sehr sehr gut
ist wir haben über Hardware geredet wir
haben noch nicht über Daten geredet
kleine Anekdote ich war vor einem halben
Jahrer letzten Sommer in dem Elite und
Universum so ein Internat wo
hochintelligente Menschen äh
unterrichtet werden und habe da den
gleichen oder den gleichen Vortrag wie
letztes Jahr gehalten und habe unter
anderem diesen Chart gezeigt dass diese
Modelle werden immer größer wir haben
mehr Hardware bessere Software mehr
Parameter mehr Daten die wir da
reinfüttern und hab damit gesagt die AI
wird immer immer besser werden immer
immer besser es hört nie wieder auf und
unter anderem verbessern sich die
Modelle auch selbst inzwischen sie
können sich selber Dinge beibringen
Software verbessert Software und
exponentielles Wachstum habe ich gesagt
nach der nach dem Vortrag kommt ein
14-jähriges Mädchen zu mir und sagt sie
haben da was falsches gesagt und ich you
ger my attention hab sie gefragt sie hat
gesagt irgendwann sind die Daten doch
alle und sie hatte vollkommen Recht eins
der ersten Probleme auf das wir stoßen
ist dass das Internet zu klein ist wir
haben zu wenig digitale Daten in diesen
Trillionen von Tokens mit denen diese
Modelle trainiert werden ist schon ein
Großteil des Internets und der der
Bücher der Wikipedia die wir haben mit
drin und im Moment haben riesiges
Problem noch neue Daten zu finden unter
anderem hat open ai angeblich deswegen
Youtube Videos transcribed umgeschrieben
um dann aus den Texten wieder zu lernen
ich habe letztes mal gesagt dass ein
großer Teil der Daten oder ein großes
Gewicht auf den reddit Daten webtext 2
sind Webseiten die von reddit verlinkt
werden die werden fünffach überbewertet
und kommen so auf eine 20przentige
Gewichtung in den Daten damit ist reddit
zu dem einfachsten Weg geworden ai zu
manipulieren und natürlich fangen SEOs
oder general ai Optimierer jetzt an auf
Reddit Artikel zu verlinken die der AI
den Eindruck geben sie hätten besonders
attraktives Unternehmen oder sind
besonders faszinierende Persönlichkeit
also reddit hat wird ein riesen Problem
damit haben ihre Daten sauber zu halten
weil es von allen Seiten Angriffen wird
weil alle wissen dass die AI sozusagen
reddit so
viel so viel Gewicht geben wer reddit
auch viel Gewicht gibt ist Google die
haben nämlich 60 Millionen pro Jahr
gezahlt um exklusiv Zugang zu den Daten
von reddit zu haben ich habe das Gefühl
sie haben google hat noch ein bisschen
mehr als 60 Millionen bezahlt das ist
nämlich die Sichtbarkeit in Google von
reddit seit 2019 aber man sieht was
sozusagen Mitte letzten Jahres passiert
ist Google glaubt auf einmal dass reddit
zehn Mal relevanter ist als in den
ganzen Jahren zuvor also 10 Jahre lang
war der Content von reddit scheiße jetzt
ist er auf einmal sehr sehr se gut so
ein Deal mit google möchte jeder SEO
auch haben aber es geht um Daten weiß
weiß jemand wer das hab was das
Habsburger Problem ist nicht okay
also ich lass mal laufen und ihr kommt
so ein bisschen dran was mit den
Habsburgern komisch war oh das war ich
nicht das war die eii das ein
Habsburger und zwar hatten die ein sehr
aristokratisches Kind sage ich jetzt mal
und die sogenannte Habsburger Lippe das
liegt daran dass derern Stammbaum so
aussieht da wo normalerweise 32
verschiedene urvorfahren sind gab's bei
den Habsburger nur die zehn gleichen und
dieser Karl I Z von dessen Urgroßeltern
wovon man normalerweise acht hat hatten
sechs den gleichen Vorfahren also es ist
ein insuchtproblem und das gleiche
passiert mit
AI wenn Modelle auf Daten trainiert
werden die selber von generiert worden
sind also generative ai schreibt das
ganze Internet voll jemand holt das aus
dem webindex raus und lernt darauf
wieder und die gleichen Inhalte werden
immer und immer immer wieder sozusagen
neu erzeugt und rausgegeben und jemand
lernt wieder draus dann kommt zu diesem
Habsburger Problem nämlich dass Modelle
fast kollabieren die auch von einem Tag
auf dem anderen liefern sie extrem
schlechte Ergebnisse weil sie nur noch
mit Daten die sozusagen schon vorher
drin waren
gefüttert werden das heißt exklusive
Daten werden die die großen Schätze der
Zukunft werden deswegen wer jetzt ein
Videoarchiv hat was noch nicht
öffentlich ist wer private messaging
Daten hat vielleicht wer synthetische
Daten generieren kann man kann Daten
auch so synthetisieren und daraus lernen
ohne ein Habsburger Problem zu bekommen
oder wer analogen Text hat der noch gar
nicht digitalisiert ist der sitzt
eigentlich aufschätzen das ist die
brennende Bibliothek von Alexandria
warum zeige ich die
2002 2002 vor 20 Jahren die Jüngeren
älterin werden sich erinnern hat Google
mal angefangen alle Bücher der Welt zu
scannen die sind zu zu Bibliotheken
gegangen hab gesagt hi wir sind Google
wir sind die guten wir würden kostenlos
alle eure Bücher scannen ihr kriegt
danach in eurer Bibliothek eine digitale
Version davon und wir würden das gerne
gerne Google Books nutzen so hat Google
25 Millionen Bücher gescannt zum
Vergleich in diesem Chart den ich vorhin
gezeigt habe aus woher die Daten kommen
in diesem Modul books was in den meisten
Modellen drin ist stecken nur wenige
tausend Bücher also GPT 3.5 wurde aus
wenigen Taus Bücher gelernt google hat
25 Millionen Bücher gescannt dann
wurde ihn untersagt Google booksweiter
zu betreiben weil die Copyright Lage
unklar war was sie nicht untersagt wurde
ist diese Bücher intern weiter zu
nutzen und deswegen hat the Atlantic
kürzlich getitelt dass Google
wortwörtlich die Bibliothek von
Alexandria wieder anzündet weil sie
quasi diese Bücher selber nutzen und
gleichzeitig also man kann sie
durchsuchen mit Google Books und so
weiter und die die wo das copy geklärt
ist die kann man auch angucken aber vor
allen Dingen hat Google 25 Millionen
Bücher die niemand anders hat gerade was
super wertvoll ist überhaupt das freie
Internet hat wahrscheinlich den
Höhepunkt überlebt Menschen die Content
besitzen müssen sich jetzt entscheiden
ob sie mit Google oder anderen ai
companies paktieren oder ob sie sie
verklagen oder ob sie es alle diese
Roboter
aussperren es gibt viele Verlage
achelspringer die Financial Times z.B
und andere haben sich entschlossen Deal
zu machen machen mit äh openi andere
klagen gerade wie die New York Times äh
ein anderes Problem wo wir über Daten
reden müssen wir auch über Datenschutz
reden mit der Begründung unserer Arbeit
effizienter zu machen wird uns in
Zukunft ständig auf die Hände geguckt
werden egal was für eine Arbeit ihr
macht ihr werdet entweder von dem von
dem Programm von der Kamera oder von
Sensoren überwacht werden
damit Maschinen lernen können wie ihr
eure Arbeit macht das wird ein ein
riesiger ein ein ein ähm na Einbruch in
die Privatsphäre werden mit der
Begründung dass man euch dann aber
ersetzen kann
bald worüber wir noch nicht geredet
haben ist Distribution ich bin nach wie
vor der Meinung dass Distribution
unheimlich wichtig ist und dass deswegen
die großen techkonzerne auch am meisten
profitieren werden unter anderem der da
da deswegen aber es definitiv viel zu
früh zu sagen ob irgendein eine ai
Companie jetzt diesen Markt schon
gewonnen hat im Moment versuchen die
großen techkonzerne uns mehr oder
weniger zu zwingen ihre zu nutzen die
meisten Leute wollen es gar nicht in
vielen Produkten ist es so drin ohne
dass wir es
wissen überall erscheinen jetzt so
kleine Copiloten die wir nutzen sollen
wie die Distribution am Ende aussehen
wird weiß noch keiner was spannend wird
nächsten Monat wird Apple bekannt geben
sozusagen was auf dem iPhone laufen wird
wird es ein eigenes Modell sein wird's
Google sein sie reden auch mit Open ai
sie reden mit allen das könnte spannt
werden sozusagen welche ai ü iPhone
vertrieben wird dann ein Problem was ich
letztes Jahr überhaupt noch nicht
gesehen habe ist ein sehr großes und
zwar der Energiehunger von
AI die Internationale Energieagentur hat
gewarnt dass im Moment Krypto und ai
ungefähr 2% der des Stromverbrauchs der
Welt ausmachen das könnte schnell auf
über 10% steigen in den nächsten Jahren
letzten Monat ist ein Dokument von
Microsoft geliegt wo drin steht dass
Microsoft 5 gigaw an Daten Datacenter
Ressourcen aufgebaut hat 5 Gig also ist
der gleichzeit Stromverbrauch oder
Stromaufnahme dieser Datenzentren die
Google let die Microsoft in letzten Zeit
aufgebaut ist wer sich nicht vorstellen
kann was 5 gigaw sind das sind die
letzten drei Atomkraftwerke die wir in
Deutschland abgeschaltet haben die
hätten laufen müssen weiterlaufen müssen
damit Microsoft seine dat Center
betreiben kann und Microsoft baut weiter
neue Datacenter Datacenter sind immer so
ein paar hundert also zwischen 50 und
200
meggaw das klingt schlimm ich dachte zum
Glück baut Microsoft ja nicht jede Woche
Center es baut ungefähr bis zu zwei
Datacenter pro Woche im Moment nur
Microsoft m und wird damit weitere
Gigawatt ans ans Netz nehmen inzwischen
sind die großen techkonzerne haben so
einen großen Energiehunger dass Sie mehr
Energie verbrauchen als BASF BSF ist
wahrscheinlich eins der größten
Energieverbraucher der Welt verbraucht
60 Terawattstunden das ist so viel wie
die Schweiz allein Ludwigshafen
verbraucht ein Zehntel davon der Rest
ist sozusagen BSS auf der Welt oder
Leuner oder andere Werke ähm aber diese
techonzern und da ist Amazon nicht dabei
weil Amazon diese Zahlen nicht rausgibt
alle anderen machen das in inen
sustainability Reports Amazon gibt diese
Zahl Zahlen nicht raus aber Amazon ist
der große größte cloudhoster der Welt
also natürlich werden Sie ein lichen
ähnlichen Stromverbrauch haben ähm in
wenigen Jahren werden sie ein Vielfaches
davon verbrauchen und warum ganz
offensichtlich diese NVIDIA GPUs diese
diese Chips die verbrauchen 700 Watt bei
maximaler Leistung äh also wenn sie
richtig Qualm das ist ungefähr was ein
balkonkraftwerk erzeugen könnte wenn es
bei Vollast laufen würde tatsächlich
erreicht das so ein Achtel ungefähr der
Kapazität im besten Fall das heißt
eigentlich braucht man acht neun
balkonkraftwerke um eine so eine GPU zu
betreiben
also acht balkonkraftwerk ist eigentlich
ein einfamilienhausdach ja also jedes
Mal wenn Nvidia eine GPU verkauft muss
irgendjemand eigentlich eine
solaranlageer auf neu auf ein Haus bauen
und so schnell kommt Waldemar gar nicht
hinterher mit balkonkraftwerken ähm das
Problem ist dass Nvidia 2 Millionen
dieser GPUs baut dieses Jahr und
nächstes Jahr noch mehr das heißt 2
Millionen Häuserdächer müssen wir
eigentlich jedes Jahr bepflastern damit
wenn ihr in irgendeiner Branche sein
sein wollt dann Datencenter bauen die
ganzen Infrastrukturfonds investieren
gerade im Datencenter
eine boomende Industrie aber wir warum
reden wir be Strom weil Strom und ai
nicht mehr zu trennen ist Mark
Zuckerberg Sam Oldman halten Strom
gerade für den größten Inhibitor von AI
Fortschritt ja ja und versuchen sich
alle gerade Zugang zu strompools zu
sichern weil man kann Strom gar nicht so
schnell
ausbauen wie wie sie da alle
datenzentern bauen wollen das vielleicht
auch ein Grund warum Sam ordm seit
Jahren in Kern Kernspaltung und
kernfusionstups investiert weil er
dieses Problem wie so viele sehr sehr
früh erkannt hat zum Glück investiert er
nicht nur in Kernforschung sondern auch
in tatsächlich grüne Lösung unter
anderem exowat das ist ein D in in1
Wärmekraftwerk das oben das ist nicht
eine solarplatte sondern ein
wärmekollektor also es nimmt nicht
Sonnenenergie sondern also schon Sonnen
Wärme auf aber macht daraus Wärme und
Wärme ist einfacher und billiger zu
speichern als Energie man braucht halt
kein Litium keine Schwermetalle sondern
man kann einfach die die wärmeichern
über ein Wärmekraftwerk wieder in Strom
umwandeln so kann man tagsüber
wärmeespeichern und nachts wenn z.B
andere Energiequellen versiegt sind
damit Grundlast erschaffen und davon
baut man einfach so viele wie man
braucht neben einen Datacenter und kann
unter einem Cent pro Kilowattstunde
Strom erzeugen ja also es macht keinen
Sinn mehr irgendein AKW zu bauen oder
ein Fusionsreaktor wenn du das hast
eigentlich und was man auch sagen muss
ist ich habe gestern hier auf der Bühne
gesagt es gibt kein Problem dass Ai
schafft was Ei nicht auch lösen kann und
ai hat auch
geholfen z.B große Durchbrüche bei der
kernf zu ermöglichen erst und egal wie
viel Energie diese ganze generative ai
verbraucht ist verbraucht tatsächlich
also wenn ich mich mit Photoshop
hinsetze und was baue braucht das am
Ende verbraucht das am Ende mehr Energie
als würde es eine ai für mich machen das
muss man fairerweise auch sagen ein
weiteres Problem was mir nicht bewusst
war war dass das auch viel Wasser
verbraucht einfach gesagt kann man sagen
für jede Kilowattstunde die verbraucht
wird im Datacenter werden ungefähr 2 l
Wasser Verbrauch oder ein ch gbt Verlauf
den ihr macht wird ein halber Liter
frischwer gekostet haben microsoft hat
dementsprechend sein Wasserverbrauch um
34% steigern müssen letztes Jahr auf
ungefähr 7 Milliarden Liter jetzt
schreiben Sie rechts dass sie aber auch
16 Milliarden freshwater replan
haben jetzt also wenn einer von euch mir
sagt wie man den den den
trinkwasserspiegel wieder anhebt wäre
ich gespannt weil ich glaub man kann
Wasser nicht so einfach zurückgeben an
die Welt das versuchen aber gerade alle
großen techkonzerne und Unternehmen uns
weiß machen zu lassen und jetzt sieht
recht so aus als wenn sie 16 Milliarden
zurückgeben aber da steht genau genommen
das sind die Projekte die Sie gestartet
haben und was die über ihre gesamte
Lebenszeit an Wasser zurückgeben werden
an Communities tatsächlich ist das alles
so ein bisschen wie dieses Carbon wie
heißt das Carbon
compensation das heißt ich sauf in
Arizona die Wüste leer und nehme da eine
Milliarde Wasser weg und dann baue ich
ein paar Buren in Indien und sag ich bin
jetzt wasserneutral oder wasserpitiv ja
wenn man da links untenin steht D steht
in dem gesamten Jahr ich glaube 22 ist
das hat Microsoft 7 Millionen Dollar
ausgegeben um Wasser wieder herzustellen
ich glaube nicht dass man für 7
Millionen Dollar diese 7 Milliarden
Liter fördern kann ehrlich gesagt ich
habe mal in unser Doppelgänger sheed
geschaut und geschaut microsoft macht
ungefähr 106 Milliarden Dollar Gewinn ja
das heißt in der Zeit wo ich diese Rede
halte wird m auf diese 7 Millionen die
sie für Wasser Rückgewinnung ausgeben
verdient haben google hat natürlich also
jeder techkonzern hat das gleiche
Problem Google verbraucht so viel in
2021 wie 30 golfplätz es gibt
golfplatzäquivalente ein großes das
größte Datacenter brauchst so viel wie
fünf Golfplätze ungefähr google wird
ungefähr dieses Jahr 30 Milliarden Liter
Wasser verbrauchen das ist als wenn es
zehn Mal die Außenalster leeräuft in
einem Jahr aber es gibt auch 271
Millionen zurück das ist alles was durch
die Alster Fontäne in einem Jahr
geschossen wird also die könnte man
sagen wird von Google Betrieben
ähm google will aber sogar 120% ist was
das was es verbraucht zurückgeben ich
habe gerade gesagt das geht gar nicht
aber
und das Target ist auch schon fast
erreicht nämlich 6%. aber sie haben noch
Zeit bis 2030 um auf 120 zu kommen ähm
diesen ganzen Quatsch erfunden hat
übrigens mal Coca-Cola die haben gesagt
für jeden jeden Tropfen Wasser den wir
nutzen geben wir ähm einen zurück das
hat sich sehr schnell rausgestellt dass
das Bullshit ist weil sie das Wasser was
für die Flaschen verbraucht wird fürs
Plastik und fürs Recycling und so weiter
gar nicht mit im Betracht gezogen haben
und heute sieht die Kampagnenseite so
aus für den wir habe ich keine Zeit mehr
also was ich eigentlich nur will ist
dass wenn ihr in Zukunft die Begriffe
water replanishment water stewardship
water positive hört dass ihr an dieses
SL denkt so aber ich habe gesagt nichts
was ai verursacht kann man nicht auch
mit AI heilen ai eins der ersten Projekt
die Google deepmind gemacht hat ist den
Wasserverbrauch der Datacenter um 40%
mit AI zu senken also auch das Problem
kann man lösen der wichtigste Teil ich
finde es wird viel zu viel über ai
Industrie Content Marketing all das
gesprochen viel wichtiger ist was ai für
die Wissenschaft leisten kann unsere
fangen wir mal an mit M Gemini das ist
basiert auf das Google Gemini large
language Model und hat eine
91,1%zentige Genauigkeit bei Anworten
geschafft jetzt muss auch dazu sagen
dass 7,4% der Fragen so schlecht
gestellt waren haben Menschen hinterher
gesagt dass man sie gar nicht richtig
beantworten kann aber 91% Genauigkeit
hat mat Gemini geschafft jetzt würde ich
sagen das ist mir eigentlich zu wenig
ich gehe nicht zum Arzt wenn ich 91%
Genauigkeit habe das Problem ist ihr
geht zu einem Arzt der 87% Genauigkeit
habt weil menschliche Ärzte keinesfalls
besser sind als das also Ärzte oder
Ärztinnen die das Examen
bestehen sind ungefähr bei 60% und
tatsächliche Fachexperten bei 87 %
Genauigkeit dieses Modell ist besser und
selbst das Vorgängermodell medpalm war
nicht nur schon besser als die meisten
Ärzte es wurde von Patienten und
Experten auch als empathischer als die
menschlichen Ärzte wahrgenommen also
wenn ihr solche Ärzte seht lauft das ist
der Arzt den ihr
wollt warum ist das so wichtig für
Wissenschaft ai Wissenschaft
funktioniert im Moment wie die Nadel im
Heuhaufen suchen ja wir testen
manuell 10taus verschiedene
Möglichkeiten von irgendwas und ai kann
uns einfach helfen das vorzuerechnen z.B
alphafold kann vorberechnen wie
Aminosäuren in in Proteinen sich falten
und kann dadurch konnte 300 Millionen
verschiedene mögliche 200 Millionen
verschiedene Proteine synthetisieren
oder zumindest s also ein virtuellen
Zwilling davon bauen und damit kann man
einfach schon vorher schauen welche
welche Verbindungen überhaupt stabil
sind und welche nicht und kanandidaten
finden unter anderen z.B um die letzten
Kranken aus Keime zu gönen seit 60
Jahren seit wir Penicillin erfunden
haben und ein paar cephalospurine so
womit man dann multiresistente Keime
kaputt kriegen könnte theoretisch
Breitband Antibiotika
seit 60 Jahren haben wir nichts Neues
mehr erfunden da aber durch ai haben wir
jetzt zwei neue Kandidaten gefunden die
theoretisch wirksam gegen mrssa ist
metizillin resistente staphilococcus
aureus das sind diese Krankenhauskeime
die multiresistent sind die von keinem
oder von den meisten Antibiotikas nicht
mehr gekillt werden können aber durch ai
haben wir aus hertausenden von
Kandidaten konnten ich glaube 180
rausgefiltert werden die sich lohnt zu
testen und da wurden wurden Zweige vonen
die wirksam sein konnten
ähm es ist mindestens genauso spannend
für Materialwissenschaft ähm mit Hilfe
von Gnom hat man äh Hunderttausende von
kristallinen Strukturen entdeckt die wir
nicht kannten vorher die aber möglich
sind durch chemische also die chemische
Verbindung eingehen können die stabil
sein werden äh die wir vor nicht kannten
und und man kann z.B äh für
Batterietechnologie Ersatz für Litium
wir wissen wir werden bald kein litiium
mehr haben durch die ganzen Batterien
die wir bauen wollen man kann Litium
aber mit Natrium mit Kochsalz also mit
dem Bestandteil von Kochsalz und Salz
gibt's genug auf der Welt ersetzen und
das hat ai rausgefunden und ich glaube
der der der durchsbruch den wir erleben
werden in der Wissenschaft ist
eigentlich das spannendste in der eii
dass ist sozusagen unser die gesamte
Entwicklung der Menschheit heben wird
und es natürlich in Medizin in Physik
Materialwissenschaft riesige Durchbrüche
geben können wird die wir uns noch gar
nicht vorstellen können wenn diese
Modelle auch noch anfangen eventuell
Probleme zu lösen
man kann Wetter besser vorher sagen mit
eii natürlich in Hamburg braucht man das
nicht
was auch noch spannend wird dieses Jahr
glaube ich und letztes Jahr noch gar
nicht so spannend war ist das Thema
Robotics nicht nur bei Tesla sondern auf
der G oder bei Boston dynamic auf der
ganzen Welt werden eigentlich gerade
Roboter gebaut die uns das Leben
erleichtern werden in der Zukunft das
ist eine Firma die heißt Agility
Robotics
Logistik ich habe vor einem Monat
Logistiker gereden der geht fest davon
aus dass bis Z bis 2030 20 30% der Jobs
wegfallen werden und an Roboter gehen
weil Roboter unermütlich unermütlich
arbeiten können und die Arbeit machen
kann die uns Tag und Nacht schwer fällt
das ist der Tesla Roboter der kann
Batterien schon zusammenstecken
äh relativ genau das ist glaube ich ein
relativ junges Video
genau sehr präzise und der Grund warum
diese Roboter so aussehen wie Menschen
ist nicht nur dass sie menschliche
Arbeit machen können der Grund ist dass
sie besonders schnell von Menschen
lernen können weil die Roboter müssen
Menschen nur beobachten oder etwas
vormachen sehen und können dann lernen
sozusagen über über künstliche
Intelligenz lernen was sie machen wir
müssen den Roboter nicht programmieren
was er macht sondern wir bauen ihn nach
unserem Vorbild damit er von unserem
Vorbild lernen kann das ist figi die
Arbeiten mit BMW zusammen z.B
und können der kann Kaffee
[Musik]
kochen na ja jetzt auch nicht so
spannend was spannend ist ist Open
Source Open Source ist das Konzept dass
man Software zur Verfügung stellt
kostenlos dass alle daran mitarbeiten
können und was definitiv nicht Open
Source ist ist Open ai openi ist ein der
verschlossensten Firmen der Welt
geworden was hochprematisch ist wenn man
überlegt dass sie künstliche oder Art
general intelligence also super
Intelligenz bauen wollen und wie viel
Macht sozusagen in der Person von Sam
man konzentriert ist ist definitiv
problematisch aber das Gute ist es gibt
viele Open Source Firmen die es schaffen
Open Source Modell zu bauen die absolut
vergleichbar mächtig werden wie die
Modelle von openi z.B Mistral aus
Frankfurt äh aus Frankfurt aus
Frankreich ähm ein ehemaliger Googler
und ein bei Facebook Angestellter haben
das gebaut und haben es innerhalb von
einem halben Jahr geschafft oder
innerhalb von weniger Monat weniger
Monaten geschafft die viele der gängigen
Modelle vom Stand wegzuschlagen mit mit
ihrem ersten Modell und es wird
weiterhin besser ausgerechnet Meta wird
sozusagen der Overlord der der Open
Source und hat mit Lama 3 Modell gebaut
was viele kommerzielle Modelle
inzwischen schlägt das ein bisschen
langweilig ähm wie sind die beiden beste
Freunde geworden rechts ist der CEO von
Nvidia links ist Mark sackerberg die
fand es lustig Jacken zu tauschen
verstehe ich nicht ich weiß nicht warum
Mark Zuckerberg so happy ist ich weiß
aber warum Jenson Wang so happy ist den
Start habt ihr n nicht schon mal gesehen
weil Meta der größte Kunde von Nvidia
ist Meta wird dieses
Jahr bis zu 40 Milliarden Dollar in AI
Chips ausgeben und in AI in investieren
die sie dann Open Source machen zum
Vergleich 40 Milliarden das Apollo
Programm hat in heutigen Dollars 29
Milliarden gekostet das hat zwei
Menschen auf den auf den Mond gebracht
und tausende oder nicht 1us aber z
Trägerraketen in die Luft gejagt und das
ist das Geld was Meta ab jetzt jedes
Jahr in AI investiert um dann Open
Source allen zurückzugeben das klingt
dumm macht aber wahrscheinlich doch Sinn
einerseits weil man weil Meter dadurch
tatsächlich Tracking deutlich verbessern
konnte mit Hilfe von AI und das Tracking
Problem was Apple ihn auferlegt hat
lösen konnte
sie können Ihr Ranking und
recommendation System verbessern sie
können Chatbots und Copiloten anbieten
die jetzt schon überall in Instagram und
so sieht sie können bei der
Unterstützung also können neuen Content
schaffen helfen und Sie können vor allen
Dingen das AI Rennen für alle anderen so
ein bisschen beenden damit weil im
Moment haben wir das Problem die großen
techkonzerne haben ihre super mächtigen
Modelle so ein bisschen wie
nuklearbomben die großen Atommächte
haben nuklearbomben und alle anderen
haben Problem und was Meta macht ist
einfach jedem jedem die Atomwaffe zu
geben indem sie Open Source eins der
besten Modelle anbieten und dadurch den
Gewinn für alle anderen ruinieren so ein
bisschen auch und warum sollte das
anders aussehen als im Internet damals
wo eigentlich fast alles was
Infrastruktur ist Open Source war ich
bin fast in der Zeit und fast fertig bin
bisschen überrascht
[Musik]
darüber haben wir gestern schon auf der
Bühne ein bisschen geredet und im im
Podcast auch ist es vollkommen klar dass
souveräne Städten Städte eigene Modelle
wollen es gibt Länder in der Welt die
wollen keine westlichen llms die haben
andere Definition von Kultur andere
Definition vonon von von Wahrheit
deswegen ist vollkommen klar dass China
Russland der Iran hat ein eigenes
LLM ein LLM muss auch die lokale Kultur
wahrscheinlich m irgendwie vertreten
sonst
wird es in vielen Bereichen der Welt
nicht anwendbar sein es gibt in China
ein Modell das so gut ist dass GPT V
Turbo schlägt senstime 5 pun n0 heißt
das es macht allein auch schon deswegen
Sinn weil die meisten Modelle auf
Content kreiert sind der überwiegend in
englischer Sprache
geschrieben wurde das heißt allein um
z.B indische Menschen die die Hindi
sprechen oder Bengali oder Leute die in
Philippinen leben oder so sozusagen mit
einzubeziehen muss man spezialisierte
souveräne Modelle
aufbauen wir haben das leider noch nicht
geschafft Alif Alpha ist eine der
wenigen companies die noch genau gar
kein Modell submit hat bei hugging face
der plat ich hoffe dass wenn ich
nächstes Jahr vielleicht einen ähnlichen
Vortrag wiederhalte dass wir dann auch
ein schönes deutsches Modell schon haben
was wir noch mehr sehen werden ist
schlankere Modelle Modelle werden
kleiner werden weniger stromverbrauchen
weniger Daten brauchen es gibt mix of es
wird mix of experts Modelle geben wo für
jede Frage ein anderes spezialisiertes
Modell gefragt wird es gibt compound
Models die so schrittweise übereinander
lagernd Dinge beantworten wir werden
weiter viel Investment sehen in AI das
Problem ist die das Investment kommt nur
von oder hauptsächlich von den großen
Tech companies zwei Drittel der
investments in generative ai wurden von
den großen techkonzernen und Nvidia
gemacht 8% des gesamten Venture Capital
volumes wird inzwischen von App und
Google gemacht jeder dieser Konzerne
macht mehr investments in generative ai
wie die gesamte Silicon Valley VC Szene
zusammen die haben auch ein großes
Interesse daran weil wenn die Firma 1
Million geben womit sie mit mit dann
wenn sie mit der Million dann wieder bei
Microsoft sich ins Datacenter einkaufen
um die sozusagen Chips zu beanspruchen
zum zum Training macht Microsoft mit
diesem Umsatz s das 15fache an
Marktbewertung wieder gut wenn Microsoft
einem also Microsoft gibt jemand eine
Million hier ich investi Startup die
geben das bei Microsoft wieder aus
Microsoft macht Million mit 1 Million
Umsatz wenn Microsoft Million Umsatz
mehr Macht wer sie an der Börse gerade
15 Millionen mehr wert
ähm Modelle werden lernen
Schlussfolgerung zu treffen sie können
das teilweise schon sie können planen äh
sie werden menschlicher werden nächstes
Jahr
ähm wird
ai suche killen letztes Jahr war ich mir
relativ sicher dass das nicht tut ich
glaube aber schon äh dass es
wahrscheinlicher wird oder ich habe im
Podcast gesagt dass Microsoft unbedingt
noch mal ein Angriff auf suche nehmen
muss allein Umag die LinkedIn Daten
besser verwerten zu können wenn wenn
Microsoft wüsste was die Leute die es
auf LinkedIn ansprechen kann suchen
könnten sie mir so viel sales agents
wenn sie wüssen ich habe nach cm
Software gesucht letzte Woche wäre das
so wertvoll für Microsoft dass sie es
eigentlich machen müssen ich bin mir
relativ sicher dass Google wenn sie
durch den Spion gucken
das Sehen und ein oder es sind 200
Milliarden Businessmodell search am Ende
auch selbst wenn ich nur 5% davon habe
sind das 10 Milliarden und wir haben
gerade gelernt Milliarden sind für
Microsoft 150 Milliarden Firmenbewertung
die sie h zuulegen
können morgen hat openi ein Event
angekündigt wo niemand weiß worum es
geht aber sie haben auch die Subdomain
search.jgbt freigeschaltet die ist zwar
noch not found aber wenn es sie nicht
geben würde würde die Fehlermeldung
anders aussehen es könnte gut sein dass
damit sozusagen noch mal eine search
Möglichkeit angeekündigt wird morgen und
das letzte oder vorletzte was ich noch
sagen möchte ist es gibt eine
riesengefahr die ich sehe dass das
gleiche passiert was wir in der Online
Werbung gesehen haben nämlich dass ein
großer Teil der Wertschöpfung aller
Industrien durch wenige Konzerne
abgeschöpft wird und dieses Geld in
Europa nicht mal mehr versteuert wird
sondern direkt in die USA wandert das
wird für unsere Staatsfinanzierung ein
riesen Problem es ist für die unsere
Wertschöpfung sowieso ein Problem das
ist mit Onlinewerbung genauso passiert
jeder von euch zahlt irgendwo 3 bis 5 %
Google Steuern teilweise deutlich mehr
das geht in die USA es wird hier kaum
noch versteuert und das gleiche wird mit
AI passieren wir werden alle ai
einsetzen die wird bei großen
techkonzernen sitzen das wird unsere
Unternehmen produktiver machen aber
dafür werden wir Geld zahlen und diese
wertschäpfung landet in den USA wenn wir
nicht eigene souveräne europäische
deutsche Modelle äh bauen und deswegen
ist das Thema ähm so wichtig ich
versuche mal positiv zu enden das ist
deswegen kann das noch nicht das Ende
sein aber letztes Jahr habe ich gesagt
wir haben in Deutschland unheimlich viel
Entwickler und mehr braucht man
eigentlich nicht um gute ai zu bauen
gute Entwickler und Entwicklerin
natürlich und wir haben nicht nur viele
davon sondern nach dem ai Index von
Stanford schließen diese sogar relativ
gut ab die sind relativ gut auf ai
eingestellt das drittbeste Land der Welt
in im ai Skillset also wenn jemand sagt
er ist Entwickler oder Entwicklerin dann
ist er wenn er aus Deutschland kommt
eigentlich besonders gut für AI
qualifiziert und ich hoffe dass viele
dieser Entwickler uns ein souveränes
Modell bauen für die Zukunft und ich
danke euch für die drei extraameten und
die Aufmerksamkeit ihr könnt unter dem
Link die Folien und ein Video später
runterladen ich freue mich wenn ihr mir
auf LinkedIn folgt News abonniert oder
unseren Podcast zuhörst vielen Dank für
die
[Applaus]
Aufmerksamkeit
Philip Philip Klöckner der absolute
Wahnsinn du danke ich habe die ganze
Zeit immer versucht zu hören wann atmet
Philip denn
eigentlich jetzt du hast jetzt einfach
mal ganz kurz 45 Minuten durchgeredet
hat die Zeit den dies Jahr gereicht oder
willst du wieder kommen ein bisschen
mehr ne noch mehr Brau ich nicht ich
mach Biss komak noch näch
malner Wahnsinn
Voir Plus de Vidéos Connexes
Mustafa Suleyman on The Coming Wave of AI, with Zanny Minton Beddoes
AI Just Changed Everything … Again
Beyond the Hype Impact of ChatGPT & Generative AI 2 | Zuno Weekly Events
Can AI really save the World? ft. Bill Gates
The New Youngest Self-Made Billionaire In The World Is A 25-Year-Old College Dropout | Forbes
Generative AI is not the panacea we’ve been promised | Eric Siegel for Big Think+
5.0 / 5 (0 votes)