🚀 Eigenes ChatGPT in 5 Minuten: So geht’s!
Summary
TLDRIn diesem Video-Skript erzählt der Sprecher von seiner Erfahrung mit der Installation und Nutzung von Chat-GPT-Modellen. Er vergleicht verschiedene Tools wie ULAMA, LM Studio und andere, diskutiert die Installation auf verschiedenen Betriebssystemen und die GPU-Unterstützung. Der Sprecher teilt Tipps zur Hardware-Auswahl und gibt einen Einblick in seine persönlichen Anwendungsfälle, wie beispielsweise die Erstellung eines Sprachklons für seine Tochter. Leider treten technische Schwierigkeiten auf, die eine vollständige Live-Demo verhindern, aber der Sprecher verspricht, die fehlenden Informationen später in schriftlicher Form zu liefern.
Takeaways
- 😀 Das Video umfasst den Aufbau eines eigenen Chat-GPT Systems, genannt 'Olama', das auf verschiedenen Betriebssystemen wie Windows, Mac und Linux lauffähig ist.
- 🤖 Der Sprecher hat zwei eigene Rechner mit einem System, über das er Informationen teilt, und betont die Einfachheit der Installation von Olama.
- 🔧 Die Installation von Olama ist zwar etwas aufwendiger als bei anderen Alternativen wie LM Studio, bietet jedoch eine sehr schnelle und ressourcengerechte Ausführung.
- 🚀 Olama unterstützt die Installation mit GPU-Unterstützung für schnellere Verarbeitung, aber es kann auch auf CPU laufen, wenn Grafikprozessoren nicht verfügbar sind.
- 💡 Der Sprecher empfiehlt für die Nutzung von GPUs die RTX-Reihe von Nvidia ab dem Modell 460, oder für eine kostengünstigere Option die Quadro P5000.
- 🛒 Es wird darauf hingewiesen, GPUs aus China zu meiden, da diese oft für Mining genutzt wurden und möglicherweise defekt sind.
- 💻 Die CPU-Last kann bei einfacheren Modellen und Anwendungsfällen mit wenigen Echos ausreichend sein, aber für größere Anwendungen ist mehr Leistung notwendig.
- 🔑 Der Sprecher diskutiert auch die Arbeitsspeicheranforderungen, wobei 8 GB als Minimum für den Betrieb von Olama angegeben werden.
- 🌐 Es wird erwähnt, dass Olama in der Lage ist, mit verschiedenen 'large language models' zu arbeiten, die nach der Installation hinzugefügt werden können.
- 👶 Der Sprecher gibt einen praktischen Einsatzbeispiel für Olama an, bei dem eine Stimme eines Märchenprinzen geklont wurde, um der Tochter Geschichten zu erzählen und ihr Sprachkenntnisse beizubringen.
- 🔗 Schließlich wird die Möglichkeit gezeigt, wie Olama mit Docker und einer Web-Oberfläche wie Open WebUI integriert werden kann, um eine benutzerfreundliche Schnittstelle zu bieten.
Q & A
Was ist das Hauptthema des Transcripts?
-Das Hauptthema des Transcripts ist die Erstellung und Installation eines eigenen Chat-GPT-Systems namens 'olama'.
Welche Betriebssysteme werden im Transcript zur Installation von 'olama' erwähnt?
-Im Transcript werden Windows, Mac und Linux als Betriebssysteme für die Installation von 'olama' erwähnt.
Welche anderen Alternativen zu 'olama' werden im Transcript erwähnt?
-Im Transcript werden 'LM Studio' und 'Docker' als Alternativen zu 'olama' erwähnt.
Was unterscheidet 'olama' von anderen Installationen, die im Transcript erwähnt werden?
- 'olama' unterscheidet sich durch seine Geschwindigkeit und geringen Ansprüche an die Hardware, sowie die Möglichkeit, es sowohl mit GPU als auch mit CPU zu betreiben.
Welche GPU-Empfehlung gibt der Sprecher für 'olama'?
-Der Sprecher empfiehlt für 'olama' eine Nvidia GPU aus der RTX-Reihe, ab dem Modell 460, oder eine Quadro GPU, wie die P5000.
Was ist der Vorteil, wenn man 'olama' mit einer GPU statt mit einer CPU betreibt?
-Die Verwendung einer GPU ermöglicht eine schnellere Verarbeitung im Vergleich zur CPU, da Grafikkarten speziell für schnelle Berechnungen optimiert sind.
Welche Tipps gibt der Sprecher bezüglich dem Kauf von GPUs?
-Der Sprecher rät davon ab, GPUs aus China zu kaufen, da diese hauptsächlich für das Mining verwendet wurden und möglicherweise stark beansprucht sind. Stattdessen sollte man GPUs von Gamern kaufen oder neue kaufen.
Was ist der Zweck des 'olama'-Systems, das der Sprecher für seine Tochter erstellt hat?
-Der Sprecher hat ein 'olama'-System erstellt, das in der Lage ist, Geschichten zu generieren und auf Fragen der Tochter zu antworten, um ihr zu helfen, besser zu sprechen und zu lernen.
Welche Rolle spielt Docker im Kontext des Transcripts?
-Docker wird verwendet, um eine GUI (Graphische Benutzeroberfläche) für 'olama' zu erstellen, die es ermöglicht, die Modelle komfortabel zu verwalten und zu installieren.
Was ist der Vorteil der Verwendung von 'olama' mit Docker?
-Die Verwendung von 'olama' mit Docker ermöglicht eine einfachere Verwaltung und Installation von Modellen, sowie die Möglichkeit, die Systeme über eine GUI zu steuern.
Outlines
🤖 Einführung in die Erstellung eines Chat-GPT
Der Sprecher beginnt mit einer Vorstellung und kündigt an, ein eigenes Chat-GPT zu erstellen. Er erwähnt, dass er zwei Rechner betreibt und Informationen über das System teilt. Die Installation wird als einfach und schnell beschrieben, und es wird erwähnt, dass verschiedene Systeme (Windows, Mac, Linux) unterstützt werden. Es wird auch auf die GPU-Unterstützung und die Wahl der richtigen Hardware eingegangen.
🔧 Empfehlungen für Hardware und Systemanforderungen
Der Sprecher diskutiert die empfohlenen GPUs für die Nutzung von Chat-GPT, empfiehlt Nvidia RTX-Serie ab der 460 und erwähnt auch die Quadro GPU als seine Wahl für maschinelles Lernen. Er gibt Ratschläge für den Kauf von GPUs, warnt vor chinesischen GPUs, die möglicherweise für Mining genutzt wurden, und teilt seine Erfahrungen mit verschiedenen GPUs.
🖥️ Installation von Chat-GPT unter Windows und Mac
Der Sprecher geht durch den Installationsprozess von Chat-GPT auf Windows und Mac. Er erwähnt die Systemanforderungen, insbesondere den Arbeitsspeicher, und zeigt die Installation auf einem Mini PC für die Erzeugung von Geschichten für seine Tochter. Er betont die Benutzerfreundlichkeit der Installation und die Möglichkeit, die Software auf verschiedenen Betriebssystemen zu verwenden.
🛠️ Installation von Docker für die Verwendung mit Chat-GPT
Der Sprecher erklärt die Notwendigkeit von Docker für die weitere Konfiguration von Chat-GPT. Er beschreibt den Download und die Installation von Docker Desktop und diskutiert die Vorteile von Docker für die Zusammenarbeit im Team und für die Erstellung einer GUI für Chat-GPT.
🔄 Problembehandlung und Konfiguration von Docker
Der Sprecher erzählt von Problemen, die auftraten, während der Installation von Docker. Er beschreibt, wie er versucht, Docker neu zu installieren und sich bei Docker anzumelden, um die Installation fortzusetzen. Es wird auch erwähnt, dass der Vortrag trotz der technischen Schwierigkeiten fortgesetzt wird.
🌐 Verwendung von Web-GUI und Docker für Chat-GPT
Der Sprecher erklärt, wie man Docker Desktop nutzt, um eine Web-GUI für Chat-GPT zu erhalten. Er diskutiert die Vorteile der Web-GUI und die Möglichkeit, verschiedene Modelle zu installieren und zu konfigurieren. Es wird auch erwähnt, dass der Sprecher versucht, die Web-GUI zu starten, aber auf Schwierigkeiten stößt.
🛠️ Installation von Starcoder und anderer Modelle
Der Sprecher gibt einen Überblick über die Installation verschiedener Modelle, einschließlich Starcoder, das für Programmierunterstützung verwendet werden kann. Er erklärt, wie man mit der Kommandozeile weitere Modelle installieren kann und teilt einige seiner Erfahrungen mit verschiedenen Modellen.
📚 Anwendung von Chat-GPT für persönliche und berufliche Zwecke
Der Sprecher beschreibt, wie er Chat-GPT für persönliche Zwecke wie die Erstellung von Geschichten für seine Tochter nutzt und für berufliche Zwecke, wie die Vorbereitung auf eine Prüfung. Er erwähnt auch die Möglichkeit, verschiedene Nutzerkonten einzurichten und die Spracheinstellungen anzupassen.
🔗 Erweiterung der Funktionalität mit APIs und Datenbankverbindungen
Der Sprecher diskutiert die Erweiterung der Funktionalität von Chat-GPT durch die Verwendung von APIs und die Verbindung mit Datenbanken. Er teilt ein Beispiel, wie er LinkedIn-Daten nutzt, um potenzielle Interessenten für Produkte zu scrapen und buying personas zu erstellen.
🎙️ Anwendungsbeispiel für einen Podcast
Der Sprecher gibt ein Beispiel für die Anwendung von Chat-GPT in einem Podcast-Kontext. Er beschreibt, wie er mithilfe von Chat-GPT nach potentiellen Gästen sucht, ihr Verhalten analysiert und interaktive Prozesse einrichtet, um Aufmerksamkeit auf seinen Podcast zu ziehen.
📉 Probleme bei der Live-Demo und Absage
Der Sprecher ist enttäuscht über die technischen Probleme bei der Live-Demo und entscheidet, die Präsentation abzubrechen. Er bedankt sich bei den Zuschauern und kündigt an, die fehlenden Informationen in schriftlicher Form nachzureichen.
🙏 Abschließende Gedanken und Dank
Der Sprecher bedankt sich nochmals bei den Zuschauern und teilt mit, dass er ein schriftliches Material und eine Aufzeichnung der Session zur Verfügung stellen wird. Er kündigt an, dass er versuchen wird, die fehlenden Schritte in einer zukünftigen Aufzeichnung nachzuholen und schließt mit einem Dank an die Teilnehmer.
Mindmap
Keywords
💡Chat GPT
💡Installation
💡GPU-Unterstützung
💡CPU
💡Nvidia GPU
💡Docker
💡Web-GUI
💡Modelle
💡Multi-CPU-Unterstützung
💡HyperThreading
Highlights
Bauen eines eigenen Chat-GPT-Systems mit einfacher Installation und Unterstützung für Windows, Mac und Linux.
Verwendung von Olama für die Entwicklung und Vergleich mit anderen Alternativen wie LM Studio.
Installation kann mit oder ohne GPU-Unterstützung durchgeführt werden, mit GPU für höhere Geschwindigkeit.
Empfehlung von Nvidia RTX 460 GPU oder höher für bessere Leistung.
Warnung vor dem Kauf von GPUs aus China aufgrund von möglichen Problemen mit der Verwendung im Mining.
Möglichkeit, das System auch auf CPU zu betreiben, mit Fähigkeit zur Multi-CPU und Hyper-Threading-Unterstützung.
Diskussion über Arbeitsspeicherbedarf und die Möglichkeit, mit 8 GB Arbeitsspeicher zu beginnen.
Erstellung eines Voice-Clones für eine Tochter, um Geschichten zu erzählen und Sprachfähigkeiten zu fördern.
Demonstration der Installation von Olama auf einem Windows-Rechner und erste Schritte zur Verwendung.
Beschreibung der Verwendung von Docker für die Erstellung einer webbasierten Benutzeroberfläche.
Herausforderungen bei der Installation und Notwendigkeit, Docker neu zu installieren.
Erstellung eines Docker-Kontos für den Zugriff auf die Web-Oberfläche.
Möglichkeit, verschiedene Language Models wie Starcoder für Programmierunterstützung zu installieren.
Nutzung der Web-Oberfläche zur Durchführung von Analysen und Erstellung von Buying Personas.
Geplante Aufzeichnung eines Videos zur Demonstration des Antrainierens eigener Modelle mit Olama.
Probleme bei der Live-Demonstration und die Absicht, die Schritte später schriftlich nachzuliefern.
Transcripts
ja dann
auch von mir erstmal ein einen guten
Morgen ähm genau heute bauen wir unser
kleines eigenes Chat GPT m ich werde
euch auch ein bisschen erzählen was ich
habe zwei eigene Rechner laufen mit mit
einem System da kann ich euch auch gerne
was zu erzählen und ja dann schauen wir
uns doch mal an und das Ganze ist
wirklich sehr sehr sehr sehr sehr
einfach ähm wir machen das jetzt hier
diesmal mit olama es gibt auch noch
andere Alternativen
ähm wie z.B mm LM Studio und so weiter
ich habe mir mehrere angeschaut und habe
mich jetzt hier ist die Installation ein
bisschen aufwendiger als bei den anderen
allerdings ist es wirklich super super
super schnell also es hat richtig
geringe Ansprüche und was ich jetzt hier
quasi für Windows mache ist aber auch
auf eine Mac möglich und auf
auf Linux also es ist im Endeffekt sehr
sehr ähnlich also ihr könnt es quasi auf
allen Systemen laufen lassen ich zeig's
jetzt hier mal an meinem Windows
Rechner ich habe einmal das ganze
eigentlich habe es dreimal meine
Freundin hat's auch auf ihr Mac da ist
es auch mit am schnellsten das jetzt so
ein M1 Prozessor so ein älteres MacBook
ist es da ist am allerschnellsten also
das ist wirklich gigantisch
schnell genau hier auf dem Rechner habe
ich noch nicht gemacht und olama
unterstützt auch die Installation in
zwei Varianten einmal gibt es
mal mit GPU Unterstützung also mit der
Unterstützung der einer Grafikkarte die
quasi Guder Prozessoren hat gibt's auch
mittlerweile für das P von am AMD heißen
die ja AMD heißen sie gibt's
auch pon mit grafikbeschleuner für AMD
aber man kann es auch einfach auf der
CPU laufen lassen
das ja mit der Geschwindigkeit man merkt
natürlich schon mit Grafik Prozessor ist
es noch mal ein Stück schneller aber
wenn ihr jetzt quasi nur ein einfaches
oder einfache Modelle laufen lassen
wollt ist das
ähm ja s komm schon direkt die erste
Frage welche GPU würdest du eigentlich
empfehlen meine CPU macht leider schon
bei wenig Echos schlapp also ich habe
mir
es kommt drauf an was für ein
Anwendungsfall du machst wenn du wenn du
es was günstiger haben willst würde ich
auf jeden Fall eine Nvidia ähm GPU aus
der es muss immer eine RTX Reihe sein
ich glaube ab der 460 geht's los aber
die schon so alt die kriegt man glaube
ich gar nicht mehr ähm aber ich habe
jetzt hier eine ich habe mir eine quadro
gekauft weil ich hier auch andere
äh ja Machinen learning Modell drauf
laufen lasse und die kann man aber auch
schon mittlerweile für ein günstigen
Schnapper mal bekommen ich glaube das
ist die p5000
ähm genau
ähm also ich sag mal mein anderer
Rechner da ist glaube ich
eine 28 oder 260 drinne und das ist halt
auch schon so schnell dass das also die
reicht aus und die kriegt man auch
glaube ich schon für mittlerweile
gebraucht unter 100 € gerade was man bei
den GPUs beachten sollte wenn man sie
gekauft braucht ist so ein kleiner Tipp
den nicht geben kann kauft sie nicht aus
China auch wenn sie da noch mal ein
gutes Stück billiger sind weil die
wurden
hauptsächlich fürs mining also für für
das seriöse Krypto Business genutzt und
da haben wir dann oft das Problem dass
die halt schon sehr sehr
sehr sehr gelitten haben also schon of
heiß gelaufen sind also das Geld würde
ich mir nicht sparen ich würde mir die
schon irgendwie einfach von dem Gamer
kaufen oder ihr kauft euch neue weil ich
kann ja mal kurz mal selber reingucken
hier was kostet
denn
GTX
2000 die se ja hier 169 € 170 € also das
kann man auf jeden Fall glaube ich äh
machen wie gesagt es läuft aber auch auf
CPU es ist auch Multi CPU fähig also
multiore fähig ähm
oder ja wie heißt das genau multikern
und HyperThreading Technologie
ähm also ähm ja bei R ich nach kann ich
auch mal kurz drauf eingehen ich habe
auch einen ähm tatsächlich das Ganze
also meine meine Tochter die ist ja
jetzt anderthalb und ein bisschen
bisschen älter ist anderthalb geworden
von einiger
Zeit wie lange dauert die produktwergung
noch okay ähm ja ähm gut dann springen
können wir auch direkt gerne
reinspringen wenn ihr wollt also im
Endeffekt ist ähm ja dann ma ich die MA
ich ma ich meine beiden cases dann gerne
im Anschluss also
einmal könnt ihr quasi hier auf olama
gehen und könnt dann hier euch eure
Version für runterladen
m genau hier die Preview Version für
Windows 10 oder Windows 11 ist dann
quasi das
ist genau also noch mal eine Frage genau
Arbeitsspeicher
also auch hier ist natürlich viel hilft
viel aber es ist gar nicht so wichtig
also ich habe wie gesagt die das ma ich
doch noch mal den einen kleinen den
einen kleinen Use Case werrend wir hier
runterladen habe ich gerade dabei also
ich habe quasi ein so ein miniiz die man
hinten an den
Fernseher einstecken kann für meine
Tochter weil die
ja gerne sich
mit dem Märchenprinz der leider
verstorben ist und dort haben wir
einfach ein voice Clone der Stimme
gemacht und der findet der immer quasi
Geschichten und geht oft geht mit dem
Mikrofon auf die Sachen ein ich glaub
dieser mikropc der hat der hat 8 GB
Arbeitsspeicher
auf jeden Fall nicht mehr also es läuft
auch schon darauf ja aber
wir können auch gleich mal einfach wenn
wir es mal laufen lassen können wir auch
gleich mal reingucken wie groß die
Auslastung an meinem System
ist und ja aber mit 8 GB kann man
eigentlich schon schon starten also das
hat auch glaube ich jeder
bei Windows kann man vielleicht auch
noch mal 16 nehmen aber beim Mac also
wir haben das auf dem M1
da ist es definitiv mehr
ja es ist auf jeden Fall mehr als als
genug
ja Gigabyte die meine Freundin da hat
oder 16
ja genau dann schieben wir das mal hier
rüber bisschen
aufräumen genau also können wir einfach
hier einmal das Lama ist jetzt
runtergeladen das hofentlich dann auch
schon parallel gemacht
hab und lassen dann einfach mal hier den
mer gerade ich hatte es auf den
haupsreen machen sollen lassen wir
einfach mal die Installation laufen also
einfach nur öffnen und auch install
klicken und schon lädt der sich
glücklich
äh die die Daten runter
äh die Daten auf die Festplatte genau so
rum
ja genau das dauert jetzt ein Augenblick
äh weiß nicht ob es auch jemand noch
parallel gerade
macht so ja er läuft genau also wie
gesagt das ist ja einmal hinten unserem
die ich eben gesagt hat diese Mini PC
Sache die hinten im Fernseher drin
steckt um einfach neue Märchen zu
generieren und dann kann meine Tochter
halt Fragen stellen und dann erzählt er
quasi immer eine Geschichte die dann
irgendwie passend zu Ihrer Frage ist
damit Sie einfach ein bisschen
besser sprechen lernt und dann werden
halt die worörter immer sehr deutlich
von diesem von dieser geklonen Märchen
der spricht jamer sehr klar
ausgesprochen
genau also
ähm jetzt ist es installiert und mal
wieder und wir sehen quasi hier schon
das Fenster und der Vortrag ist
vende genau also hiermit kann ich dann
quasi mit dem Befehl kann ich jetzt hier
mein olama
starten beim ersten Mal wird er jetzt
noch mal ein paar Dateien runterladen
wenn ich da
Lama 3 Modell können wir uns auch jetzt
aber gerade erschreckend langsam was ist
denn hier
los ja ja das wird jetzt ein bisschen
schneller super genau also da hat sich
sonst hätte ich hätte ich mich gewundert
h die glaswasserleitung hier im nicht
gelohnt genau also installieren wir das
hier
kurz ja
und
währenddessen genau gucke ich noch mal
Frage da en nein keine Fragen da genau
also ist relativ simpel ihr habt
installiert ihr macht einfach diesen
Ulama run Lama 3 geht übrigens auch mit
zwei weil das ist ältere Modell dann ist
auch die Installation ein bisschen
schneller
aber muss ist wie heißt es immer
alles kann nichts muss aber das ist hier
relativ simpel
5 Minuten oh Gott da ich no ein bisschen
was was was reden oder ihr gerne auch
Fragen
ähm oder ich ma mal das Fenster auch ein
bisschen größer besser sieht genau also
im Endeffekt läuft jetzt quasi hier der
Installer lät das erste Modell runter
m und das ist jetzt quasi so ein so ein
ganz basic Modell das tolle oder bei den
auch bei den anderen Anbietern gibt's
natürlich irgendwie ganz viele weitere
Modelle
die man installieren kann wir können uns
ja auch gleich mal ein ein paar angucken
ein paar die ich z.B auch im Einsatz hab
ein paar mit denen ich auch auch nur
rumspiele
ja aber man kann verschiedene large
language Models jetzt quasi dann nach
und nach auch installieren das machen
wir dann auch gleich noch mal nebenbei
[Musik]
ähm AR AR langsam für eine 500 mbleitung
aber
gut ich ist halt so
ähm ja
äh genau was wir dann
im nächsten Schritt machen also wir
haben es dann quasi installiert und wir
haben s jetzt hier in diesem in dem
command also noch mal auf Deutsch mal
kurz
nachgucken in der Eingabe Aufforderung
hier also so heißt das dann ichmer die
CMD als suche ähm wir sind wir dann
drinne und wenn wir das hier quasi jetzt
gleich installiert haben ist quasi auch
schon das das Language Modell
einsatzbereit
äh was wir dann in den nächsten Schritt
machen ist wir installieren noch ähm
Docker den können wir auch schon mal im
Endeffekt in der Zeit auch schon mal
runterladen ja oder Docker Docker für
Desktop nutze ich
am
ja Iser ja Download für
Windows macht er das jetzt so
kan auch in derzeit schon mal nebenbei
runterladen hoffentlich W es jetzt nicht
allzu nicht Wesen doch langsam
komisch genau und setzen dann mit Docker
und mit einem webcilient quasi ein ein
Design um oder
ähnliches Design um was wir von Jet GPT
kennen ich denke oder stellen wir das
ich das mal hier als Frage
rein ähm ihr könnt ja mal schreiben also
Chat GPT nutzt ihr das habt ihr schon im
Einsatz oder nutzt ihr was anderes
ähm ich we ich noch getestet
äh Docker als zweites runterladen
ähm
und das ist hier quasi das Docker Studio
das Docker Desktop ich poste es direkt
mal hier in den in den Chat
ähm und ich kann auch noch mal kurz hier
das olama auch noch mal
posten genau das sind die beiden ähm ich
hatte
noch beim also ich hatte noch LM Studio
hatte ich noch getestet
das kann ich auch mal
kurz das ist das hier das poste ich auch
mal und dann hatte ich noch ein drittes
damit war ich aber irgendwie überhaupt
nicht glücklich ähm was mir allerdings
aufgefallen ist bei dem LM Studio ich
hatte halt zum Teil F bis zehn Mal
höhere Last auf auf dem Rechner wobei
das hier ein bisschen ja also hier ist
quasi so eine one one one click
Installation ja aber ich kann wie gesagt
auch hier dieselben dieselben Modelle
nutzen also im Endeffekt glaube ich es
es auch so ein bisschen
huging huging face also
hier genau also hier auf hing face sieht
man dann auch die ganzen ganzen Modelle
die die gibt und die Bewertung also es
ja glaube ich auch mittlerweile hier ein
ein Unicorn Unternehmen aus
Frankreich genau und da gibt's echt
super spannende Sachen die man sich auch
mal anschauen
kann be beim dritten komme ich jetzt
echt nicht mehr auf dem Namen es war
aber ja also es hat mir nicht hat mir
nicht zugesagt und war auch ziemlich es
heißt ziemlich
aber es war irgendwie die Usability fand
ich fin ich nicht so gut und m der
andere Nachteil so für den ich sag mal
wenn man dann ein bisschen dieep dier
also jetzt spielen wir nur ein bisschen
rum heute es hat auch keine AP
Schnittstelle und das find ich halt für
für meine Anwendungsfälle finde ich da
ganz ganz praktisch ich konnte da zwar
auf eine Datenbank zugreifen aber nicht
direkt die die API nutzen genau das war
so der Nachteil oh ich glaube jetzt hier
langsam es
ist Z Sekunden noch es geht äh zu zu
Ende
so
so s schon trinken genau im Endeffekt ja
ich glaube jetzt haben wir
das gar nicht warum der hier jetzt
gerade so langsam ist aber ja
ähm ja wir kommen jetzt hier endlich
weiter und
ähm
ja so jetzt haben wir es geschafft wir
sind der Vortrag ist zu Ende nein ähm
keine Ahnung what
ja ich möchte
ja was
was sind die
höen
Städte
in
Bayern
tippen na also wir sehen
unser erstes Modell gibt
äh schon mal
antworten genau
ähm jetzt kann ich das ganze mit
byi wieder beenden äh und kann natürlich
wieder
ähm ja kann dann wieder mit
AMA run so wieder
starten ja l L A
a
hi so und kannst wieder
starten gut
m jetzt gucken wir mal gucke ich mal ob
Docker schon runtergeladen
ist
Docker Studio ja
m auch hier einfach auf die aufs
installieren dann wieder klicken das ist
ja hier falsches Fenster ah komm will
gerade nicht
okay jetzt hängt mein PC gerade ich
hoffe ich kriegt mich trotzdem noch mit
ähm ja okay
ähm okay musste ich da hier mich einmal
kurz anmelden habe also jetzt bei Docker
einfach Doppel geklickt und installiere
mir jetzt einfach
Docker Docker Desktop nicht do Studio so
heißt ja okay also ich installiere jetzt
Docker Desktop und lass es einfach hier
auch wieder eine Installation laufen
ähm das Docker Desktop brauche ich
gleich füren für das für den nächsten
Part so
[Musik]
ähm genau und da suche ich auch schon
mal kurz den Befehl raus ich glaube hier
so
ja das dauert auch wieder ähm wie gesagt
auch immer mal gerne interagieren im
Chat dann kann ich hier leichter die äh
Wartezeit ähm
über überbrücken ähm ja aber wie gesagt
es es läuft ich hoffe man sieht's auch
dass da was passiert
ja es war irgendwie zu Hause auf den
Rechner schneller woh der hier
eigentlich besser ist aber gut dann lärt
nie aus
genau jetzt gleich wenn es dann
installiert ist könen wir uns dann
einmal ein kostenlosen unsen kostenlosen
Account bei Docker anlegen
[Musik]
genau kann auch noch viele SP spanende
andere Sachen mit Docker machen aber ja
kan auch Team arbeiten
genau aber wir nutzen das jetzt wirklich
nur damit wir diese
äh
ähm GUI
bekommt kann man einstellen von wo man
die
Modelle ja
im Endeffekt ja das kann man kann man
einstellen wir können auch gleich mal
m mal reingehen also im Endeffekt kann
man ich weiß gerade den Befehl nicht
aber ich glaube man kann halt quasi bei
dem bei dem wenn wir gleich mal Modell
installieren da Kannen wir mal
nachgucken ich kann dann quasi auch den
der beim Download schon den den
M ja den verzeichnisfahrt OD ist
verzeichnisfahrt Festplatten
verzeichnisfahrt kann ich
angeben habe ich tatsächlich noch nicht
gemacht aber man kann es auf jeden Fall
dahinter schreiben
oder ja auf jeden Fall es geht auf jeden
Fall also man kann die auch auf auf
anderen laufen lassen es geht auch quasi
was man auch macht machen kann man kann
das ganze auch ähm als
ja als Server konfigurieren das heißt
also kannst du quasi komplett anderen
Rechner nehmen und auch dann über die
Schnittstelle nachher mit dem was uns
gleich mit der mit der GUI also mit der
grafischen grafischen Userinterface
kannst du auch einfach auf
ähm auf na gehören kannst du dann
einfach auch über das lokale Netzwerk
dann z.B auf auf den Server zugreifen
wen das
z.B praktischer ist man
ähm ja
m hatte so hat so vor nach so
oh
mus ein B okay das habe ich vergessen
dann werde ich ein ganz kurz neu
starten mal wieder genau also da bin ich
wieder genau und dann muss ich einmal
ganz kurz hat ein bisschen was verstellt
nach dem neuart weil ganz muss mir ganz
kurz mal rein reinfuchsen hier
wie macht man das noch mal hier mit
den Einstellung
egal schiebe ich jetzt mal wieder
Fenster rüber
und genau also jetzt quasi einmal
Docker habe ich jetzt installiert
deswegen bin ich auch
rausgeflogen
und so bin jetzt quasi
hier einmal wieder
[Musik]
so habe ich jetzt hier einmal mein mein
mein Docker installiert und dann wenn
das durchgelaufen ist sehen wir dann
quasi ja hier dieses wunderbare Fenster
größer machen und kann
dann abmchen
jetzt dann lädt er wieder ein neues
Fenster m mit dem ich mich anmelden kann
ja so und das sieht natürlich sehr gut
aus hier bin ich gerade wieder
rausgeflogen mit dem
Screen das mal
so so genau also im Endeffekt habe ich
jetzt hier auf signup bei Docker
geklickt und bin jetzt auf dem
wunderschönen Screen hier gelandet und
kann mich jetzt anmelden irgendwie fehlt
hier der Text ich mache das jetzt mal
hier über mein Google schnell dann bin
ich ein bisschen schneller mit dem dem
ganzen
durch nehmen wir dann
hier geh
das so und habe quasi jetzt meinen
Account angelegt und kann schon wieder
Docker
okay
irgendwie so habe jetzt Malin Account
gemacht kann also jetzt auf se in
gehen ist es gerade etwas nervig dass er
immer wieder
ändert so genau und kann jetzt sagen was
mache ich sagen wir mal heute bin ich
mal als teacher unterwegs und was ma mal
hier eigentlich egal was man angibt
genau also habe ich jetzt Docker
installiert
und
genau dann können wir auch jetzt direkt
jaer installiert man sieht jetzt jetzt
ist da
super ist gerade ein
wenigferisch mit mir hier unterwegs
einmal kurz die kurz die Screens
aufräumen nicht so ordentlich unterwegs
sein so
ähm genau und jetzt kann ich quasi als
als nächstes Thema
ähm kann ich jetzt quasi also ich hatte
mir das Modell laufen kann ich dann
ähm mir die Web Oberfläche
eren die heißt ich muss kurz überlegen
open Web ui ich poste es auch jetzt
gleich im Chat ich die gefunden
habe so war das
Open
WebUI und
irgendwiet gerade
wieder ich Glück heute
sehr gut na mal gucken mal also
irgendwie will die Webseite gerade nicht
so wie ich das
möchte okay super na ja gut eigentlich
wäre open WebUI wäre die Webseite
gewesen so dann
äh
ähm hoffen wir mal den hatte ich mal
kurz raussuchen ähm
genau
jetzt seh
gut live Session wenn das wenn die Seite
da genau hoffen wir aber mal dass wir
trotzdem Weiterkommen indem wir quasi
wieder in die Eingabe Aufforderung gehen
also command ich muss das mal irgendwie
ändern mit den zwei Fenstern hier genau
und ich
poste ja und kann so
nicht kann ich mit dem Befehl kann ich
dann einfach das mal laufen lassen und
am
okay ja bin ich ein bisschen aus dem das
hat mich jetzt ein bisschen ausest
gebracht nicht
funktioniert
Scheiße ja das wäre es z
[Musik]
falsch noch mal
[Musik]
Versuch was mit dem noch
mal irgendwie
[Musik]
gut okay
war klapp der Befehl
dann gucken wir mal
woran ein ein ein
[Musik]
Traum wahrscheinlich
ja ich habe eigentlich Admin
rechterm warum schimpft er ja
ähm das ist natürlich wenn man es live
machen will dreimal zu
Hause so
einmal ja weil
ich
okay jetzt bin ich ganz
verwirrt gar nichts mehr
na ja
ah das ist noch mal guter Hinweis genau
viicht das war war glaube ich jetzt komm
wir noch
mal ob es jetzt nee auch mit atmen
rechten will er gerade irgendwie nicht
ja das schitzt man an nicht beim
[Musik]
Vortrag ich werde einmal noch mal noch
mal einmal ganz kurz raus B gleich auch
wieder da ich versuche mal den den
Rechner komplett als Admin neu zu
starten dann melde ich bin ich gleich
wieder da sorry für
das genau
ja das muss ich mir jetzt mal irgendwie
anschauen nicht geplant
ähm genau aber für die diejenigen
die jetzt quasi schon die die
Installation durch durchgeführt haben
den kann ich auch schon mal
genau die können quasi jetzt in dem
Browser auf local
host ja auf
local flogel Host
doppelpunktau 33 3000 oder 3300 ich
Garben
sehen wir gleich hier no den Befehl auf
genau auf local Hostel 3000 und kann
quasi dann schon mal seine
Version die Web GUI quasi schon mal
starten auch mal ein bisschen rumspielen
indem ich jetzt no versuch mein Problem
hier zu lösen so
noch mal rein was denn hier in der
lockfall ja mache ich sofort
[Musik]
wieder
so da ist ist gerade bei mir das Problem
das es einfach nicht
will aber mal gucken in meinem
Bildschirm
ja so da ich dann hier meine Screens
wieder sortieren Mist
ähm
ja jetzt bin ich ein bisschen bisschen
aufgeschmissen gerade eiglich peinlich
das sorgt jetzt natürlich für ein
bisschen bluochdruck
m
das du ja wie gesagt
ähm ich such noch mal kurz
raus also
Endeffekt ist dann was aufzurufen wäre
was natürlich jetzt bei mir nicht klappt
ist dann wäre das hier die die URL da
wird jetzt bei mir n nicht funktionieren
weil bei mir die webgen läuft aber ich
habe euch die schon mal
reingepostet
so jetzt werde ich noch mal ich noch mal
kurz gucken ob ich ob es mir hilft wenn
ich Docker noch mal neu installiere
ein
Nein auf dre PCs hat funktioniert aufig
läuft nicht natürlich auch klugerweise
keiners Satz PC mitgenommen
sehr gut geh
das Okay laden wir noch mal Docker
runter das ma ich jetzt noch mal braucht
ich nich nicht machen wenn es bei euch
LFT und schauen wir
mal ich jetzt mal
mann mann mann ärgerlich ärgerlich
ärgerlich ja tut mir tut mir auf jed
schon mal echt
leid jetzt läuft da hier noch mal durch
mal gucken ob das jetzt irgendwie
hilft hallo ich habe mich mal kurz
eingeschaltet gibt es eine Möglichkeit
wie ich dich unterstützen
kann glaub gerade
gerade ich gucke noch mal ich habe es
jetzt noch noch mal neu installiert ich
hoffe dass der Docker
jetzt läuft kannst du alternativ
vielleicht Links oder Downloads oder
etwas ähnliches
bereitstellen ja kann ich kann ich
machen im
Endeffekt jetzt qu wenn es jetzt läuft
mit mit dem soweit wir gekommen sind
könnt ihr
quasi ja könnt ihr quasi jetzt die über
den local host könnt ihr schon könnt ihr
quasi schon starten und habt schon euer
erstes Modell jetzt muss ich ein
bisschen versuchen ja mal ohne ja leider
ohne zeigen aber ihr könnt dann wieder
auch hier auch z auf die AMA Webseite
gehen und habt hier oben dann den den
den Models
Reiter und könnt euch dann mal hier so
durchgucken welche
ähm welche schönen Modelle es gibt ähm
ich habe selbst finde ich habe ich ein
paar im Einsatz äh einige zum spielen
einige die so funktionieren
ähm genau also es gibt äh was ziemlich
cool ist ist wie heißt der noch
mal genau also es gibt starcoder genau
es gibt einmal den starcoder mit dem
starcoder könnt ihr quasi so ein
bisschen programmierunterstützung
euch holen das
[Musik]
kann ja irgendwie ja das kann mehrere
Programmiersprachen und man kann jetzt
auch noch das gibt davon mehrere
Versionen ich meine mittlerweile sind
sogar
80 prramm Sprachen nichter
ich glaube ich war es genau 84
Programmiersprachen kann der mit kann
mittlerweile und können z.B das mal
testen also das macht auf jeden Fall
Spaß damit rum zu spielen es gibt das G
kann man auch noch mal erweitern hier
ist
ster genau den großen Modell und genau
was ihr eigentlich immer dann macht das
kann ich jetzt ja auch einfach mal könnt
ihr in die wieder in die
Eingabeaufforderung gehen KNT euch
einfach hier den den rauskopieren und
könnt
hier ist mein angauforderung könnt euch
das ja einfach
m gebt es einfach ein und dann läuft
quasi die Installation des
nächsten language
Modells jetzt hier der starcoder heute
heute habe ich hier Rechner und Inter
also ja genau auf jeden Fall sollte er
jetzt hoffentlich mit der Installation
anfangen man kann aber hier in der
Library sich dann auch auch noch
umgucken
ähm gibt z.B auch von also ich finde die
Modelle von von Mistral die sind sind
richtig cool
[Musik]
ähm also gibt's einige ähm hier gibt's
z.B auch ein ganz das
[Musik]
heißta genau m tral auch von ral ist z.B
äh wenn man wenn man hier irgendwie
Berechnungen durchführen will die
vielleicht auch ein bisschen komplexer
sind auch hier im Endeffekt wieder der
selbe äh Prozess einfach nur wieder in
wieder command
angeben wir läuft der wahrscheinlich
immer
noch ja und hier rüber ich kopiere mir
das wieder
raus
super und kann dann da quasi das nächste
Modell
ähm installieren genau und hab das dann
auch und wenn ihr jetzt quasi das jetzt
leider nicht zeigen kann könnt ihr dann
quasi im
äh und im also wenn ihr auf lo dann auf
der Web seid könnt ihr dann einfach das
gewünschte Modell einfach
m ja auswählen mit mit dem
ihr arbeiten wollt es gibt
da auch noch ein paar pa andere
spannende Sachen die man jetzt hier
quasi auch machen könnte aber mit der
wbgui relativ einfach machen kann
ich weiß heute ist nicht mein Tag
[Musik]
hier geht weiter
m genau also im Endeffekt LD dann runter
installiert die und dann habt ihr die
zur Auswahl die Modelle könnt euch da
mal durch durchgucken was euch zagt ähm
was ist bei olama bzw dann bei dem bei
der webgi auch noch gibt ihr könnt auch
Dateien hochladen das heißt also ihr
könntet jetzt quasi euch eine euch eine
File PDF z.B ich habe das mal gemacht
mit mit
der mit dem Prüfungsbuch für
de wo Seminar auch ausgefallen ist woll
ich auch zum Power Champion war glaube
ich werden und habe mir quasi hier von
dies Microsoft powerdi Bücher geholt und
habe dann mit den quasi so trainiert
damit ich dann auch diese Microsoft
exam Prüfung die 300 auch machen kann
und schaffe und genau aktuell muss man
da noch mal weiß gar nicht ob jetzt in
der aktuellsten Version auch noch ist
aber was ich es gemacht habe war es so
man musste leider immer konnte er
maximal 20 Seiten einlesen das heißt ich
musste die PDF dann stückeln immer in
alle 20 Seiten und habe sie dann
hochgeladen und konnte dann so
trainieren das war ein wenig wenig
ärgerlich aber ich glaube er kann
mittlerweile auch die kompletten Daten
machen
mm ja sehr blöd wenn man das alles nicht
nicht zeigen kann
m was ja allerdings was auch noch mal
vielleicht eine spannende Option in dem
ganzen olama ist ihr könnt auch
verschiedene Nutzer einrichten das heißt
also ihr könnt keine Ahnung
m ja ihr könnt dann quasi
ähm z.B sagen keine Ahnung ich habe ich
habe z.B für meine Tochter ein eigenen
Account mit dem sie dann ja eine eine
leichtere kindlichere Sprache wo sie
dann quasi auch ein bisschen sprechen
und so weiter lernen
kann wieso antwortte l
D genau du kannst m
die du kannst quasi n also auf in in
Deutsch bestellt wird genau also man
kann die
äh Sprache auch in
[Musik]
äh der webg auch einstellen
[Musik]
ähm ich habe es jetzt gerade aber auch
nicht im Kopf wo genau das war aber ihr
könnt quasi auch die die die Sprachen
die Ausgangs ausgabesprache könnt ihr
auch ähm einstellen
ähm ja
ähm ihr habt mich unten quasi in ist
unten ich glaube es irgendwo hier unten
dann wenn ihr in der Web wesit könnt ihr
quasi auch die ganzen systemschen könnt
ihr auch konfigurieren
ähm was es da auch noch mal gibt ihr
könnt auch quasi das F ich ganz spannend
ist die ist die API Schnittstelle ähm
die ihr nutzen könnt und dann z.B auch
auf weiß nicht auf Zeitrechner und Daten
von der
on ander schnstelle zu holen ich hat z.B
ab auf dem anderen Rechner zu Hause ich
jetzt nich hätte besser mal
sicherheitshaber mitnehmen
sollen hätte ich habe ich quasi auch
eine SQL Datenbank hinterlegt und da
geht's quasi darum dass er
dann linkt oder
potenzielle LinkedIn Interessenten für
für Produkte scraped die Daten aus liest
und mir dann eine beinpersone erstellt
das habe ich dann quasi da das schreibt
er mir dann immer in die Datenbank und
da läuft quasi immer ein ein mit den
Daten die ich dann habe läuft laufen
immer quasi immer dieselben Fragen
wieder
ab genau und damit raus erstellt mir
dann quasi eine buying personas ich guck
mal ganz kurz weil das könnte vielleicht
da könnte ich vielleicht sogar Glück
haben dass ich hier sogar mal ein
runtergel
Laden
hab ich mal hier meine
undurchsichtigen
[Musik]
Wind hier alles gelöscht mal gucken auf
die Festplatte
verschoben schauen wir mal ob wo ist wo
könnte das sein wo habe ich den ganzen
Mist hingeschoben ich extra die
Festplatte frei gemacht und den ganzen
geruscht den ich so hatte
ähm ja
ähm
mal hier glaube ich habe mich mal eine
ich schreib mal kurz meine Freundin ob
die rech zu Hause
[Musik]
sten so oh
Gott genau also was was ich finde jetzt
gerade die Datei nicht ich hoffe meine
Freundin schickt mir jetzt jetzt einmal
kurz meine meine meine meine mal ein
Muster rüber ich habe mich mal hatte
mich mal ein Demo
angelegt jetzt indem ich quasi für
meinen Podcast
ähm ja indem ich halt quasi so Gäste
suche Die Suche ich mir quasi bei
LinkedIn raus und
ähm habe dann quasi so
verschiedene Prozesse die da durchlaufen
also als erstes guckte also scpe quasi
Profil
ähm dann sag ich soll sagt er mir äh
welche mit welchen Personen interagiert
mein mein Wunsch Podcast Gast viel äh
das liest der aus dann einmal
ähm dann einmal die Content Typen oder
auf welche Themen ähm reagiert er ähm
viel be linked in also ähm genau dann
erstellt er mir ein Action Plan das ist
dann quasi der der nächste Schritt guckt
auch was was sind die
redflex guckt genau welche Fragen wir
könnte der Gast mir
wahrscheinlich der der Kunde mir stellen
und dann habe ich noch mal so die
behavior Analyse und er sucht
mir auch raus ja auf welchen Blog auf
welche Beiträge ich bei LinkedIn
reagieren sollte damit ich ein bisschen
bchen Aufmerksamkeit bekomme ich hoffe
dass jetzt ja meine Frau ist nicht
erreichbar ist
istag dies ist eine kraabelgruppe
ähm gucken wir mal
[Musik]
[Musik]
könnte ich das dannn haben ich einmal
ein Muster hatte ich doch mal
hier ganze Scheiß
okay jetzt gucke ich
mal okay na ja den bezen ich eigentlich
haben wollte hab ich jetzt hatte
eigentlich mal eine Demo mal mit dem
Profil von B Gates angelegt aber
irgendwie finde ich jetzt auch mal ich
das jetzt nicht D ich zeigen kann aber
ich kann euch ja einfach mal
kurz einen Nutzer den ich als
Podcast den ich
als Podcast Gast haben
wollte den ich auch tatsächlich
tatsächlich bekommen habe poste ich euch
mal kurz das Link in viel das ist mich
jenes hier
und n ich schalte mich noch mal ganz
kurz ein könntest du noch mal ein
Einblick geben was jetzt genau noch
kommt weil wir haben mal gesehen dass
die Live Demo leider live nicht so will
wie du wolltest genau also ich kann
jetzt noch hier ich poste jetzt noch
einmal kurz das was was die Analyse
macht und im Endeffekt ja ich glaube es
hat nicht mehr allzu viel Sinn ich bin
mich jetzt auch ein bisschen aufgeregt g
ich wegen dem
mistake vielleicht machen wir dann auch
wen wir vielleicht auch einfach Schluss
machen es tut mir echt leid also ich
würde noch mal was nachliefern in
schriftlicher Form aber vielleicht
macht's wirklich nicht mehr so viel Sinn
also es tut tut mir leid nicht so wollte
wie es ich denke jeder der hier im Chat
war hat das auch schon mal erlebt dass
er etwas live zeigen wollte und es
wollte partun nicht egal wie of das
vorher funktioniert
hat das leider der Nachteil am live sein
ähm gerne natürlich wenn du was
nachliefern kannst in Textform oder in
anderer Form werden wir das mit
hochladen
ähm wir haben das hier natürlich
trotzdem aufgezeichnet du hast ja die
ersten Schritte zumindest schon mal
vorgestellt und gezeigt auch wenn du es
nicht demonstrieren konntest das ist
natürlich schade
ähm ja auch von unserer Seite sehr
schade dass das jetzt nicht geklappt hat
in der Technik steckt man leider nicht
immer drin der Mirko hat ausführliche
Tests vorher gemacht wo es funktioniert
hat aber wie wir gesehen haben wollte es
jetzt live dann doch nicht ich beende
einmal das Teil für dich wir danken euch
trotzdem dass ihr hier mit dabei wie
gesagt alles Material was der M uns
schickt werden wir dann noch zusammen
mit der Aufzeichnung bereitstellen dass
ihr euch da einfach noch einlesen könnt
und natürlich könnt ihr den M auch über
LinkedIn erreichen und ih dit euren
Fragen
löchern besucht auch gerne die Session
vom Arthur noch wenn euch das Thema
powertimate interessiert die läuft
sicherlich noch eine Weile eine Weile
und ansonsten trotzdem vielen Dank und
wir hoffen dass die nächste Demo die
Demo Götter wieder bei dir sind ja
vielen Dank aber ich hoffe ja ich hoffe
jetzt findet trotzdem Spaß daran
und
genau ja guckt euch das mal an wir
können also ich kann noch eine Sache
hätte ich noch die ich vielleicht noch
testen könnte wir könnten es auch einmal
mit dem mit dem letzter Versuch Mirko
letzter Versuch ja dann machen wir mich
also wie gesagt das ist jetzt die Lösung
tatsächlich die die ich wenn sie dann
funktioniert tatsächlich präferiere aber
wir können ich kann auch einfach mal
kurz das du mest dein Bild neu Teilen
genau wir können natürlich auch einfach
mal hier das
etwas kann natürlich auch mal hier noch
mal habe ich mich jetzt aber auch dann
so intensiv nach nicht beschäftigt aber
wir können Bildschirm teilen dann wir
einmal nervös ist
dann genau also man kann natürlich kann
jetzt auch mal hier kurz den den hier
runterladen den das ml
Studio da hat er auch jetzt schon nicht
ganz können uns auch im Endeffekt es ist
im Endeffekt dasselbe es ist halt ein
bisschen bisschen langsamer und hier bin
ich jetzt auch tatsächlich leider nicht
so drinne Ken m mit dem nicht so gut aus
ich habe es mal V einiger Zeit mal
laufen und F ein bisschen AR langsam
aber im Endeffekt ist es ziemlich
selbe aber vielleicht habe ich ja Glück
und hier auf meinem Rechner läuft
wenigstens das und dann können wir da
gemeinsam uns ein bisschen
ja gemeinsam mal noch ein bisschen
durchprobieren wenn ihr Lust dazu habt
ansonsten wie gesagt kann nicht wirklich
rüber in den anderen Workshop jetzt der
hier kommt schon das nächste muss
erstmal Virenscan machen für die Datei
na super
ist heute mein heute mein Tag mer schon
ja auch da schimpft er jetzt schon okay
ähm ja
dann ja
genau also hier ist noch mal eine Frage
war ja schade F ich auch kann man mit
olama auch eigene Modelle antrainieren
und falls äh antrainieren und falls ja
wie genau also äh es geht auf jeden Fall
und ich auch gar nicht so komplex was
ich machen würde ich würde das M heute
abend heute Nachmittag mal als Video an
meinem anderen Rechner dann wenn ich zu
Hause bin mal aufzeichnen wie es geht
würde das dann quasi als Datei im zur
Verfügung stellen dass wir das dann
irgendwie irgendwo zur Verfügung stellen
können wo dann die wo dann die Leute
Zugriff haben vielleicht können wir das
so machen weil jetzt auch der will das
die Installation will heute nicht ja
Installation feht gut dann kapituliere
ich heute ich glaube heute ist einfach
will einfach nicht ja die demogötter
sind heute nicht bei dir muss dir
nächstes mal ein Opfer da bringen vor so
einer fession ja ähm genau aber ich fin
das eine gute Idee mach doch gerne eine
Aufzeichnung und dann laden wir die
einfach mit hoch genau also jetzt gehen
hier super also ich bedanke mich
trotzdem ganz herzlich fürs zuhören es
tut mir leid dass jetzt was kürzer
geworden ist und trotzdem eigentlich
seid ihr ja soweit und könnt selber
jetzt ein bisschen experimentieren
ausprobieren und genau und gerne auch
mal auf LinkedIn connecten und wie
gesagt ich liefer da noch mal was nach
und ja ist heute irgendwie nicht mein
mein Tag sorry alles gut kann passieren
du hast alles versucht was du jetzt
versuchen konntest und den Rest lieferst
du einfach nach und dann haben wir es
trotzdem vielen vielen Dank dass du das
Thema präsentiert hast und Wünschen
anderen äh noch weiterhin viel Spaß äh
schaut mal beim Auto vorbei der hält
immer tolle Sessions da kann man nichts
falsch machen genau die Aufzeichnungen
bekommt ihr im Nachgang über das
aufzeichnungsticket
ähm obwohl ich denke wir hatten jetzt
hier so Schwierigkeiten leider ich denke
die Aufzeichnung die uns der merko jetzt
im Nachhinein noch liefert werden wir
einfach allen die sich angemeldet haben
wenn wir ein Link bereitstellen dass wir
diesen einen Workshop mal ausnahmsweise
für alle freigeben das schreibe ich mir
mit auf weil es jetzt hier live nicht
geklappt hat dann könnt ihr es euch auf
jeden Fall
angucken super ja da ich bedanke mich
und ja jetzt werde ich muss auf den
Schock
erstmal also mach das alles gut kann nur
noch ber
werdenute wer noch mal komplett noch mal
aufzeichnen mit Step by Step und dann
noch mal zeigen sobald ich auf gekriegt
habe und dann können wir es zur
Verfügung stellen okay super vielen Dank
tchü
تصفح المزيد من مقاطع الفيديو ذات الصلة
If I Started A New Online Business, I'd Do This First
IT Quereinstieg trotz ChatGPT & Co: Lohnt es sich noch Software-Entwickler zu werden?
Über KuchenTV zur AfD?
Sample Blood Work Interpretation - where do I start?
Einfach und schnell Kanji lernen - Die Kanji lernen und behalten + Leseprobe
Ranking IT and Cybersecurity Jobs by STRESS LEVEL and Salary
5.0 / 5 (0 votes)