🚀 Eigenes ChatGPT in 5 Minuten: So geht’s!

M365 Circle
30 Jul 202457:00

Summary

TLDRIn diesem Video-Skript erzählt der Sprecher von seiner Erfahrung mit der Installation und Nutzung von Chat-GPT-Modellen. Er vergleicht verschiedene Tools wie ULAMA, LM Studio und andere, diskutiert die Installation auf verschiedenen Betriebssystemen und die GPU-Unterstützung. Der Sprecher teilt Tipps zur Hardware-Auswahl und gibt einen Einblick in seine persönlichen Anwendungsfälle, wie beispielsweise die Erstellung eines Sprachklons für seine Tochter. Leider treten technische Schwierigkeiten auf, die eine vollständige Live-Demo verhindern, aber der Sprecher verspricht, die fehlenden Informationen später in schriftlicher Form zu liefern.

Takeaways

  • 😀 Das Video umfasst den Aufbau eines eigenen Chat-GPT Systems, genannt 'Olama', das auf verschiedenen Betriebssystemen wie Windows, Mac und Linux lauffähig ist.
  • 🤖 Der Sprecher hat zwei eigene Rechner mit einem System, über das er Informationen teilt, und betont die Einfachheit der Installation von Olama.
  • 🔧 Die Installation von Olama ist zwar etwas aufwendiger als bei anderen Alternativen wie LM Studio, bietet jedoch eine sehr schnelle und ressourcengerechte Ausführung.
  • 🚀 Olama unterstützt die Installation mit GPU-Unterstützung für schnellere Verarbeitung, aber es kann auch auf CPU laufen, wenn Grafikprozessoren nicht verfügbar sind.
  • 💡 Der Sprecher empfiehlt für die Nutzung von GPUs die RTX-Reihe von Nvidia ab dem Modell 460, oder für eine kostengünstigere Option die Quadro P5000.
  • 🛒 Es wird darauf hingewiesen, GPUs aus China zu meiden, da diese oft für Mining genutzt wurden und möglicherweise defekt sind.
  • 💻 Die CPU-Last kann bei einfacheren Modellen und Anwendungsfällen mit wenigen Echos ausreichend sein, aber für größere Anwendungen ist mehr Leistung notwendig.
  • 🔑 Der Sprecher diskutiert auch die Arbeitsspeicheranforderungen, wobei 8 GB als Minimum für den Betrieb von Olama angegeben werden.
  • 🌐 Es wird erwähnt, dass Olama in der Lage ist, mit verschiedenen 'large language models' zu arbeiten, die nach der Installation hinzugefügt werden können.
  • 👶 Der Sprecher gibt einen praktischen Einsatzbeispiel für Olama an, bei dem eine Stimme eines Märchenprinzen geklont wurde, um der Tochter Geschichten zu erzählen und ihr Sprachkenntnisse beizubringen.
  • 🔗 Schließlich wird die Möglichkeit gezeigt, wie Olama mit Docker und einer Web-Oberfläche wie Open WebUI integriert werden kann, um eine benutzerfreundliche Schnittstelle zu bieten.

Q & A

  • Was ist das Hauptthema des Transcripts?

    -Das Hauptthema des Transcripts ist die Erstellung und Installation eines eigenen Chat-GPT-Systems namens 'olama'.

  • Welche Betriebssysteme werden im Transcript zur Installation von 'olama' erwähnt?

    -Im Transcript werden Windows, Mac und Linux als Betriebssysteme für die Installation von 'olama' erwähnt.

  • Welche anderen Alternativen zu 'olama' werden im Transcript erwähnt?

    -Im Transcript werden 'LM Studio' und 'Docker' als Alternativen zu 'olama' erwähnt.

  • Was unterscheidet 'olama' von anderen Installationen, die im Transcript erwähnt werden?

    - 'olama' unterscheidet sich durch seine Geschwindigkeit und geringen Ansprüche an die Hardware, sowie die Möglichkeit, es sowohl mit GPU als auch mit CPU zu betreiben.

  • Welche GPU-Empfehlung gibt der Sprecher für 'olama'?

    -Der Sprecher empfiehlt für 'olama' eine Nvidia GPU aus der RTX-Reihe, ab dem Modell 460, oder eine Quadro GPU, wie die P5000.

  • Was ist der Vorteil, wenn man 'olama' mit einer GPU statt mit einer CPU betreibt?

    -Die Verwendung einer GPU ermöglicht eine schnellere Verarbeitung im Vergleich zur CPU, da Grafikkarten speziell für schnelle Berechnungen optimiert sind.

  • Welche Tipps gibt der Sprecher bezüglich dem Kauf von GPUs?

    -Der Sprecher rät davon ab, GPUs aus China zu kaufen, da diese hauptsächlich für das Mining verwendet wurden und möglicherweise stark beansprucht sind. Stattdessen sollte man GPUs von Gamern kaufen oder neue kaufen.

  • Was ist der Zweck des 'olama'-Systems, das der Sprecher für seine Tochter erstellt hat?

    -Der Sprecher hat ein 'olama'-System erstellt, das in der Lage ist, Geschichten zu generieren und auf Fragen der Tochter zu antworten, um ihr zu helfen, besser zu sprechen und zu lernen.

  • Welche Rolle spielt Docker im Kontext des Transcripts?

    -Docker wird verwendet, um eine GUI (Graphische Benutzeroberfläche) für 'olama' zu erstellen, die es ermöglicht, die Modelle komfortabel zu verwalten und zu installieren.

  • Was ist der Vorteil der Verwendung von 'olama' mit Docker?

    -Die Verwendung von 'olama' mit Docker ermöglicht eine einfachere Verwaltung und Installation von Modellen, sowie die Möglichkeit, die Systeme über eine GUI zu steuern.

Outlines

00:00

🤖 Einführung in die Erstellung eines Chat-GPT

Der Sprecher beginnt mit einer Vorstellung und kündigt an, ein eigenes Chat-GPT zu erstellen. Er erwähnt, dass er zwei Rechner betreibt und Informationen über das System teilt. Die Installation wird als einfach und schnell beschrieben, und es wird erwähnt, dass verschiedene Systeme (Windows, Mac, Linux) unterstützt werden. Es wird auch auf die GPU-Unterstützung und die Wahl der richtigen Hardware eingegangen.

05:02

🔧 Empfehlungen für Hardware und Systemanforderungen

Der Sprecher diskutiert die empfohlenen GPUs für die Nutzung von Chat-GPT, empfiehlt Nvidia RTX-Serie ab der 460 und erwähnt auch die Quadro GPU als seine Wahl für maschinelles Lernen. Er gibt Ratschläge für den Kauf von GPUs, warnt vor chinesischen GPUs, die möglicherweise für Mining genutzt wurden, und teilt seine Erfahrungen mit verschiedenen GPUs.

10:03

🖥️ Installation von Chat-GPT unter Windows und Mac

Der Sprecher geht durch den Installationsprozess von Chat-GPT auf Windows und Mac. Er erwähnt die Systemanforderungen, insbesondere den Arbeitsspeicher, und zeigt die Installation auf einem Mini PC für die Erzeugung von Geschichten für seine Tochter. Er betont die Benutzerfreundlichkeit der Installation und die Möglichkeit, die Software auf verschiedenen Betriebssystemen zu verwenden.

15:04

🛠️ Installation von Docker für die Verwendung mit Chat-GPT

Der Sprecher erklärt die Notwendigkeit von Docker für die weitere Konfiguration von Chat-GPT. Er beschreibt den Download und die Installation von Docker Desktop und diskutiert die Vorteile von Docker für die Zusammenarbeit im Team und für die Erstellung einer GUI für Chat-GPT.

20:06

🔄 Problembehandlung und Konfiguration von Docker

Der Sprecher erzählt von Problemen, die auftraten, während der Installation von Docker. Er beschreibt, wie er versucht, Docker neu zu installieren und sich bei Docker anzumelden, um die Installation fortzusetzen. Es wird auch erwähnt, dass der Vortrag trotz der technischen Schwierigkeiten fortgesetzt wird.

25:06

🌐 Verwendung von Web-GUI und Docker für Chat-GPT

Der Sprecher erklärt, wie man Docker Desktop nutzt, um eine Web-GUI für Chat-GPT zu erhalten. Er diskutiert die Vorteile der Web-GUI und die Möglichkeit, verschiedene Modelle zu installieren und zu konfigurieren. Es wird auch erwähnt, dass der Sprecher versucht, die Web-GUI zu starten, aber auf Schwierigkeiten stößt.

30:10

🛠️ Installation von Starcoder und anderer Modelle

Der Sprecher gibt einen Überblick über die Installation verschiedener Modelle, einschließlich Starcoder, das für Programmierunterstützung verwendet werden kann. Er erklärt, wie man mit der Kommandozeile weitere Modelle installieren kann und teilt einige seiner Erfahrungen mit verschiedenen Modellen.

35:12

📚 Anwendung von Chat-GPT für persönliche und berufliche Zwecke

Der Sprecher beschreibt, wie er Chat-GPT für persönliche Zwecke wie die Erstellung von Geschichten für seine Tochter nutzt und für berufliche Zwecke, wie die Vorbereitung auf eine Prüfung. Er erwähnt auch die Möglichkeit, verschiedene Nutzerkonten einzurichten und die Spracheinstellungen anzupassen.

40:12

🔗 Erweiterung der Funktionalität mit APIs und Datenbankverbindungen

Der Sprecher diskutiert die Erweiterung der Funktionalität von Chat-GPT durch die Verwendung von APIs und die Verbindung mit Datenbanken. Er teilt ein Beispiel, wie er LinkedIn-Daten nutzt, um potenzielle Interessenten für Produkte zu scrapen und buying personas zu erstellen.

45:18

🎙️ Anwendungsbeispiel für einen Podcast

Der Sprecher gibt ein Beispiel für die Anwendung von Chat-GPT in einem Podcast-Kontext. Er beschreibt, wie er mithilfe von Chat-GPT nach potentiellen Gästen sucht, ihr Verhalten analysiert und interaktive Prozesse einrichtet, um Aufmerksamkeit auf seinen Podcast zu ziehen.

50:19

📉 Probleme bei der Live-Demo und Absage

Der Sprecher ist enttäuscht über die technischen Probleme bei der Live-Demo und entscheidet, die Präsentation abzubrechen. Er bedankt sich bei den Zuschauern und kündigt an, die fehlenden Informationen in schriftlicher Form nachzureichen.

55:22

🙏 Abschließende Gedanken und Dank

Der Sprecher bedankt sich nochmals bei den Zuschauern und teilt mit, dass er ein schriftliches Material und eine Aufzeichnung der Session zur Verfügung stellen wird. Er kündigt an, dass er versuchen wird, die fehlenden Schritte in einer zukünftigen Aufzeichnung nachzuholen und schließt mit einem Dank an die Teilnehmer.

Mindmap

Keywords

💡Chat GPT

Chat GPT ist eine Abwandlung von 'Chatbot' und 'GPT' (Generative Pre-trained Transformer), was auf ein System hinweist, das auf der Basis großer Datenmengen Antworten auf Fragen generieren kann. Im Video bezieht sich dies auf das eigens entwickelte Chat-System, das von dem Sprecher vorgestellt wird. Es wird als einfach und schnell beschrieben, was auf seine Benutzerfreundlichkeit und Leistungsfähigkeit hinweist.

💡Installation

Die Installation bezieht sich auf den Prozess des Herunterladens und Einrichtens des Chat GPT-Systems. Im Video wird die Installation auf verschiedenen Betriebssystemen wie Windows, Mac und Linux erörtert, was die Plattformunabhängigkeit des Systems betont. Die Installation wird als etwas aufwendig, aber schnell und mit geringen Systemanforderungen beschrieben.

💡GPU-Unterstützung

GPU (Graphics Processing Unit) Unterstützung bedeutet, dass das System die Leistungsfähigkeit von Grafikkarten nutzt, um die Verarbeitung von Daten zu beschleunigen. Im Video wird erwähnt, dass die Installation mit GPU-Unterstützung möglich ist, was die Leistung des Systems steigern kann, insbesondere für anspruchsvollere Modelle.

💡CPU

CPU (Central Processing Unit) ist der zentrale Prozessor eines Computers, der für die Ausführung von Programmen und die Verarbeitung von Daten zuständig ist. Im Video wird erwähnt, dass das System auch ohne GPU-Unterstützung auf der CPU laufen kann, was die Flexibilität des Systems zeigt.

💡Nvidia GPU

Nvidia ist ein bekannter Hersteller von GPUs und anderer Hardware. Im Video wird empfohlen, für die Nutzung von Chat GPT eine Nvidia GPU der RTX-Reihe zu verwenden, um die Leistung zu gewährleisten. Ein Beispiel für eine günstigere Option ist die Nvidia Quadro P5000, die für Machine Learning Anwendungen geeignet ist.

💡Docker

Docker ist eine Plattform für die Containerisierung von Anwendungen. Im Video wird Docker erwähnt, um eine benutzerfreundliche Oberfläche für das Chat GPT System zu erstellen. Docker ermöglicht es, Anwendungen in isolierten Containern zu laufen, was die Verwaltung und Portabilität erleichtert.

💡Web-GUI

Web-GUI steht für Web Graphical User Interface und bezeichnet eine grafische Benutzeroberfläche, die über einen Webbrowser zugänglich ist. Im Video wird eine Web-GUI als Teil der Installation und des Betriebs des Chat GPT Systems erwähnt, was auf eine intuitive Interaktion mit dem System hinweist.

💡Modelle

Im Kontext des Videos beziehen sich Modelle auf die verschiedenen verfügbaren AI-Modelle, die im Chat GPT System installiert und genutzt werden können. Es wird erwähnt, dass es verschiedene Modelle gibt, die für unterschiedliche Anwendungsfälle geeignet sind, wie beispielsweise Starcoder für Programmierunterstützung.

💡Multi-CPU-Unterstützung

Multi-CPU-Unterstützung bedeutet, dass das System die Verarbeitungsleistung mehrerer CPUs nutzt, um die Effizienz zu steigern. Im Video wird erwähnt, dass das Chat GPT System Multi-CPU-Unterstützung hat, was seine Fähigkeit anzeigt, auf Systemen mit mehreren Prozessoren zu arbeiten.

💡HyperThreading

HyperThreading ist eine Technologie, die es einem Prozessor ermöglicht, mehrere Threads gleichzeitig auszuführen, was die Verarbeitungskapazität erhöht. Im Video wird erwähnt, dass das System HyperThreading Technologie unterstützt, was seine Leistungsfähigkeit bei der Verarbeitung von AI-Modellen betont.

Highlights

Bauen eines eigenen Chat-GPT-Systems mit einfacher Installation und Unterstützung für Windows, Mac und Linux.

Verwendung von Olama für die Entwicklung und Vergleich mit anderen Alternativen wie LM Studio.

Installation kann mit oder ohne GPU-Unterstützung durchgeführt werden, mit GPU für höhere Geschwindigkeit.

Empfehlung von Nvidia RTX 460 GPU oder höher für bessere Leistung.

Warnung vor dem Kauf von GPUs aus China aufgrund von möglichen Problemen mit der Verwendung im Mining.

Möglichkeit, das System auch auf CPU zu betreiben, mit Fähigkeit zur Multi-CPU und Hyper-Threading-Unterstützung.

Diskussion über Arbeitsspeicherbedarf und die Möglichkeit, mit 8 GB Arbeitsspeicher zu beginnen.

Erstellung eines Voice-Clones für eine Tochter, um Geschichten zu erzählen und Sprachfähigkeiten zu fördern.

Demonstration der Installation von Olama auf einem Windows-Rechner und erste Schritte zur Verwendung.

Beschreibung der Verwendung von Docker für die Erstellung einer webbasierten Benutzeroberfläche.

Herausforderungen bei der Installation und Notwendigkeit, Docker neu zu installieren.

Erstellung eines Docker-Kontos für den Zugriff auf die Web-Oberfläche.

Möglichkeit, verschiedene Language Models wie Starcoder für Programmierunterstützung zu installieren.

Nutzung der Web-Oberfläche zur Durchführung von Analysen und Erstellung von Buying Personas.

Geplante Aufzeichnung eines Videos zur Demonstration des Antrainierens eigener Modelle mit Olama.

Probleme bei der Live-Demonstration und die Absicht, die Schritte später schriftlich nachzuliefern.

Transcripts

play00:00

ja dann

play00:02

auch von mir erstmal ein einen guten

play00:03

Morgen ähm genau heute bauen wir unser

play00:06

kleines eigenes Chat GPT m ich werde

play00:09

euch auch ein bisschen erzählen was ich

play00:11

habe zwei eigene Rechner laufen mit mit

play00:14

einem System da kann ich euch auch gerne

play00:15

was zu erzählen und ja dann schauen wir

play00:18

uns doch mal an und das Ganze ist

play00:21

wirklich sehr sehr sehr sehr sehr

play00:23

einfach ähm wir machen das jetzt hier

play00:26

diesmal mit olama es gibt auch noch

play00:28

andere Alternativen

play00:30

ähm wie z.B mm LM Studio und so weiter

play00:35

ich habe mir mehrere angeschaut und habe

play00:36

mich jetzt hier ist die Installation ein

play00:38

bisschen aufwendiger als bei den anderen

play00:40

allerdings ist es wirklich super super

play00:43

super schnell also es hat richtig

play00:46

geringe Ansprüche und was ich jetzt hier

play00:49

quasi für Windows mache ist aber auch

play00:50

auf eine Mac möglich und auf

play00:54

auf Linux also es ist im Endeffekt sehr

play00:56

sehr ähnlich also ihr könnt es quasi auf

play00:58

allen Systemen laufen lassen ich zeig's

play01:00

jetzt hier mal an meinem Windows

play01:02

Rechner ich habe einmal das ganze

play01:05

eigentlich habe es dreimal meine

play01:06

Freundin hat's auch auf ihr Mac da ist

play01:09

es auch mit am schnellsten das jetzt so

play01:11

ein M1 Prozessor so ein älteres MacBook

play01:15

ist es da ist am allerschnellsten also

play01:17

das ist wirklich gigantisch

play01:19

schnell genau hier auf dem Rechner habe

play01:21

ich noch nicht gemacht und olama

play01:23

unterstützt auch die Installation in

play01:26

zwei Varianten einmal gibt es

play01:30

mal mit GPU Unterstützung also mit der

play01:33

Unterstützung der einer Grafikkarte die

play01:36

quasi Guder Prozessoren hat gibt's auch

play01:39

mittlerweile für das P von am AMD heißen

play01:43

die ja AMD heißen sie gibt's

play01:47

auch pon mit grafikbeschleuner für AMD

play01:51

aber man kann es auch einfach auf der

play01:52

CPU laufen lassen

play01:56

das ja mit der Geschwindigkeit man merkt

play01:58

natürlich schon mit Grafik Prozessor ist

play02:00

es noch mal ein Stück schneller aber

play02:03

wenn ihr jetzt quasi nur ein einfaches

play02:04

oder einfache Modelle laufen lassen

play02:06

wollt ist das

play02:12

ähm ja s komm schon direkt die erste

play02:14

Frage welche GPU würdest du eigentlich

play02:16

empfehlen meine CPU macht leider schon

play02:17

bei wenig Echos schlapp also ich habe

play02:21

mir

play02:22

es kommt drauf an was für ein

play02:24

Anwendungsfall du machst wenn du wenn du

play02:26

es was günstiger haben willst würde ich

play02:28

auf jeden Fall eine Nvidia ähm GPU aus

play02:31

der es muss immer eine RTX Reihe sein

play02:33

ich glaube ab der 460 geht's los aber

play02:37

die schon so alt die kriegt man glaube

play02:38

ich gar nicht mehr ähm aber ich habe

play02:40

jetzt hier eine ich habe mir eine quadro

play02:42

gekauft weil ich hier auch andere

play02:45

äh ja Machinen learning Modell drauf

play02:48

laufen lasse und die kann man aber auch

play02:50

schon mittlerweile für ein günstigen

play02:53

Schnapper mal bekommen ich glaube das

play02:55

ist die p5000

play02:56

ähm genau

play02:58

ähm also ich sag mal mein anderer

play03:03

Rechner da ist glaube ich

play03:07

eine 28 oder 260 drinne und das ist halt

play03:11

auch schon so schnell dass das also die

play03:12

reicht aus und die kriegt man auch

play03:13

glaube ich schon für mittlerweile

play03:14

gebraucht unter 100 € gerade was man bei

play03:18

den GPUs beachten sollte wenn man sie

play03:21

gekauft braucht ist so ein kleiner Tipp

play03:23

den nicht geben kann kauft sie nicht aus

play03:25

China auch wenn sie da noch mal ein

play03:26

gutes Stück billiger sind weil die

play03:27

wurden

play03:28

hauptsächlich fürs mining also für für

play03:32

das seriöse Krypto Business genutzt und

play03:36

da haben wir dann oft das Problem dass

play03:38

die halt schon sehr sehr

play03:39

sehr sehr gelitten haben also schon of

play03:42

heiß gelaufen sind also das Geld würde

play03:44

ich mir nicht sparen ich würde mir die

play03:45

schon irgendwie einfach von dem Gamer

play03:47

kaufen oder ihr kauft euch neue weil ich

play03:49

kann ja mal kurz mal selber reingucken

play03:51

hier was kostet

play03:53

denn

play03:54

GTX

play03:57

2000 die se ja hier 169 € 170 € also das

play04:05

kann man auf jeden Fall glaube ich äh

play04:07

machen wie gesagt es läuft aber auch auf

play04:10

CPU es ist auch Multi CPU fähig also

play04:14

multiore fähig ähm

play04:16

oder ja wie heißt das genau multikern

play04:19

und HyperThreading Technologie

play04:22

ähm also ähm ja bei R ich nach kann ich

play04:27

auch mal kurz drauf eingehen ich habe

play04:29

auch einen ähm tatsächlich das Ganze

play04:31

also meine meine Tochter die ist ja

play04:32

jetzt anderthalb und ein bisschen

play04:34

bisschen älter ist anderthalb geworden

play04:36

von einiger

play04:38

Zeit wie lange dauert die produktwergung

play04:41

noch okay ähm ja ähm gut dann springen

play04:45

können wir auch direkt gerne

play04:46

reinspringen wenn ihr wollt also im

play04:47

Endeffekt ist ähm ja dann ma ich die MA

play04:51

ich ma ich meine beiden cases dann gerne

play04:53

im Anschluss also

play04:55

einmal könnt ihr quasi hier auf olama

play04:57

gehen und könnt dann hier euch eure

play04:59

Version für runterladen

play05:02

m genau hier die Preview Version für

play05:04

Windows 10 oder Windows 11 ist dann

play05:06

quasi das

play05:09

ist genau also noch mal eine Frage genau

play05:12

Arbeitsspeicher

play05:15

also auch hier ist natürlich viel hilft

play05:17

viel aber es ist gar nicht so wichtig

play05:19

also ich habe wie gesagt die das ma ich

play05:20

doch noch mal den einen kleinen den

play05:22

einen kleinen Use Case werrend wir hier

play05:24

runterladen habe ich gerade dabei also

play05:28

ich habe quasi ein so ein miniiz die man

play05:30

hinten an den

play05:31

Fernseher einstecken kann für meine

play05:33

Tochter weil die

play05:35

ja gerne sich

play05:38

mit dem Märchenprinz der leider

play05:40

verstorben ist und dort haben wir

play05:41

einfach ein voice Clone der Stimme

play05:43

gemacht und der findet der immer quasi

play05:46

Geschichten und geht oft geht mit dem

play05:48

Mikrofon auf die Sachen ein ich glaub

play05:50

dieser mikropc der hat der hat 8 GB

play05:53

Arbeitsspeicher

play05:55

auf jeden Fall nicht mehr also es läuft

play05:57

auch schon darauf ja aber

play06:00

wir können auch gleich mal einfach wenn

play06:02

wir es mal laufen lassen können wir auch

play06:03

gleich mal reingucken wie groß die

play06:05

Auslastung an meinem System

play06:08

ist und ja aber mit 8 GB kann man

play06:11

eigentlich schon schon starten also das

play06:13

hat auch glaube ich jeder

play06:15

bei Windows kann man vielleicht auch

play06:17

noch mal 16 nehmen aber beim Mac also

play06:19

wir haben das auf dem M1

play06:21

da ist es definitiv mehr

play06:25

ja es ist auf jeden Fall mehr als als

play06:28

genug

play06:29

ja Gigabyte die meine Freundin da hat

play06:30

oder 16

play06:33

ja genau dann schieben wir das mal hier

play06:36

rüber bisschen

play06:39

aufräumen genau also können wir einfach

play06:41

hier einmal das Lama ist jetzt

play06:43

runtergeladen das hofentlich dann auch

play06:45

schon parallel gemacht

play06:47

hab und lassen dann einfach mal hier den

play06:51

mer gerade ich hatte es auf den

play06:53

haupsreen machen sollen lassen wir

play06:55

einfach mal die Installation laufen also

play06:57

einfach nur öffnen und auch install

play07:00

klicken und schon lädt der sich

play07:03

glücklich

play07:04

äh die die Daten runter

play07:08

äh die Daten auf die Festplatte genau so

play07:10

rum

play07:13

ja genau das dauert jetzt ein Augenblick

play07:16

äh weiß nicht ob es auch jemand noch

play07:18

parallel gerade

play07:25

macht so ja er läuft genau also wie

play07:30

gesagt das ist ja einmal hinten unserem

play07:32

die ich eben gesagt hat diese Mini PC

play07:34

Sache die hinten im Fernseher drin

play07:35

steckt um einfach neue Märchen zu

play07:37

generieren und dann kann meine Tochter

play07:39

halt Fragen stellen und dann erzählt er

play07:42

quasi immer eine Geschichte die dann

play07:44

irgendwie passend zu Ihrer Frage ist

play07:47

damit Sie einfach ein bisschen

play07:48

besser sprechen lernt und dann werden

play07:51

halt die worörter immer sehr deutlich

play07:54

von diesem von dieser geklonen Märchen

play07:55

der spricht jamer sehr klar

play07:57

ausgesprochen

play08:00

genau also

play08:04

ähm jetzt ist es installiert und mal

play08:07

wieder und wir sehen quasi hier schon

play08:10

das Fenster und der Vortrag ist

play08:15

vende genau also hiermit kann ich dann

play08:18

quasi mit dem Befehl kann ich jetzt hier

play08:21

mein olama

play08:24

starten beim ersten Mal wird er jetzt

play08:27

noch mal ein paar Dateien runterladen

play08:28

wenn ich da

play08:31

Lama 3 Modell können wir uns auch jetzt

play08:34

aber gerade erschreckend langsam was ist

play08:36

denn hier

play08:39

los ja ja das wird jetzt ein bisschen

play08:41

schneller super genau also da hat sich

play08:44

sonst hätte ich hätte ich mich gewundert

play08:46

h die glaswasserleitung hier im nicht

play08:49

gelohnt genau also installieren wir das

play08:51

hier

play08:53

kurz ja

play08:55

und

play08:56

währenddessen genau gucke ich noch mal

play08:59

Frage da en nein keine Fragen da genau

play09:02

also ist relativ simpel ihr habt

play09:04

installiert ihr macht einfach diesen

play09:05

Ulama run Lama 3 geht übrigens auch mit

play09:09

zwei weil das ist ältere Modell dann ist

play09:11

auch die Installation ein bisschen

play09:12

schneller

play09:14

aber muss ist wie heißt es immer

play09:19

alles kann nichts muss aber das ist hier

play09:22

relativ simpel

play09:25

5 Minuten oh Gott da ich no ein bisschen

play09:27

was was was reden oder ihr gerne auch

play09:29

Fragen

play09:31

ähm oder ich ma mal das Fenster auch ein

play09:32

bisschen größer besser sieht genau also

play09:35

im Endeffekt läuft jetzt quasi hier der

play09:38

Installer lät das erste Modell runter

play09:42

m und das ist jetzt quasi so ein so ein

play09:45

ganz basic Modell das tolle oder bei den

play09:50

auch bei den anderen Anbietern gibt's

play09:51

natürlich irgendwie ganz viele weitere

play09:53

Modelle

play09:54

die man installieren kann wir können uns

play09:56

ja auch gleich mal ein ein paar angucken

play09:59

ein paar die ich z.B auch im Einsatz hab

play10:01

ein paar mit denen ich auch auch nur

play10:03

rumspiele

play10:05

ja aber man kann verschiedene large

play10:07

language Models jetzt quasi dann nach

play10:09

und nach auch installieren das machen

play10:11

wir dann auch gleich noch mal nebenbei

play10:15

[Musik]

play10:19

ähm AR AR langsam für eine 500 mbleitung

play10:24

aber

play10:27

gut ich ist halt so

play10:32

ähm ja

play10:37

äh genau was wir dann

play10:40

im nächsten Schritt machen also wir

play10:41

haben es dann quasi installiert und wir

play10:43

haben s jetzt hier in diesem in dem

play10:45

command also noch mal auf Deutsch mal

play10:49

kurz

play10:50

nachgucken in der Eingabe Aufforderung

play10:53

hier also so heißt das dann ichmer die

play10:56

CMD als suche ähm wir sind wir dann

play10:59

drinne und wenn wir das hier quasi jetzt

play11:01

gleich installiert haben ist quasi auch

play11:03

schon das das Language Modell

play11:06

einsatzbereit

play11:08

äh was wir dann in den nächsten Schritt

play11:10

machen ist wir installieren noch ähm

play11:12

Docker den können wir auch schon mal im

play11:14

Endeffekt in der Zeit auch schon mal

play11:15

runterladen ja oder Docker Docker für

play11:17

Desktop nutze ich

play11:20

am

play11:22

ja Iser ja Download für

play11:26

Windows macht er das jetzt so

play11:29

kan auch in derzeit schon mal nebenbei

play11:31

runterladen hoffentlich W es jetzt nicht

play11:32

allzu nicht Wesen doch langsam

play11:37

komisch genau und setzen dann mit Docker

play11:41

und mit einem webcilient quasi ein ein

play11:45

Design um oder

play11:47

ähnliches Design um was wir von Jet GPT

play11:52

kennen ich denke oder stellen wir das

play11:55

ich das mal hier als Frage

play11:58

rein ähm ihr könnt ja mal schreiben also

play12:00

Chat GPT nutzt ihr das habt ihr schon im

play12:02

Einsatz oder nutzt ihr was anderes

play12:06

ähm ich we ich noch getestet

play12:09

äh Docker als zweites runterladen

play12:14

ähm

play12:15

und das ist hier quasi das Docker Studio

play12:20

das Docker Desktop ich poste es direkt

play12:22

mal hier in den in den Chat

play12:27

ähm und ich kann auch noch mal kurz hier

play12:29

das olama auch noch mal

play12:32

posten genau das sind die beiden ähm ich

play12:35

hatte

play12:36

noch beim also ich hatte noch LM Studio

play12:39

hatte ich noch getestet

play12:41

das kann ich auch mal

play12:46

kurz das ist das hier das poste ich auch

play12:49

mal und dann hatte ich noch ein drittes

play12:50

damit war ich aber irgendwie überhaupt

play12:51

nicht glücklich ähm was mir allerdings

play12:55

aufgefallen ist bei dem LM Studio ich

play12:57

hatte halt zum Teil F bis zehn Mal

play13:00

höhere Last auf auf dem Rechner wobei

play13:03

das hier ein bisschen ja also hier ist

play13:05

quasi so eine one one one click

play13:07

Installation ja aber ich kann wie gesagt

play13:11

auch hier dieselben dieselben Modelle

play13:14

nutzen also im Endeffekt glaube ich es

play13:15

es auch so ein bisschen

play13:18

huging huging face also

play13:23

hier genau also hier auf hing face sieht

play13:26

man dann auch die ganzen ganzen Modelle

play13:28

die die gibt und die Bewertung also es

play13:31

ja glaube ich auch mittlerweile hier ein

play13:32

ein Unicorn Unternehmen aus

play13:36

Frankreich genau und da gibt's echt

play13:39

super spannende Sachen die man sich auch

play13:41

mal anschauen

play13:44

kann be beim dritten komme ich jetzt

play13:46

echt nicht mehr auf dem Namen es war

play13:49

aber ja also es hat mir nicht hat mir

play13:51

nicht zugesagt und war auch ziemlich es

play13:54

heißt ziemlich

play13:56

aber es war irgendwie die Usability fand

play13:58

ich fin ich nicht so gut und m der

play14:01

andere Nachteil so für den ich sag mal

play14:04

wenn man dann ein bisschen dieep dier

play14:06

also jetzt spielen wir nur ein bisschen

play14:07

rum heute es hat auch keine AP

play14:10

Schnittstelle und das find ich halt für

play14:12

für meine Anwendungsfälle finde ich da

play14:14

ganz ganz praktisch ich konnte da zwar

play14:17

auf eine Datenbank zugreifen aber nicht

play14:19

direkt die die API nutzen genau das war

play14:22

so der Nachteil oh ich glaube jetzt hier

play14:25

langsam es

play14:28

ist Z Sekunden noch es geht äh zu zu

play14:33

Ende

play14:40

so

play14:45

so s schon trinken genau im Endeffekt ja

play14:50

ich glaube jetzt haben wir

play14:54

das gar nicht warum der hier jetzt

play14:55

gerade so langsam ist aber ja

play14:59

ähm ja wir kommen jetzt hier endlich

play15:03

weiter und

play15:07

ähm

play15:10

ja so jetzt haben wir es geschafft wir

play15:13

sind der Vortrag ist zu Ende nein ähm

play15:16

keine Ahnung what

play15:21

ja ich möchte

play15:27

ja was

play15:31

was sind die

play15:35

höen

play15:37

Städte

play15:39

in

play15:41

Bayern

play15:43

tippen na also wir sehen

play15:47

unser erstes Modell gibt

play15:52

äh schon mal

play15:55

antworten genau

play15:57

ähm jetzt kann ich das ganze mit

play16:02

byi wieder beenden äh und kann natürlich

play16:05

wieder

play16:07

ähm ja kann dann wieder mit

play16:11

AMA run so wieder

play16:18

starten ja l L A

play16:25

a

play16:27

hi so und kannst wieder

play16:31

starten gut

play16:33

m jetzt gucken wir mal gucke ich mal ob

play16:36

Docker schon runtergeladen

play16:39

ist

play16:41

Docker Studio ja

play16:45

m auch hier einfach auf die aufs

play16:47

installieren dann wieder klicken das ist

play16:50

ja hier falsches Fenster ah komm will

play16:54

gerade nicht

play17:01

okay jetzt hängt mein PC gerade ich

play17:04

hoffe ich kriegt mich trotzdem noch mit

play17:08

ähm ja okay

play17:11

ähm okay musste ich da hier mich einmal

play17:14

kurz anmelden habe also jetzt bei Docker

play17:16

einfach Doppel geklickt und installiere

play17:18

mir jetzt einfach

play17:20

Docker Docker Desktop nicht do Studio so

play17:23

heißt ja okay also ich installiere jetzt

play17:29

Docker Desktop und lass es einfach hier

play17:31

auch wieder eine Installation laufen

play17:33

ähm das Docker Desktop brauche ich

play17:35

gleich füren für das für den nächsten

play17:40

Part so

play17:46

[Musik]

play17:49

ähm genau und da suche ich auch schon

play17:53

mal kurz den Befehl raus ich glaube hier

play17:57

so

play18:00

ja das dauert auch wieder ähm wie gesagt

play18:04

auch immer mal gerne interagieren im

play18:06

Chat dann kann ich hier leichter die äh

play18:10

Wartezeit ähm

play18:13

über überbrücken ähm ja aber wie gesagt

play18:17

es es läuft ich hoffe man sieht's auch

play18:20

dass da was passiert

play18:41

ja es war irgendwie zu Hause auf den

play18:44

Rechner schneller woh der hier

play18:45

eigentlich besser ist aber gut dann lärt

play18:49

nie aus

play19:01

genau jetzt gleich wenn es dann

play19:03

installiert ist könen wir uns dann

play19:05

einmal ein kostenlosen unsen kostenlosen

play19:07

Account bei Docker anlegen

play19:10

[Musik]

play19:13

genau kann auch noch viele SP spanende

play19:17

andere Sachen mit Docker machen aber ja

play19:21

kan auch Team arbeiten

play19:23

genau aber wir nutzen das jetzt wirklich

play19:25

nur damit wir diese

play19:27

äh

play19:29

ähm GUI

play19:35

bekommt kann man einstellen von wo man

play19:39

die

play19:42

Modelle ja

play19:44

im Endeffekt ja das kann man kann man

play19:46

einstellen wir können auch gleich mal

play19:49

m mal reingehen also im Endeffekt kann

play19:53

man ich weiß gerade den Befehl nicht

play19:55

aber ich glaube man kann halt quasi bei

play19:56

dem bei dem wenn wir gleich mal Modell

play19:59

installieren da Kannen wir mal

play20:00

nachgucken ich kann dann quasi auch den

play20:02

der beim Download schon den den

play20:06

M ja den verzeichnisfahrt OD ist

play20:10

verzeichnisfahrt Festplatten

play20:12

verzeichnisfahrt kann ich

play20:14

angeben habe ich tatsächlich noch nicht

play20:17

gemacht aber man kann es auf jeden Fall

play20:18

dahinter schreiben

play20:20

oder ja auf jeden Fall es geht auf jeden

play20:22

Fall also man kann die auch auf auf

play20:24

anderen laufen lassen es geht auch quasi

play20:27

was man auch macht machen kann man kann

play20:30

das ganze auch ähm als

play20:33

ja als Server konfigurieren das heißt

play20:35

also kannst du quasi komplett anderen

play20:38

Rechner nehmen und auch dann über die

play20:40

Schnittstelle nachher mit dem was uns

play20:42

gleich mit der mit der GUI also mit der

play20:43

grafischen grafischen Userinterface

play20:45

kannst du auch einfach auf

play20:48

ähm auf na gehören kannst du dann

play20:52

einfach auch über das lokale Netzwerk

play20:54

dann z.B auf auf den Server zugreifen

play20:57

wen das

play20:58

z.B praktischer ist man

play21:00

ähm ja

play21:02

m hatte so hat so vor nach so

play21:06

oh

play21:08

mus ein B okay das habe ich vergessen

play21:10

dann werde ich ein ganz kurz neu

play21:14

starten mal wieder genau also da bin ich

play21:17

wieder genau und dann muss ich einmal

play21:20

ganz kurz hat ein bisschen was verstellt

play21:23

nach dem neuart weil ganz muss mir ganz

play21:25

kurz mal rein reinfuchsen hier

play21:29

wie macht man das noch mal hier mit

play21:32

den Einstellung

play21:34

egal schiebe ich jetzt mal wieder

play21:37

Fenster rüber

play21:39

und genau also jetzt quasi einmal

play21:42

Docker habe ich jetzt installiert

play21:45

deswegen bin ich auch

play21:47

rausgeflogen

play21:51

und so bin jetzt quasi

play21:55

hier einmal wieder

play21:58

[Musik]

play22:01

so habe ich jetzt hier einmal mein mein

play22:04

mein Docker installiert und dann wenn

play22:06

das durchgelaufen ist sehen wir dann

play22:08

quasi ja hier dieses wunderbare Fenster

play22:11

größer machen und kann

play22:15

dann abmchen

play22:21

jetzt dann lädt er wieder ein neues

play22:24

Fenster m mit dem ich mich anmelden kann

play22:28

ja so und das sieht natürlich sehr gut

play22:32

aus hier bin ich gerade wieder

play22:33

rausgeflogen mit dem

play22:38

Screen das mal

play22:42

so so genau also im Endeffekt habe ich

play22:45

jetzt hier auf signup bei Docker

play22:47

geklickt und bin jetzt auf dem

play22:49

wunderschönen Screen hier gelandet und

play22:52

kann mich jetzt anmelden irgendwie fehlt

play22:54

hier der Text ich mache das jetzt mal

play22:56

hier über mein Google schnell dann bin

play22:59

ich ein bisschen schneller mit dem dem

play23:01

ganzen

play23:04

durch nehmen wir dann

play23:09

hier geh

play23:14

das so und habe quasi jetzt meinen

play23:19

Account angelegt und kann schon wieder

play23:22

Docker

play23:28

okay

play23:31

irgendwie so habe jetzt Malin Account

play23:34

gemacht kann also jetzt auf se in

play23:38

gehen ist es gerade etwas nervig dass er

play23:44

immer wieder

play23:48

ändert so genau und kann jetzt sagen was

play23:53

mache ich sagen wir mal heute bin ich

play23:55

mal als teacher unterwegs und was ma mal

play24:00

hier eigentlich egal was man angibt

play24:03

genau also habe ich jetzt Docker

play24:05

installiert

play24:07

und

play24:08

genau dann können wir auch jetzt direkt

play24:12

jaer installiert man sieht jetzt jetzt

play24:14

ist da

play24:16

super ist gerade ein

play24:19

wenigferisch mit mir hier unterwegs

play24:22

einmal kurz die kurz die Screens

play24:25

aufräumen nicht so ordentlich unterwegs

play24:36

sein so

play24:39

ähm genau und jetzt kann ich quasi als

play24:43

als nächstes Thema

play24:47

ähm kann ich jetzt quasi also ich hatte

play24:50

mir das Modell laufen kann ich dann

play24:53

ähm mir die Web Oberfläche

play24:59

eren die heißt ich muss kurz überlegen

play25:03

open Web ui ich poste es auch jetzt

play25:06

gleich im Chat ich die gefunden

play25:10

habe so war das

play25:13

Open

play25:21

WebUI und

play25:24

irgendwiet gerade

play25:26

wieder ich Glück heute

play25:34

sehr gut na mal gucken mal also

play25:38

irgendwie will die Webseite gerade nicht

play25:42

so wie ich das

play25:51

möchte okay super na ja gut eigentlich

play25:55

wäre open WebUI wäre die Webseite

play25:58

gewesen so dann

play26:01

äh

play26:03

ähm hoffen wir mal den hatte ich mal

play26:06

kurz raussuchen ähm

play26:09

genau

play26:18

jetzt seh

play26:21

gut live Session wenn das wenn die Seite

play26:24

da genau hoffen wir aber mal dass wir

play26:27

trotzdem Weiterkommen indem wir quasi

play26:30

wieder in die Eingabe Aufforderung gehen

play26:35

also command ich muss das mal irgendwie

play26:38

ändern mit den zwei Fenstern hier genau

play26:41

und ich

play26:54

poste ja und kann so

play26:59

nicht kann ich mit dem Befehl kann ich

play27:03

dann einfach das mal laufen lassen und

play27:17

am

play27:23

okay ja bin ich ein bisschen aus dem das

play27:29

hat mich jetzt ein bisschen ausest

play27:30

gebracht nicht

play27:33

funktioniert

play27:39

Scheiße ja das wäre es z

play27:51

[Musik]

play27:54

falsch noch mal

play28:07

[Musik]

play28:20

Versuch was mit dem noch

play28:24

mal irgendwie

play28:34

[Musik]

play28:36

gut okay

play28:39

war klapp der Befehl

play28:42

dann gucken wir mal

play28:49

woran ein ein ein

play28:52

[Musik]

play28:54

Traum wahrscheinlich

play29:05

ja ich habe eigentlich Admin

play29:11

rechterm warum schimpft er ja

play29:18

ähm das ist natürlich wenn man es live

play29:21

machen will dreimal zu

play29:25

Hause so

play29:30

einmal ja weil

play29:39

ich

play29:41

okay jetzt bin ich ganz

play29:45

verwirrt gar nichts mehr

play29:48

na ja

play30:00

ah das ist noch mal guter Hinweis genau

play30:09

viicht das war war glaube ich jetzt komm

play30:13

wir noch

play30:14

mal ob es jetzt nee auch mit atmen

play30:18

rechten will er gerade irgendwie nicht

play30:28

ja das schitzt man an nicht beim

play30:32

[Musik]

play30:34

Vortrag ich werde einmal noch mal noch

play30:37

mal einmal ganz kurz raus B gleich auch

play30:40

wieder da ich versuche mal den den

play30:42

Rechner komplett als Admin neu zu

play30:45

starten dann melde ich bin ich gleich

play30:48

wieder da sorry für

play30:53

das genau

play30:56

ja das muss ich mir jetzt mal irgendwie

play31:01

anschauen nicht geplant

play31:05

ähm genau aber für die diejenigen

play31:08

die jetzt quasi schon die die

play31:10

Installation durch durchgeführt haben

play31:13

den kann ich auch schon mal

play31:15

genau die können quasi jetzt in dem

play31:17

Browser auf local

play31:22

host ja auf

play31:26

local flogel Host

play31:29

doppelpunktau 33 3000 oder 3300 ich

play31:33

Garben

play31:35

sehen wir gleich hier no den Befehl auf

play31:37

genau auf local Hostel 3000 und kann

play31:40

quasi dann schon mal seine

play31:45

Version die Web GUI quasi schon mal

play31:48

starten auch mal ein bisschen rumspielen

play31:51

indem ich jetzt no versuch mein Problem

play31:55

hier zu lösen so

play31:59

noch mal rein was denn hier in der

play32:06

lockfall ja mache ich sofort

play32:10

[Musik]

play32:13

wieder

play32:18

so da ist ist gerade bei mir das Problem

play32:21

das es einfach nicht

play32:24

will aber mal gucken in meinem

play32:26

Bildschirm

play32:44

ja so da ich dann hier meine Screens

play32:49

wieder sortieren Mist

play32:52

ähm

play33:00

ja jetzt bin ich ein bisschen bisschen

play33:02

aufgeschmissen gerade eiglich peinlich

play33:05

das sorgt jetzt natürlich für ein

play33:08

bisschen bluochdruck

play33:12

m

play33:27

das du ja wie gesagt

play33:30

ähm ich such noch mal kurz

play33:47

raus also

play33:49

Endeffekt ist dann was aufzurufen wäre

play33:54

was natürlich jetzt bei mir nicht klappt

play33:56

ist dann wäre das hier die die URL da

play34:00

wird jetzt bei mir n nicht funktionieren

play34:02

weil bei mir die webgen läuft aber ich

play34:04

habe euch die schon mal

play34:07

reingepostet

play34:19

so jetzt werde ich noch mal ich noch mal

play34:21

kurz gucken ob ich ob es mir hilft wenn

play34:24

ich Docker noch mal neu installiere

play34:45

ein

play34:47

Nein auf dre PCs hat funktioniert aufig

play34:52

läuft nicht natürlich auch klugerweise

play34:54

keiners Satz PC mitgenommen

play34:58

sehr gut geh

play35:06

das Okay laden wir noch mal Docker

play35:09

runter das ma ich jetzt noch mal braucht

play35:11

ich nich nicht machen wenn es bei euch

play35:13

LFT und schauen wir

play35:21

mal ich jetzt mal

play35:38

mann mann mann ärgerlich ärgerlich

play35:41

ärgerlich ja tut mir tut mir auf jed

play35:43

schon mal echt

play35:49

leid jetzt läuft da hier noch mal durch

play35:52

mal gucken ob das jetzt irgendwie

play35:55

hilft hallo ich habe mich mal kurz

play35:58

eingeschaltet gibt es eine Möglichkeit

play36:01

wie ich dich unterstützen

play36:03

kann glaub gerade

play36:06

gerade ich gucke noch mal ich habe es

play36:09

jetzt noch noch mal neu installiert ich

play36:11

hoffe dass der Docker

play36:13

jetzt läuft kannst du alternativ

play36:16

vielleicht Links oder Downloads oder

play36:18

etwas ähnliches

play36:20

bereitstellen ja kann ich kann ich

play36:24

machen im

play36:26

Endeffekt jetzt qu wenn es jetzt läuft

play36:28

mit mit dem soweit wir gekommen sind

play36:31

könnt ihr

play36:33

quasi ja könnt ihr quasi jetzt die über

play36:36

den local host könnt ihr schon könnt ihr

play36:39

quasi schon starten und habt schon euer

play36:40

erstes Modell jetzt muss ich ein

play36:42

bisschen versuchen ja mal ohne ja leider

play36:46

ohne zeigen aber ihr könnt dann wieder

play36:48

auch hier auch z auf die AMA Webseite

play36:50

gehen und habt hier oben dann den den

play36:54

den Models

play36:57

Reiter und könnt euch dann mal hier so

play36:59

durchgucken welche

play37:01

ähm welche schönen Modelle es gibt ähm

play37:04

ich habe selbst finde ich habe ich ein

play37:07

paar im Einsatz äh einige zum spielen

play37:10

einige die so funktionieren

play37:13

ähm genau also es gibt äh was ziemlich

play37:17

cool ist ist wie heißt der noch

play37:22

mal genau also es gibt starcoder genau

play37:28

es gibt einmal den starcoder mit dem

play37:30

starcoder könnt ihr quasi so ein

play37:32

bisschen programmierunterstützung

play37:34

euch holen das

play37:36

[Musik]

play37:38

kann ja irgendwie ja das kann mehrere

play37:44

Programmiersprachen und man kann jetzt

play37:46

auch noch das gibt davon mehrere

play37:48

Versionen ich meine mittlerweile sind

play37:50

sogar

play37:53

80 prramm Sprachen nichter

play37:57

ich glaube ich war es genau 84

play37:58

Programmiersprachen kann der mit kann

play38:00

mittlerweile und können z.B das mal

play38:02

testen also das macht auf jeden Fall

play38:03

Spaß damit rum zu spielen es gibt das G

play38:07

kann man auch noch mal erweitern hier

play38:09

ist

play38:10

ster genau den großen Modell und genau

play38:16

was ihr eigentlich immer dann macht das

play38:18

kann ich jetzt ja auch einfach mal könnt

play38:19

ihr in die wieder in die

play38:21

Eingabeaufforderung gehen KNT euch

play38:24

einfach hier den den rauskopieren und

play38:27

könnt

play38:28

hier ist mein angauforderung könnt euch

play38:30

das ja einfach

play38:31

m gebt es einfach ein und dann läuft

play38:36

quasi die Installation des

play38:39

nächsten language

play38:42

Modells jetzt hier der starcoder heute

play38:46

heute habe ich hier Rechner und Inter

play38:49

also ja genau auf jeden Fall sollte er

play38:52

jetzt hoffentlich mit der Installation

play38:54

anfangen man kann aber hier in der

play38:56

Library sich dann auch auch noch

play38:57

umgucken

play38:58

ähm gibt z.B auch von also ich finde die

play39:02

Modelle von von Mistral die sind sind

play39:05

richtig cool

play39:06

[Musik]

play39:09

ähm also gibt's einige ähm hier gibt's

play39:13

z.B auch ein ganz das

play39:17

[Musik]

play39:24

heißta genau m tral auch von ral ist z.B

play39:29

äh wenn man wenn man hier irgendwie

play39:31

Berechnungen durchführen will die

play39:34

vielleicht auch ein bisschen komplexer

play39:35

sind auch hier im Endeffekt wieder der

play39:39

selbe äh Prozess einfach nur wieder in

play39:42

wieder command

play39:45

angeben wir läuft der wahrscheinlich

play39:47

immer

play39:49

noch ja und hier rüber ich kopiere mir

play39:53

das wieder

play39:54

raus

play39:56

super und kann dann da quasi das nächste

play39:59

Modell

play40:00

ähm installieren genau und hab das dann

play40:04

auch und wenn ihr jetzt quasi das jetzt

play40:07

leider nicht zeigen kann könnt ihr dann

play40:10

quasi im

play40:11

äh und im also wenn ihr auf lo dann auf

play40:14

der Web seid könnt ihr dann einfach das

play40:16

gewünschte Modell einfach

play40:19

m ja auswählen mit mit dem

play40:23

ihr arbeiten wollt es gibt

play40:26

da auch noch ein paar pa andere

play40:28

spannende Sachen die man jetzt hier

play40:31

quasi auch machen könnte aber mit der

play40:32

wbgui relativ einfach machen kann

play40:36

ich weiß heute ist nicht mein Tag

play40:38

[Musik]

play40:40

hier geht weiter

play40:44

m genau also im Endeffekt LD dann runter

play40:47

installiert die und dann habt ihr die

play40:48

zur Auswahl die Modelle könnt euch da

play40:50

mal durch durchgucken was euch zagt ähm

play40:56

was ist bei olama bzw dann bei dem bei

play41:00

der webgi auch noch gibt ihr könnt auch

play41:03

Dateien hochladen das heißt also ihr

play41:05

könntet jetzt quasi euch eine euch eine

play41:07

File PDF z.B ich habe das mal gemacht

play41:12

mit mit

play41:14

der mit dem Prüfungsbuch für

play41:17

de wo Seminar auch ausgefallen ist woll

play41:21

ich auch zum Power Champion war glaube

play41:24

ich werden und habe mir quasi hier von

play41:26

dies Microsoft powerdi Bücher geholt und

play41:30

habe dann mit den quasi so trainiert

play41:32

damit ich dann auch diese Microsoft

play41:34

exam Prüfung die 300 auch machen kann

play41:38

und schaffe und genau aktuell muss man

play41:43

da noch mal weiß gar nicht ob jetzt in

play41:45

der aktuellsten Version auch noch ist

play41:46

aber was ich es gemacht habe war es so

play41:48

man musste leider immer konnte er

play41:50

maximal 20 Seiten einlesen das heißt ich

play41:52

musste die PDF dann stückeln immer in

play41:54

alle 20 Seiten und habe sie dann

play41:55

hochgeladen und konnte dann so

play41:57

trainieren das war ein wenig wenig

play41:59

ärgerlich aber ich glaube er kann

play42:00

mittlerweile auch die kompletten Daten

play42:03

machen

play42:04

mm ja sehr blöd wenn man das alles nicht

play42:07

nicht zeigen kann

play42:09

m was ja allerdings was auch noch mal

play42:11

vielleicht eine spannende Option in dem

play42:14

ganzen olama ist ihr könnt auch

play42:16

verschiedene Nutzer einrichten das heißt

play42:18

also ihr könnt keine Ahnung

play42:21

m ja ihr könnt dann quasi

play42:24

ähm z.B sagen keine Ahnung ich habe ich

play42:27

habe z.B für meine Tochter ein eigenen

play42:30

Account mit dem sie dann ja eine eine

play42:32

leichtere kindlichere Sprache wo sie

play42:34

dann quasi auch ein bisschen sprechen

play42:37

und so weiter lernen

play42:42

kann wieso antwortte l

play42:45

D genau du kannst m

play42:49

die du kannst quasi n also auf in in

play42:54

Deutsch bestellt wird genau also man

play42:56

kann die

play42:57

äh Sprache auch in

play43:00

[Musik]

play43:03

äh der webg auch einstellen

play43:07

[Musik]

play43:09

ähm ich habe es jetzt gerade aber auch

play43:12

nicht im Kopf wo genau das war aber ihr

play43:16

könnt quasi auch die die die Sprachen

play43:18

die Ausgangs ausgabesprache könnt ihr

play43:21

auch ähm einstellen

play43:24

ähm ja

play43:30

ähm ihr habt mich unten quasi in ist

play43:33

unten ich glaube es irgendwo hier unten

play43:36

dann wenn ihr in der Web wesit könnt ihr

play43:38

quasi auch die ganzen systemschen könnt

play43:40

ihr auch konfigurieren

play43:42

ähm was es da auch noch mal gibt ihr

play43:45

könnt auch quasi das F ich ganz spannend

play43:47

ist die ist die API Schnittstelle ähm

play43:50

die ihr nutzen könnt und dann z.B auch

play43:53

auf weiß nicht auf Zeitrechner und Daten

play43:56

von der

play43:57

on ander schnstelle zu holen ich hat z.B

play44:00

ab auf dem anderen Rechner zu Hause ich

play44:04

jetzt nich hätte besser mal

play44:05

sicherheitshaber mitnehmen

play44:07

sollen hätte ich habe ich quasi auch

play44:10

eine SQL Datenbank hinterlegt und da

play44:14

geht's quasi darum dass er

play44:17

dann linkt oder

play44:20

potenzielle LinkedIn Interessenten für

play44:23

für Produkte scraped die Daten aus liest

play44:27

und mir dann eine beinpersone erstellt

play44:29

das habe ich dann quasi da das schreibt

play44:31

er mir dann immer in die Datenbank und

play44:32

da läuft quasi immer ein ein mit den

play44:36

Daten die ich dann habe läuft laufen

play44:37

immer quasi immer dieselben Fragen

play44:39

wieder

play44:40

ab genau und damit raus erstellt mir

play44:43

dann quasi eine buying personas ich guck

play44:47

mal ganz kurz weil das könnte vielleicht

play44:51

da könnte ich vielleicht sogar Glück

play44:54

haben dass ich hier sogar mal ein

play44:56

runtergel

play44:57

Laden

play44:59

hab ich mal hier meine

play45:03

undurchsichtigen

play45:04

[Musik]

play45:06

Wind hier alles gelöscht mal gucken auf

play45:09

die Festplatte

play45:18

verschoben schauen wir mal ob wo ist wo

play45:21

könnte das sein wo habe ich den ganzen

play45:23

Mist hingeschoben ich extra die

play45:25

Festplatte frei gemacht und den ganzen

play45:28

geruscht den ich so hatte

play45:31

ähm ja

play45:37

ähm

play45:39

mal hier glaube ich habe mich mal eine

play45:59

ich schreib mal kurz meine Freundin ob

play46:01

die rech zu Hause

play46:03

[Musik]

play46:05

sten so oh

play46:21

Gott genau also was was ich finde jetzt

play46:24

gerade die Datei nicht ich hoffe meine

play46:26

Freundin schickt mir jetzt jetzt einmal

play46:27

kurz meine meine meine meine mal ein

play46:31

Muster rüber ich habe mich mal hatte

play46:33

mich mal ein Demo

play46:35

angelegt jetzt indem ich quasi für

play46:38

meinen Podcast

play46:41

ähm ja indem ich halt quasi so Gäste

play46:44

suche Die Suche ich mir quasi bei

play46:46

LinkedIn raus und

play46:49

ähm habe dann quasi so

play46:52

verschiedene Prozesse die da durchlaufen

play46:56

also als erstes guckte also scpe quasi

play46:59

Profil

play47:00

ähm dann sag ich soll sagt er mir äh

play47:04

welche mit welchen Personen interagiert

play47:06

mein mein Wunsch Podcast Gast viel äh

play47:11

das liest der aus dann einmal

play47:15

ähm dann einmal die Content Typen oder

play47:19

auf welche Themen ähm reagiert er ähm

play47:23

viel be linked in also ähm genau dann

play47:27

erstellt er mir ein Action Plan das ist

play47:29

dann quasi der der nächste Schritt guckt

play47:33

auch was was sind die

play47:36

redflex guckt genau welche Fragen wir

play47:39

könnte der Gast mir

play47:41

wahrscheinlich der der Kunde mir stellen

play47:44

und dann habe ich noch mal so die

play47:45

behavior Analyse und er sucht

play47:49

mir auch raus ja auf welchen Blog auf

play47:53

welche Beiträge ich bei LinkedIn

play47:55

reagieren sollte damit ich ein bisschen

play47:56

bchen Aufmerksamkeit bekomme ich hoffe

play47:59

dass jetzt ja meine Frau ist nicht

play48:02

erreichbar ist

play48:04

istag dies ist eine kraabelgruppe

play48:07

ähm gucken wir mal

play48:18

[Musik]

play48:34

[Musik]

play48:42

könnte ich das dannn haben ich einmal

play48:44

ein Muster hatte ich doch mal

play48:47

hier ganze Scheiß

play49:13

okay jetzt gucke ich

play49:16

mal okay na ja den bezen ich eigentlich

play49:20

haben wollte hab ich jetzt hatte

play49:24

eigentlich mal eine Demo mal mit dem

play49:26

Profil von B Gates angelegt aber

play49:28

irgendwie finde ich jetzt auch mal ich

play49:30

das jetzt nicht D ich zeigen kann aber

play49:32

ich kann euch ja einfach mal

play49:34

kurz einen Nutzer den ich als

play49:42

Podcast den ich

play49:46

als Podcast Gast haben

play49:49

wollte den ich auch tatsächlich

play49:51

tatsächlich bekommen habe poste ich euch

play49:54

mal kurz das Link in viel das ist mich

play49:59

jenes hier

play50:02

und n ich schalte mich noch mal ganz

play50:05

kurz ein könntest du noch mal ein

play50:07

Einblick geben was jetzt genau noch

play50:09

kommt weil wir haben mal gesehen dass

play50:11

die Live Demo leider live nicht so will

play50:15

wie du wolltest genau also ich kann

play50:17

jetzt noch hier ich poste jetzt noch

play50:18

einmal kurz das was was die Analyse

play50:20

macht und im Endeffekt ja ich glaube es

play50:23

hat nicht mehr allzu viel Sinn ich bin

play50:25

mich jetzt auch ein bisschen aufgeregt g

play50:27

ich wegen dem

play50:29

mistake vielleicht machen wir dann auch

play50:31

wen wir vielleicht auch einfach Schluss

play50:33

machen es tut mir echt leid also ich

play50:34

würde noch mal was nachliefern in

play50:36

schriftlicher Form aber vielleicht

play50:38

macht's wirklich nicht mehr so viel Sinn

play50:39

also es tut tut mir leid nicht so wollte

play50:42

wie es ich denke jeder der hier im Chat

play50:45

war hat das auch schon mal erlebt dass

play50:46

er etwas live zeigen wollte und es

play50:48

wollte partun nicht egal wie of das

play50:50

vorher funktioniert

play50:52

hat das leider der Nachteil am live sein

play50:57

ähm gerne natürlich wenn du was

play50:59

nachliefern kannst in Textform oder in

play51:01

anderer Form werden wir das mit

play51:03

hochladen

play51:04

ähm wir haben das hier natürlich

play51:05

trotzdem aufgezeichnet du hast ja die

play51:07

ersten Schritte zumindest schon mal

play51:09

vorgestellt und gezeigt auch wenn du es

play51:11

nicht demonstrieren konntest das ist

play51:12

natürlich schade

play51:14

ähm ja auch von unserer Seite sehr

play51:17

schade dass das jetzt nicht geklappt hat

play51:19

in der Technik steckt man leider nicht

play51:20

immer drin der Mirko hat ausführliche

play51:22

Tests vorher gemacht wo es funktioniert

play51:24

hat aber wie wir gesehen haben wollte es

play51:27

jetzt live dann doch nicht ich beende

play51:30

einmal das Teil für dich wir danken euch

play51:32

trotzdem dass ihr hier mit dabei wie

play51:35

gesagt alles Material was der M uns

play51:36

schickt werden wir dann noch zusammen

play51:38

mit der Aufzeichnung bereitstellen dass

play51:40

ihr euch da einfach noch einlesen könnt

play51:41

und natürlich könnt ihr den M auch über

play51:43

LinkedIn erreichen und ih dit euren

play51:46

Fragen

play51:47

löchern besucht auch gerne die Session

play51:49

vom Arthur noch wenn euch das Thema

play51:51

powertimate interessiert die läuft

play51:53

sicherlich noch eine Weile eine Weile

play51:55

und ansonsten trotzdem vielen Dank und

play51:59

wir hoffen dass die nächste Demo die

play52:03

Demo Götter wieder bei dir sind ja

play52:06

vielen Dank aber ich hoffe ja ich hoffe

play52:08

jetzt findet trotzdem Spaß daran

play52:11

und

play52:13

genau ja guckt euch das mal an wir

play52:16

können also ich kann noch eine Sache

play52:18

hätte ich noch die ich vielleicht noch

play52:20

testen könnte wir könnten es auch einmal

play52:21

mit dem mit dem letzter Versuch Mirko

play52:24

letzter Versuch ja dann machen wir mich

play52:28

also wie gesagt das ist jetzt die Lösung

play52:30

tatsächlich die die ich wenn sie dann

play52:33

funktioniert tatsächlich präferiere aber

play52:35

wir können ich kann auch einfach mal

play52:37

kurz das du mest dein Bild neu Teilen

play52:40

genau wir können natürlich auch einfach

play52:41

mal hier das

play52:44

etwas kann natürlich auch mal hier noch

play52:47

mal habe ich mich jetzt aber auch dann

play52:48

so intensiv nach nicht beschäftigt aber

play52:51

wir können Bildschirm teilen dann wir

play52:55

einmal nervös ist

play52:58

dann genau also man kann natürlich kann

play53:00

jetzt auch mal hier kurz den den hier

play53:02

runterladen den das ml

play53:04

Studio da hat er auch jetzt schon nicht

play53:07

ganz können uns auch im Endeffekt es ist

play53:10

im Endeffekt dasselbe es ist halt ein

play53:12

bisschen bisschen langsamer und hier bin

play53:14

ich jetzt auch tatsächlich leider nicht

play53:16

so drinne Ken m mit dem nicht so gut aus

play53:18

ich habe es mal V einiger Zeit mal

play53:20

laufen und F ein bisschen AR langsam

play53:22

aber im Endeffekt ist es ziemlich

play53:27

selbe aber vielleicht habe ich ja Glück

play53:29

und hier auf meinem Rechner läuft

play53:31

wenigstens das und dann können wir da

play53:34

gemeinsam uns ein bisschen

play53:37

ja gemeinsam mal noch ein bisschen

play53:40

durchprobieren wenn ihr Lust dazu habt

play53:41

ansonsten wie gesagt kann nicht wirklich

play53:44

rüber in den anderen Workshop jetzt der

play53:49

hier kommt schon das nächste muss

play53:52

erstmal Virenscan machen für die Datei

play53:55

na super

play53:58

ist heute mein heute mein Tag mer schon

play54:02

ja auch da schimpft er jetzt schon okay

play54:05

ähm ja

play54:11

dann ja

play54:13

genau also hier ist noch mal eine Frage

play54:15

war ja schade F ich auch kann man mit

play54:18

olama auch eigene Modelle antrainieren

play54:20

und falls äh antrainieren und falls ja

play54:26

wie genau also äh es geht auf jeden Fall

play54:29

und ich auch gar nicht so komplex was

play54:32

ich machen würde ich würde das M heute

play54:35

abend heute Nachmittag mal als Video an

play54:38

meinem anderen Rechner dann wenn ich zu

play54:40

Hause bin mal aufzeichnen wie es geht

play54:42

würde das dann quasi als Datei im zur

play54:45

Verfügung stellen dass wir das dann

play54:47

irgendwie irgendwo zur Verfügung stellen

play54:49

können wo dann die wo dann die Leute

play54:51

Zugriff haben vielleicht können wir das

play54:52

so machen weil jetzt auch der will das

play54:55

die Installation will heute nicht ja

play54:58

Installation feht gut dann kapituliere

play55:01

ich heute ich glaube heute ist einfach

play55:03

will einfach nicht ja die demogötter

play55:06

sind heute nicht bei dir muss dir

play55:08

nächstes mal ein Opfer da bringen vor so

play55:09

einer fession ja ähm genau aber ich fin

play55:14

das eine gute Idee mach doch gerne eine

play55:15

Aufzeichnung und dann laden wir die

play55:17

einfach mit hoch genau also jetzt gehen

play55:22

hier super also ich bedanke mich

play55:24

trotzdem ganz herzlich fürs zuhören es

play55:26

tut mir leid dass jetzt was kürzer

play55:27

geworden ist und trotzdem eigentlich

play55:30

seid ihr ja soweit und könnt selber

play55:31

jetzt ein bisschen experimentieren

play55:32

ausprobieren und genau und gerne auch

play55:35

mal auf LinkedIn connecten und wie

play55:38

gesagt ich liefer da noch mal was nach

play55:40

und ja ist heute irgendwie nicht mein

play55:43

mein Tag sorry alles gut kann passieren

play55:47

du hast alles versucht was du jetzt

play55:48

versuchen konntest und den Rest lieferst

play55:50

du einfach nach und dann haben wir es

play55:52

trotzdem vielen vielen Dank dass du das

play55:54

Thema präsentiert hast und Wünschen

play55:57

anderen äh noch weiterhin viel Spaß äh

play56:00

schaut mal beim Auto vorbei der hält

play56:02

immer tolle Sessions da kann man nichts

play56:04

falsch machen genau die Aufzeichnungen

play56:07

bekommt ihr im Nachgang über das

play56:09

aufzeichnungsticket

play56:11

ähm obwohl ich denke wir hatten jetzt

play56:13

hier so Schwierigkeiten leider ich denke

play56:15

die Aufzeichnung die uns der merko jetzt

play56:17

im Nachhinein noch liefert werden wir

play56:18

einfach allen die sich angemeldet haben

play56:21

wenn wir ein Link bereitstellen dass wir

play56:23

diesen einen Workshop mal ausnahmsweise

play56:25

für alle freigeben das schreibe ich mir

play56:28

mit auf weil es jetzt hier live nicht

play56:30

geklappt hat dann könnt ihr es euch auf

play56:31

jeden Fall

play56:33

angucken super ja da ich bedanke mich

play56:36

und ja jetzt werde ich muss auf den

play56:37

Schock

play56:39

erstmal also mach das alles gut kann nur

play56:42

noch ber

play56:44

werdenute wer noch mal komplett noch mal

play56:46

aufzeichnen mit Step by Step und dann

play56:49

noch mal zeigen sobald ich auf gekriegt

play56:51

habe und dann können wir es zur

play56:52

Verfügung stellen okay super vielen Dank

play56:54

tchü

Rate This

5.0 / 5 (0 votes)

Related Tags
Chat-GPTInstallationSystemGPU-UnterstützungModelleNvidia-GPUMachine-LearningWeb-GUIDockerAPI-SchnittstelleSprach-Assistent
Do you need a summary in English?