FREE Local LLMs on Apple Silicon | FAST!

Software engineering
10 May 202415:08

Summary

TLDRこのビデオスクリプトでは、Apple silicon GPUを使用してMacBookでChad GPTのようなものを実行し、より高速に動作するプロセスについて説明しています。スクリプトでは、オープンソースのLLM(Large Language Model)を使用し、AMAというツールを使ってローカルマシンでモデルをダウンロード・管理する方法を紹介しています。また、オープンWeb UIを使用して、PythonとJavaScriptで構築されたバックエンドとフロントエンドを持つチャットボットを作成し、カスタマイズ可能なUIでモデルを切り替えて対話することができるデモンストレーションを行います。さらに、Dockerを使用したデプロイの簡単さも触れており、開発者がコードの背後にある詳細を理解し、より強力な知識と力を持つことができると結論づけています。

Takeaways

  • 🚀 AppleシリコンGPUを使用して、MacBookでChad GPTのようなものを実行できるようになり、設定が簡単になりました。
  • 💻 個人のマシン上で独自のGPTを実行することができ、Chad GPTと同様に見栄え良くなっています。
  • 📚 ソフトウェア開発者として、コードを確認して裏側の動作を知ることができます。
  • 🔍 open web UIを使用して、AMAと組み合わせてセットアップします。
  • 📥 GitHubリポジトリをクローンし、ローカルNode環境やPython環境のセットアップが必要です。
  • 🐐 AMAは、マシン上で実行され、LLMモデルを自動的にダウンロード管理するエージェントです。
  • 📚 オープンソースのモデルをダウンロードしてローカルで実行できます。
  • 🔧 複数のモデルを試して、ユースケースに最適なものを見つけることができます。
  • ⚙️ GPUで完全に実行され、設定なしで透過的に動作します。
  • 🌐 open web UIプロジェクトを使用して、美しいUIを構築し、ユーザーインターフェースからモデルを管理できます。
  • 🔗 Dockerを使用して、開発環境を構築し、コンテナで実行することも可能です。
  • 📝 コミュニティから共有されたプロンプトを使用したり、独自のプロンプトを保存・インポート・エクスポートすることが可能です。

Q & A

  • AppleシリコンGPUを使用してChad GPTのようなものをMacBookで実行することの利点は何ですか?

    -AppleシリコンGPUを使用することで、すべての処理が高速化され、設定や設定手順を省くことができます。また、ローカルマシン上でGPTのようなものを実行できるため、より良い外観と高速な機能性が得られます。

  • オープンウェブUIとは何ですか?

    -オープンウェブUIは、説明されているプロジェクトで使用される名前で、フロントエンドがJavaScriptで書かれており、バックエンドはPythonで構成されています。また、Docker設定も含まれており、コンテナ化して実行することが可能です。

  • AMAとは何ですか?なぜダウンロードする必要がありますか?

    -AMAは、ローカルマシン上で実行され、LLM(Large Language Model)モデルを自動的にダウンロード・管理するエージェントです。様々なオープンソースのLLMモデルを提供し、ローカルで実行できるように設計されています。

  • なぜ複数のLLMモデルをダウンロードし、ローカルで実行するのですか?

    -異なるLLMモデルはそれぞれ異なる機能とトレーニングを持ち、ユーザーは自分の使用ケースに最適な結果を得るために、様々なモデルを試してみることができます。また、モデルを組み合わせることもできるため、柔軟性が高まります。

  • オープンウェブUIのバックエンドに必要なPythonのバージョンは何ですか?

    -オープンウェブUIのバックエンドには、Python 3.11が必要です。ただし、condaを使用して仮想環境を設定し、必要なライブラリをインストールすることができます。

  • オープンウェブUIのフロントエンドには何が必要ですか?

    -オープンウェブUIのフロントエンドは、Node.jsとnpm(Node Package Manager)が必要です。また、必要なパッケージをpackage.jsonからインストールするために、npm installを使用します。

  • オープンウェブUIを実行するために必要なDockerの設定ファイルは何ですか?

    -オープンウェブUIを実行するためには、Dockerfileとdocker-compose.ymlという2つの主要な設定ファイルが必要です。これらは、プロジェクトのドキュメントセクションで見つけることができます。

  • オープンウェブUIで使用されるモデルはどのようにして取得・削除・組み合わせることができますか?

    -UI上から直接モデルをダウンロードしたり、既存のモデルを削除したり、複数のモデルを組み合わせて使用することができます。これにより、ユーザーは自分のニーズに応じて柔軟に操作することが可能です。

  • オープンウェブUIの設定で、どのようなカスタマイズが行えますか?

    -オープンウェブUIの設定では、テーマの選択、システムプロンプトの設定、高度なパラメータの調整などができる他、独自のプロンプトを保存・インポート・エクスポートすることもできます。

  • オープンウェブUIのコミュニティ機能とは何ですか?

    -オープンウェブUIのコミュニティ機能を通じて、他のユーザーが共有しているプロンプトにアクセスしたり、独自のモデルを追加・共有することができます。これにより、より幅広い機能を利用することが可能です。

  • Dockerを使用してオープンウェブUIを実行する際の利点は何ですか?

    -Dockerを使用することで、プロジェクトの依存関係をコンテナ化し、実行環境を簡単に構築・管理することができます。また、開発環境のセットアップを簡素化し、同じ環境を簡単に再現できる利点があります。

  • オープンウェブUIで提供される独自のモデル機能とは何ですか?

    -オープンウェブUIでは、ユーザーが独自のモデルを追加できる機能が提供されています。これにより、特定のタスクに特化したモデルを実行することができ、より高度な機能を利用することが可能です。

Outlines

00:00

🚀 GPUで高速実行可能なAIモデルのローカル実行方法

Apple silicon GPUを使用して、MacBookでChad GPTのようなAIモデルを実行する方法が説明されています。AMAというツールを使用して、様々なオープンソースのAIモデルをダウンロード・管理し、ローカルで実行することが可能です。また、オープンソースのWeb UIを使用して、見た目も良く、高速に機能性を提供できるカスタムGPTを構築する方法も紹介されています。

05:02

💻 前提知識と環境構築

ビデオでは、ローカルNode環境やPython環境のセットアップが既に済んでいることを前提としていますが、必要であればリフレッシュのためにリンクを提供します。リポジトリのクローン、ディレクトリの確認、フロントエンドとバックエンドのコード構成、Dockerの使用、AMAの実行方法などが詳しく説明されています。また、さまざまなAIモデルの特徴や、それらを組み合わせて使用する方法についても触れられています。

10:02

🖥️ カスタムGPTの実行とカスタマイズ

AMAを使用してダウンロードしたAIモデルを、カスタムGPTで実行し、プロンプトに応答する方法が紹介されています。また、Web UIを使用して、インターフェイスをカスタマイズし、モデルの選択や組み合わせ、テーマの変更、システムプロンプトの追加、プロンプトの保存と共有、そしてコミュニティとの連携を行う方法が説明されています。さらに、Dockerを使用した実行方法も簡単に紹介されており、開発者が背後で行われていることを理解し、より深く学ぶことができるように、詳細な手順が提供されています。

Mindmap

Keywords

💡Apple silicon GPU

Apple silicon GPUは、Appleが開発したグラフィックプロセッシングユニットのことで、MacBookなどのデバイスで高速な画像処理と機械学習タスクを実行できるように設計されています。ビデオでは、このGPUがChad GPTのようなアプリケーションを高速に実行する上で役立つと説明されています。

💡Chad GPT

Chad GPTは、人工知能による自然言語処理モデルを指しており、ビデオでは、MacBook上で実行されるアプリケーションの例として提唱されています。Chad GPTは、テキスト生成や対話型のAI機能を提供する可能性があります。

💡AMA

AMAは、ビデオで説明されている自動的に言語モデルをダウンロード・管理するエージェントです。AMAを使用することで、ユーザーは様々なオープンソースの言語モデルを簡単にダウンロードしてローカルで実行できるようになります。

💡オープンソースモデル

オープンソースモデルとは、誰もが自由に使用し、改変できる言語モデルのことで、ビデオではFacebookのLLaMA、GoogleのGemma、Microsoftの53、Mistilのmixolなどが紹介されています。これらのモデルは、企業が訓練したものを無料で提供しており、ユーザーが自分のマシンでローカルに実行できます。

💡Docker

Dockerは、アプリケーションを実行するためのプラットフォームで、ビデオではオープンウェブUIを実行するために使用されています。Dockerを使用することで、アプリケーションをコンテナ化し、異なる環境での実行を容易にします。ビデオでは、Dockerを用いてアプリケーションを簡単に実行する方法が説明されています。

💡システムプロンプト

システムプロンプトは、AIが対話を行う際に使用されるテキストで、ビデオではユーザーが対話を行う前に入力する必要があると説明されています。システムプロンプトは、AIの応答に重要な役割を果たし、ユーザーが求める情報の提供に使われます。

💡フロントエンド

フロントエンドとは、ユーザーが直接操作するアプリケーションのインターフェースで、ビデオではJavaScriptとSvelteを使用して構築されています。フロントエンドは、ユーザーがAIと対話するためのグラフィカルユーザーインターフェースを提供し、使いやすさを確保します。

💡バックエンド

バックエンドは、アプリケーションのサーバーサイドの部分で、ビデオではPythonを使用して構築されています。バックエンドは、データベースとのやりとりや、AIモデルとの通信など、アプリケーションのロジックを処理する役割を果たします。

💡コンテナ化

コンテナ化とは、ソフトウェアアプリケーションをDockerなどのコンテナ技術を使ってパッケージ化するプロセスで、ビデオではオープンウェブUIを実行するために用いられています。コンテナ化により、アプリケーションの移植性と再現性が向上し、異なる環境での実行が容易になります。

💡モデルファインチューニング

モデルファインチューニングは、既存の機械学習モデルをさらに訓練して、特定のタスクやデータセットに適合させるプロセスです。ビデオでは、コード生成に特化したモデルがファインチューニングされていると推測されており、これにより特定のプログラミングタスクに適した応答を生成できるようになります。

💡Web UI

Web UIとは、ウェブブラウザ上で動作するユーザーインターフェースのことで、ビデオではオープンウェブUIが紹介されています。Web UIは、ユーザーがAI機能にアクセスし対話するためのグラフィカルインターフェースを提供し、直感的で使いやすい操作を実現します。

Highlights

現在可以在MacBook上使用Apple硅GPU运行类似Chad GPT的应用程序,这使得一切运行得更快,且无需进行以往的配置和设置。

可以拥有自己定制的GPT,它在本地机器上运行,并且界面看起来比上周的混乱情况要好得多。

介绍了使用Open Web UI设置AMA(自动管理下载LLM模型的代理)的过程。

展示了如何克隆Open Web UI的仓库,并简要查看了前端和后端的代码结构。

介绍了使用Vit和Svelte Kit编写的前端,以及Python后端。

提供了Docker配置,展示了如何在不使用Docker的情况下常规运行程序。

详细说明了如何下载和运行AMA,以及如何通过命令行界面(CLI)获取模型。

讨论了不同模型的来源和它们各自的优势,如Llama来自Facebook Meta,53来自Microsoft等。

展示了如何在GPU上运行模型,并且无需额外配置,同时展示了GPU使用情况。

介绍了如何使用Open Web UI项目创建一个漂亮的用户界面,并激活Python环境。

展示了如何安装Python依赖项,并运行后端服务器。

说明了如何使用Node和npm安装前端依赖,并构建前端应用程序。

展示了如何启动后端服务,并通过Web界面与模型进行交互。

讨论了如何在UI中选择和组合不同的模型,以及如何通过用户界面直接拉取和删除模型。

介绍了如何使用社区共享的提示,并展示了如何存储和使用自定义提示。

展示了如何通过Open Web UI社区添加和使用自定义模型,如Code Companion。

提供了一个单一的Docker命令,以便快速运行Web UI,而无需手动执行所有步骤。

提到了另一个运行本地LLM的方法,如果不希望受限于olama提供的模型。

Transcripts

play00:00

we're now at a point where we can run a

play00:03

Chad GPT like thing on our MacBook using

play00:06

the Apple silicon GPU which makes

play00:08

everything run faster and we don't have

play00:10

to configure that or go through all the

play00:12

setup that we used to go through it's

play00:14

much much easier now and you can even

play00:16

have your own gpts kind of like gpts

play00:19

that Chad GPT has on your own machine

play00:22

and it looks way better than uh at least

play00:24

the mess that I made last week hey that

play00:26

was a beautiful prompt okay if you

play00:28

missed that video I'll link to it down

play00:29

below it didn't look very good today

play00:31

it's going to look good and we're going

play00:33

to get a ton of functionality and it's

play00:34

going to be fast let's do it now there's

play00:36

a couple of ways of going about this I

play00:38

want to show you the details that go

play00:40

into it because this you know we're

play00:41

software developers we want to know

play00:43

what's going on behind the scenes plus

play00:45

this has the added advantage of showing

play00:48

you the code so you can actually take a

play00:50

look under the hood because I think it's

play00:52

really cool this is what we're using

play00:53

right here it's called open web UI we're

play00:56

going to set up AMA and then we're going

play00:57

to set up this on top of it the first

play00:59

thing you're going to to do is clone

play01:00

this repository now look I'm going to

play01:02

show you the step by step I'm assuming

play01:04

that you already know how to clone a g

play01:05

repository but I will not assume that

play01:07

you have a local node environment or a

play01:09

python environment setup for those

play01:11

videos I'll link those down below in

play01:12

case you need a refresher I'm going to

play01:14

clone this repository let's go get clone

play01:17

boom and here it is we're going to go

play01:19

into that directory and let's have a

play01:21

peek at the code this has everything

play01:23

this has the front end written in

play01:25

JavaScript it's actually written in uh

play01:27

selt here go to package.json so so this

play01:30

will run on node and this is the front

play01:32

end we're using vit and we're using spel

play01:34

kit and this is like all the modern

play01:36

stuff the modern text deck the back end

play01:39

is a python back end so that's going to

play01:41

be in the back end folder you can take a

play01:43

look at the python side of things and

play01:46

this also has Docker configurations so

play01:49

yes you can run this through Docker but

play01:51

first I'm going to show you how to do

play01:52

this the regular way without Docker

play01:54

we're going to kick things off with AMA

play01:56

go to ama.com and download it but you're

play02:00

going to be like what the heck is olama

play02:01

and why should I download it and why

play02:03

should I run things you tell me this is

play02:04

the internet you might be doing bad

play02:06

things to me so AMA is like an agent

play02:09

that runs on your machine that

play02:10

automatically manages downloading llm

play02:13

models you can go to models here and

play02:16

these are the models that are available

play02:17

these are open- Source models you got

play02:19

llama 3 you got Gemma you got mixol code

play02:22

Gemma all these models that are

play02:24

available and this is an open source

play02:25

project so you can go to the GitHub page

play02:27

and check out this code too but we don't

play02:29

need to do that all we need to do is

play02:31

download this tool so we're going to go

play02:33

to the homepage click on download Mac OS

play02:36

this is available for Linux or Windows

play02:38

but you going to get the Mac OS version

play02:40

cuz this is a Mac OS tutorial I'm doing

play02:42

this on Mac OS Apple silicon let's go

play02:44

boom in your downloads folder you're

play02:46

going to get this file double click on

play02:48

it it's going to extract AMA which you

play02:50

can then drag to your applications

play02:52

folder boom in applications find AMA and

play02:56

run it are you sure yes we're sure this

play02:58

is going to have a little cute llama in

play03:01

your menu bar and it's running you can

play03:02

tell that it's running by going to Local

play03:04

Host

play03:06

11434 is the port boom and it says olama

play03:09

is running so how do you use this thing

play03:12

well if you go back to the command line

play03:14

now you can say AMA version it says AMA

play03:17

version is that version right there

play03:19

whatever version you might have when

play03:20

you're watching this now you can use the

play03:21

AMA CLI to fetch models and you can get

play03:25

the model names on the website under

play03:27

models llama 3 for example let's do that

play03:30

so I'm going to say AMA pull llama 3

play03:33

boom it goes out it gets the file it's

play03:36

4.7 GB I've already downloaded before so

play03:39

it took me absolutely no time at all but

play03:41

it might take you a few minutes if I

play03:42

want another one like llama 2 boom I

play03:45

also had that one let's get one that I

play03:47

didn't have 53 it doesn't matter to you

play03:49

I'm going to speed up that video I'm not

play03:50

going to make you watch it but I just

play03:52

want to see how long it takes this one

play03:53

is small it's 2.3 GB and it says it's

play03:55

going to take like 25 seconds to

play03:56

download what's up with all these

play03:58

different models well they have

play03:59

different capabilities they're trained

play04:01

differently llama is from Facebook meta

play04:04

53 is from Microsoft Gemma is from

play04:06

Google mixol is from mistol all of these

play04:10

companies spend millions of dollars

play04:12

training these models so that you can

play04:14

get them for free and run them locally

play04:16

on your own machine and you're going to

play04:18

have to play around to see what gives

play04:20

you the best results for your use cases

play04:23

all right I got three of these models

play04:24

what do we do next with this well we can

play04:26

run it ama run uh let's go with 53 what

play04:30

this will do is create a prompt so you

play04:33

can interact with a model right there Hi

play04:35

boom look how fast that is that's insane

play04:37

how can I assist you today but I want

play04:39

you to see something here I'm going to

play04:40

open up my activity monitor I have 64

play04:44

gigs of RAM on this thing so the number

play04:46

of models I'll be able to run should fit

play04:48

within that 64 GB actually it's it's a

play04:50

little less than that it's about 75% of

play04:52

that earlier I made a video as to why

play04:54

it's less but we won't get into that

play04:56

here I want to open up the GPU history

play04:59

here and have that little window open so

play05:01

we can take a look at what's happening

play05:04

because this is not running on the CPU

play05:06

it's running on the GPU completely

play05:08

transparent to us write me a

play05:10

1,000w essay on JavaScript boom and

play05:15

there it goes it starts writing that us

play05:16

it's really fast it's crazy fast it's

play05:19

probably going to be done before we see

play05:20

anything here oh we do see stuff it's

play05:22

done with the with the writing but at

play05:25

least it gave us a little bit of a blue

play05:26

Mark right there you can see that the

play05:28

GPU usage this is the Apple silicon GPU

play05:31

by the way was almost fully utilized for

play05:33

that moment it was generating that text

play05:36

and we didn't have to configure anything

play05:37

like we did previously to exit this I'm

play05:39

going to say buy because now we need a

play05:41

front end a pretty UI that looks like

play05:43

Chad GPT let's go back to our open web

play05:45

UI project and I'm going to pop open the

play05:48

terminal here in Visual Studio code

play05:49

control back tick will do that for me I

play05:52

have cond installed if you don't know

play05:53

what I'm talking about I'll link a video

play05:55

K lets you set up python environments

play05:58

where you can run python code in

play06:00

projects so that's what I have here it

play06:02

says base because that's the base I'm

play06:03

not in any active cond environment but I

play06:06

will create a new one condac

play06:09

create-- name and I'm going to call this

play06:11

one open web UI and I want to use Python

play06:15

equals. 311 if you follow my steps right

play06:17

there you'll be fine but if you want to

play06:19

know more details you can watch that

play06:20

other video and now we're going to just

play06:22

use this command to activate that

play06:24

environment cond to activate open web UI

play06:26

so copy that line paste it and now

play06:29

instead of Base we have open web UI here

play06:33

so now we're inside that python

play06:34

environment that has python version 311

play06:38

if we say python version 311 there we go

play06:41

now we can go to the backend folder and

play06:45

Mis type all kinds of stuff before we

play06:47

get to the point so I'm going to do pip

play06:50

install dasr requirements this has a

play06:54

bunch of requirements that we need to

play06:55

install I'm going to give it the dash U

play06:58

flag for upgrade and if we take a look

play07:00

at what that is in the backend folder we

play07:02

have the requirements. text file so it

play07:04

has all these requirements to run the

play07:07

back end wow YouTube transcript API I

play07:10

wonder if it can do it probably can I'm

play07:12

not going to for for another time I'm

play07:14

I'm getting distracted here pip install

play07:16

- R requirements this actually takes a

play07:19

couple minutes to do because there's so

play07:20

many requirements and they all have to

play07:22

be installed within this environment

play07:24

what's nice about this environment setup

play07:26

is I don't have to mess up my python

play07:28

installation with all these requirements

play07:30

that I might need only for this thing

play07:32

that's why I like to use cond all right

play07:35

we also have to run the front end

play07:37

environment which is a node application

play07:40

so while that's happening I'm going to

play07:41

leave that alone oh it's done okay great

play07:44

but if it was still working I can go up

play07:46

here and say I want to do another

play07:49

terminal I'm going to use node and npm

play07:51

and for node I also have an environment

play07:54

manager for that I use NVM for that

play07:56

let's take a look at what version of

play07:58

node I'm working with here I'm working

play07:59

with 18 I'm fine with that you can use a

play08:02

more modern version of node this is

play08:04

modern enough for this purpose for node

play08:06

version management I linked another

play08:08

video you can check that out later or

play08:10

you can just follow my steps here just

play08:11

make sure you have node installed okay

play08:13

just don't install it wrong please don't

play08:15

install node globally you can if you

play08:17

want but just don't let's move on

play08:20

npmi what what does npmi do for those of

play08:23

you that don't know is going to look at

play08:25

package.json and install all the

play08:27

dependencies that are here basically NP

play08:29

I is short for npm install once that's

play08:32

done we're ready to build this npm run

play08:35

build which is going to do this script

play08:37

right here cool we got our front end we

play08:40

got our back end let's go back to the

play08:42

back end terminal where we just

play08:44

installed all the python requirements

play08:47

and we're going to run Bash

play08:49

start.sh that's in the backend folder

play08:52

boom when you start it up and go to

play08:53

Local Host port 8080 it takes you to off

play08:56

automatically because this has authentic

play08:59

a built in with a database really cool

play09:02

for you to look at that code by the way

play09:04

check it out and uh you do need to sign

play09:06

up it's not going to send your

play09:08

credentials anywhere it's all stored on

play09:10

your machine this is just for fun Alex

play09:14

let's go with my email this can be a

play09:16

fake email by the way which is what I'm

play09:18

going to do right now create account

play09:20

boom and now I'm signed in and look at

play09:22

this beautiful interface um I can start

play09:25

chatting but I can't really until I

play09:28

select a model so if we go up here to

play09:30

select the model you'll see all the

play09:32

models that we have installed you can

play09:33

switch between them and you can even

play09:35

combine models I'll show you that in a

play09:36

moment so we've downloaded llama 2 you

play09:39

saw me do that llama 3 and 53 these two

play09:42

I'll talk about that in a second where

play09:43

they came from I can say let's go with

play09:45

53 and maybe I want to mix in llama 3

play09:50

and let's do those two and I'll say hi

play09:52

to both of them so it chose llama 3 for

play09:54

some reason it says hello it's nice to

play09:56

meet you is there something I can help

play09:57

you with this is basically going to O

play10:00

Lama and then returning the result to

play10:02

the back end and then the front end and

play10:04

that's how you interact with this in the

play10:05

settings you have the ability to select

play10:07

a theme system prompt Advanced

play10:09

parameters you can play around with that

play10:11

here's where you can have models and you

play10:14

can pull models directly from this user

play10:16

interface so if if you see another model

play10:18

you like like mistol for example you can

play10:20

type that in here and pull it down this

play10:22

way delete models that exist all sorts

play10:25

of add-ons for the UI image Generation

play10:28

by the way I don't have a video for this

play10:31

yet but if you want to see an image

play10:32

Generation video with automatic 1111 and

play10:35

how that integrates let me know in the

play10:36

comments down below I may just do that

play10:38

here or maybe a memb only video if

play10:41

you're a member thank you so much for

play10:42

being a member if you want to join the

play10:45

channel and support the channel I make

play10:46

special videos just for members as well

play10:49

as these videos but don't worry I'll

play10:51

also make more tutorials and things like

play10:52

that for the main Channel as well if you

play10:54

subscribe that's completely free that's

play10:56

your cue to subscribe and if you like it

play10:58

if you like this videos give me a thumbs

play11:00

up so I know all right what do we got

play11:01

here chats Imports exports account this

play11:04

is your user management if you click on

play11:06

user you can sign in sign out archive

play11:08

chats playground with a playground

play11:11

that's a little bit different than chat

play11:13

you can actually add your system prompt

play11:15

you might not know this but when you're

play11:17

using chat GPT there is a system prompt

play11:20

that gets sent along with your prompt in

play11:22

addition to the context now here's a

play11:24

really cool thing prompts this allows

play11:27

you to basically store your own prompts

play11:30

if you like some prompts you've created

play11:32

them they work well for you you can

play11:34

store them in here you can import them

play11:36

you can export them and you can use

play11:38

Community prompts so there's a whole

play11:41

community that shares their prompts that

play11:44

you can access through this UI it's not

play11:46

working right now maybe when you try it

play11:48

it'll work but what I did try was this

play11:50

right here if you go to model files you

play11:52

have made by open web UI Community this

play11:55

is basically like gpts in Chad GPT where

play11:59

where people put together their own

play12:01

little models but it's more than just

play12:04

gpts gpts is basically you provide a

play12:07

context you provide some sample

play12:10

prompting but here people can actually

play12:12

add their own models to it so for

play12:13

example code companion this gives you

play12:16

the uh model file content so it gives

play12:18

you a system prompt it gives you some

play12:20

parameters to start with when you

play12:22

install this it loads it up icon and

play12:24

everything see this model tag name this

play12:27

will actually grab the model that's

play12:29

associated that's been fine-tuned I'm

play12:32

guessing it's been fine-tuned if you

play12:33

know any better let me know in the

play12:34

comments by this person that created

play12:36

this thing so if you go to save and

play12:38

create is going to pull the Manifest

play12:41

download any Associated models which may

play12:44

be large see that pull progress right

play12:47

there it's going to take a little bit of

play12:48

time because this thing is pulling down

play12:50

two pretty large files I think these are

play12:53

26 billion parameter models that it's

play12:56

pulling down related to code generation

play12:58

specifically so I'm going to have some

play13:00

coffee I don't know about you but that's

play13:02

what I'm going to do I'm out of coffee

play13:03

I'm going to have to sit here and wait

play13:05

we're almost there folks we're almost

play13:06

there we got code companion so now when

play13:08

I go to new chat I can select that code

play13:10

companion model write me some code I

play13:14

know super descriptive but you're

play13:16

probably sick of seeing all the examples

play13:18

let's see what it comes up with when

play13:20

just prompted like that oh it CHS go and

play13:23

there we go get it I'm sure it can write

play13:25

some code beautiful code but this is not

play13:27

a video about that we're also set up

play13:29

folks but there's one more thing and I

play13:32

told you about Docker now I do have

play13:34

Docker installed you can go to Docker

play13:36

desktop products Docker desktop download

play13:39

for Mac make sure it's the mac Apple

play13:41

chip version if that's in fact what you

play13:43

have run Docker desktop and again I have

play13:45

entire development setup videos I'll

play13:47

link to one of those down below how I

play13:49

set up my development environment on Mac

play13:50

that includes Docker once Docker is up

play13:53

and running it's really easy peasy all

play13:55

you got to do is go right here openweb

play13:58

ui.com and you want to go to the docs

play14:00

and getting started in fact this is way

play14:03

easier than the steps that I showed you

play14:05

but I wanted to show you the details so

play14:06

that you know what goes on behind the

play14:08

scenes because for developers that's a

play14:10

little bit more important I think than

play14:12

just having the thing run because that

play14:14

gives you extra knowledge and extra

play14:16

power when you're looking at this code

play14:17

and you have the project everything is

play14:19

here it's a beautiful thing including

play14:21

the docker configuration Docker compose

play14:23

there's a Docker file right there it

play14:25

tells you everything that's being pulled

play14:27

what ports are being mapped what dri are

play14:29

being mapped and so on but I will give

play14:31

you one single command to run you can

play14:33

skip all this stuff right here and run

play14:37

this Command right here it's right under

play14:40

this headline in the documentation and I

play14:42

will actually copy and paste this and

play14:44

put it in the description now you know

play14:46

how to run this web UI which is very

play14:47

goodlooking it's so easy there is

play14:50

another way to run local llms if you

play14:52

don't want to be limited by the models

play14:53

that ol Lama provides and I made a video

play14:56

for that too right over here check that

play14:58

out and I'll see you in the next one

play15:01

[Music]

Rate This

5.0 / 5 (0 votes)

Related Tags
MacBookAppleシリコンGPTGPUオープンソースLLMモデルダウンロード実行チュートリアルソフトウェア開発AIツール
Do you need a summary in English?