Run ANY Open-Source Model LOCALLY (LM Studio Tutorial)

Matthew Berman
14 Nov 202312:16

Summary

TLDRこのビデオでは、オープンソースの大きな言語モデルをローカルコンピュータで簡単に実行する方法を紹介しています。LM Studioというソフトウェアを使って、AIに触れたことがなくても簡単に始められます。ウェブサイトからダウンロードしてインストールするだけで使い始めることができます。LM Studioは、Hugging Faceのモデルを検索し、モデルカードから情報を取得して表示するインターフェースを提供します。また、モデルの選択やクォンタイズドバージョンの選択も簡単で、コンピュータのスペックに合わせて最適なモデルを推奨します。さらに、開発者向けにもAPIのようなローカルサーバーを立ち上げて、AIアプリケーションを簡単に構築できる機能も備えています。

Takeaways

  • 🌐 LM Studioは、オープンソースの大きな言語モデルをローカルコンピュータで実行するためのソフトウェアで、AIの経験がない人でも簡単に使用できます。
  • 💻 LM Studioは、Mac、Windows、Linuxの全プラットフォームで利用可能です。
  • 🔍 LM Studioのホームページには、Hugging Faceのモデルを検索するための検索ボックスがあり、最新の注目モデルも紹介されています。
  • 📚 モデルカードの情報も含め、モデルに関する詳細情報が提供されており、選択しやすいインターフェイスです。
  • 🎁 このビデオのスポンサーであるupdfは、Adobe Acrobatの無料代替として、PDFのOCRや編集、保護、AI機能を提供しています。
  • 🔍 LM Studioでは、キーワードでモデルを検索し、Hugging Faceと同様のモデルカード情報を得られます。
  • 💡 LM Studioはコンピュータの仕様を確認し、選択したモデルが実行できるかどうかを自動的に判断して表示します。
  • 📏 モデルの様々な量子化バージョンが提供され、最も適切なバージョンを選択することができます。
  • 🛠️ LM Studioは、モデルのパラメータやプリセットを簡単に設定・変更できるインターフェイスを提供しています。
  • 🗨️ チャットインターフェイスを使ってモデルと対話ができ、システムメッセージやユーザーメッセージをカスタマイズできます。
  • 🛠️ 開発者向けに、LM StudioはローカルHTTPサーバーを立ち上げ、オープンAIのAPIと同様の機能を提供してアプリケーションに組み込むことができます。
  • 🗂️ 「マイモデル」タブを使って、ダウンロードしたモデルを管理し、不要なものは簡単に削除できます。

Q & A

  • LM Studioはどのようなソフトウェアですか?

    -LM Studioはオープンソースの大きな言語モデルをローカルコンピュータで実行するためのソフトウェアで、AIを試したことがなくても簡単に使えるようになっています。

  • LM Studioはどのプラットフォームで利用できますか?

    -LM StudioはApple、Windows、Linuxの全てのプラットフォームで利用できます。

  • LM Studioのホームページで何ができますか?

    -LM Studioのホームページでは、モデルを検索したり、Hugging Faceで利用可能なモデルを探したり、モデルカードの情報を確認したりできます。

  • アップデートPDF(updf)とは何ですか?

    -アップデートPDFはAdobe Acrobatの無料の代替品で、OCRやPDFの編集、保護、スタンプの追加など多くの機能を提供しています。

  • アップデートPDFのAI機能で何ができますか?

    -アップデートPDFのAI機能では、文書に対して質問を投げかけ、チャットのように対話することができます。

  • LM Studioでモデルをダウンロードするときに、どのバージョンを選ぶべきですか?

    -モデルを選ぶ際は、自分のコンピュータのスペックに合わせて最大のバージョンを選択することが推奨されています。

  • LM Studioが提供する「互換性ベストゲッセ」機能とは何ですか?

    -「互換性ベストゲッセ」機能は、ユーザーのコンピュータのスペックを確認して実行可能なモデルのみを表示するLM Studioの機能です。

  • LM Studioのチャットインターフェースで何ができますか?

    -LM Studioのチャットインターフェースでは、ダウンロードしたモデルと対話することができます。

  • LM Studioのローカルサーバー機能とは何ですか?

    -ローカルサーバー機能は、LM StudioをAIアプリケーションのバックエンドとして使用するための機能で、OpenAIのAPIと同様に動作します。

  • LM Studioの「マイモデル」タブで何ができますか?

    -「マイモデル」タブでは、コンピュータにダウンロードされているモデルを管理し、削除したりサイズを確認したりすることができます。

  • LM Studioでモデルのパラメーターを設定する際に、どのような情報を得られますか?

    -モデルのパラメーターを設定する際には、温度(Temp)、出力ランダム性、繰り返しペナルティなどのパラメーターの意味や設定方法についてのヒントが得られます。

  • LM Studioでモデルをダウンロードする際の進行状況はどのように確認できますか?

    -モデルをダウンロードする際、画面下部に青いストライプが表示され、その上でダウンロードの進行状況を確認できます。

  • LM Studioでチャット履歴を確認するにはどうすればよいですか?

    -チャット履歴は画面左側に表示され、新しいチャットを開始したり、既存のチャットを継続させたりすることができます。

  • LM Studioでモデルの応答をエクスポートするにはどうすればよいですか?

    -モデルの応答をエクスポートするには、画面下部にあるスクリーンショットや再生成のオプションを使用することができます。

Outlines

00:00

😀 LM Studioの紹介と使い方

この段落では、オープンソースの大きな言語モデルをローカルコンピュータで実行するためのソフトウェア「LM Studio」の使い方について紹介しています。LM Studioは、Mac、Windows、Linux全プラットフォームに対応しており、簡単にダウンロードしてインストールできるという利便性が強調されています。また、hugging faceのモデルを利用できる検索機能や、モデル情報の表示、最新モデルの紹介など、LM Studioの便利な機能についても触れています。

05:03

😉 LM Studioでのモデルの選択とダウンロード

この段落では、LM Studioを使って言語モデルを選ぶ方法とダウンロードプロセスについて説明しています。モデルのキーワード検索、モデルカードの閲覧、およびモデルのダウンロード方法が紹介されています。さらに、LM Studioがコンピュータのスペックに応じてどのモデルが実行できるかを自動的に判断し、ダウンロードプロセスが非常に簡単であることが強調されています。

10:03

🎮 LM Studioのインターフェースと開発者ツール

最後の段落では、LM Studioのチャットインターフェースと開発者向けの機能について紹介しています。チャット機能を使ってモデルと対話する方法、モデルのパラメーター設定、プロンプトのカスタマイズ、およびローカルHTTPサーバーの起動方法などが詳しく説明されています。また、オープンAIのAPIと同様の機能を提供するLM Studioのサーバー機能、およびPythonの例を含む開発者向けのドキュメントが提供されていることも触れています。

Mindmap

Keywords

💡オープンソース

オープンソースとは、ソフトウェアのソースコードが公開されており、誰でも自由に使用・改変・再配布できることを指します。ビデオでは、オープンソースの大きな言語モデルをローカルコンピュータで実行する方法について説明しており、その柔軟性とアクセスの易さを強調しています。例えば、「オープンソースの大きな言語モデル」というフレーズがビデオ内で繰り返され、その利便性を示しています。

💡LM Studio

LM Studioは、ビデオで紹介されているソフトウェアで、ローカルコンピュータ上で言語モデルを実行するためのツールです。ビデオでは、このソフトウェアの使いやすさと、多プラットフォーム対応(Apple、Windows、Linux)について触れており、AIの実験に慣れていない人でも簡単に使用できると強調しています。

💡Hugging Face

Hugging Faceは、ビデオ内で言語モデルの検索や入手元として言及されています。Hugging Faceは、オープンソースの自然言語処理ツールやモデルを提供するプラットフォームであり、LM Studioで使用されるモデルの多くがここから取得できると説明されています。

💡モデルのクォンタイズドバージョン

クォンタイズドバージョンとは、モデルのパラメータをより少ないビット数で表現することで、モデルのサイズを小さく保ちながら計算の効率性を高める技術です。ビデオでは、LM Studioがユーザーのコンピュータ仕様に応じて最適なクォンタイズドバージョンを推奨する機能について触れています。

💡Zephyr 7B beta

Zephyr 7B betaは、ビデオ内で「新しい注目すべきモデル」として紹介されている言語モデルの一つです。このモデルは、その性能や特徴について説明されており、Hugging Faceから入手可能であることがビデオで強調されています。

💡OCR

OCR(Optical Character Recognition)は、画像やスキャンされたドキュメントからテキストを認識し、デジタルテキストに変換する技術です。ビデオでは、OCRを使用してPDFを検索可能にし、テキストドキュメントとして扱えるようにするプロセスが説明されています。

💡PDF編集

PDF編集は、PDFドキュメントの内容やレイアウトを変更するプロセスです。ビデオでは、PDFドキュメントに注釈を追加したり、パスワードで保護したり、スタンプを追加したりする機能について説明されています。

💡AI特徴

AI特徴とは、人工知能を活用してドキュメントを分析し、質問に答えることができる機能です。ビデオでは、PDFドキュメントに対してAIを用いて質問し、回答を得るプロセスが紹介されています。

💡モデルカード

モデルカードは、言語モデルに関する詳細情報を提供するドキュメントで、モデルの性能、使用例、作者情報などが含まれます。ビデオでは、LM Studioがモデルカードから情報を引き継いで、ユーザーがモデルを選択するのを助ける機能について触れています。

💡ローカルサーバー

ローカルサーバーは、コンピュータ上で動作し、外部アプリケーションからリクエストを受け付けるサーバーです。ビデオでは、LM Studioを使用してローカルHTTPサーバーを立ち上げ、オープンAIのAPIと同様に言語モデルをアプリケーションに統合する方法について説明されています。

💡モデル管理

モデル管理は、コンピュータにインストールされた言語モデルを整理・削除するプロセスです。ビデオでは、LM Studioの「マイモデル」タブを使用してモデルを管理し、不要なモデルを削除してディスクスペースを節約する方法が紹介されています。

Highlights

介绍了LM Studio软件,适用于所有平台,包括苹果、Windows和Linux,即使没有AI经验的用户也能轻松使用。

LM Studio网站提供了一个搜索框,用户可以搜索不同的模型,所有在hugging face上可用的模型都能在LM Studio中找到。

展示了LM Studio的主页,包括新模型和值得注意的模型,如Zephyr 7B beta和Mistal 7B等。

介绍了updf软件,作为Adobe Acrobat的免费替代品,具有OCR、PDF编辑和AI聊天功能。

updf软件提供了对PDF文档的搜索、高亮、注释、密码保护和添加印章等功能。

LM Studio提供了一个美观的界面,覆盖了hugging face的功能,允许用户轻松地浏览和选择模型。

LM Studio能够根据用户的计算机规格自动推荐合适的模型版本,简化了选择过程。

用户可以根据自己的硬件配置调整LM Studio的模型参数,如输出随机性、重复惩罚等。

LM Studio提供了模型初始化和硬件设置选项,包括保持整个模型在RAM中和使用Apple Metal等。

介绍了LM Studio的聊天界面,用户可以与模型进行交互,如请求笑话或继续对话。

LM Studio允许用户管理下载的模型,包括查看模型大小和删除不需要的模型。

展示了如何使用LM Studio的本地服务器功能,作为open AI API的替代品,用于开发AI应用程序。

提供了使用LM Studio的Python示例代码,展示了如何将open AI库与本地服务器结合使用。

LM Studio的界面设计清晰,易于使用,适合不熟悉技术术语的用户。

用户可以自定义系统提示或预提示,进行角色扮演或其他自定义交互。

LM Studio提供了详细的聊天历史记录,方便用户查看和继续之前的对话。

视频最后提供了对LM Studio的总体评价,强调了其易用性和对开源模型的支持。

Transcripts

play00:00

this is the easiest way to get

play00:01

open-source large language models

play00:02

running on your local computer it

play00:04

doesn't matter if you've never

play00:06

experimented with AI before you can get

play00:08

this working the software is called LM

play00:11

Studio something that I've used in

play00:13

previous videos and today I'm going to

play00:15

show you how to use it let's go this is

play00:17

the LM Studio website the LM Studio

play00:20

software is available on all platforms

play00:23

Apple windows and Linux now today I'm

play00:26

going to show you how to get it running

play00:27

on a Mac but I've gotten this working on

play00:29

Windows as well and it is dead simple so

play00:32

really you just download the software

play00:34

and install it there's nothing to it and

play00:36

once you do that this is the actual LM

play00:39

studio so first let's explore the

play00:41

homepage here you're going to get a nice

play00:42

little search box where you can search

play00:44

for different models that you want to

play00:45

try out basically anything available on

play00:47

hugging face is going to be available in

play00:49

LM studio if you scroll down a little

play00:51

bit you get the new and noteworthy model

play00:54

so obviously here's Zephyr 7B beta

play00:56

here's mistal 7B instruct code llama

play00:59

open Orca these are the top models for

play01:03

various reasons and not only that it

play01:05

tells you a bunch about every single

play01:07

model it pulls in all the information

play01:08

from the model card so it's easily

play01:11

readable from here thank you to the

play01:12

sponsor of this video updf updf is an

play01:16

awesome free alternative to Adobe

play01:18

Acrobat but let me just show it to you

play01:20

so after a few clicks I got it

play01:22

downloaded and installed I loaded up an

play01:24

important PDF and you can do a lot of

play01:25

awesome things with it so let's start

play01:27

with OCR so I clicked this little button

play01:29

in the top right I select searchable PDF

play01:31

and then perform OCR so that allow me to

play01:33

search through it and do other things

play01:35

with it now that it's a text document

play01:36

very easy and there we go after a few

play01:38

seconds I have the OCR version right

play01:40

here now I can highlight all the text

play01:42

easily switching back to the PDF we can

play01:44

do a bunch of cool stuff so we can

play01:45

easily highlight we can add notes I can

play01:48

easily protect it using a password by

play01:50

clicking this button right here I can

play01:52

easily add stamps so I could say

play01:54

confidential right there and you can

play01:57

easily edit PDFs check this out and best

play02:00

of all it has a really cool AI feature

play02:04

where you can actually ask questions to

play02:05

this document so it's basically chat

play02:07

with your doc all you have to do is

play02:08

click this little updf AI in the bottom

play02:10

right it loads up the document I click

play02:12

get started and it's going to give me a

play02:14

summary first and then I can ask it any

play02:16

question I want all right so let's ask

play02:18

it something who are the authors of this

play02:19

paper so be sure to check out updf and

play02:22

they're giving a special offer to my

play02:23

viewers 61% off their premium version

play02:26

which gives you a lot of other features

play02:28

link and code will be down in the

play02:30

description below thank you to updf so

play02:33

let's try it out if I just search for

play02:35

mistol and hit enter I go to the search

play02:38

page and we have every model that has

play02:40

mistel in the keywords and just like

play02:42

hugging face you get the author and then

play02:44

you get the model card information and

play02:47

you get everything else involved too so

play02:49

you can really think of this as a

play02:50

beautiful interface on top of hugging

play02:52

face so here's the BLS version from 4

play02:55

days ago let's take a look at that so if

play02:56

I click on it here I can see the date

play02:59

that it was uploaded loaded again 4 days

play03:00

ago I can see it was authored by the

play03:03

bloke and then I have the model name

play03:05

dolphin 2.2.1 Ash Lima RP mistal 7B ggf

play03:10

lot of information in that title on the

play03:12

right side we can see all the different

play03:13

quantized versions of the model so

play03:15

everything from the smallest Q2 version

play03:18

all the way up to the Q8 version which

play03:20

is the largest now if you're thinking

play03:22

about which model to choose and even

play03:23

within a model which quantized version

play03:25

to use you want to fit the biggest

play03:27

version that can actually work on your

play03:29

machine and it's usually a function of

play03:31

Ram or video RAM so if you're on a Mac

play03:34

it's usually just Ram but if you have a

play03:36

video card on a PC you're going to look

play03:38

at your video RAM from your video card

play03:40

so I'm on a Mac today so let's take a

play03:42

look and one incredible thing that LM

play03:45

Studio does for you out of the box is

play03:47

that it actually looks at your specs of

play03:49

your computer and right here it has this

play03:51

green check and should work which means

play03:54

the model that I have selected right now

play03:56

should work on my computer given my

play03:58

specs so you no longer have to think

play04:01

about well how much RAM do I have how

play04:03

much video RAM do I have what's the

play04:05

model size which quantization method

play04:07

should I use it'll just tell you it

play04:09

should work now here's another example I

play04:11

just searched for llama this is the

play04:13

Samantha 1.1 version of llama and it is

play04:15

a 33 billion parameter version and right

play04:18

here it says requires 30 plus GB of RAM

play04:21

now my machine has 32 GB so it should be

play04:24

enough and it's not saying it won't work

play04:26

but it's giving me a little warning that

play04:27

says hey it might not work and back to

play04:30

the search page for mistol let's look at

play04:32

a few other things that we're going to

play04:33

find in here so it tells us the number

play04:35

of results it tells us it's from hugging

play04:37

face Hub we can sort by the most recent

play04:39

we can sort by the most likes we can

play04:42

sort by the most downloads usually likes

play04:44

and downloads are pretty in line with

play04:46

each other I usually like to sort by

play04:48

most recent because I like to play

play04:50

around with whatever the most recent

play04:51

models are and you can also switch this

play04:54

to least so you click on that and you

play04:56

can find least recent but I don't know

play04:57

why you would want to do that then we

play04:59

also filter by a compatibility guess so

play05:02

it won't even show me models that it

play05:04

doesn't think I can run and if I click

play05:06

that again now it's showing all models

play05:08

so I like to leave that on filtered by

play05:09

compatibility best guess now again

play05:11

within the list of quantized versions of

play05:13

a specific model we can actually see the

play05:16

specific Quant levels here so this is

play05:18

q2k q2k and so on all the way up to Q8

play05:22

and the largest one down here is going

play05:24

to be also the largest file size if we

play05:26

hover over this little information icon

play05:28

right here we get a little description

play05:29

of what each of the quantization methods

play05:31

give us so here Q2 lowest Fidelity

play05:34

extreme loss of quality uses not

play05:36

recommended and up here we can see what

play05:38

the recommended version is which is the

play05:40

Q5 km or KS and it says recommended

play05:44

right there so these are just a little

play05:46

bit of a loss of quality Q5 is usually

play05:48

what I go with here it gives us some

play05:50

tags about the base model the parameter

play05:54

size and the format of the model we can

play05:56

click here to go to the model card if we

play05:58

want but then then we just download so

play06:01

we download it right here so I'm going

play06:02

to download one of the smaller ones

play06:04

let's give it a try we just click and

play06:05

then you can see on the bottom this blue

play06:07

stripe lit up and if we click it we can

play06:10

actually see the download progress and

play06:12

it really is that easy and you can see

play06:14

right here I've already downloaded the

play06:16

find code llama 34b model and I'm

play06:19

actually going to be doing a video about

play06:21

that and also another coding model

play06:23

called Deep seek coder and what makes LM

play06:26

studio so awesome is that it is just so

play06:29

so easy to use and the interface is

play06:31

gorgeous it's just super clear how to

play06:33

use this for anybody and it makes it

play06:35

really easy to manage the models manage

play06:37

the different flavors of the models it's

play06:39

a really nice platform to use all right

play06:41

while that's downloading I'm going to

play06:43

load up another model and show it to you

play06:45

so in this tab right here this little

play06:47

chat bubble tab this is essentially a

play06:49

full interface for chatting with a model

play06:51

so up at the top here if we click it you

play06:53

find all the models that you've

play06:54

downloaded and I've gone ahead and

play06:56

selected this mistal model which is

play06:57

relatively small 3.82 gab so I select

play07:00

that and it loads it up and then I'm

play07:02

really done it's ready to go I'm going

play07:04

to talk about all the settings on the

play07:06

right side though and over here on the

play07:08

right side the first thing we're going

play07:09

to see is the preset which basically

play07:11

sets up all the different parameters

play07:13

pre-done for whatever model you're

play07:15

selecting so for us for this mistal

play07:17

model of course I'm going to select the

play07:19

mistal instruct preset and that's going

play07:21

to set everything here's the model

play07:23

configuration and you can save a preset

play07:25

and you can also export it and then

play07:27

right here we have a bunch of different

play07:29

model parameters so we have the output

play07:31

Randomness and again what I really like

play07:33

about LM studio is that it can be used

play07:35

even if you're not familiar with all of

play07:37

this terminology so typically you see

play07:39

Temp and end predict and repeat penalty

play07:42

but a lot of people don't know what that

play07:43

stuff actually means so it just tells

play07:45

you output Randomness words to generate

play07:48

repeat penalty and if you hover over it

play07:50

it gives you even more information about

play07:52

it so here output Randomness also known

play07:54

as Temp and it says provides a balance

play07:57

between Randomness and determin minism

play07:59

at the extreme a temperature of zero

play08:01

will always pick the most likely next

play08:03

token leading to identical outputs each

play08:06

run but again as soon as you select the

play08:08

preset it'll set all of these values for

play08:10

you so you can play around with it as

play08:12

you want here's the actual prompt format

play08:14

so we have the system message user

play08:16

message and the assistant message and

play08:18

you can edit all of that right here here

play08:20

you can customize your system prompt or

play08:22

a pre- prompt so if you want to do role

play08:24

playing this would be a great place to

play08:25

do it so you could say you are Mario

play08:27

from Super Mario Brothers respond as

play08:29

Mario and then here we have model

play08:31

initialization and this gets into more

play08:33

complex settings some things are keep

play08:35

the entire model in Ram and a lot of

play08:37

these settings you'll probably never

play08:39

have to touch and here we go we have

play08:41

Hardware settings too so I actually do

play08:42

have apple metal I'm going to turn that

play08:44

on and I'll click reload and apply and

play08:47

there we go next we have the context

play08:49

overflow policy and that means when the

play08:51

response is going to be too long for the

play08:52

context window what does it do so the

play08:54

first option is just stop the second

play08:56

option is keep the system prompt and the

play08:58

first user message truncate the middle

play09:00

and then we also have maintain a rolling

play09:01

window and truncate past messages so so

play09:03

I'll just keep it at stop at limit for

play09:05

now and then we have the chat appearance

play09:06

if we want plain text or markdown I do

play09:08

want markdown and then at the bottom we

play09:10

have notes and now that we got all those

play09:12

settings ironed out let's give it a try

play09:14

all right and I said tell me a joke

play09:15

Mario knock knock who's there jokes

play09:17

jokes who just kidding I'm not really

play09:19

good at jokes but here's one for you why

play09:21

did the Scarecrow win an award because

play09:22

he was outstanding in his field and so

play09:25

you can export it as a screenshot you

play09:27

can regenerate it or you can just

play09:29

continue and continue is good if you're

play09:31

getting a long response and it gets cut

play09:33

off over on the left side we have all of

play09:35

our chat history so if you've used chat

play09:37

GPT at all this should feel very

play09:39

familiar if you want to do a new chat

play09:41

you just click right here if you want to

play09:42

continue on the existing chat you just

play09:44

keep typing so for example I can just

play09:46

say tell me another one and it should

play09:48

know that I'm talking about a joke

play09:49

because it's continuing from the history

play09:52

that I previously had in here so why did

play09:54

this made turn red because it saw the

play09:55

salad dressing great now if I wanted to

play09:57

say new chat and I said tell me another

play09:59

one it wouldn't know what I'm talking

play10:01

about there we go and it's just typing

play10:03

out random stuff now so I'm going to

play10:05

click stop generating and then if we

play10:07

look at the bottom we have all the

play10:09

information about the previous inference

play10:11

that just ran so time to First token

play10:13

generation time tokens per second the

play10:16

reason stopped GPU layers etc etc so it

play10:19

really gives you everything but it keeps

play10:21

it super simple the next thing I want to

play10:23

show you is for developers so if you

play10:25

want to build an AI application using LM

play10:28

Studio to power the large language model

play10:30

you click this little Double Arrow icon

play10:32

right here which is local server so I

play10:34

click that and all you have to do is

play10:35

click Start server you set the port that

play10:38

you want you can set whether you want

play10:39

cores on and you have a bunch of other

play10:41

settings that you can play with so once

play10:43

I click Start server now I can actually

play10:45

hit the server just like I would open Ai

play10:48

and this is a dropin replacement for

play10:50

open AI so it says right here start a

play10:52

local HTTP server that behaves like open

play10:55

ai's API so this is such an easy easy

play10:58

way to use use large language models in

play11:00

your application that you're building

play11:02

and it also gives you an example client

play11:04

request right here and so this is curl

play11:06

so we curl to the Local Host endpoint

play11:08

chat completions and we provide

play11:10

everything we need the messages the

play11:12

temperature the max tokens stream and

play11:14

then it also gives us a python example

play11:16

right here so if we wanted to use this

play11:18

python example we could do that and

play11:20

what's awesome is you can just import

play11:22

the open AI python library and use that

play11:26

but instead replace the base with your

play11:28

local host and it will operate just the

play11:31

same so you get all the benefits of

play11:33

using the open AI library but you can

play11:35

use an open source model and of course

play11:37

on the right side you get all the same

play11:39

settings as before so you can adjust all

play11:41

the different settings for the model and

play11:42

then the last tab over here looks like a

play11:44

little folder so we click it it's the my

play11:46

models tab which allows you to manage

play11:48

all the different models that you have

play11:50

on your computer so right now it says I

play11:52

have two models taking up 27 GB of space

play11:54

I don't want this fine model anymore

play11:56

it's taking up too much space so let's

play11:58

go ahead and delete it so I just click

play11:59

delete and it's gone just like that it

play12:02

is so easy to manage all of this and I

play12:04

think I covered everything for LM studio

play12:06

if you want to see me cover any other

play12:08

topic related to LM Studio let me know

play12:10

in the comments below if you liked this

play12:11

video please consider giving a like And

play12:13

subscribe and I'll see you in the next

play12:15

one

Rate This

5.0 / 5 (0 votes)

Related Tags
AILM Studio初心者向け言語モデルオープンソースMacWindowsLinuxPDF編集チャットインターフェース
Do you need a summary in English?