一键部署Google开源大模型Gemma,性能远超Mistral、LLama2 | 本地大模型部署,ollama助您轻松完成!

AI学长小林
27 Feb 202419:47

Summary

TLDR在这期AI学长频道视频中,小林介绍了谷歌发布的Gemini 1.5 pro和其它开源大模型如Gemma、llama和mixstral。他深入探讨了这些模型的性能,特别是Gemma的两个版本:20亿参数和70亿参数。视频中,小林展示了如何在本地一键安装Gemma,并与llama、mixstral等模型进行了比较。他还分享了几个本地使用大模型的场景,如Web UI搭建、翻译插件和终端指令对话。此外,小林还讨论了ollama这个一键安装工具的功能和使用方法。最后,他提供了有关ChatGPT实战指南课程的信息,并邀请观众订阅频道支持。

Takeaways

  • 😀 Google发布新模型Gemma,参数覆盖20亿到70亿,性能堪比商业模型
  • 🤩 Gemma通过基准测试MMLU,70亿参数版本达到64.3%成绩
  • 🧐 ollama工具可以一键安装Gemma等开源大模型到本地
  • 👌 本地安装Gemma后,可通过Web UI、翻译插件等调用
  • 🤖 安装chatbot Web UI,通过docker一行代码部署
  • 📱 OpenAI Translator插件也可对接Gemma本地API
  • 🔧 ollama可便捷管理已安装模型,一键添加删除
  • ☁️ 参数越高,显存需求越大,70亿参数需8GB显存
  • ✨ Gemma响应迅速,免费无限制使用,场景丰富
  • 💯 可结合Dify、Chatbox等工具,充分发挥本地模型能力

Q & A

  • Gemma的主要特点和优势是什么?

    -Gemma是一个轻量化且先进的大语言模型,主要特点是语言理解、语言生成、信息检索、对话和机器学习。优势是使用简单,可以在本地运行,速度快,没有限制。

  • Gemma有哪些版本及参数规模?

    -Gemma有20亿参数、70亿参数和330亿参数三个版本。参数越大,性能越强。

  • 想运行大参数版本的Gemma需要什么硬件配置?

    -运行70亿参数以上版本的Gemma需要电脑显存大于8GB,130亿参数版本需要显存大于16GB,330亿参数版本需要显存大于32GB。

  • 如何快速在本地安装Gemma?

    -可以使用开源工具Ollama一键安装。只需在终端中输入“ollama run gemma:版本号”即可自动下载安装指定版本的Gemma。

  • 安装完Gemma后有哪些使用场景?

    -可通过Web UI、OpenAI Translator插件、终端指令等与Gemma交互。还可以连接Chatbot、Chatbox等桌面客户端使用。

  • 如何快速搭建一个Web UI与本地Gemma交互?

    -使用Docker一键安装Chatbot Ollama后,访问指定端口即可。代码为docker run -p 3000:3000 ollama/chatbot-ollama

  • OpenAI Translator插件如何连接本地模型?

    -在插件设置中选择Ollama作为服务商,地址填localhost,端口默认11434,然后选择已安装的本地模型即可。

  • 本地安装的Gemma如何卸载?

    -可以在终端中运行“ollama rm gemma:版本号”移除指定版本的本地Gemma模型。

  • Gemma和LLAMA-2相比哪个性能更强?

    -70亿参数的Gemma在MMLU基准测试上得分高于130亿参数的LLAMA-2,性能更强。

  • 本地安装大模型的主要好处是什么?

    -好处是使用免费无限制,不需要联网,速度快,可以自定义连接多种应用,非常方便。

Outlines

00:00

😀介绍Gemma和其他开源大模型

介绍Gemma是谷歌最新的开源大模型,参数较少但能力很强。与LLAMA-2开源大模型进行基准测试对比,性能超过了LLAMA-2。还介绍了其他开源大模型ollama、mixstral等。

05:00

😊演示Gemma的使用场景

演示了Gemma在本地的三个使用场景:1) 搭建Web UI与Gemma交互;2) 翻译插件OpenAI translator接入Gemma提供翻译;3) 在终端与Gemma进行问答。这些场景都可以免费无限制使用Gemma。

10:01

👨‍💻演示一键安装Gemma

使用开源工具ollama可以一键快速安装Gemma等开源大模型。操作简单,选择模型和参数后直接运行命令,就可以下载安装好模型并与其交互。

15:02

💡演示安装桌面客户端

演示使用Docker一键安装桌面客户端chatbot,与本地Gemma交互。类似可以安装其他客户端或插件,如OpenAI translator,都可以连接本地大模型使用。

Mindmap

Keywords

💡Gemini

Gemini是谷歌最近发布的新一代语言模型,在模型规模和性能上都超过了GPT-4。它分为开源版本Gemma和商业版本,是与AI模型Sora竞争的重要武器。视频提到Gemini 1.5 pro支持1亿token,测试性能很强。

💡Sora

Sora是最近山姆奥特曼公司公布的新视频AI模型,在发布后立即吸引了广泛关注,性能很强。视频表示它的声势完全盖过了Gemini Pro 1.5,逼急了谷歌不得不推出更强大的组合拳。

💡Gemma

Gemma是谷歌开源的新语言模型,用于占领开源市场,与商业版本的Gemini形成双管齐下之势,视频详细介绍了它的规模、测试性能以及本地安装使用方法。

💡MMLU

MMLU是评测语言模型性能的重要基准之一,视频列出了Gemma和其他模型如LLAMA在MMLU基准测试上的具体分数,可以看出Gemma性能很强。

💡ollama

ollama是一个用于在本地环境快速安装和运行各种开源AI模型的工具,视频演示了如何用ollama一键安装Gemma等模型,并与其交互。

💡Web UI

视频提到可以通过安装Web UI,在本地搭建简单的网页界面与安装好的AI模型交互。演示了如何快速通过Docker安装Chatbot Ollama这一界面。

💡OpenAI Translator

OpenAI Translator是翻译插件,视频展示了它也可以对接本地AI模型,比如用语言模型Gemma提供实时翻译,无需联网。

💡终端指令

视频中还演示了在终端指令下与本地安装的Gemma语言模型进行交互的方法,与Web UI下的体验类似。

💡套壳应用

所谓套壳应用是指对接到本地AI模型,并提供交互界面供用户使用的各种桌面客户端工具,视频列出了许多此类应用。

💡部署

视频详细演示了如何在本地系统部署AI模型以及相关的交互应用,包括模型部署、UI界面部署、集成翻译插件等,使模型可以无缝应用。

Highlights

谷歌发布了新一代开源大模型Gemma

Gemma在能力评测上超过了GPT-4

Gemma是一个轻量化且性能强大的开源大模型

Gemma有20亿和70亿两个参数版本

70亿参数的Gemma在能力上超过了LLAMA-2

Gemma可以进行语言理解、语言生成等多种任务

ollama可以一键安装主流开源大模型

Gemma安装只需要一行命令

本地安装Gemma后可以通过Web UI使用

安装好Gemma后可以集成到翻译插件中

安装好Gemma后可以在终端中与其聊天

Gemma使用场景非常丰富

Docker一键安装Web UI界面

翻译插件可切换到本地模型

更多客户应用可连接本地模型

Transcripts

play00:00

你好

play00:00

欢迎来到AI学长频道

play00:02

我是小林

play00:03

谷歌其实年后一直没有闲着

play00:05

先是发布了Gemini 1.5 pro

play00:07

支持100万的Token

play00:08

在能力评测上和Token的数量上

play00:10

都超过了GPT-4

play00:12

本来想着可以扬眉吐气一番

play00:14

可是没想到山姆奥特曼居然留了一手

play00:16

反手就公布了最新的

play00:17

文生视频大模型Sora

play00:20

在声势上完全盖住了Gemini Pro 1.5

play00:22

这一下

play00:23

逼急了谷歌

play00:24

打出了最强的组合拳

play00:26

开源和闭源同步进行

play00:28

左手手握闭源的gemini

play00:29

和GPT-4抗衡

play00:30

右手开源新的大模型Gemma

play00:32

抢占开源市场

play00:34

所以这期视频

play00:35

我们就一起来体验一下Gemma

play00:37

给大家演示

play00:38

如何在本地一键安装Gemma

play00:39

以及其他的一些开源大模型

play00:41

比如说llama、mixstral等等

play00:43

另外还会给大家分享几个

play00:45

大模型在本地的使用场景

play00:47

怎么样在各种应用当中

play00:48

调用已经安装好的本地大模型

play00:51

让你可以免费畅玩开源的大模型

play00:53

如果你喜欢今天这个话题

play00:55

麻烦动动你的小手赞一赞

play00:57

这个就是Gemma的官方介绍界面

play01:00

然后在这个界面当中

play01:01

有关于Gemma的一个详细介绍

play01:04

它的使用指南

play01:05

然后它的一些基准测试

play01:07

技术文档在这里面都可以看到

play01:09

我们可以主要看一下基准测试

play01:12

也就是MMLU的测试

play01:14

这边可以看到

play01:15

Gemma的话

play01:16

它是分为两个版本

play01:17

一个是20亿参数版本

play01:19

一个是70亿参数版本

play01:21

那对应的话

play01:21

像这个Meta的LLAMA-2

play01:23

它也有两个版本

play01:24

一个是70亿参数的版本

play01:26

然后第二个的话

play01:27

是这个130亿参数的版本

play01:30

我们在MMLU的

play01:31

这个基准测试当中

play01:32

可以看到

play01:33

目前Gemma70亿参数的版本

play01:37

基准测试

play01:37

是已经达到了64.3%

play01:41

那对应的话

play01:42

可以跟LLAMA-2的130亿参数

play01:45

这个开源大模型去做一下对比

play01:47

他的能力

play01:47

其实已经是超过

play01:49

LLAMA-2的版本

play01:50

所以整体来说

play01:51

Gemma他是一个轻量化

play01:53

并且是非常先进

play01:54

能力非常不错的

play01:56

一个本地可以运行的开源大模型

play01:59

OK

play01:59

然后像其他的一些介绍

play02:01

这里的话我就不去做详细的讲解

play02:03

如果是说你对它的原理

play02:05

对它的细节更感兴趣的小伙伴

play02:07

可以自己到这个官网上来了解一下

play02:10

接下来

play02:10

我就来给大家演示一下

play02:12

Gemma在我本地安装完的

play02:13

一个使用效果

play02:15

这里

play02:15

我是用了3个场景

play02:17

第一个场景是

play02:19

我自己在本地搭建了这样一套Web UI

play02:22

搭建过程也非常简单

play02:24

待会在演示过程当中

play02:26

也会教大家

play02:27

怎么样去搭建这样一套Web UI

play02:29

然后第二个场景

play02:31

像我们先前在用的

play02:32

OpenAI translator

play02:34

这个翻译插件

play02:35

它同样的话

play02:36

也是可以对接到我们本地的

play02:38

这个大模型gemma

play02:40

那么后续的话

play02:41

我在预览任何网页

play02:43

可以直接基于我这个Gemma

play02:45

这个API接口

play02:46

让他来帮我进行翻译的功能

play02:48

然后第三个场景

play02:49

就是当我们把Gemma

play02:52

安装完成以后

play02:53

也可以在终端指令

play02:55

或者是Windows的power shell里面

play02:56

直接去跟它进行一个对话

play02:58

在这三个场景当中

play03:00

都是可以使用的

play03:01

OK

play03:01

我们先来到第一个

play03:03

我打开这个chatbot

play03:05

然后这个界面

play03:07

模型是选择gamma-2b

play03:09

然后它的大小

play03:10

是1.68GB

play03:12

非常的轻量化

play03:13

这里的话

play03:14

会要求我们设置一些系统提示词

play03:17

下面的话还有一个temp的参数

play03:19

这个temp参数的话就是

play03:21

代表它可以控制你

play03:23

本地达模型的发散性

play03:25

你的这个值越高

play03:26

那么它生成的答案就越随机

play03:30

基本上和ChatGPT可以控制的参数

play03:32

是一样的

play03:33

首先

play03:34

我们让他来介绍一下自己

play03:36

这个答案已经出来了

play03:37

他回答我是一个大语言模型

play03:39

是由谷歌团队开发的

play03:41

主要特点呢是可以

play03:43

语言理解、语言生成

play03:45

信息检索、对话、机器学习

play03:47

它的优势

play03:48

用途有哪些

play03:49

还可以做什么

play03:50

然后接下来

play03:52

我是要求他

play03:53

去写一首关于春天的诗词

play03:55

写一首关于冬天的诗词

play03:57

可以看到它都已经是正常完成了

play04:00

并且如果说

play04:00

你的电脑配置不错的前提下

play04:02

那么这个Gemma

play04:03

它的响应速度非常快

play04:05

所以在本地使用

play04:06

它是有一个速度优势的

play04:08

那么后续的话

play04:09

我们就可以在这套Web UI当中

play04:11

自由的、免费的

play04:12

无限制的去使用gemma

play04:15

或者说其他的一些开源大语言模型

play04:17

那第二个使用场景的话

play04:18

就是OpenAI translator插件

play04:21

现在

play04:21

我本地也已经安装好这个插件了

play04:24

并且这里可以看到

play04:26

他的翻译引擎是gemma 2B

play04:28

我们可以这边可以看一下

play04:30

他是调用了我本地的模型

play04:32

这个是API URL地址

play04:34

地址这边是我所选择的模型

play04:37

gemma 2B

play04:38

比如说我在预览Twitter

play04:40

然后随机看到这样一段英文

play04:42

那么我就可以调用

play04:43

我的这个本地大模型

play04:45

对它进行一个翻译

play04:46

可以看到结果

play04:48

已经出来了

play04:48

非常非常的快

play04:50

那么当我在本地

play04:52

用gemma 2B作为

play04:54

翻译引擎的情况下

play04:55

后续我可以不用联网的情况下

play04:57

可以对任意网页进行这样一些翻译

play05:00

然后第三个场景的话

play05:01

就是在终端当中

play05:03

因为我本地已经安装完

play05:06

Gemma 20亿参数的版本

play05:08

同样的话

play05:08

这里我也可以跟他进行对话

play05:10

比如说我让他

play05:11

把这段话翻译成英文

play05:13

Gemma真不错

play05:15

这个结果已经出来了

play05:17

他已经把它翻译成英文了

play05:18

同样的话

play05:19

在这个终端当中

play05:20

也是以这样一问一答的形式去对话

play05:23

其实跟我们在

play05:25

Web UI聊天对话窗口里面的体验

play05:27

其实是差不多的

play05:28

当然除了刚才

play05:29

我所演示的这3个应用场景以外

play05:32

其实还有很多

play05:33

可以调用本地大模型的工具

play05:36

这个待会在我演示部署的过程当中

play05:38

会给大家去做一个详细的讲解

play05:40

比如像我们之前介绍过的这个Dify

play05:43

还有Chatbox等等

play05:45

诸如此类工具

play05:46

它都是支持调用本地大模型接口的

play05:50

所以就是安装完本地大模型

play05:52

它的使用场景也是非常非常丰富的

play05:55

最主要的是不需要花钱

play05:57

不需要联网

play05:58

不需要节点

play05:59

没有什么障碍和限制

play06:01

可以很畅快的使用

play06:03

接下来我们来讲一下安装

play06:05

这里我用到的是一个开源工具

play06:07

叫ollama

play06:09

ollama的作用

play06:10

它是可以在我们本地

play06:12

非常快捷

play06:13

非常方便的

play06:14

一键安装目前主流的开源大模型

play06:18

在这里

play06:18

我们也可以看到

play06:19

它支持这么多开源的大模型

play06:21

他的参数是多少

play06:22

然后他的大小是多少

play06:24

在这里都有一个显示

play06:25

也就意味着这些模型

play06:27

我们都是可以通过ollama这款工具

play06:29

一键在我们本地安装成功

play06:31

并且可以运行和他对话

play06:33

然后除了这个以外

play06:35

我们可以拉到这个项目的底部

play06:37

这也就是我刚才所说的

play06:39

就是ollama这个项目

play06:40

他给我们非常贴心的

play06:41

整合了很多

play06:43

可以结合本地大模型应用的工具

play06:46

比如说这样一些套壳应用

play06:47

一些插件

play06:48

这里给我们收集了非常多的应用

play06:51

这个是基于桌面客户端的

play06:53

刚才我所演示的chatbot

play06:55

那就是这个项目

play06:57

除此以外

play06:57

还有很多其他项目

play06:59

像chatbox

play07:00

也是我们经常用的

play07:02

这个的话

play07:02

大家就可以结合

play07:03

自己的使用习惯

play07:05

和使用经验

play07:06

去下载你想要的客户端

play07:08

那么这个客户端

play07:09

就可以跟你本地所部署好的

play07:11

大语言模型

play07:13

进行一个连接

play07:14

那么后面您在套壳应用里面

play07:15

去使用这个本地大模型就可以了

play07:18

接下来我们来演示一下安装

play07:20

我们直接来到

play07:22

ollama的官网

play07:23

我们所要做的第一步事情

play07:24

就是去下载一个

play07:26

ollama的客户端

play07:28

这边选择你对应的电脑型号

play07:30

然后把ollama的客户端

play07:32

给我们下载到本地

play07:34

当你下载完成以后

play07:36

其实你是可以在你的桌面

play07:38

看到ollama的客户端

play07:40

那么这里的话

play07:40

你也可以打开终端

play07:42

或者说是Windows的power shell

play07:44

我们去输入这行代码

play07:47

来验证一下

play07:47

有没有安装成功

play07:49

可以看到

play07:49

我这边是安装成功了

play07:51

是1.27版本

play07:53

这行指定的代码是ollama --version

play07:55

就是查看它的版本

play07:57

然后我们来到右上角的models

play08:00

这边的话他是把所有的

play08:02

支持一键安装的开源大模型

play08:05

做了一个罗列

play08:06

你想要安装哪个开源大模型

play08:08

那么你就进去哪个开源大模型

play08:11

同样的话

play08:11

我们以Gemma为例

play08:13

包括LLAMA2

play08:14

其实也是一样的

play08:15

我们点击Gemma

play08:17

然后他右边

play08:18

这边是有一个选项栏tags

play08:21

给他点击一下

play08:22

他会把Gemma所有的

play08:24

大模型给我们做一个罗列

play08:26

在每一个选项栏下面

play08:28

它都会有一个对应的大小

play08:30

比如说这个2b版本

play08:31

它的大小的话就是1.7GB

play08:33

然后70亿参数的

play08:36

它的大小的话就是5.2GB

play08:39

这个你可以结合自己的电脑配置

play08:41

以及你的内存大小

play08:42

以及你想达到的一个使用效果

play08:45

去下载相应的一个版本

play08:46

当然版本号肯定是越高越好

play08:49

他的能力就越强

play08:51

在这里

play08:52

它是有这样一个规则

play08:54

如果是说你

play08:55

要运行70亿参数以上的

play08:57

那么你的电脑显存

play08:58

也就是显卡的内存

play09:00

至少是要大于8GB的

play09:01

如果是130亿参数的

play09:03

那么你电脑显存是要大于16GB的

play09:06

如果是说这个330亿参数的

play09:08

你的电脑显存是要大于32GB的

play09:11

这个大家要稍微注意一下

play09:14

然后我们回到

play09:15

Gemma的大模型界面

play09:17

这里的话我就以2B模型为示例

play09:20

给大家演示一下

play09:21

我们只要复制右边这行代码

play09:24

ollama run gemma:2b

play09:26

把这行代码给它复制一下就可以了

play09:29

然后这里的话

play09:30

其实还有一个小小的注意事项

play09:32

如果是说你是Windows电脑

play09:34

那么它默认

play09:35

是帮你把这个大模型

play09:37

下载到你的c盘里面

play09:39

这里的话

play09:40

就要注意一下

play09:40

你的c盘空间够不够

play09:43

如果是说你要下载非常大的模型

play09:44

那么c盘可能放不下

play09:46

另外的话

play09:46

其实你也可以去修改一下环境变量

play09:50

把环境变量修改完成之后

play09:52

比如说让他去下载到d盘

play09:53

通过这种方式也是可以的

play09:56

我们现在回到终端

play09:58

现在我的Ollama已经是安装成功的

play10:01

在安装之前

play10:02

你还是要把你下载好的客户端

play10:04

给它打开一下

play10:05

如果是说没有打开客户端的话

play10:07

其实你也可以运行一下这行指令

play10:10

就是Ollama serve

play10:12

这样运行一下

play10:14

对应的话

play10:14

他也是会帮你把客户端打开的

play10:18

接下来

play10:18

我们就可以直接安装了

play10:21

就是把刚才复制好的gemma 2B参数

play10:23

这个版本

play10:24

给它运行一下

play10:26

可以看到它已经是运行成功了

play10:28

因为我先前是已经安装过的

play10:31

所以它会直接跳转到对话界面

play10:34

在这里我已经可以发送消息了

play10:35

如果是说

play10:36

你是首次安装这个开源大模型

play10:39

它会有一个下载的过程

play10:41

下载完成以后

play10:42

它也会一键自动安装

play10:44

不需要我们做任何操作

play10:45

完成之后

play10:46

它也会进入到这样一个对话界面

play10:48

在这里

play10:49

我们就可以

play10:50

进行对话了

play10:51

比如说我让他介绍一下自己

play10:53

可以看到他已经回复了

play10:55

这个也是信息流的形式

play10:57

那么我们在这个终端当中

play10:59

就可以以这样一问一答

play11:00

一问一答的形式

play11:01

跟他继续进行自由的对话

play11:03

这个就是关于Gemma的安装

play11:05

如果是说

play11:06

你要安装其他的参数版本

play11:08

也是一样的

play11:09

复制对应的这个代码

play11:11

然后在这里run一下

play11:13

它就会自动下载

play11:14

自动安装

play11:15

包括像其他的开源大模型

play11:18

llama、mistral等等

play11:20

都是一样的安装方式

play11:22

假设是说现在我们不用了

play11:24

那么我们可以按一下Ctrl+d

play11:27

它就会退出这个对话的窗口

play11:30

回到正常的指令操作

play11:32

在这里

play11:32

我们也可以通过这几个指令

play11:34

来管理你本地的大模型

play11:36

比如说首先我们可以通过

play11:39

ollama list

play11:40

去查看你本地

play11:41

所安装的大语言模型

play11:44

这里的话

play11:44

我只安装了gemma 2B版本

play11:47

假设说后续你是要把

play11:49

你本地不用的一些

play11:51

大模型给它移除

play11:53

同样的话也是可以

play11:55

用这个指令操作的

play11:56

比如说我们运行ollama rm

play11:59

然后对应的一个版本

play12:01

敲一下回车键

play12:03

那么它就会帮你在本地

play12:05

把这个大模型给它移除

play12:07

接下来

play12:07

我们来演示一下

play12:09

怎么样去安装

play12:10

跟本地大模型

play12:12

可以进行连通和互动的这些

play12:14

桌面端客户应用

play12:16

或者说一些第三方的插件

play12:18

我们这里的话还是

play12:20

以这个chatbot UI为例

play12:23

这些其实都是一样的安装原理

play12:26

你根据自己的需要去做选择就可以

play12:28

这里的话我就以它为例

play12:30

我们来安装一下webui界面

play12:34

它最终结果

play12:35

就是可以看到这样一个界面

play12:36

我们来到Chatbot Ollama

play12:40

这样的一个开源项目

play12:41

它整个安装过程

play12:42

其实也非常非常的简单

play12:45

它提供了两种方式

play12:47

第一种的话

play12:47

是通过docker方式去安装

play12:49

然后第二种方的话

play12:50

是通过代码指令的方式去安装

play12:53

第二种方式的话稍微会麻烦一点点

play12:56

就是首先你要

play12:57

在你的电脑上安装好Git

play12:59

其次的话

play13:00

你还要在电脑上安装node.js

play13:03

如果是说

play13:04

你要选择代码指定安装的方式

play13:06

像这个Git指令

play13:07

以及node.jS指令

play13:09

怎么样去安装

play13:11

那么你可以看一下

play13:11

我频道里面的这期视频

play13:13

套壳之王

play13:14

就是在讲librechat这一期视频当中

play13:17

也讲了怎么样去安装Git以及node.js

play13:21

为了方便

play13:22

这里的话

play13:22

我就直接演示

play13:24

Docker的安装方式

play13:25

Docker的安装方式的话

play13:26

就非常非常的简单

play13:28

一行代码就可以搞定Web UI界面

play13:31

首先我们是来到docker的官网

play13:34

在docker的官网的话

play13:36

你先下载docker的桌面端应用

play13:40

去下载相应的一个版本

play13:42

那么下载完成以后

play13:44

我们就可以在你本地

play13:46

打开docker的客户端

play13:48

这个就是它的一个界面

play13:51

主要是有两个栏目

play13:52

首先这边是镜像

play13:55

然后这边是我们在本地

play13:57

所安装好的这个项目

play13:59

可以看到

play14:00

我这边其实已经安装好这个项目了

play14:02

chatbox并且目前是在运行的

play14:05

接下来

play14:05

我就来演示一下如何操作

play14:07

我先把这个项目给它删除掉

play14:10

然后我们回到

play14:12

GitHub上面

play14:13

我们只要复制一下这行代码就可以了

play14:16

在确保你Docker桌面客户端

play14:19

是打开的前提之下

play14:21

打开你的终端指令

play14:23

新建一个窗口

play14:25

如果是Windows的话就是power shell

play14:27

然后我们去运行一下

play14:29

这行代码就可以了

play14:31

docker run -p 3000:

play14:33

后面是镜像地址

play14:34

运行一下

play14:35

很快就安装成功了

play14:37

这边也显示好他的端口号

play14:40

这个地址我们可以复制一下

play14:41

或者说

play14:42

你回到docker的桌面客户端

play14:44

也是可以的

play14:45

刚刚我们把它删除了

play14:46

然后运行完那行代码

play14:48

他重新去下载

play14:49

重新在我本地

play14:51

已经部署成功了

play14:52

那么我们点击一下这个端口号

play14:54

他又进到了

play14:55

我们刚才对话的界面

play14:58

这个的话就是

play14:59

关于Chatbot Ollama

play15:02

这个皮肤的安装过程

play15:05

其实像安装其他的一些项目

play15:07

原理都是类似的

play15:09

在这个GitHub上面

play15:10

它都显示了安装流程

play15:13

我觉得这个应用不错

play15:15

就给大家演示

play15:16

这个应用的一个安装过程

play15:18

我们现在重新打开一个窗口

play15:20

因为我在本地已经安装好这个项目了

play15:22

那么他后续的一个对话体验

play15:24

就跟刚刚我们视频开头是一样的

play15:27

首先是在这里选择你本地

play15:30

安装的大模型

play15:32

选择完成以后

play15:32

这边发送prompt

play15:33

就可以进行一问一答的对话

play15:36

然后在左侧

play15:37

他也有所有的聊天记录

play15:39

接下来

play15:39

给大家演示一下

play15:41

就是我视频开头的第二个场景

play15:43

这个应用的安装

play15:45

这里的话

play15:45

我们同样的话

play15:46

也是可以来到这个开源项目

play15:47

OpenAI translator

play15:49

我们可以看到右边

play15:50

它是有一个发行版

play15:52

我们点击这个发行版

play15:54

可以看到

play15:56

这边是有关于这个作者

play15:58

他针对OpenAI translator这个插件

play16:01

不同的版本号

play16:03

这里的话

play16:03

我们直接选择最新版

play16:06

比如说我是Mac电脑

play16:07

我就下载这个

play16:09

后缀是DMG的

play16:11

然后它的版本号是3.25版本

play16:14

Mac的话

play16:14

这边还分是arm芯片的

play16:17

还是Intel芯片的

play16:19

大家稍微注意一下

play16:20

如果是说Windows版本

play16:21

那么你就可以去下载.exe

play16:24

如果是说你是浏览器插件

play16:26

那么你就可以下载Chrome这个版本

play16:29

去根据自己的电脑型号

play16:31

以及使用场景去下载相应的版本

play16:33

这个插件

play16:34

我现在已经是安装好这个版本了

play16:37

安装完成以后

play16:38

这个就是它的一个界面

play16:40

首次使用

play16:41

我们是要在这里

play16:43

这边会有一个设置

play16:44

有一个通用

play16:45

我们给它进行一下设置

play16:47

就是在这个默认服务商里面

play16:50

选择Ollama

play16:51

然后这个地址

play16:52

就是localhost 11434

play16:55

这个端口号是默认的

play16:57

我们不需要去做任何更改

play16:59

模型的话

play16:59

就选择你本地已经安装好的大模型

play17:04

你安装完llama你就选llama

play17:06

安装完Gemma

play17:07

你就选择gemma

play17:08

然后我是2B版本

play17:10

我就选择这个

play17:11

20亿参数的版本

play17:13

然后下面完成一些基本设置

play17:16

然后点击保存

play17:17

保存完成之后

play17:18

我们就可以随机

play17:20

找一个界面去做一下测试

play17:23

比如说

play17:24

现在我是需要这个插件

play17:26

帮我去翻译一下这段话的意思

play17:29

当你选中文字之后

play17:31

它会自动显示出来

play17:32

这个按钮

play17:32

在这边就会进行一个翻译

play17:35

下面也可以看到

play17:36

它是由Gemma 20亿参数版本

play17:39

提供API接口支持

play17:41

这个结果

play17:42

它已经出来了

play17:44

这个就是关于OpenAI translator

play17:46

使用场景的安装方式

play17:49

除了这个之外

play17:50

如果是说

play17:51

你想要使用其他的桌面客户端

play17:53

或者其他的一些场景应用

play17:55

那么你就到这里

play17:56

自己去选择你想要的软件

play17:59

给它进行一个本地安装

play18:01

比如说像chatbox

play18:03

其实也是可以安装的

play18:05

包括像Dify

play18:06

如果是说你在本地安装了Dify

play18:09

那么同样的话

play18:10

它也是可以选择Ollama

play18:13

作为API提供商

play18:15

然后去选择不同的大模型

play18:18

llama、gemma、mistral等等

play18:20

这里的话

play18:21

也有详细的接入流程

play18:24

然后像这个链接

play18:25

以及今天视频当中所使用到的

play18:27

这些课件、资料

play18:29

我都会放到视频简介里面的

play18:31

视频笔记里当中

play18:32

大家有需要可以自己去取

play18:34

视频的最后

play18:35

再做一个小小的宣传

play18:37

如果你想更好的使用AI

play18:38

更好的使用ChatGPT

play18:40

去系统性的学习ChatGPT

play18:42

在过程当中少走弯路

play18:44

那么你也可以去了解一下

play18:45

我的AI课程

play18:47

《ChatGPT实战指南:创新应用与性能提升》

play18:49

目前在这个课程当中

play18:51

已经是涵盖了30多节AI课程

play18:54

这些内容

play18:55

都是由我精心挑选

play18:57

精心打造的

play18:58

可以快速的

play18:58

让你上手使用ChatGPT

play19:00

里面涵盖了基础知识

play19:02

提示词工程

play19:03

可以让你更好的和ChatGPT对话

play19:06

还有一些实战玩法

play19:07

比如说怎么样把你的大模型

play19:09

接入到微信当中

play19:10

怎么样把你的知识库

play19:11

接入到大模型当中

play19:13

并且去定制客服

play19:14

等等这样一系列玩法

play19:16

在我的实战课程当中

play19:17

都有详细的讲解跟案例演示

play19:20

另外还有很多的AI资源分享

play19:22

比如说像我自己

play19:23

学习和获取AI的一些信息和渠道

play19:27

我自己经常在用的一些AI工具

play19:29

等等在课程当中

play19:31

都给大家去做一个分享

play19:32

有需要的小伙伴可以了解一下

play19:34

绝对会让你物超所值

play19:36

以上就是本期视频的全部内容

play19:38

感谢观看

play19:39

如果你喜欢今天这期视频

play19:41

如果今天这期视频对你有一点点帮助

play19:43

请点赞及订阅我的频道

play19:44

你的支持对我很重要

Rate This

5.0 / 5 (0 votes)

Do you need a summary in English?