最新技巧:一键申请任意大模型API,支持国内信用卡,彻底解决大模型API难题!

AI学长小林
7 Apr 202414:58

Summary

TLDR本期视频介绍了一个名为openrouter的AI聚合器,它解决了国内用户使用国外主流AI模型API时遇到的账户安全、网络连接和API管理等问题。通过openrouter,用户可以使用一个API接口和key调用多个模型,如GPT 3.5、4.0、Turbo等,并支持Visa卡和加密货币支付。视频还展示了如何在官网申请API key,并在不同的应用中使用openrouter进行模型切换和API调用。

Takeaways

  • 🤖 介绍了一个名为openrouter的AI聚合器,旨在解决国内用户使用国外AI API的难题。
  • 📱 使用国外AI服务如ChatGPT或Claude API时,通常需要国外手机号和信用卡。
  • 🔒 通过openrouter使用API避免了账户安全问题,因为它提供了直接的网络和支付方式。
  • 🌐 openrouter平台支持直连,无需代理或中转,简化了网络问题。
  • 🔄 通过openrouter,用户可以使用一个API和一个key调用和切换多个国外大模型。
  • 💡 openrouter平台的API接口结构与OpenAI相同,保证了良好的兼容性。
  • 💳 支持使用Visa卡和加密货币支付,降低了支付门槛和充值成本。
  • 💰 通过openrouter预付费,减少了在多个平台预付费的资金沉淀成本。
  • 📈 openrouter平台充值时收取手续费,但相比其他中转平台仍有优势。
  • 🆓 平台提供一些免费的大模型API,如Mistral 7B,适用于简单服务。
  • 🛠️ 演示了如何在官网申请API key,充值和在应用中调用openrouter的API接口。

Q & A

  • 视频主要介绍了什么工具?

    -视频主要介绍了一个名为openrouter的AI聚合器工具,它能够解决在国内使用国外主流大模型API时遇到的困难。

  • 使用国外大模型API时常见的问题有哪些?

    -使用国外大模型API时常见的问题包括账户安全问题、网络问题、Token速率限制以及不同API的管理和切换等。

  • openrouter平台如何帮助用户解决账户安全问题?

    -通过openrouter平台申请和使用API,用户无需使用虚拟卡绑定,从而避免了因官方政策收紧导致的账户封号问题。

  • openrouter平台如何简化网络连接问题?

    -openrouter平台允许用户直连,不需要在API接口中设置代理或中转,简化了网络连接问题。

  • 使用openrouter平台的优势有哪些?

    -使用openrouter平台的优势包括账户安全、网络直连、便捷性、通用性和兼容性,以及能够通过一个API接口对接所有国外主流大模型的API。

  • openrouter平台支持哪些支付方式?

    -openrouter平台支持Visa卡支付和加密货币支付,用户可以使用国内的Visa卡或加密货币进行支付。

  • openrouter平台的预付成本和使用成本是怎样的?

    -在openrouter平台,用户只需进行一次预付费即可调用各种大模型的API,降低了预付成本。使用成本与官方相同,充值时会收取一定比例的手续费。

  • openrouter平台提供了哪些免费的大模型API?

    -openrouter平台提供了一些开源的免费大模型API,如Mistral 7B,用户可以用这些API提供免费的服务,如翻译等。

  • 如何申请openrouter平台的API key?

    -用户在openrouter平台充值后,可以创建API key,并为每个key设置使用额度上限,方便管理和控制成本。

  • 如何在应用中调用openrouter平台的API key?

    -用户可以在支持openrouter平台的应用中填入API key和模型名称,从而调用不同的大模型API,并进行切换。

  • 视频提到了哪些套壳应用和插件?

    -视频提到了lobechat、Chat Next Web以及沉浸式翻译插件,这些都可以接入openrouter平台的API key,实现大模型API的调用和切换。

Outlines

00:00

🤖 介绍AI聚合器openrouter

本段落介绍了一个名为openrouter的AI聚合器,它能够解决国内用户使用国外主流大模型API时遇到的困难,如账户安全、网络问题和Token速率限制等。通过openrouter,用户可以便捷地使用和管理各种国外大模型API,无需国外手机号和信用卡。openrouter支持多种模型,包括GPT 3.5、4.0、Turbo、Vision、16K以及Claude等,并提供了一个方便对比不同模型优势的表格。

05:01

💡 openrouter平台的优势与支付方式

这一段详细介绍了openrouter平台的优势,包括账户安全、网络直连、便捷性和通用性兼容性。特别指出,openrouter的API接口结构与OpenAI相同,易于主流套壳应用的一键接入。此外,平台支持多人使用的账号管理,可以创建多个key并设置使用额度。支付方面,支持Visa卡和加密货币支付,降低了使用门槛。同时,平台提供了一些免费的大模型API,如Mistral 7B,供用户使用。

10:03

🔧 申请和使用openrouter API

本段内容指导用户如何在openrouter官网申请API key,并将其应用于不同的套壳应用和插件中。首先,用户可以在官网的playground中选择并测试不同的模型。接着,演示了如何充值和申请API key,并设置使用额度。最后,通过演示在lobechat、Chat Next Web和沉浸式翻译插件中如何调用和切换不同的模型,展示了openrouter平台的实用性和便捷性。

Mindmap

Keywords

💡AI聚合器

AI聚合器是一种将多个人工智能模型或服务集成在一起的平台,使得用户可以通过一个统一的接口来访问和使用这些模型或服务。在视频中,AI聚合器解决了使用国外主流大模型API的困难,提供了一个便捷的解决方案。

💡国外大模型API

国外大模型API指的是由国外公司开发的,具有高级人工智能处理能力的应用程序接口。这些API通常需要国外手机号和信用卡来注册和使用。

💡账户安全

账户安全是指在使用网络服务时,保护用户账户信息不受非法访问和滥用的措施。在视频中,通过使用openrouter平台,用户无需担心账户安全问题,因为它提供了更加安全的账户管理和API使用方式。

💡网络问题

网络问题通常指在使用网络服务时遇到的连接、速度或稳定性问题。在视频中,通过openrouter平台直连,用户无需在API接口中设置代理或中转,从而避免了网络问题。

💡Token速率限制

Token速率限制是指API服务提供商对于用户请求频率的限制,通常用来控制服务器负载和防止滥用。在视频中,用户在使用国外大模型API时可能会遇到Token速率限制的问题,而openrouter平台可能提供了更好的速率管理。

💡API管理

API管理涉及创建、发布、维护和保护API的整个过程。在视频中,openrouter平台提供了API管理的功能,使得用户可以轻松管理和切换不同的大模型API。

💡支付问题

支付问题涉及到用户在使用服务时的支付方式和支付门槛。在视频中,openrouter平台支持Visa卡和加密货币支付,降低了使用国外API的支付门槛。

💡预付成本

预付成本是指用户在使用服务之前需要预先支付的费用。在视频中,通过openrouter平台,用户只需要在一个平台上预付费,就可以调用多种大模型API,降低了整体的资金沉淀成本。

💡使用成本

使用成本是指用户在使用服务过程中产生的费用。在视频中,openrouter平台保证了模型输入和输出的成本与官方一致,只在充值时收取一定比例的手续费。

💡免费API

免费API是指平台提供的一些不需要支付费用就可以使用的服务接口。在视频中,openrouter平台提供了一些开源的免费大模型API,用户可以用来提供简单的服务而不需要支付额外费用。

💡应用对接

应用对接是指将API接口集成到应用程序中,使得应用程序能够使用API提供的功能。在视频中,详细介绍了如何将openrouter平台的API接口对接至不同的应用程序中。

Highlights

介绍一个非常实用的AI聚合器,能够解决使用国外主流大模型API的困难

使用国外大模型API需要国外手机号和信用卡,存在账户安全和网络问题

openrouter平台聚合了国外主流的开源和闭源模型,方便用户调用

通过openrouter,用户可以使用一个key切换使用不同的大模型API

openrouter平台支持GPT 3.5、4.0等所有Open AI模型和Claude等

openrouter平台的API接口结构与OpenAI一致,兼容性好

openrouter平台支持一键接入主流套壳应用和浏览器插件

openrouter平台允许一个账号多人使用,可以创建多个key并设置使用额度

openrouter平台支持Visa卡和加密货币支付,降低支付门槛

通过openrouter平台预付费和使用成本较低,充值时收取手续费

openrouter平台提供免费的大模型API,如Mistral 7B

演示如何在官网申请API和创建key,并设置使用额度

展示如何在lobechat应用中使用openrouter的API和切换模型

Chat Next Web支持OpenAI、Gemini和Claude等模型,使用openrouter的API

沉浸式翻译插件使用openrouter的API进行网页翻译

openrouter平台类似于Poe平台,但专注于API聚合

openrouter平台解决了国内用户使用国外大模型API的难题

视频提供了多种工具和插件的部署方式和使用教程

Transcripts

play00:00

你好

play00:01

欢迎来到AI学长的频道

play00:02

我是小林

play00:03

这期视频

play00:04

给大家分享一个非常实用的AI聚合器

play00:07

它完美的解决了

play00:08

使用所有国外主流

play00:10

大模型API困难的问题

play00:12

比如当你要用ChatGPT

play00:13

或者Claude API的时候

play00:15

就必须要有国外的手机号

play00:17

以及国外的信用卡

play00:18

这个问题

play00:19

虽然可以通过一些方法解决

play00:21

在我之前的频道里面

play00:22

也分享过相关视频

play00:24

但是假如你是大模型API的重度用户

play00:27

就会面临一些新的问题

play00:29

比如说账户安全问题

play00:31

网络问题

play00:32

Token速率限制的问题

play00:33

还有不同大模型API管理

play00:35

以及切换等等问题

play00:37

总之

play00:38

只要是个人或者小的开发团队

play00:40

要在国内使用国外这些大模型的API

play00:43

会面临各种各样的困难

play00:45

那么今天这期视频

play00:46

可以让你彻底摆脱这些困扰

play00:48

在国内也可以非常顺畅

play00:50

且非常便捷的

play00:51

使用各种国外大模型的API

play00:54

如果你喜欢今天这个话题

play00:55

麻烦动动你的小手赞一赞

play00:58

这个工具的名字呢叫openrouter

play01:01

它是一个大模型的API聚合平台

play01:05

已经把国外目前主流的

play01:07

不管是开源的还是闭源的这些模型

play01:09

都接入进去了

play01:11

那么后续的话

play01:11

我们只要通过openrouter

play01:12

它给我们提供的API接口

play01:14

以及它所提供的key

play01:16

我们就可以直接调用

play01:18

各种主流的国外大模型

play01:20

通过一个key

play01:21

就可以使用切换任意的大模型

play01:24

所以用起来就非常非常的方便

play01:26

比如说

play01:26

我们在它支持的模型里面

play01:28

可以看到

play01:29

它是支持像GPT的3.5、4.0

play01:33

Turbo、Vision以及16K的

play01:35

所有的Open AI模型在这边都是支持的

play01:38

包括像Claude

play01:39

也是一样的

play01:40

另外包括像一些开源模型

play01:43

Llama2

play01:43

还有Google Gemma也是支持的

play01:46

为了方便大家对比

play01:47

通过openrouter平台

play01:49

去调用各种国外大模型的API

play01:51

有哪些优势

play01:52

这里我做了这样一个表格

play01:54

方便大家更直观的去了解

play01:57

首先是账户安全问题

play01:59

假如说我们在国内

play02:01

去调用OpenAI的API

play02:03

或者Claude的API

play02:05

可能会面临一些账户安全问题

play02:07

因为我们没有直接的网络

play02:09

以及没有直接的支付卡

play02:11

都是通过一些虚拟卡的方式

play02:13

去绑定使用

play02:14

所以相对来说

play02:15

如果官方的政策一收紧

play02:17

像这类账号

play02:18

可能就会面临账户的封号问题

play02:21

但是如果是说

play02:22

你通过openrouter平台去申请API

play02:24

去使用API

play02:25

是不会有这一类问题的

play02:27

然后第二个的话是网络问题

play02:29

通过openrouter这个平台

play02:31

我们是可以直连的

play02:32

不需要在API接口里面

play02:34

去做代理

play02:35

或者中转

play02:36

第三个的话是便捷性

play02:39

这个也是我觉得openrouter平台

play02:41

最大的一个优势

play02:42

它只要一个API

play02:44

就可以对接所有

play02:45

国外的主流大模型的API

play02:48

不需要我们人为的

play02:50

去挨个去申请

play02:51

然后挨个去开发

play02:53

不管是管理成本

play02:54

还是切换成本

play02:55

还是说开发成本

play02:57

我觉得都是大大降低的

play02:59

第四个

play03:00

是通用性以及兼容性

play03:02

它的API接口结构

play03:04

是和OpenAI一样的

play03:07

所以它的兼容性就非常的好

play03:09

目前市面上大部分主流的套壳应用

play03:12

它都是支持一键接入的

play03:14

比如说像我们自己部署的

play03:16

还有一些第三方的Web UI

play03:17

桌面端应用Chatbox

play03:19

以及一些浏览器插件

play03:21

像Webpoilt

play03:22

沉浸式翻译

play03:23

还有一些主流的套壳APP

play03:25

它都是支持使用openrouter的API

play03:28

支持一键接入的

play03:30

另外就是说

play03:31

它这个平台

play03:32

还有一个优势

play03:33

就是说你申请一个账号

play03:35

它是可以满足多人使用的

play03:37

我们可以在一个账号里面

play03:39

创建多个key

play03:40

而且还可以给每一个key

play03:42

设置使用额度

play03:45

接下来的话是关于支付的问题

play03:48

像这一块的话

play03:49

我们是可以直接用Visa卡支付的

play03:51

你用国内的Visa卡

play03:53

可以直接绑定到openrouter平台

play03:55

那么后续使用

play03:56

你都可以通过国内的Visa卡

play03:58

直接进行扣款支付

play04:00

相对来说支付的门槛

play04:02

也是会比使用

play04:03

ChatGPT、Claude的API

play04:05

直接去使用

play04:06

这个门槛是更低的

play04:07

另外它还支持加密货币支付

play04:11

不需要我们去申请虚拟信用卡

play04:12

节约充值的成本

play04:14

接下来的话就是预付成本

play04:16

以及使用成本

play04:17

像现在大模型的这些API平台

play04:20

它都已经改成了预付费的性质

play04:22

也就是说

play04:23

你要用它的API

play04:24

你必须要先充值

play04:26

充值完成之后

play04:27

才可以使用

play04:28

如果是说

play04:29

你要用不同大模型平台的API

play04:31

你就要在每个平台里面

play04:33

都进行预付费

play04:35

这样的话

play04:36

整体资金的沉淀成本就会比较高

play04:38

而通过openrouter平台

play04:40

你只要在它这个平台里面

play04:42

进行一个预付费

play04:43

你就可以直接去调用各种大模型的API

play04:46

相对来说

play04:47

预付成本就会更低

play04:49

接下来是关于使用成本

play04:52

像这个平台

play04:53

它里面所有的模型输入

play04:55

以及输出的成本

play04:56

全部是和官方一样的

play04:59

其实在这里我们也可以看到

play05:00

比如说Claude3 haiku

play05:02

它每100万Token的输入成本

play05:05

以及输出成本

play05:06

都是跟官方一样的

play05:07

唯一的额外费用

play05:09

就是说他在充值的时候

play05:11

会收取手续费

play05:12

如果是说信用卡

play05:14

会收取5%的手续费

play05:16

加上每笔金额0.35美金的手续费

play05:20

如果说你是用虚拟货币充值的

play05:22

那么直接是收取5%的手续费

play05:25

相对来说

play05:26

对比其他的一些中转平台

play05:28

openrouter平台还是有优势的

play05:30

然后还有一个其他优势

play05:32

就是它在这个平台里面

play05:34

其实还给我们提供了一些

play05:36

像开源的

play05:37

免费的大模型的API

play05:40

我们可以看到

play05:41

像这些带free的

play05:42

比如说这个Mistral 7B

play05:44

就是免费提供的

play05:46

这样的话

play05:46

其实后期

play05:47

我们也可以用这个免费的

play05:49

这些API接口

play05:50

去提供一些简单的服务

play05:51

比如说用来做翻译

play05:53

都不会去收费

play05:54

这个的话就是关于它的一个优势

play05:57

接下来

play05:58

我们来介绍一下使用

play05:59

怎么去申请这个平台的API

play06:01

以及怎么样把它

play06:02

对接到我们应用当中去

play06:03

首先

play06:04

我们来到它的官网

play06:06

这个是它的首页

play06:07

可以看到菜单

play06:08

菜单的话

play06:09

这边是提供了一个playground

play06:12

在这里面

play06:12

我们是可以自由的选择

play06:14

你想要对话的模型

play06:16

并且它是可以多选的

play06:18

那么你选择完成之后

play06:20

并且把它开启

play06:20

我们可以在这边的对话框里面

play06:22

同时跟这些大模型进行对话

play06:24

比如说现在这里的模型

play06:26

我选择了3.5

play06:27

Mistral还有这个Claude3 Opus

play06:30

那么我在这边发送一下

play06:32

这样一个prompt

play06:34

可以看到我右边选择的这些大模型

play06:36

他在这个对话窗口当中

play06:38

同时回答了我的问题

play06:39

那么在playground当中

play06:41

我们也可以去做

play06:42

不同大模型的对话效果测试

play06:44

使用起来还是非常方便的

play06:46

接下来

play06:46

我们来演示一下充值

play06:48

以及申请API key

play06:49

然后把它绑定到我们这里应用当中

play06:52

以及去进行API的切换

play06:54

去使用不同大模型

play06:56

我们直接来到setting

play06:58

然后来点击积分按钮

play07:00

这里它是支持银行卡支付

play07:03

Cash APP以及美国的银行卡

play07:06

还有谷歌Pay

play07:07

这里的话

play07:07

我就用自己国内的招行Visa卡

play07:10

给它进行绑定一下

play07:12

我们把自己的卡片信息

play07:13

给它填入进去

play07:15

我们点击提交

play07:16

可以看到这个卡

play07:17

它已经绑定上了

play07:19

我们现在可以

play07:20

进行充值

play07:21

比如说我充值10美金进去

play07:24

他这边的话是有一个计费的

play07:26

总共是要收取5%的手续费

play07:30

加固定的0.35美金

play07:32

一笔的单笔费用

play07:34

这边的话就是你充值的越多

play07:36

肯定是越划得来的

play07:38

然后我点击一下充值

play07:40

可以看到余额已经充值成功了

play07:43

所以我们直接用openrouter平台

play07:45

去申请大模型的API

play07:47

就不用像直接

play07:48

去对接官方这么麻烦

play07:50

你必须要用国外的信用卡

play07:52

那么充值完成以后

play07:54

我们这边就是

play07:55

可以去申请一下自己的key

play07:57

点击创建key

play07:59

你可以给这个key

play08:00

设置一个名字

play08:01

比如说我这边就命名test key

play08:04

然后大家可以注意一下这个按钮

play08:05

它其实是可以给每一个key

play08:07

去设置使用额度的上限

play08:09

比如说我是让它上限

play08:11

可以用5美金的额度

play08:14

它已经把这个key

play08:15

给我发过来了

play08:17

我们复制一下

play08:18

待会的话就可以

play08:19

在应用端直接去使用

play08:21

包括后面你自己创建的每一个key

play08:23

都可以在这边看到它的使用额度

play08:25

以及它使用的一个详情

play08:27

如果是团队使用

play08:28

通过这个平台

play08:29

其实管理也是非常方便的

play08:31

接下来

play08:32

我们就来演示一下

play08:33

怎么样在应用当中去调用这个key

play08:35

以及怎么样去切换不同的

play08:37

这些国外主流大模型

play08:39

这里的话我就用lobechat

play08:41

还有这个比较经典的套壳应用

play08:44

Chat Next Web

play08:45

还有的话

play08:45

我们经常在用的翻译插件

play08:48

沉浸式翻译

play08:49

我会把它的key

play08:50

填入到这三个工具当中

play08:52

然后演示

play08:53

怎么样去切换它的模型

play08:55

以及它的一个实际效果

play08:57

OK

play08:57

首先是lobechat

play09:00

关于lobechat

play09:01

它是提供了线上版本

play09:02

以及本地部署版本

play09:04

大家可以看到这个网址

play09:05

首先这个是线上版

play09:07

本官方所提供的

play09:08

我们在这里面

play09:09

是可以直接使用

play09:10

openrouter它对应的一些模型的

play09:12

在这里面的话

play09:13

是可以自定义自己的模型

play09:15

那么你也可以

play09:15

在自己本地去部署

play09:17

套壳应用lobe chat

play09:19

相对来说

play09:20

这个套壳应用

play09:21

它的功能也非常的强大

play09:23

具体的部署方式

play09:24

在我原来的视频当中是有讲过的

play09:27

这期视频

play09:28

震惊!免费替代ChatGPT plus

play09:30

这个项目做到了

play09:31

它是支持GPTS GPT-4v

play09:33

以及Plugins插件

play09:35

在本地的套壳应用当中

play09:36

是支持这些东西的

play09:38

另外它也支持我们今天

play09:39

所说的openrouter的API

play09:42

如果是说你是首次部署好以后

play09:44

我们可以点击这个设置

play09:47

然后来到它的语言模型这里

play09:50

它目前是支持

play09:51

这些平台的API接口

play09:53

现在我们直接来到openrouter

play09:55

把它打开

play09:56

把刚才我们在平台

play09:58

所获得的key

play10:00

给它填到这里来

play10:02

这里的话

play10:03

你需要它支持哪些模型

play10:05

你就把这个模型的名字给它填入进去

play10:08

如果是多个模型

play10:10

就用英文的逗号

play10:11

给它分割一下就好了

play10:13

我给大家演示一下

play10:14

比如说

play10:15

这里我是希望

play10:17

它支持Gemini的

play10:19

我们就搜一下Gemini

play10:20

然后我随机点一个进去

play10:22

Gemini Pro 1.0

play10:24

可以看到

play10:25

它这边其实是有模型地址的

play10:27

我们点击一下复制

play10:30

然后来到这里

play10:31

英文的逗号

play10:32

然后把这个模型给它粘贴进去

play10:35

点击一下检查

play10:36

检查通过

play10:37

那就代表我们可以

play10:38

正常的去使用这些模型

play10:39

你的API key也是正确的

play10:41

设置完成之后

play10:42

我们就来到对话窗口

play10:44

点击这个脑图这里

play10:46

模型这里它是可以自由的去选择

play10:49

你配置好的这些模型

play10:51

然后这里可以看到

play10:52

它还有一些free的模型

play10:54

Mistral 7B的

play10:56

Gemma的

play10:56

这些都是开源模型

play10:57

就是openrouter平台

play10:59

它免费提供给我们使用的

play11:00

我们用这些API接口

play11:01

它并不会进行付费

play11:03

然后下面这几个

play11:04

是我自己配置上去的

play11:06

haiku、sonnet

play11:06

以及刚刚我们所配置上去的

play11:08

gemini pro

play11:10

那我们就以它为例

play11:11

选择一下这个模型

play11:14

可以看到这个title

play11:15

它已经切换过来了

play11:17

显示对应的模型

play11:18

我们先让它来介绍一下自己

play11:20

它回复是

play11:21

Gemini,一个由谷歌开发的多模态AI模型

play11:24

我们再来测一个问题

play11:26

树上有10只鸟

play11:27

开枪打死一只

play11:28

还剩几只

play11:29

0只,因为枪声会把其他鸟都吓跑了

play11:32

OK

play11:33

那这个就是

play11:34

关于在lobe chat平台里面

play11:35

这个套壳应用里面

play11:37

怎么样去使用openrouter

play11:39

它所提供的API接口

play11:41

包括当我们用完以后

play11:43

我们其实也可以在API里面

play11:46

去查看一下它的使用详情

play11:48

3月26号十点四十五分

play11:51

通过哪个模型

play11:52

然后在哪个平台

play11:54

消耗了多少TOKEN

play11:55

消耗了多少费用

play11:57

然后接下来

play11:58

我们来再看一下Chat Next Web

play12:00

Chat Next Web的话

play12:02

它也是支持本地部署

play12:04

支持云端部署

play12:05

具体的部署方式

play12:06

在我的视频当中也讲了

play12:08

我回头会把这些

play12:09

相关部署方式视频

play12:10

放在我的视频简介里面

play12:12

大家可以根据自己的需要

play12:14

去选择相应的一些工具

play12:15

去部署就可以了

play12:17

同样的话

play12:18

我们也是

play12:19

打开这个应用

play12:20

来到设置

play12:21

在设置这里

play12:22

我们可以看到

play12:23

它是可以填自己的API地址

play12:25

然后这个API key

play12:27

以及这边可以选择模型

play12:28

甚至如果说在这个模型当中

play12:30

没有你想要的模型

play12:31

你这边还可以自定义模型名称

play12:34

也是可以选择的

play12:35

我们就把openrouter的

play12:37

API地址

play12:38

给它填进去

play12:39

就是它的官网的域名后面

play12:41

加上API就可以了

play12:43

这边就是API key

play12:44

直接填进来

play12:45

这里的话我们就随便选一个

play12:47

选GPT 3.5 Turbo

play12:49

设置完成以后

play12:50

关闭

play12:51

我们来新建一个对话

play12:54

再来测试一下

play12:55

直接让他来介绍一下自己

play12:58

可以看到

play12:59

他说我是由OpenAI开发的

play13:01

那这大家就可以清晰的知道

play13:03

我们是用同一个key

play13:04

同一个API接口

play13:06

我们是可以去使用

play13:07

不同的大模型的API

play13:09

不管是OpenAI的、 Gemini的

play13:11

还有Claude

play13:12

都是支持的

play13:13

同样我们再来问一下

play13:15

树上有10只鸟

play13:16

开枪打死一只还剩几只

play13:19

这答案也是没有问题的

play13:20

其他鸟就会被吓走

play13:22

我们最后再来演示一个

play13:24

就是在谷歌浏览器插件里面

play13:27

怎么样去调用

play13:28

我们安装好这个插件了

play13:30

然后点击设置

play13:31

这里的话

play13:32

对应你是可以选择相应的

play13:34

模型提供商的

play13:35

比如说我这边是

play13:37

选择OpenAI的

play13:39

这里的话

play13:39

我也是可以自定义key的

play13:42

然后这个key

play13:43

我就把刚才复制过来的key

play13:46

给它粘贴进去

play13:47

模型的话就随机选

play13:48

用GPT-4

play13:49

我们再把API地址

play13:52

给他修改一下

play13:53

没有问题之后保存

play13:54

没有问题之后保存

play13:55

然后我们随机打开一个网页

play13:59

就以OpenAI的为示例

play14:02

可以看到它已经是使用成功了

play14:04

把这个网页都给我们进行一个翻译

play14:07

并且是一个中英文的形式

play14:09

这个就是关于在插件当中

play14:12

怎么样去使用OpenAI

play14:13

它所提供的key

play14:15

去选择对应的模型

play14:16

配置好之后

play14:17

就可以直接去启用

play14:19

这样的话

play14:19

就几乎完美的解决了我们在国内

play14:22

使用各种国外大模型的

play14:23

API接口的问题

play14:25

上面就是关于用openrouter平台

play14:28

解决国内使用大模型API困难的问题

play14:31

它有一点类似于Poe平台

play14:33

Poe是解决c端用户在一个终端里面

play14:36

使用各种大模型的问题

play14:38

而它是解决一个key

play14:40

调用各种大模型API的问题

play14:42

如果你有视频开头所说的这些困扰

play14:44

那么可以尝试下

play14:45

今天这个解决方案

play14:47

以上就是本期视频的全部内容

play14:49

感谢观看

play14:50

如果你喜欢今天这期视频

play14:52

如果今天这期视频

play14:53

对你有一点点帮助

play14:54

请点赞及订阅我的频道

play14:56

你的支持对我很重要

Rate This

5.0 / 5 (0 votes)

Related Tags
AI聚合器openrouterAPI管理账户安全网络直连开发便捷兼容性强多人共享低支付门槛预付费模式
Do you need a summary in English?