51工具盒子

依楼听风雨
笑看云卷云舒,淡观潮起潮落

独家!开源AI接入微信【一】ollama + open-webui

大家好,我是袋鼠帝,今天又来给大家更新喂饭级教程了,之前更新的kimi接入个人微信 ,以及GPT4o接入个人微信 ,有好些朋友留言说信息不安全,确实,这样做信息最终都会发送给大模型厂商。 那么有没有什么办法能把AI接入个人微信的同时保证数据安全呢?

那就是使用本地私有化部署的开源大模型 。到时候直接调用自己本地大模型,不就安全了吗 。而且回复速度非常快 ,关键是**免费!**为开源点赞!

我会将开源AI接入个人微信再做一个系列 ,分几章还没想好,不过分多章对于我来说有利于把每篇文章写的更详细。

并且这个系列是讲开源AI,除了开源大模型之外还有很多开源AI工具,如果你对这块内容感兴趣不妨先点个关注~

今天给大家带来的就是第一章(开源大模型接入个人微信的准备工作)

利用ollama 本地部署开源大模型的喂饭级教程。耐心看完,你一定有所收获~

最终呈现的效果如下:

这里用的是qwen2:7b参数的大模型:

并且还可以随意切换多种开源大模型 (有meta的llama3 ,阿里最新的qwen2 ,还有号称中文能力最强的deepseek ,谷歌的gemma ,黑马模型mistral ,以及一些vision类模型几十种开源大模型可选择):

其实部署一个本地大模型,还是很困难的,你要去解决复杂的环境问题,以及有各种繁琐的操作。

不过现如今已经有了一个非常方便的开源工具。

一个简明易用的本地大模型运行框架:ollama (一个在github斩获75k star的超级项目,足见它的受欢迎程度)

ollama的优点 1.提供命令行操作,提供模型调用的api接口; 2.超多开源大模型选择:https://ollama.com/library 3.对模型的运行、推理进行了优化,能更充分的发挥GPU的性能; 4.支持多个平台,windows,mac,linux等。

不过ollama 只是集成了命令行操作,要想达到上图中更方便的界面操作效果,还需要另外一个开源工具:open-webui

同样也是一个超级受欢迎,斩获了29k star的AI WebUI项目

ollama + open-webui可谓是强强联手,让你即能在本地快速安装超多的开源大模型。又能通过webui界面更方便的操作使用它们。

好了,下面开始"喂饭"!


一、安装ollama

我以win10为例来带大家操作(其他平台也是类似的)

首先进入ollama官网 下载支持windows的安装包 地址:https://ollama.com/download

下载之后是一个.exe可执行文件,双击安装即可。 ollama在各个平台下的默认模型存储路径:

mac:~/.ollama/models

Linux:/usr/share/ollama/.ollama/models

**windows:**C:\Users\%username%\.ollama\models

在windows中因为ollama默认是把模型下载到c盘 ,所以安装完成之后我们先更改一下模型安装目录,否则大家c盘容易满,因为一个模型就要好几G。

右键 此电脑->属性

高级系统设置

环境变量

在系统变量添加 OLLAMA_MODELS,值就是你模型想要存放的路径(最后点击确认->确认)

ollama的常用命令 如下: * * * * * * * * * *

ollama serve       启动ollamaollama create      从模型文件创建模型ollama show        显示模型信息ollama run         运行模型ollama pull        从注册表中拉取模型ollama push        将模型推送到注册表ollama list        列出模型ollama cp          复制模型ollama rm          删除模型ollama help        获取有关任何命令的帮助信息

接下来我们启动ollama

使用win + r 输入cmd然后回车,打开windows控制台

在控制台输入ollama的启动命令: ollama serve(这里我已经启动过了,所以有个报错)

启动ollama后,能在右下角看到ollama羊驼的一个图标(没有的话请重启电脑):

到这里本地的ollama就安装好了。


二、安装open-webui

open-webui 可以用docker非常方便的一键部署

不清楚docker如何安装使用的朋友请看我之前的文章(或者自行搜索一下)

docker部署教程 公众号:袋鼠帝AI客栈Ollama一键部署!开源部署神器:docker-desktop,小白也能轻松上手~ open-webui项目地址:https://github.com/open-webui/open-webui 还是老规矩,进入项目页面,下载open-webui源码包

解压源码包后,进入项目根目录docker-compose.yaml文件所在目录)

路径栏输入cmd 然后回车,即可进入当前目录的控制台

在windows控制台执行docker-compose up -d 以启动项目(我的之前部署过了,就不重新部署了)

最后出现类似下图的created 就代表open-webui启动成功啦~

然后打开浏览器,输入127.0.0.1:3000 回车。即可进入open-webui的界面。注册->登录

打开左下角设置

可设置语言为简体中文

查看open-webui 是否自动检测到了本地的ollama服务 (出现"已验证服务器连接"就代表自动检测到了)。

在模型一栏,可查看所有可下载的模型(几十种),以及下载模型


三、下载使用开源大模型 输入模型标签,点击下载按钮即可开始下载模型,我这里以下载mistral:7b 为例,当进度条到100% 就下载完成了(我只花了5分钟左右 就下载完毕了)

这时就能在模型列表里面选择mistral:7b进行对话 了(本地部署模型回复真的超级快)。

一般7b左右 的模型占用磁盘空间在5G左右 ,mistral:7b是4.1G

对于电脑配置来说,运行 7B 至少需要 8GB 内存,运行 13B 至少需要 16GB 内存,运行33b 至少要 32G内存。 好了,到这里我们的ollama + open-webui就搭建完毕啦!
大家可以多下载几个模型来试用一下。
后续会更新如何把开源大模型接入个人微信,以及对各个开源大模型进行测评,关注公众号发送:ollama,获取资源包。点关注,不迷路。

以上就是本期所有啦,能看到这里的都是人中龙凤!如果觉得不错,随手点个赞、在看、转发三连吧

如果想第一时间收到推送,也可以给我个星标⭐

谢谢你耐心看完我的文章~ 你点的每个好看,我都认真当成了喜欢

赞(9)
未经允许不得转载:工具盒子 » 独家!开源AI接入微信【一】ollama + open-webui