51工具盒子

依楼听风雨
笑看云卷云舒,淡观潮起潮落

使用Ollama本地部署开源大模型Llama3-7B

  • Ollama的安装

官网地址:Ollama

选择适合自己的系统并下载安装包进行安装即可

  • 下载模型,本地部署

打开终端,输入 *

ollama run llama3

第一次使用,ollama会进行模型的下载,等待模型下载完成,弹出以下内容即可使用

如果你要部署其他模型,在ollama run命令后加上你需要部署的模型名称即可

ollama常用命令
* * * *

ollama list # 显示当前已经部署的大模型ollama rm <model_name> # 删除部署的大模型ollama run <model_name> # 运行大模型ollama create <model_name> -f <model_file> # 创建大模型

ollama可部署的模型列表见library (ollama.com)

  • 配置需求

本机配置:Macbook Pro M3pro(11CPUs,14GPUs),18+512

测试问题占用内存约4GB

  • 可视化聊天界面

使用Chatbox进行部署:Chatbox

选择合适的版本进行安装下载

设置模型提供方为Ollama,API域名以及模型,可以修改上下文消息数量限制、模型严谨程度(想象力)等等

建议使用英文进行提问,中文需求可以使用针对中文语料微调的llama3


赞(5)
未经允许不得转载:工具盒子 » 使用Ollama本地部署开源大模型Llama3-7B