使用Ollama本地部署开源大模型Llama3-7B
Ollama的安装 官网地址:Ollama 选择适合自己的系统并下载安装包进行安装即可 下载模型,本地部署 打开终端,输入 * ollama run llama3 第一次使用,ollama会进行模型的下载,等待模型下载完成,弹出以下内容即可使用 如果你要部署其他模型,在ollama run命令后加上你需要部署的模型名称即可 ollama常用命令 *
Ollama的安装 官网地址:Ollama 选择适合自己的系统并下载安装包进行安装即可 下载模型,本地部署 打开终端,输入 * ollama run llama3 第一次使用,ollama会进行模型的下载,等待模型下载完成,弹出以下内容即可使用 如果你要部署其他模型,在ollama run命令后加上你需要部署的模型名称即可 ollama常用命令 *