Ollama 是一个开源的大语言模型(LLM)部署工具,专为在本地机器部署和运行大模型而设计,通过简单的命令就可以在本地快速运行大模型(如DeepSeek、Llama、Gemma、QWQ等)。非常适合开发者、研究人员以及对数据安全和隐私有较高要求的企业和用户
1. 下载安装包
访问 Ollama 官网 下载 OllamaSetup.exe
,官网下载速度慢的话可以访问 国内下载地址 下载
2. 开始安装
由于双击安装包安装,会默认装到C盘,所以我们通过命令行的方式安装,这样就可以自定义安装目录。
以管理员身份运行CMD,并切换到OllamaSetup.exe所在的目录,比如我的在E:\Downloads目录下。通过/DIR指定安装目录
e:
cd Downloads
OllamaSetup.exe /DIR=D:\ProgramFiles\Ollama
通过/DIR指定安装在:\ProgramFiles\Ollama目录下,可以看到安装目录已经是我们指定的目录
安装完,检查是否成功。
打开一个命令窗口,输入:ollama --version 可以看到版本号说明安装成功
3. 设置存储路径
设置大模型下载文件存储的路径(默认存储在C:\Users\username.ollama)。
我的电脑右键 -> 属性 -> 系统 -> 高级系统设置 -> 环境变量
系统变量 -> 新建
变量名为OLLAMA_MODELS
变量值为你希望存储模型的路径
设置好后,如果 Ollama 已经在运行,右键Quit Ollama 退出应用程序,
点击安装目录下的ollama.exe重新启动
安装完成
至此,Ollama安装完成。下一节,我们将介绍DeepSeek + Dify 本地部署。
👉 关注公众号"北灵聊AI"获取最新更新
零基础AI学习交流群🤖,群里有全套教程的资料和源码,加入即可领取