在软件设置里面,LLM首选项界面,提供商选择Ollama,Ollama Model选择你前面下载的DeepSeek-R1系列模型1.5b~671b,然后点击Save changes。
时间: 2025-03-01 20:03:33 浏览: 88
### 配置LLM首选项以使用Ollama提供的DeepSeek-R1系列模型
#### 设置环境变量
为了指定Ollama的大模型存储目录,在Windows环境中需要修改系统环境变量。打开“开始”菜单,搜索“环境变量”,选择“编辑系统环境变量”。在弹出的“系统属性”窗口中,点击“环境变量”按钮。接着,在“用户变量”下创建一个新的变量名为`ollama_models`,其值设为期望的模型存储路径,比如`D:\ollama_models`[^2]。
#### 启动与重启服务
如果Ollama已经在后台作为托盘程序运行,则应当先停止该进程再继续操作;之后可以通过开始菜单重新启动应用,或是通过新开的命令提示符来加载更新后的环境配置。
#### 运行特定版本的DeepSeek-R1模型
对于具有不同硬件条件特别是GPU显存量各异的情况,可以选择适合的具体变种来进行部署。例如针对配备RTX2060 6GB GPU设备的情形,可以执行如下指令让系统自动完成大约4GB大小模型文件的获取工作:
```bash
ollama run deepseek-r1:8b
```
这一步骤会依据所选参数从网络上拉取相应的预训练权重并初始化所需资源[^3]。
#### 使用蒸馏量化模型
当考虑性能优化时,还可以选用经过特殊处理过的版本如`DeepSeek-R1-Distill-Qwen-14B`这样的实例,它意味着利用较小规模架构模仿大型基础模型的表现特征从而实现更高效的推理过程而不显著牺牲准确性[^1]。
相关问题
5.代理配置界面,工作区代理LLM提供商选择【Ollama】,工作区代理模型选择【deepseek-r1】,然后点击【Update workspace agent】。
### 设置工作区代理
在代理配置界面中设置工作区代理,选择LLM提供商Ollama以及模型`deepseek-r1`的过程如下:
#### 配置LLM Provider Ollama
要指定使用Ollama作为大型语言模型(LLM)的服务提供者,在相应的配置字段内输入`Ollama`[^1]。
```json
{
"provider": "Ollama"
}
```
#### 输入Base URL
对于Ollama Base URL的设定,应当填写`http://127.0.0.1:11434`来指向本地运行的服务地址。
```json
{
"base_url": "http://127.0.0.1:11434"
}
```
#### Chat Model Selection
针对聊天模型的选择部分,需选取之前创建好的`deepseek-r1`模型作为默认选项。这一步骤确保了后续交互过程中所使用的具体模型版本被明确定义。
```json
{
"model_selection": "deepseek-r1"
}
```
完成以上三个主要参数的调整之后,保存更改以使新的配置生效。通常情况下,界面上会有专门用于提交或确认修改按钮,点击它即可实现对当前工作区代理设置的即时更新。
cheery studio deepseek-r1 怎么调用的私有模型 API地址
### 如何通过Cheery Studio调用DeepSeek-R1私有模型API
要在Cheery Studio中成功调用DeepSeek-R1私有模型API,需按照以下方法完成配置:
#### 1. 获取必要的API信息
在使用Cheery Studio之前,需要先从供应商处获取API密钥和请求地址。这些信息通常可以通过注册账户并申请访问权限获得。对于DeepSeek-R1模型,其默认的API端点可能如下所示[^2]:
```plaintext
API 地址: https://api.lkeap.cloud.tencent.com/v1/chat/completions
```
如果使用的是自定义部署环境,则应替换为实际的服务提供商给出的具体URL。
#### 2. 配置Cheery Studio中的硅基流动服务
进入Cheery Studio应用后,找到设置选项,并选择外部API集成工具——例如“硅基流动”。在此界面内填入所获知的信息[^3]:
- **API 密钥**: 将先前复制得到的有效密钥粘贴于此字段。
- **API 地址**: 输入上述提到或者由服务商指定的确切路径。
完成后保存更改即视为初步设定完毕。
#### 3. Cherry Studio具体操作指南
为了进一步细化说明如何利用Cheery Studio来实现对DeepSeek系列大语言模型的支持,这里提供更详细的步骤描述[^4]:
- 打开应用程序至主菜单页面;
- 进入高级功能区寻找第三方插件管理入口;
- 添加新的数据源链接指向目标LLM服务器实例位置;
- 根据提示逐步录入必要参数直至确认无误提交为止。
当遇到诸如`连接Custom Provider失败`这样的报错消息时,除了仔细核对自己输入的数据之外,还应注意保持客户端软件处于最新稳定发行版本之上(如建议升级到非特定问题频发版次以外的新近更新),从而减少因程序缺陷引发的技术障碍可能性。
以下是基于Python脚本模拟向此类RESTful风格Web Service发起POST请求的一个简单例子供参考学习之用:
```python
import requests
import json
url = "https://api.lkeap.cloud.tencent.com/v1/chat/completions"
headers = {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
data = {
"model": "deepseek-r1",
"messages": [{"role": "user", "content": "你好"}],
"max_tokens": 50,
}
response = requests.post(url, headers=headers, data=json.dumps(data))
print(response.json())
```
注意:以上代码仅为演示目的编写,请确保替换其中占位符部分为自己真实的凭据资料后再运行测试。
阅读全文
相关推荐





