cherry studio 如何调用ollama并安装嵌入模型?
时间: 2025-06-12 14:07:00 浏览: 13
<think>好的,用户想了解如何在Cherry Studio中调用Ollama并安装嵌入式模型。首先,我需要回忆之前提供的引用内容。引用[1]提到在Ollama基础上安装Cherry Studio来搭建本地知识库,引用[2]和[3]则介绍了Cherry Studio的版本更新和下载地址,以及API配置信息。
用户的问题分为两部分:调用Ollama和安装嵌入式模型。我需要先确认步骤是否正确。首先,安装Cherry Studio,根据引用[3],用户需要下载特定版本并配置腾讯云的API地址和密钥。然后,在Cherry Studio中添加Ollama作为模型服务,可能需要输入Ollama的本地API地址,比如默认的localhost:11434。接下来,安装嵌入式模型,这可能指的是像BERT这样的文本嵌入模型,用于处理文本向量化。用户需要下载模型文件,并在Cherry Studio的知识库设置中选择嵌入模型路径。
需要确保步骤清晰,避免遗漏关键点,比如配置API时的注意事项,或者模型文件存放的位置。另外,用户可能需要帮助解决常见问题,比如服务无法连接或模型加载失败,这时候检查网络和路径是否正确很重要。最后,生成相关问题时要围绕安装、配置、应用场景和问题排查展开,这样用户能进一步探索相关主题。</think>### 如何在 Cherry Studio 中调用 Ollama 并安装嵌入式模型
#### 步骤 1:安装和配置 Cherry Studio
1. **下载最新版本**
从 GitHub 获取 Cherry Studio 0.9.19 版本:
$$[Cherry Studio 下载地址](https://github.com/CherryHQ/cherry-studio/releases/tag/v0.9.19)$$[^3]
2. **配置腾讯云 API**
- 登录腾讯云控制台,获取密钥(SecretId 和 SecretKey)
- 在 Cherry Studio 的配置文件中添加以下信息:
```yaml
api_endpoint: https://api.lkeap.cloud.tencent.com
secret_id: YOUR_SECRET_ID
secret_key: YOUR_SECRET_KEY
```
此配置确保 Cherry Studio 能够调用云端资源[^3]。
---
#### 步骤 2:集成 Ollama 本地服务
1. **启动 Ollama 服务**
确保 Ollama 已在本地运行(默认端口为 `11434`)。可通过以下命令验证:
```bash
curl http://localhost:11434/api/tags
```
2. **在 Cherry Studio 中添加 Ollama 模型**
- 打开 Cherry Studio 的模型管理界面
- 选择 **"添加本地模型服务"**
- 输入 Ollama 的 API 地址:`http://localhost:11434`
- 选择需要加载的模型(如 `llama2`、`mistral` 等)[^1]
---
#### 步骤 3:安装嵌入式模型(以 BERT 为例)
1. **下载模型文件**
从 Hugging Face 等平台获取预训练模型(如 `bert-base-uncased`),保存至本地目录:
```bash
/path/to/embedding_models/bert
```
2. **配置知识库嵌入模型**
- 进入 Cherry Studio 的知识库设置页面
- 在 **"嵌入模型"** 选项中指定模型路径
- 启用 **"本地嵌入计算"** 功能
```python
# 示例代码:调用本地嵌入模型
from transformers import AutoModel
model = AutoModel.from_pretrained("/path/to/embedding_models/bert")
```[^2]
---
#### 常见问题排查
- **服务无法连接**:检查 Ollama 是否运行,防火墙是否开放端口 `11434`
- **模型加载失败**:确认模型文件路径正确,且格式与 Cherry Studio 兼容
- **API 认证错误**:重新校验腾讯云密钥的权限和有效期
---
阅读全文
相关推荐


















