通义千问创建 Embedding 模型
时间: 2025-01-01 17:15:44 浏览: 725
### 使用通义千问构建Embedding模型的方法
为了利用通义千问来创建嵌入(Embedding)模型,可以采用Hugging Face平台上的预训练模型资源以及LangChain框架的支持工具。具体实现过程涉及几个重要环节:
通过`langchain.embeddings.DashScopeEmbeddings`类初始化一个基于通义千问的嵌入对象实例[^3]。此操作需指定所使用的特定版本模型名称及API密钥作为参数传递给构造函数。
```python
from langchain.embeddings import DashScopeEmbeddings
embedding = DashScopeEmbeddings(
model="text-embedding-v1",
dashscope_api_key="your-dashscope-api-key"
)
```
随后,在定义好嵌入逻辑之后,可借助Chroma库完成文档向量化存储工作。这里会调用`Chroma.from_documents()`方法传入待处理文本片段列表`splits`、集合命名空间`collection_name`、之前配置好的嵌入处理器`embedding`还有持久化路径设置`persist_directory`等必要选项以建立并保存对应的向量数据库文件。
```python
from langchain.vectorstores import Chroma
vectordb = Chroma.from_documents(
documents=splits,
collection_name="spotmax",
embedding=embedding,
persist_directory=persist_directory
)
# 将更改同步至磁盘
vectordb.persist()
```
上述代码展示了如何集成来自阿里云通义实验室的大规模语言模型服务,从而高效地为自定义数据集生成高质量语义表示形式——即所谓的“嵌入”。
阅读全文
相关推荐









