deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
时间: 2025-02-28 09:12:27 浏览: 206
### 关于 DeepSeek-R1-Distill-Qwen-1.5B 模型
#### 模型简介
DeepSeek-R1-Distill-Qwen-1.5B 是一款经过蒸馏优化的大规模预训练语言模型,参数量约为 1.5B。该模型基于 Qwen 架构进行了改进和优化,在保持较高性能的同时降低了计算资源需求[^2]。
#### 获取文档与下载链接
对于希望获取更多技术细节和技术文档的研究人员或开发者来说,可以访问官方提供的两个平台来了解详细的 API 接口说明以及使用指南:
- **ModelScope**: 提供国内用户更便捷的访问方式,网址为 [https://modelscope.cn/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B](https://modelscope.cn/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B)[^1]
- **Hugging Face**: 面向全球用户提供服务,地址位于 [https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B?local-app=vllm](https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B?local-app=vllm)
这两个网站不仅提供了模型本身的下载功能,还包含了丰富的教程和支持材料帮助使用者快速上手。
#### 安装配置指导
针对 Windows 11 用户环境下的具体安装步骤如下所示:
```bash
pip install transformers torch accelerate
```
完成上述依赖项安装之后,可以从 HuggingFace Hub 加载此模型实例并执行简单的测试任务:
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B")
model = AutoModelForCausalLM.from_pretrained("deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B")
input_text = "你好"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
此外,考虑到实际应用场景中的不同需求,开发团队特别实现了两种推理模式——即流式生成(streaming generation)和非流式生成(non-streaming generation),以便更好地满足实时性和响应速度的要求[^3]。
阅读全文
相关推荐


















