ollama deepseek本地部署后交互脚本
时间: 2025-06-23 20:12:34 浏览: 11
### 关于Ollama DeepSeek本地部署后的交互脚本
在完成Ollama平台上的DeepSeek大模型本地部署之后,可以通过编写交互脚本来实现自动化调用和管理API的功能。以下是一个典型的Python脚本示例,用于与Ollama API进行通信并获取响应。
#### Python 脚本示例
此脚本展示了如何通过HTTP请求向Ollama发送提示(prompt),并接收来自DeepSeek模型的回复[^1]。
```python
import requests
def query_ollama(prompt, model="deepseek", api_url="http://localhost:11434/api/generate"):
"""
向Ollama API发送查询请求。
参数:
prompt (str): 输入的文本提示。
model (str): 使用的模型名称,默认为 "deepseek"。
api_url (str): Ollama 的 API 地址,默认为 localhost 和默认端口。
返回:
str: 模型返回的结果。
"""
headers = {"Content-Type": "application/json"}
data = {
"model": model,
"prompt": prompt,
"max_tokens": 500, # 可调整最大生成令牌数
"temperature": 0.7 # 控制随机性的参数
}
response = requests.post(api_url, json=data, headers=headers)
if response.status_code == 200:
result = response.json()
return result["response"]
else:
raise Exception(f"Error {response.status_code}: {response.text}")
if __name__ == "__main__":
user_input = input("请输入您的问题或提示:")
try:
answer = query_ollama(user_input)
print("\n模型的回答如下:\n", answer)
except Exception as e:
print("发生错误:", e)
```
上述代码片段实现了基本功能,允许用户输入自定义提示并通过POST请求将其传递给运行中的Ollama服务实例。随后解析JSON格式的服务器响应数据,并提取实际的AI生成内容作为最终输出。
对于更复杂的场景需求,比如批量处理多个提问或者集成到其他应用程序当中,则可能还需要进一步扩展该基础框架结构,增加异常捕获机制以及性能优化措施等方面考虑[^2]。
#### Shell 脚本简易版
如果偏好命令行操作而非编程方式的话,也可以利用curl工具来快速测试连接情况:
```bash
#!/bin/bash
PROMPT=$1
MODEL_NAME=${2:-"deepseek"}
RESPONSE=$(curl -s \
-H 'Content-Type: application/json' \
-d '{"model":"'$MODEL_NAME'", "prompt":"'"$PROMPT"'"}' \
http://localhost:11434/api/generate | jq '.response')
echo $RESPONSE
```
保存以上内容至文件如`query.sh`,赋予可执行权限后再运行即可传入相应参数得到即时反馈结果。
阅读全文
相关推荐


















