1. 安装ollama,然后下载LLM, 这部分网上文章众多,此略
需要注意的是agent需要支持function calling的LLM才可以被调用,官版deekseek目前还不行,改用MFDoom/deepseek-r1-tool-calling:1.5b
ollama run MFDoom/deepseek-r1-tool-calling
2. conda建立autogenstudio虚拟环境,激活虚拟环境, 注意autogen studio对PYTHON有版本要求,目前的要求是>=3.10, <3.13,我是安装的3.10
conda create -n autogenstudio python=3.10
conda activate autogenstudio
3.安装autogenstudio
pip install -U autogenstudio
4.启动
autogenstudio ui --port 8001
5.在浏览器打开
http://localhost:8001/
6.设置LLM MODEL, 重点说下设置本地DEEPSEEK,因为做了上面的安装后,打开之后就是设置本地ollama一直连不通,尝试了各种方法,在快要放弃的时候柳暗花明:
增加模型:ADD MODEL
如果直接设置,怎么测试都不通,后来直接用JSON EDITOR
将下面的代码贴入,然后SAVE CHANGES保存
{
"provider": "autogen_ext.models.openai.OpenAIChatCompletionClient",
"component_type": "model",
"version": 1,
"component_version": 1,
"description": "deepseek-r1:1.5b",
"label": "deepseek-r1:1.5b",
"config": {
"model": "MFDoom/deepseek-r1-tool-calling:1.5b",
"model_info": {
"vision": false,
"function_calling": true,
"json_output": false,
"family": "unknown"
},
"base_url": "http://localhost:11434/v1",
"api_key": "ollama"
}
}
测试是否连通:有下面提示即表示设置成功。
2025/4/15 更新
agent需要支持function calling的LLM才可以被调用,官版deekseek目前还不行,改用MFDoom/deepseek-r1-tool-calling:1.5b
用olllama拉取:ollama run MFDoom/deepseek-r1-tool-calling:1.5b