LightRAG在这段时间受到很多关注,今天简单总结一下其安装和调用Ollama的过程。
首先:
git clone https://github.com/HKUDS/LightRAG.git
其次创建一个conda虚拟环境:
conda create -n lightragtest python=3.10
激活之后进入到LightRAG文件夹,再运行:
pip install -e .
pip install -e ".[api]"
分别从source安装LightRAG Core和LightRAG Server。
安装好之后,我们下载一下作者提供的例子:
curl https://raw.githubusercontent.com/gusye1234/nano-graphrag/main/tests/mock_data.txt > ./book.txt
(如果有网络问题大家自行解决)然后把下载好的book.txt拷贝到example目录下,然后在这个目录下找到lightrag_ollama_demo.py,把这个文件里的ollama server修改成你自己的,然后运行:
python lightrag_ollama_demo.py
结果报错:
ERROR: Error in ollama_embed: (status code: 503)
ERROR: limit_async: Error in decorated function: (status code: 503)
An error occurred: (status code: 503)
在google里搜了一下发现这个issue:
https://github.com/ollama/ollama-python/issues/164
发现需要把http的代理关掉:
unset http_proxy
unset https_proxy
然后再运行就可以看到结果了。就先简单总结这么多。