解决win10下wsl无法访问主机ollama的localhost的问题

最近在wsl中部署了openwebui,在主机中部署了ollama,准备跑本地大模型,但是wsl无法获取主机的localhost:11434端口,而且win10无法通过镜像网络来使用wsl,强行开启将报错:

wsl: Hyper-V 防火墙不受支持

wsl: 不支持镜像网络模式: Windows 版本 19045.5737 没有所需的功能。

正在回退到 NAT 网络。

以下是我的环境:

PS C:\Windows\system32> wsl -v
WSL 版本: 2.4.13.0
内核版本: 5.15.167.4-1
WSLg 版本: 1.0.65
MSRDC 版本: 1.2.5716
Direct3D 版本: 1.611.1-81528511
DXCore 版本: 10.0.26100.1-240331-1435.ge-release
Windows 版本: 10.0.19045.5737

考虑通过直接访问主机ip来实现,首先请确保wsl中能够ping通主机(局域网IPV4地址),通过添加系统环境变量

OLLAMA_HOST 为 0.0.0.0:11434之后重启ollama服务。

一般来说,wsl中已经可以通过ip地址访问ollama了,例如192.168.5.24:11434,如果想在局域网别的主机调用ollama,可以考虑再到路由器设置页面,设置本机的端口转发

然后大功告成。这个在家里用是ok的,在公司大局域网里就不太行。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值