本地使用Ollama部署的模型调用报错

Blade 未结 1 26

一、该问题的重现步骤是什么?

  1. 本地部署模型,调用报错

    image.png

    image.png

2. 

3.


二、你期待的结果是什么?实际看到的又是什么?


三、你正在使用的是什么产品,什么版本?在什么操作系统上?


四、请提供详细的错误堆栈信息,这很重要。


五、若有更多详细信息,请在下面提供。

1条回答
  • 你用curl一下看看能不能正确返回,看报错是404,不清楚是不是路径配置多了还是少了

    作者追问:2小时前

    我是使用Ollama部署千问模型,把类型切换为千问就可以访问,访问路径没有改

    作者追问:2小时前

    问题已解决,我们url配置问题

    回答: 2小时前

    好的,git私服的前后端的dev分支可以更新了,改进了很多功能

    作者追问:2小时前

    昨天已经更新了

    0 讨论(0)
提交回复