一、该问题的重现步骤是什么?
1. 新建对话流程编排,增加HTTP请求节点->LLM大模型节点接收API返回数据
2. 如下:
3.后端接收到的notice为Object
二、你期待的结果是什么?实际看到的又是什么?
后端接收到的用户消息:${notice} 应该为通过接口返回的内容,应该如何实现直接接收到信息内容或整个返回数据信息
三、你正在使用的是什么产品,什么版本?在什么操作系统上?
BladexAI
四、请提供详细的错误堆栈信息,这很重要。
五、若有更多详细信息,请在下面提供。
我们拍查下
好的,调试LLM大模型节点时,直接在输入变量notcie输入API接口返回的数据(JSON串),运行是可以读取数据的
应该是前端返回节点的时候没有进行json序列化处理,导致传递到后端接口的时候还是个object对象,我们这几天给修复下,到时候会推送到dev分支
你好,这个问题解决了吗?只涉及前端代码?是否已更新?
在最新的dev分支,更新试试看
扫一扫访问 Blade技术社区 移动端