blade-ai的mcp调试功能需要通过llm调用

Blade 未结 1 21

blade-ai中MCP工具箱里对mcp进行调试需要通过llm去调用mcp,返回的结果也要通过llm处理。
是否可以改为直接将参数输入给mcp,并且直接将mcp的结果返回。

后续在工作流里我们自己设置llm去调用mcp。

现在用不同平台的llm去调试同一个mcp会有不同的错误,我们希望调试mcp就是单纯的调试mcp,而不是加入llm这个变量。
后续是否会有这个方面的改进。

image.png

1条回答
  • mcp就是设计给llm来调用的,langchain4j底层也是要用大模型来进行调用才可以,所以底层不支持的情况下,暂时没计划改进。


    CleanShot20250908113405@2x.png

    0 讨论(0)
提交回复