blade-ai中MCP工具箱里对mcp进行调试需要通过llm去调用mcp,返回的结果也要通过llm处理。是否可以改为直接将参数输入给mcp,并且直接将mcp的结果返回。
后续在工作流里我们自己设置llm去调用mcp。
现在用不同平台的llm去调试同一个mcp会有不同的错误,我们希望调试mcp就是单纯的调试mcp,而不是加入llm这个变量。后续是否会有这个方面的改进。
mcp就是设计给llm来调用的,langchain4j底层也是要用大模型来进行调用才可以,所以底层不支持的情况下,暂时没计划改进。
扫一扫访问 Blade技术社区 移动端