AI智能
改变未来

fs (@fsyj) 在 Dify LLM 节点的 Context 变量的作用 中发帖 请问有谁对Dify LLM 节点的上下文变量比较了解吗?我有下面的两个疑问 上下文只能够传输知识检索…

fs (@fsyj) 在 Dify LLM 节点的 Context 变量的作用 中发帖

请问有谁对Dify LLM 节点的上下文变量比较了解吗?我有下面的两个疑问

上下文只能够传输知识检索的输出,但是如果在工作流中 LLM 节点前有多个知识检索节点,怎么将多个检索结果传入一个LLM 节点的上下文呢?我尝试了一下,LLM的上下文变量只能选择一个知识检索节点的输出作为上下文。而对于 Coze 这个平台来说,是可以同时配置多个知识检索的输出作为 LLM 的输入变量的
Dify 为什么要把知识检索单独作为一个上下文变量呢?在 LLM 中,用户的 prompt 和知识检索的结果都是一样的,类似于 Coze,知识检索的输出是和普通节点的输出是一样的,可以在 prompt 中直接去引用这些变量,而不是单独设置为上下文。

[image]
而在 Coze 中,是可以单独把知识检索的结果设置进 Prompt 中的,比如下图展示的
[image]

详情链接:
https://linux.do/t/topic/1341489/1

来源: LINUX DO, 消息ID: 263073

赞(0) 打赏
未经允许不得转载:爱站程序员基地 » fs (@fsyj) 在 Dify LLM 节点的 Context 变量的作用 中发帖 请问有谁对Dify LLM 节点的上下文变量比较了解吗?我有下面的两个疑问 上下文只能够传输知识检索…