Flow 组件

Flow Bot组件的功能详情与教程指南

LLMs

OpenAI ChatGPT

该组件可使用输入信息,基于组件配置,调用OpenAI提供的ChatGPT服务。

AI模型

  • 模型版本:LLM的模型版本。

  • 创作力:决定了LLM输出内容是严谨的还是创造性的。值越大,创造性则越强,但也会相对地没那么严谨。

  • Token设置:设置在LLM有限的上下文内,各类扩展功能的分配比重。可以仅勾选启用需要的扩展功能,以节省Token。已启用的扩展功能将会在该组件上呈现为激活状态,从左至右分别是:长期记忆、短期记忆、身份提示、知识库、插件。

Prompt设置

在此区域内,不仅能够以拖拽方式调整扩展功能的顺序,还能够在扩展功能块之间输入文本。扩展功能和输入文本,将合并形成最终的Prompt。

需要特别设置的扩展功能如下:

  • 身份提示:可以在此处输入需要当前组件LLM担任的身份信息,如角色、任务、情绪等,让LLM更好地理解它需要做的事情。

  • 插件:可以在此处添加需要调用的插件,以让LLM通过插件完成特定任务。

请注意,扩展功能的顺序非常重要,这将直接影响LLM对Prompt的理解与输出结果。

知识向量

知识向量

该组件将使用输入信息作为知识库检索入参,并输出知识召回结果。

  • 知识相关性:从知识范围内检索知识后,召回的知识的最低相关度。

  • 匹配知识数:从知识范围内检索知识后,召回的最大知识数量。

  • 知识向量范围:可从Bot知识库内选择一部分知识文档,作为当前【知识向量】组件的检索范围。

逻辑判断

分支判断

该组件将基于输入信息,并由LLM判断属于哪个分支,并进行输出。

AI模型

  • 模型版本:LLM的模型版本,将由该模型来执行分支判断。

  • 创作力:决定了LLM输出内容是严谨的还是创造性的。值越大,创造性则越强,但也会相对地没那么严谨。

  • Token设置:设置在LLM有限的上下文内,各类扩展功能的分配比重。可以仅勾选需要的扩展功能,以节省Token。

分支判断

  • 自定义分支:自定义多个分支,并为每个分支撰写判断条件,并由LLM判断输入应该进入哪个分支。

  • 其他:当输入条件被判断为不属于任何一个自定义分支时,将会以本分支作为输出。

Prompt设置

可以在Prompt内调整不同扩展功能的顺序,并在其中输入文本Prompt以补充必要信息,并形成最终的Prompt。

布尔判断

该组件将基于输入信息,并由LLM判断布尔值(真/假),并进行输出。

AI模型

  • 模型版本:LLM的模型版本,将由该模型来执行布尔判断。

  • 创作力:决定了LLM输出内容是严谨的还是创造性的。值越大,创造性则越强,但也会相对地没那么严谨。

  • Token设置:设置在LLM有限的上下文内,各类扩展功能的分配比重。可以仅勾选需要的扩展功能,以节省Token。

布尔判断

  • 真:由LLM判断输入为真的,执行该分支。

  • 假:由LLM判断输入为假的,执行该分支。

  • 其他:当输入条件被判断为不属于真或假时,将会以本分支作为输出。

Prompt设置

可以在Prompt内调整不同扩展功能的顺序,并在其中输入文本Prompt以补充必要信息,并形成最终的Prompt。

预置响应

预置响应

该组件无论输入内容是什么,都不会再进行任何执行或判断,直接将预置内容作为输出。

  • 数据类型:当前仅支持“文本”类型。

  • 数据内容:定义需要输出的内容。

Last updated