- AI 模型
选择应用中使用的LLM模型。
- 提示词
提示词是指导模型生成文本内容的作用。在使用LLM模型生成文本时,我们通常需要提供一个提示词,即输入一段文本或关键词,以引导模型根据这个提示词来生成接下来的内容。提示词可以帮助模型理解用户的意图和主题,从而生成更加符合用户需求的文本。通过合理设计提示词,可以在一定程度上控制生成文本的内容和风格,使生成的文本更加准确和满足需求。
- 温度
温度参数用于控制模型生成的输出的多样性,即通过调整温度参数可以控制模型生成的文本的创造性和随机性。较高的温度参数会导致模型生成更加多样化和随机的文本,而较低的温度参数则会导致生成更加确定性和一致的文本。因此,调整温度参数可以根据具体的应用需求来平衡生成文本的多样性和准确性。
- 回复上限
设置回复上限,即模型生成文本的Tokens最大长度,如果设置为0,则表示不限制。此时最大长度取决于模型的最大输出长度限制,注意是回复的Tokens最大长度!不是上下文Tokens。
- 引用内容模板
该配置只有传入引用内容(知识库搜索)时生效。
可以自定义引用内容的结构,以更好的适配不同场景。可以使用一些变量来进行模板配置:
{{q}} - 检索内容, {{a}} - 预期内容, {{source}} - 来源,{{sourceId}} - 来源文件名,{{index}} - 第n个引用,{{score}} - 该引用的得分(0-1),他们都是可选的,下面是默认值:
{{default}}
<data>
{{q}}
{{a}}
</data>
- 引用内容提示词
该配置只在知识库搜索时生效。
可以用 {{quote}} 来插入引用内容模板,使用 {{question}} 来插入问题。下面是默认值:
使用 <data></data> 标记中的内容作为你的知识:
{{quote}}
回答要求:
- 如果你不清楚答案,你需要澄清。
- 避免提及你是从 data 获取的知识。
- 保持答案与 data 中描述的一致。
- 使用 Markdown 语法优化回答格式。
- 使用与问题相同的语言回答。
问题:"{{question}}"
- 关联知识库
一个应用可以关联多个知识库。每次与用户对话时,系统会先将用户的查询向量化,然后与关联的知识库进行相似度比对。当相似度超过设定的阈值时,相关内容将作为上下文传递给LLM模型。用户可以自定义相似度阈值和查询结果的最大长度。相似度数值越大表示数据匹配度越高,而数值越小则意味着匹配度较为灵活。
- 参数变量
可以在对话开始前,要求用户填写一些内容作为本轮对话的特定变量。该模块位于开场引导之后。 变量可以通过 {变量key}
的形式注入到其他模块 string 类型的输入中,例如:提示词、限定词等
- 对话开场白
每次对话开始前,发送一个初始内容。支持标准 Markdown 语法,可使用的额外标记: [快捷按键]: 用户点击后可以直接发送该问题
此页文档正在持续完善中,如果您在AI配置中有任何疑问,希望我们的工程师提供协助,请联系我们