Skip to content
  • Modelo de IA

Seleccione el modelo LLM utilizado en la solicitud.

  • palabra clave

Las palabras rápidas se utilizan para guiar al modelo a generar contenido de texto. Cuando utilizamos el modelo LLM para generar texto, generalmente necesitamos proporcionar una palabra clave, es decir, ingresar un fragmento de texto o palabras clave para guiar al modelo a generar el siguiente contenido en función de esta palabra clave. Las palabras rápidas pueden ayudar al modelo a comprender las intenciones y los temas del usuario, generando así un texto que esté más en línea con las necesidades del usuario. Al diseñar racionalmente palabras clave, el contenido y el estilo del texto generado se pueden controlar hasta cierto punto, lo que hace que el texto generado sea más preciso y satisfaga las necesidades.

  • Temperatura

El parámetro de temperatura se utiliza para controlar la diversidad de resultados generados por el modelo. Es decir, al ajustar el parámetro de temperatura, se puede controlar la creatividad y la aleatoriedad del texto generado por el modelo. Los parámetros de temperatura más altos hacen que el modelo genere texto más diverso y aleatorio, mientras que los parámetros de temperatura más bajos conducen a la generación de texto más determinista y consistente. Por lo tanto, ajustar los parámetros de temperatura puede equilibrar la diversidad y precisión del texto generado según las necesidades específicas de la aplicación.

  • Límite de respuestas

Establezca el límite superior de la respuesta, que es la longitud máxima de Tokens en el texto generado por el modelo. Si se establece en 0, significa que no hay límite. En este momento, la longitud máxima depende del límite de longitud máxima de salida del modelo. ¡Tenga en cuenta que es la longitud máxima de los tokens de respuesta! No tokens de contexto.

  • Plantilla de contenido de cotización
Esta configuración solo tiene efecto cuando se pasa contenido de referencia (búsqueda en la base de conocimientos).
La estructura del contenido de referencia se puede personalizar para adaptarse mejor a diferentes escenarios. Algunas variables se pueden utilizar para la configuración de la plantilla:
{{q}} - Buscar contenido, {{a}} - Que esperar, {{source}} - fuente,{{sourceId}} - nombre del archivo fuente,{{index}} - enésima referencia,{{score}} - La puntuación de la referencia (0-1), son opcionales, los siguientes son los valores predeterminados:
{{default}}
<data>
{{q}}
{{a}}    
</data>
  • Palabras clave del contenido de la cita
Esta configuración solo tiene efecto cuando se busca en la base de conocimientos.
Puede utilizar {{quote}} para insertar una plantilla de contenido de cotización y {{question}} para insertar una pregunta. Los siguientes son los valores predeterminados:
Utilice el contenido de la etiqueta <data></data> como su conocimiento:

{{quote}}

Responde la solicitud:
- Si no sabes la respuesta, necesitas una aclaración.
- Evite mencionar el conocimiento que adquirió a partir de los datos.
- Mantener las respuestas coherentes con las descritas en datos.
- Utilice la sintaxis de Markdown para optimizar el formato de respuesta.
- Responder en el mismo idioma de la pregunta.

Pregunta:"{{pregunta}}"
  • Base de conocimientos asociada

Una aplicación se puede asociar con múltiples bases de conocimiento. Cada vez que habla con un usuario, el sistema primero vectoriza la consulta del usuario y luego realiza una comparación de similitud con la base de conocimiento asociada. Cuando la similitud excede el umbral establecido, el contenido relevante se pasará al modelo LLM como contexto. Los usuarios pueden personalizar el umbral de similitud y la longitud máxima de los resultados de la consulta. Cuanto mayor sea el valor de similitud, mayor será la coincidencia de datos, mientras que cuanto menor sea el valor, más flexible será la coincidencia.

  • Variables de parámetros

Antes de que comience la conversación, se le puede pedir al usuario que complete algún contenido como variables específicas para esta ronda de conversación. Este módulo se encuentra después del maletero de apertura. Se pueden inyectar variables en la entrada de tipo cadena de otros módulos en forma de {key de variable}, como: palabras de aviso, calificadores, etc.

  • Iniciador de conversación

Antes de que comience cada conversación, envía un contenido inicial. Se admite la sintaxis estándar de Markdown; se pueden utilizar etiquetas adicionales: [Teclas de acceso directo]: los usuarios pueden enviar la pregunta directamente después de hacer clic en ella

La documentación de esta página se mejora continuamente. Si tiene alguna pregunta sobre la configuración de la IA y desea que nuestros ingenieros le brinden ayuda, Contáctenos