# Configuración del agente de IA ## Avanzadas ### Diseño de prompt Permite editar el prompt inicial del LLM como un objeto JSON que se forma dinámicamente con información de la conversación y constantes definidas. ### Constantes Permite definir un conjunto de pares clave/valor que pueden usarse en la definición del prompt. ### Contexto variable Permite definir un punto final de servicio (url) al que se realizará una solicitud POST, según el [Protocolo de integración](https://docs.induxsoft.net/es/iae/agentes/protocolo-integracion.md) para recuperar información que complemente el contexto con base a una clave proporcionada al agente. ### Parámetros Son un conjunto de pares/clave valor que se envían en la carga útil de la solicitud de contexto variable y de verificación de token de identificación del usuario. ### Más opciones #### Indicaciones por canal Desde aquí es posible proporcionar contexto adicional específico al canal indicado, así como un identificador de contexto variable para recuperar dinámicamente más contexto. #### Mensajes predeterminados Estos son mensajes constantes de respuesta cuando el agente no tiene habilitadas algunas características (sensoriales) #### Otras configuraciones - Segundos de espera por mensajes. Por regla general, el agente procesa un mensaje de un usuario por vez (para no perder el hilo), no obstante en algunas ocasiones puede que lleguen más mensajes mientras no se ha terminado de procesar uno previo. En estos casos, este valor permite al agente esperar los segundos indicados antes de seguir procesando, un valor de 0 se considera como el predeterminado de 60 sefundos. - Amplitud de la memoria. Permit configurar qué tanto de la memoria se utiliza en realidad, de manera predeterminada es toda la conversación. - Siempre extraer texto de documentos. Si habilita esta casilla, se extraerá todo el contenido de texto de archivos (pdf, docx y xlslx) y se mantendrá en el contexto de la conversación. - Tratar como texto las siguientes extensiones. Indica al agente que las extensiones indicadas sean tratadas como texto, lo que implica que cuando se cargue ese tipo de archivos, todo su contenido será parte del contexto de la conversación. - Máximo de turnos y mensaje de respuesta cuando se alcanzan. Esto sirve para limitar la cantidad de veces que se usa el LLM en una conversación para evitar gastos excesivos provocados por curiosos o usuarios malintencionados. #### Disparadores ##### Monitoreo ##### Finalización