Modelos

Introducción – Modelos de Lenguaje en el Contexto de Agentes de IA

Los modelos de lenguaje son la base de la inteligencia de un agente de IA. Funcionan como “el cerebro” que procesa textos, interpreta preguntas, comprende contextos y genera respuestas coherentes. Estos modelos son entrenados con grandes volúmenes de datos para aprender los patrones del lenguaje humano y aplicarlos en la resolución de problemas, la generación de contenido y la toma de decisiones automatizadas.

En Skyone Studio, la elección del modelo de lenguaje es un paso estratégico. Determina la calidad de las respuestas, la velocidad de procesamiento, la profundidad del análisis e incluso el costo operativo. Diferentes modelos poseen diferentes capacidades: algunos son más rápidos y económicos, mientras que otros son más avanzados y precisos en su comprensión contextual.

Toda configuración de agente, Skill o flujo depende directamente de la elección de un modelo adecuado.


Tipos de Modelos Categorías de Modelos en Skyone Studio

Actualmente, Skyone Studio trabaja con dos categorías de modelos de lenguaje (LLMs): Embarcados (nativos) e Integrados. Cada una posee características y formas de operación distintas.


1. Embarcados (Nativos)

Los modelos embarcados, como GPT-OSS, Llama 3.2, Llama 3.2 Vision, Gemma y Granite, son proporcionados y mantenidos por Skyone.

Se descargan y ejecutan directamente en los entornos internos de Skyone Studio, utilizando recursos locales de procesamiento y operando dentro de una red privada de datos.

Estos modelos ya están disponibles en el sistema, no pueden ser editados ni eliminados, y son utilizados directamente por los clientes para la ejecución de agentes.

Este formato es ideal para entornos que requieren mayor control, seguridad y confidencialidad, ya que todo el procesamiento ocurre dentro de la infraestructura interna de Skyone, sin depender de conexiones externas.


2. Integrados

Los LLMs integrados permiten que el cliente conecte soluciones de proveedores externos (como OpenAI, Anthropic, entre otros) a Skyone Studio.

Para hacerlo, el cliente debe:

  • Crear una cuenta en la plataforma del proveedor;

  • Generar una AppKey (clave de acceso);

  • Registrar la clave en Skyone Studio.

Estos modelos pueden configurarse de dos formas:

  • OpenAI: proporcionando únicamente la AppKey;

  • Personalizado: proporcionando la AppKey o la URL del modelo externo.

Skyone Studio ofrece una interfaz de integración que permite el uso de LLMs públicos, ya sea con el token del cliente o con el token de Skyone.

Esta categoría es ideal para quienes desean acceder a modelos más avanzados, actualizados o especializados, sin necesidad de mantener toda la infraestructura localmente.


Principales Diferencias entre los Modelos de Lenguaje

  1. Capacidad de Contexto (Context Window):

  • Determina cuánta información el modelo puede “recordar” y considerar en una interacción.

  • Modelos con ventanas mayores entienden conversaciones más largas y complejas.

  1. Precisión y Sofisticación:

  • Modelos más avanzados suelen generar respuestas más naturales y contextuales.

  • Modelos más livianos son más rápidos y económicos, pero pueden tener limitaciones en interacciones complejas.

  1. Costo de Uso:

  • Modelos más potentes tienden a tener un costo de procesamiento más alto.

  • Elegir el modelo adecuado ayuda a equilibrar calidad e inversión.

  1. Velocidad de Respuesta:

  • Modelos más pequeños responden con mayor rapidez, ideales para interacciones simples.

  • Modelos más grandes pueden ser más lentos, pero ofrecen mayor profundidad.


Modelos Embarcados Disponibles en Skyone Studio

Actualmente, Skyone Studio pone a disposición los siguientes modelos embarcados:

  • Gemma – Modelo de Google DeepMind, eficiente, seguro y escalable.

  • GPT OSS – Modelo robusto con alta capacidad de procesamiento y gran precisión textual.

  • Granite – Modelo optimizado para el rendimiento en tareas corporativas.

  • Llama 3.2 – Modelo open-source de Meta con alto nivel de desempeño.

  • Llama 3.2 Vision – Variante de Llama con soporte mejorado para la interpretación de imágenes.


Cómo Crear un Modelo Integrado

  1. Accede al menú lateral y haz clic en “Modelos”.

  2. Haz clic en “Agregar modelo”.

  3. Elige el tipo:

    • OpenAI: ingresa tu AppKey generada en tu cuenta de OpenAI.

    • Personalizado: ingresa la AppKey o la URL del proveedor externo.

  4. Completa la información:

    • Nombre del modelo

    • Descripción (para identificación interna)

    • Prompt del sistema: define el comportamiento principal del modelo.

  5. Configura los parámetros avanzados:

    • Temperatura: nivel de creatividad de la respuesta.

    • top_k / top_p: control de variación en la selección de palabras.

    • token_limit: límite de tokens en la respuesta.

    • context_limit: memoria de contexto de la conversación.

    • repeat_penalty: penalización por repeticiones.

  6. Haz clic en “Guardar” para completar el registro.

Los modelos embarcados ya están disponibles por defecto y no requieren registro.


Glosario – Términos Utilizados en el Contexto de Modelos de Lenguaje

  • Modelo de Lenguaje (LLM – Large Language Model): Algoritmo entrenado para comprender y generar texto en lenguaje natural.

  • Context Window: cantidad máxima de tokens (palabras + fragmentos) que el modelo puede considerar en una interacción.

  • Token: unidad de medida que representa una parte de una palabra o palabra completa en el procesamiento del modelo.

  • Fine-Tuning: proceso de reentrenamiento de un modelo con datos específicos para especializarlo en un dominio.

  • Prompt: instrucción o entrada de texto proporcionada al modelo para generar una respuesta.

  • Inference: proceso de ejecución del modelo para generar una respuesta.

  • Embedding: representación numérica de un texto utilizada para comparación semántica o búsqueda

FAQ – Preguntas Frecuentes sobre Modelos de Lenguaje

¿Qué modelo debo elegir para mi agente de IA?

Depende del objetivo: para interacciones simples, utilice modelos rápidos y económicos; para respuestas más complejas y contextuales, opte por modelos más avanzados.

¿Puedo cambiar el modelo de mi agente después de crearlo?

Sí. En Skyone Studio es posible modificar el modelo en cualquier momento, ajustando costo y rendimiento según la necesidad.

¿Los modelos más grandes son siempre mejores?

No necesariamente. Tienen mayor capacidad, pero también implican un costo y un tiempo de respuesta más altos. Lo ideal es equilibrar rendimiento y eficiencia.

¿El modelo entiende múltiples idiomas?

Sí, la mayoría de los modelos de última generación comprenden y generan contenido en varios idiomas.

¿Es posible entrenar el modelo con datos internos de mi empresa?

Sí, a través de fine-tuning o proporcionando contexto mediante prompts y bases de conocimiento.

Last updated