Modelos

Introdução – Modelos de Linguagem no Contexto de Agentes de IA

Modelos de linguagem são a base da inteligência de um agente de IA. Eles funcionam como "o cérebro" que processa textos, interpreta perguntas, compreende contextos e gera respostas coerentes. Esses modelos são treinados com grandes quantidades de dados para aprender padrões da linguagem humana e aplicá-los na resolução de problemas, na geração de conteúdo e na tomada de decisões automatizadas.

No Skyone Studio, a escolha do modelo de linguagem é um passo estratégico. Ele determina a qualidade das respostas, a velocidade de processamento, a profundidade da análise e até o custo da operação. Diferentes modelos possuem diferentes capacidades, alguns são mais rápidos e econômicos, enquanto outros são mais avançados e contextualmente precisos.

Toda configuração de agente, Skill ou fluxo depende diretamente da escolha de um modelo adequado.


Tipos de Modelos

Categorias de Modelos no Skyone Studio

Atualmente, o Skyone Studio trabalha com duas categorias de modelos de linguagem (LLMs): Embarcados (nativos) e Integrados. Cada uma possui características e formas de operação distintas.

1. Embarcados (Nativos)

Os modelos embarcados, como GPT-OSS, Llama 3.2, Llama 3.2 Vision, Gemma e Granite, são fornecidos e mantidos pela Skyone. Eles são baixados e executados diretamente nos ambientes internos do Skyone Studio, utilizando recursos locais de processamento e operando dentro de uma rede privada de dados.

Esses modelos já estão disponíveis no sistema, não podem ser editados nem removidos, e são utilizados diretamente pelos clientes na execução dos agentes.

Esse formato é indicado para ambientes que exigem maior controle, segurança e confidencialidade, pois todo o processamento ocorre na infraestrutura interna da Skyone, sem depender de conexões externas.


2. Integrados

As LLMs integradas permitem que o cliente conecte soluções de provedores externos (como OpenAI, Anthropic, entre outros) ao Skyone Studio.

Para isso, o cliente precisa:

  • Criar uma conta na plataforma do provedor;

  • Gerar uma AppKey (chave de acesso);

  • Cadastrar a chave no Skyone Studio.

Esses modelos podem ser configurados de duas formas:

  • OpenAI: informando apenas a chave de acesso (AppKey);

  • Customizado: informando a AppKey ou a URL do modelo externo.

O Skyone Studio disponibiliza uma interface de integração que permite o uso de LLMs públicas, tanto com token do cliente quanto com o token da própria Skyone.

Essa categoria é ideal para quem deseja acessar modelos mais avançados, atualizados ou especializados, sem precisar manter toda a infraestrutura localmente.

Principais Diferenças entre os Modelos de Linguagem

  1. Capacidade de Contexto (Context Window):

  • Determina o quanto de informação o modelo consegue "lembrar" e considerar em uma interação.

  • Modelos com janelas maiores entendem conversas mais longas e complexas.

  1. Precisão e Sofisticação:

  • Modelos mais avançados costumam gerar respostas mais naturais e contextuais.

  • Modelos mais enxutos são mais rápidos e econômicos, mas podem ter limitações em interações mais complexas.

  1. Custo de Uso:

  • Modelos mais potentes tendem a ter custo de processamento mais alto.

  • Escolher o modelo certo ajuda a equilibrar qualidade e investimento.

  1. Velocidade de Resposta:

  • Modelos menores respondem mais rapidamente, ideais para interações simples.

  • Modelos maiores podem ser mais lentos, mas trazem mais profundidade.


Modelos Embarcados Disponíveis no Skyone Studio

Atualmente, o Skyone Studio disponibiliza os seguintes modelos embarcados:

  • Gemma – Modelo do Google DeepMind, eficiente, seguro e escalável.

  • GPT OSS – Modelo robusto com alta capacidade de processamento e precisão textual.

  • Granite – Modelo otimizado para desempenho em tarefas corporativas.

  • Llama 3.2 – Modelo open-source da Meta com alta performance.

  • Llama 3.2 Vision – Variante do Llama com suporte aprimorado para interpretação de imagens.


Como Criar um Modelo Integrado

  1. Acesse o menu lateral e clique em “Modelos”.

  2. Clique em “Adicionar modelo”.

  3. Escolha o tipo:

    • OpenAI: informe sua AppKey gerada na conta OpenAI.

    • Customizado: informe a AppKey ou URL do provedor externo.

  4. Preencha as informações:

    • Nome do modelo

    • Descrição (para identificação interna)

    • Prompt do sistema: define o comportamento principal do modelo.

  5. Configure os parâmetros avançados:

    • Temperatura: nível de criatividade da resposta

    • top_k / top_p: controle de variação de palavras

    • token_limit: limite de tokens na resposta

    • context_limit: memória de contexto da conversa

    • repeat_penalty: penalidade para repetições

  6. Clique em “Salvar” para concluir o cadastro.

Os modelos embarcados já estão disponíveis por padrão e não exigem cadastro.


Glossário – Termos Utilizados no Contexto de Modelos de Linguagem

  • Modelo de Linguagem (LLM – Large Language Model): Algoritmo treinado para entender e gerar texto em linguagem natural.

  • Context Window: Quantidade máxima de tokens (palavras + fragmentos) que o modelo consegue considerar em uma interação.

  • Token: Unidade de medida que representa uma parte de palavra ou palavra inteira no processamento do modelo.

  • Fine-Tuning: Processo de re-treinamento de um modelo com dados específicos para especializá-lo em um domínio.

  • Prompt: Instrução ou entrada de texto fornecida ao modelo para gerar uma resposta. Inference: Processo de execução do modelo para gerar uma resposta.

  • Inference: Processo de execução do modelo para gerar uma resposta.

  • Embedding: Representação numérica de texto usada para comparação semântica ou busca.


Vídeo Demonstrativo

Para facilitar a compreensão, assista ao vídeo abaixo com a demonstração prática de todas as etapas apresentadas nesta documentação. O vídeo mostra cada tela, clique e configuração necessária para concluir a criação de modelo.


FAQ – Perguntas Frequentes sobre Modelos de Linguagem

Qual modelo devo escolher para meu agente de IA?

Depende do objetivo: para interações simples, use modelos mais rápidos e econômicos; para respostas mais complexas e contextuais, opte por modelos mais avançados.

Posso trocar o modelo do meu agente depois de criado?

Sim. No Skyone Studio, é possível alterar o modelo a qualquer momento, ajustando custo e performance conforme a necessidade.

Modelos maiores são sempre melhores?

Não necessariamente. Eles têm mais capacidade, mas também maior custo e tempo de resposta. O ideal é equilibrar performance e eficiência.

O modelo entende múltiplos idiomas?

Sim, a maioria dos modelos de ponta compreende e gera conteúdo em diversos idiomas.

É possível treinar o modelo com dados internos da minha empresa?

Sim, por meio de fine-tuning ou fornecendo contexto via prompts e bases de conhecimento.

Last updated