Modelos
Introdução – Modelos de Linguagem no Contexto de Agentes de IA
Modelos de linguagem são a base da inteligência de um agente de IA. Eles funcionam como "o cérebro" que processa textos, interpreta perguntas, compreende contextos e gera respostas coerentes. Esses modelos são treinados com grandes quantidades de dados para aprender padrões da linguagem humana e aplicá-los na resolução de problemas, na geração de conteúdo e na tomada de decisões automatizadas.
No Skyone Studio, a escolha do modelo de linguagem é um passo estratégico. Ele determina a qualidade das respostas, a velocidade de processamento, a profundidade da análise e até o custo da operação. Diferentes modelos possuem diferentes capacidades, alguns são mais rápidos e econômicos, enquanto outros são mais avançados e contextualmente precisos.
Toda configuração de agente, Skill ou fluxo depende diretamente da escolha de um modelo adequado.
Tipos de Modelos
Categorias de Modelos no Skyone Studio
Atualmente, o Skyone Studio trabalha com duas categorias de modelos de linguagem (LLMs): Embarcados (nativos) e Integrados. Cada uma possui características e formas de operação distintas.
1. Embarcados (Nativos)
Os modelos embarcados, como GPT-OSS, Llama 3.2, Llama 3.2 Vision, Gemma e Granite, são fornecidos e mantidos pela Skyone. Eles são baixados e executados diretamente nos ambientes internos do Skyone Studio, utilizando recursos locais de processamento e operando dentro de uma rede privada de dados.
Esses modelos já estão disponíveis no sistema, não podem ser editados nem removidos, e são utilizados diretamente pelos clientes na execução dos agentes.
Esse formato é indicado para ambientes que exigem maior controle, segurança e confidencialidade, pois todo o processamento ocorre na infraestrutura interna da Skyone, sem depender de conexões externas.
2. Integrados
As LLMs integradas permitem que o cliente conecte soluções de provedores externos (como OpenAI, Anthropic, entre outros) ao Skyone Studio.
Para isso, o cliente precisa:
Criar uma conta na plataforma do provedor;
Gerar uma AppKey (chave de acesso);
Cadastrar a chave no Skyone Studio.
Esses modelos podem ser configurados de duas formas:
OpenAI: informando apenas a chave de acesso (AppKey);
Customizado: informando a AppKey ou a URL do modelo externo.
O Skyone Studio disponibiliza uma interface de integração que permite o uso de LLMs públicas, tanto com token do cliente quanto com o token da própria Skyone.
Essa categoria é ideal para quem deseja acessar modelos mais avançados, atualizados ou especializados, sem precisar manter toda a infraestrutura localmente.

Principais Diferenças entre os Modelos de Linguagem
Capacidade de Contexto (Context Window):
Determina o quanto de informação o modelo consegue "lembrar" e considerar em uma interação.
Modelos com janelas maiores entendem conversas mais longas e complexas.
Precisão e Sofisticação:
Modelos mais avançados costumam gerar respostas mais naturais e contextuais.
Modelos mais enxutos são mais rápidos e econômicos, mas podem ter limitações em interações mais complexas.
Custo de Uso:
Modelos mais potentes tendem a ter custo de processamento mais alto.
Escolher o modelo certo ajuda a equilibrar qualidade e investimento.
Velocidade de Resposta:
Modelos menores respondem mais rapidamente, ideais para interações simples.
Modelos maiores podem ser mais lentos, mas trazem mais profundidade.
Modelos Embarcados Disponíveis no Skyone Studio
Atualmente, o Skyone Studio disponibiliza os seguintes modelos embarcados:
Gemma – Modelo do Google DeepMind, eficiente, seguro e escalável.
GPT OSS – Modelo robusto com alta capacidade de processamento e precisão textual.
Granite – Modelo otimizado para desempenho em tarefas corporativas.
Llama 3.2 – Modelo open-source da Meta com alta performance.
Llama 3.2 Vision – Variante do Llama com suporte aprimorado para interpretação de imagens.
Como Criar um Modelo Integrado
Acesse o menu lateral e clique em “Modelos”.
Clique em “Adicionar modelo”.
Escolha o tipo:
OpenAI: informe sua AppKey gerada na conta OpenAI.
Customizado: informe a AppKey ou URL do provedor externo.
Preencha as informações:
Nome do modelo
Descrição (para identificação interna)
Prompt do sistema: define o comportamento principal do modelo.
Configure os parâmetros avançados:
Temperatura: nível de criatividade da resposta
top_k / top_p: controle de variação de palavras
token_limit: limite de tokens na resposta
context_limit: memória de contexto da conversa
repeat_penalty: penalidade para repetições
Clique em “Salvar” para concluir o cadastro.

Glossário – Termos Utilizados no Contexto de Modelos de Linguagem
Modelo de Linguagem (LLM – Large Language Model): Algoritmo treinado para entender e gerar texto em linguagem natural.
Context Window: Quantidade máxima de tokens (palavras + fragmentos) que o modelo consegue considerar em uma interação.
Token: Unidade de medida que representa uma parte de palavra ou palavra inteira no processamento do modelo.
Fine-Tuning: Processo de re-treinamento de um modelo com dados específicos para especializá-lo em um domínio.
Prompt: Instrução ou entrada de texto fornecida ao modelo para gerar uma resposta. Inference: Processo de execução do modelo para gerar uma resposta.
Inference: Processo de execução do modelo para gerar uma resposta.
Embedding: Representação numérica de texto usada para comparação semântica ou busca.
Vídeo Demonstrativo
Para facilitar a compreensão, assista ao vídeo abaixo com a demonstração prática de todas as etapas apresentadas nesta documentação. O vídeo mostra cada tela, clique e configuração necessária para concluir a criação de modelo.
FAQ – Perguntas Frequentes sobre Modelos de Linguagem
Last updated