Glosario

A continuación, se presenta la terminología de Skyone Studio:

Término
Significado y Uso

Parámetro / Parameter

Se refiere a los valores que deben proporcionarse a las operaciones para que puedan ejecutarse. La definición de los parámetros ocurre únicamente dentro de la definición de las operaciones.

El término “parámetros”, comúnmente usado para diversas designaciones, será reemplazado por muestras, variables y datos de ejecución según el contexto.

<>parameter</>

muestra / sample

Son los valores de ejemplo que proporcionamos al crear un parámetro. La muestra se utiliza para completar el parámetro durante la fase de construcción y prueba de la operación.

variables / variables:

Son los parámetros actuales de flujo, integración y contexto. Las variables se crean en tiempo de configuración, pueden pasarse a los parámetros de las operaciones en tiempo de ejecución y pueden actualizarse mediante el módulo Update Parameters. Las variables se clasifican según su alcance de disponibilidad: Flujo, Integración y Contexto.

[]identificador : variable[/]

datos de ejecución / execution data

Son todos los datos recibidos de módulos conectores o generados dentro de la ejecución de un flujo.

{}modulo : nombre_dato{/}

Ad Hoc Reports (Informes Ad Hoc)

Informes personalizados generados bajo demanda por los usuarios para necesidades específicas.

Agentes Autónomos (Autonomous Agents)

Agentes de IA que pueden realizar tareas y tomar decisiones sin supervisión humana constante.

Agentes de Fuerza de Trabajo (Workforce Agents)

Agentes de IA diseñados para trabajar junto a equipos humanos, automatizando tareas y aumentando la productividad.

Alta Adaptabilidad (High Adaptability)

La capacidad de los agentes de IA de ajustarse rápidamente a los cambios en su entorno.

API (Interfaz de Programación de Aplicaciones)

Conjunto de reglas y especificaciones que los programas de software pueden seguir para comunicarse entre sí.

API Gateway

Herramienta de gestión de APIs que se encuentra frente a una interfaz de programación de aplicaciones (API) y actúa como un único punto de entrada para un conjunto definido de APIs.

Arquitectura CIF (Corporate Information Factory)

Modelo de arquitectura de Data Warehouse propuesto por Bill Inmon, enfocado en datos corporativos estructurados y centralizados.

Automatización (Automation)

El uso de tecnología para realizar tareas con mínima asistencia humana.

BI (Inteligencia de Negocios)

El proceso de análisis de datos para proporcionar insights accionables que ayudan a las organizaciones a tomar decisiones empresariales informadas.

Big Data

Grandes volúmenes de datos caracterizados por los 5 V: Volumen, Velocidad, Variedad, Valor y Veracidad. Requiere tecnologías avanzadas para su almacenamiento y procesamiento.

Capacidad Plug-and-Play (Plug-and-Play Capability)

El diseño de integraciones para trabajar de manera flexible con varios agentes, permitiendo una implementación sencilla y adaptación a las necesidades del negocio.

Carga de Datos (Data Load)

Proceso de inserción de datos en un Data Warehouse, que puede ser inicial o incremental.

Cleaning (Limpieza de Datos)

Etapa del proceso ETL responsable de eliminar inconsistencias, duplicados y datos inválidos.

Colaboración (Collaboration)

La interacción y cooperación entre usuarios humanos y agentes de IA.

Recolección de Datos (Data Collection)

El proceso de recopilar y medir información sobre variables de interés, lo que permite responder preguntas de investigación, probar hipótesis y evaluar resultados.

Comportamiento Orientado a Objetivos (Goal-Oriented Behavior)

La capacidad de los agentes de IA de tomar decisiones basadas en el contexto para alinear sus acciones con los objetivos estratégicos del negocio.

Computación en la Nube (Cloud Computing)

La entrega de servicios de computación —incluidos servidores, almacenamiento, bases de datos, redes, software, análisis e inteligencia— a través de Internet (la nube), con el fin de ofrecer innovación más rápida, recursos flexibles y economías de escala.

Conectores (Connectors)

Integraciones preconstruidas que permiten que la capa iPaaS se conecte con múltiples aplicaciones y fuentes de datos.

Consumo (Consumption)

El uso de agentes de IA y sus capacidades.

Integración de Datos (Data Integration)

Proceso que armoniza, transforma y mueve datos entre diferentes sistemas.

Data Lake

Un repositorio centralizado que almacena todos los datos estructurados y no estructurados en cualquier escala.

Data Mart

Subconjunto de un Data Warehouse enfocado en un área específica del negocio.

Data Warehouse

Repositorio central de datos integrados de una o más fuentes distintas. Almacena datos actuales e históricos en un único lugar que se utiliza para crear informes analíticos en toda la organización.

DataOps

Metodología que aplica los principios de DevOps a la gestión de datos, con el objetivo de mejorar la automatización y la colaboración.

Democratización de Datos (Data Democratization)

El proceso de hacer los datos accesibles a todos en una organización para permitir decisiones basadas en datos.

Dimensión

Estructura de datos en el DW utilizada para categorizar y describir hechos, como tiempo, ubicación y productos.

DSS (Decision Support System)

Sistemas diseñados para ayudar en la toma de decisiones.

EIS (Executive Information System)

Sistemas diseñados para proporcionar información estratégica a gerentes y ejecutivos.

ELT (Extract, Load, Transform)

Alternativa al ETL, donde los datos se cargan antes de ser transformados.

Enriquecimiento de Datos (Data Enrichment)

El proceso de mejorar los datos brutos añadiendo información o contexto relacionados.

Entendimiento Contextual (Contextual Understanding)

La capacidad de un agente de IA de interpretar el significado de la entrada del usuario basándose en la información circundante y las interacciones previas.

ETL (Extract, Transform, Load)

Proceso que extrae datos de diversas fuentes, los transforma y los carga en un Data Warehouse.

Hecho (Fact)

Información cuantitativa almacenada en el DW utilizada para análisis, como ventas y beneficios.

Flujo de Trabajo Agéntico (Agentic Workflow)

Proceso automatizado orquestado por agentes de IA para alcanzar objetivos específicos.

Flujos de Trabajo Personalizables (Customizable Workflows)

Flujos de trabajo de IA que pueden adaptarse para cumplir con requisitos específicos del negocio.

Fuerza Laboral de Agentes (Agent Workforce)

Equipo de agentes de IA que trabajan colaborativamente para lograr objetivos complejos.

Gobernanza de Datos (Data Governance)

Gestión general de la disponibilidad, usabilidad, integridad y seguridad de los datos en un sistema empresarial.

Gobernanza y Orquestación (Governance and Orchestration)

Estructura que gestiona la autonomía de los agentes de IA, regulando su acceso a sistemas y garantizando operaciones seguras alineadas con las políticas organizacionales.

GPU (Unidad de Procesamiento Gráfico)

Circuito electrónico especializado diseñado para manipular y alterar rápidamente la memoria, acelerando la creación de imágenes en un búfer de cuadro destinado a la salida en un dispositivo de visualización.

Habilidades (Skills)

Capacidades o funciones específicas que pueden ser realizadas por agentes de IA.

IA (Inteligencia Artificial)

La capacidad de una máquina para imitar el comportamiento inteligente humano.

IA Agéntica/Autónoma (Agentic/Autonomous AI)

Agentes de IA que operan de manera independiente, utilizando IA generativa para reducir la dependencia de la intervención humana y optimizar procesos.

IA Generativa (GenAI)

Tipo de Inteligencia Artificial que puede crear contenido nuevo y original —como texto, imágenes, música o código— en respuesta a prompts o entradas del usuario. Utiliza modelos avanzados de aprendizaje automático, como redes neuronales profundas, para analizar y comprender patrones en grandes conjuntos de datos, lo que le permite generar resultados que a menudo son indistinguibles del trabajo humano.

  • Aplicación de la GenAI

  • Creación de Contenido: La GenAI puede utilizarse para crear contenido escrito, como artículos, publicaciones de blog, poemas e incluso guiones para películas o obras de teatro.

  • Generación de Imágenes: Puede generar imágenes realistas o abstractas basadas en descripciones textuales, abriendo nuevas posibilidades para el arte digital y el diseño.

  • Desarrollo de Software: La GenAI puede asistir en la escritura de código, sugiriendo fragmentos, completando líneas automáticamente e incluso identificando errores y fallos.

  • Atención al Cliente: Los chatbots impulsados por GenAI pueden ofrecer respuestas más naturales y personalizadas a las preguntas de los clientes, mejorando la experiencia del usuario.

  • Investigación y Desarrollo: La GenAI puede utilizarse para simular escenarios y generar datos sintéticos, acelerando la investigación y el desarrollo en diversas áreas como la medicina y la ingeniería.

  • Beneficios de la GenAI

  • Aumento de la Creatividad: La GenAI puede ayudar a desbloquear la creatividad al proporcionar nuevas ideas e inspiraciones.

  • Mejora de la Eficiencia: Puede automatizar tareas repetitivas y que consumen tiempo, liberando espacio para actividades más estratégicas y creativas.

  • Personalización: La GenAI puede generar contenido y experiencias personalizadas para cada usuario, incrementando el compromiso y la satisfacción.

  • Innovación: Puede conducir a nuevos descubrimientos y avances en diversas áreas, impulsando la innovación y el progreso.

  • Desafíos de la GenAI

  • Sesgo y Discriminación: Los modelos de GenAI pueden perpetuar sesgos y discriminación presentes en los datos de entrenamiento, generando resultados injustos o perjudiciales.

  • Plagio y Derechos de Autor: La GenAI plantea cuestiones sobre plagio y derechos de autor, ya que puede generar contenido que se asemeja al trabajo de otras personas.

  • Desinformación: La GenAI puede ser utilizada para crear y difundir desinformación, con graves consecuencias para la sociedad.

  • Ética y Responsabilidad: El uso de la GenAI genera interrogantes éticos y de responsabilidad, exigiendo una reflexión cuidadosa sobre sus impactos e implicaciones.

IDP (Procesamiento Inteligente de Documentos)

Tecnología que utiliza IA para extraer y procesar automáticamente información de documentos.

Ingesta de Datos (Data Ingestion)

Proceso de importar datos desde múltiples fuentes a un sistema de almacenamiento de datos.

Inmon (Bill Inmon)

Uno de los creadores del concepto de Data Warehouse, defensor de la estructuración centralizada de los datos.

Integración (Integration)

Proceso de conectar diferentes sistemas y fuentes de datos para que trabajen de forma conjunta.

Integración Híbrida (Hybrid Integration)

Capacidad de conectar e integrar sistemas y datos en entornos locales (on-premises) y en la nube.

Interoperabilidad de Exportación de Datos (Data Export Interoperability)

Capacidad de un sistema para exportar e integrar fácilmente datos con otras plataformas y sistemas.

iPaaS (Plataforma de Integración como Servicio)

Conjunto de servicios basados en la nube que permite desarrollar, ejecutar y gobernar flujos de integración que conectan múltiples aplicaciones, datos y procesos.

Ventana de Contexto (Context Window)

Límite del número de tokens que un LLM puede procesar simultáneamente.

Kimball (Ralph Kimball)

Creador de una metodología de Data Warehouse basada en Data Marts y modelado dimensional.

Lakehouse

Sistema de gestión de datos que combina las características de un data lake y un data warehouse, ofreciendo escalabilidad y flexibilidad para diversos tipos de datos con la estructura y gobernanza de un data warehouse.

LLM (Modelo de Lenguaje Grande)

Modelo avanzado de IA entrenado con grandes volúmenes de datos textuales, capaz de comprender, generar e interpretar lenguaje natural con alta precisión.

LLM Privado (Private LLM)

Modelo de Lenguaje Grande alojado de forma privada.

LMM (Modelo Multimodal Grande)

Modelo de IA similar a los LLM, pero capaz de procesar y generar múltiples tipos de datos, como texto, imágenes y audio.

Master Data Management (MDM)

Estrategia para estandarizar y gestionar los datos maestros dentro de una organización.

Metabase

Herramienta de business intelligence de código abierto que permite explorar y visualizar datos.

Metadatos

Datos que describen otros datos, proporcionando contexto y estructura.

Modelos Preconstruidos (Pre-Built Models)

Modelos de IA listos para usar que pueden desplegarse rápidamente.

ODS (Operational Data Store)

Repositorio intermedio entre los sistemas operacionales y el Data Warehouse, usado para la integración de datos en tiempo real.

OLAP (Online Analytical Processing)

Tecnología que permite análisis complejos y multidimensionales sobre datos almacenados.

OLTP (Online Transaction Processing)

Sistemas transaccionales optimizados para la grabación y actualización frecuente de datos.

Omnicanal (Omnichannel)

Enfoque de ventas multicanal que ofrece al cliente una experiencia integrada. El cliente puede comprar en línea desde un ordenador, dispositivo móvil, por teléfono o en una tienda física, y la experiencia será fluida.

Organización de Datos (Data Organization)

Sistemas transaccionales optimizados para la grabación y actualización frecuente de datos. (Nota: la definición es idéntica a la de OLTP).

Pipeline de Datos

Conjunto de procesos automatizados que mueven datos entre sistemas.

Pipelines

Flujos de trabajo automatizados dentro de la capa iPaaS que definen la secuencia de pasos de integración y transformación de datos.

Power BI

Servicio de análisis empresarial de Microsoft que ofrece visualizaciones interactivas y capacidades de business intelligence con una interfaz simple que permite a los usuarios finales crear sus propios informes y tableros (dashboards).

Procesamiento en Tiempo Real (Real-Time Processing)

Procesamiento de datos tan pronto como se ingresan en el sistema.

Publicación (Publication)

Proceso de poner a disposición los agentes de IA y sus funcionalidades para su uso.

Publicación Multicanal (Multi-channel Publishing)

Capacidad de implementar agentes de IA en múltiples canales de comunicación.

RPA (Automatización Robótica de Procesos)

Tecnología que utiliza robots de software para automatizar tareas empresariales repetitivas.

Segmentación de Datos (Data Segmentation)

Proceso de dividir un conjunto de datos en grupos distintos basados en características compartidas.

Silos

Sistemas de datos aislados o departamentos dentro de una organización que no comparten información de manera efectiva.

Esquema de Copo de Nieve (Snowflake Schema)

Modelo de base de datos que normaliza las tablas dimensionales, reduciendo redundancias pero aumentando la complejidad de las consultas.

Esquema Estrella (Star Schema)

Modelo de base de datos con una tabla de hechos central y tablas de dimensión desnormalizadas, optimizando el rendimiento de las consultas.

Área de Staging (Staging Area)

Área temporal en el Data Warehouse donde los datos se cargan antes del procesamiento final.

Token

Unidad básica de texto que los LLM procesan. Las palabras o partes de palabras pueden ser tokens.

Tokenización (Tokenization)

Proceso de dividir el texto en unidades más pequeñas llamadas tokens para su procesamiento por LLM.

Transformación (Transformation)

Proceso de cambiar o modificar datos o procesos.

Transformación de Datos (Data Transformation)

Etapa del ETL donde los datos se manipulan para ajustarse al formato del Data Warehouse.

Uso Inteligente de Herramientas (Intelligent Use of Tools)

Capacidad de los agentes de IA para utilizar herramientas y habilidades disponibles para interpretar el contexto y ejecutar acciones con precisión.

Veracidad

Uno de los 5 Vs del Big Data; se refiere a la confiabilidad de los datos recolectados.

Volumen

Se refiere a la capacidad de manejar grandes cantidades de datos.

Last updated