Terminología de Microsoft Fabric
Obtenga información sobre las definiciones de términos usados en Microsoft Fabric, incluidos los términos específicos de Synapse Data Warehouse, Synapse Ingeniería de datos, Synapse Ciencia de datos, inteligencia en tiempo real, Data Factory y Power BI.
Términos generales
Capacidad: La capacidad es un conjunto dedicado de recursos que está disponible para su uso en un momento dado. La capacidad define la aptitud de un recurso para realizar una actividad o generar resultados. Los diferentes elementos consumen capacidad diferente en un momento determinado. Fabric ofrece capacidad a través de la SKU de Fabric y las versiones de prueba. Para obtener más información, consulte ¿Qué es la capacidad?
Experiencia: Una colección de funcionalidades destinadas a una funcionalidad específica. Las experiencias de Fabric incluyen Synapse Data Warehouse, Synapse Ingeniería de datos, Synapse Ciencia de datos, inteligencia en tiempo real, Data Factory y Power BI.
Elemento: Un elemento es un conjunto de funcionalidades dentro de una experiencia. Los usuarios pueden crearlos, editarlos y eliminarlos. Cada tipo de elemento proporciona funcionalidades diferentes. Por ejemplo, la experiencia de Ingeniería de datos incluye los elementos de definición de trabajos de almacén de lago, cuaderno y Spark.
Inquilino: Un inquilino es una única instancia de Fabric para una organización y se alinea con una instancia de Microsoft Entra ID.
Área de trabajo: Un área de trabajo es una colección de elementos que reúne diferentes funcionalidades en un solo entorno designado para la colaboración. Actúa como un contenedor que usa la capacidad para el trabajo que se ejecuta y proporciona controles sobre quién puede acceder a los elementos que contiene. Por ejemplo, en un área de trabajo, los usuarios crean informes, cuadernos, modelos semánticos, etc. Para más información, consulte el artículo sobre las áreas de trabajo.
Synapse: ingeniería de datos
Almacén de lago: Un almacén de lago es una colección de archivos, carpetas y tablas que representan una base de datos a través de un lago de datos usado por los motores de Apache Spark y SQL para el procesamiento de macrodatos. Un almacén de lago incluye funcionalidades mejoradas para las transacciones ACID cuando se usan las tablas con formato Delta de código abierto. El elemento almacén de lago se hospeda dentro de una carpeta de área de trabajo única en Microsoft OneLake. Contiene archivos en varios formatos (estructurados y no estructurados) organizados en carpetas y subcarpetas. Para más información, consulte ¿Qué es un almacén de lago?
Cuaderno: Un cuaderno de Fabric es una herramienta de programación interactiva de varios lenguajes con funciones enriquecidas. Entre los que se incluyen la creación de código y Markdown, la ejecución y la supervisión de un trabajo de Spark, la vista y la visualización de los resultados, y la colaboración con el equipo. Ayuda a los ingenieros de datos y a los científicos de datos a explorar y procesar datos, y a crear experimentos de aprendizaje automático con código y experiencia de poco código. Se puede transformar fácilmente en una actividad de canalización para la orquestación.
Aplicación Spark: Una aplicación de Apache Spark es un programa escrito por un usuario mediante uno de los lenguajes de API de Spark (Scala, Python, Spark SQL o Java) o los lenguajes agregados por Microsoft (.NET con C# o F#). Cuando se ejecuta una aplicación, se divide en uno o varios trabajos de Spark que se ejecutan en paralelo para procesar los datos más rápido. Para más información, consulte Seguimiento de la aplicación de Spark.
Trabajo de Apache Spark: Un trabajo de Spark forma parte de una aplicación Spark que se ejecuta en paralelo con otros trabajos de la aplicación. Un trabajo consiste en múltiples tareas. Para más información, consulte Supervisión de trabajos de Spark.
Definición de trabajo de Apache Spark: Una definición de trabajo de Spark es un conjunto de parámetros, establecido por el usuario, que indica cómo se debe ejecutar una aplicación Spark. Permite enviar trabajos por lotes o de streaming al clúster de Spark. Para más información, consulte ¿Qué es una definición de trabajo de Apache Spark?
Orden V: Una optimización de escritura en el formato de archivo parquet que permite lecturas rápidas y proporciona rentabilidad y un mejor rendimiento. Todos los motores de Fabric escriben archivos parquet ordenados en v de forma predeterminada.
Data Factory
Conector: Data Factory ofrece un amplio conjunto de conectores que permiten conectarse a diferentes tipos de almacenes de datos. Una vez conectado, puede transformar los datos. Para obtener más información, consulte Conectores.
Canalización de datos: En Data Factory, se usa una canalización de datos para orquestar el movimiento y la transformación de datos. Estas canalizaciones son diferentes de las canalizaciones de implementación en Fabric. Para más información, consulte Canalizaciones en la introducción a Data Factory.
Flujo de datos Gen2:Los flujos de datos proporcionan una interfaz de bajo código para ingerir datos de cientos de orígenes de datos y transformar los datos. Los flujos de datos de Fabric se conocen como Flujo de datos Gen2. El flujo de datos Gen1 existe en Power BI. El Flujo de datos Gen2 ofrece funcionalidades adicionales en comparación con los flujos de datos en Azure Data Factory o Power BI. No se puede actualizar de Gen1 a Gen2. Para más información, consulte Flujos de datos en la introducción a Data Factory.
Desencadenador: una funcionalidad de automatización en Data Factory que inicia canalizaciones basadas en condiciones específicas, como programaciones o disponibilidad de datos.
Synapse: ciencia de datos
Data Wrangler: Data Wrangler es una herramienta basada en cuadernos que proporciona a los usuarios una experiencia inmersiva para realizar análisis exploratorios de datos. La función combina una presentación de datos similar a la cuadrícula con estadísticas de resumen dinámicas y un conjunto de operaciones comunes de limpieza de datos, todas disponibles con algunos iconos seleccionados. Cada operación genera un código que se puede guardar de nuevo en el cuaderno como un script reutilizable.
Experimento: Un experimento de aprendizaje automático es la unidad principal de organización y control para todas las ejecuciones de aprendizaje automático relacionadas. Para obtener más información, consulte Experimentos de aprendizaje automático en Microsoft Fabric.
Modelo: Un modelo de Machine Learning es un archivo entrenado para reconocer determinados tipos de patrones. Se entrena un modelo a través de un conjunto de datos y se proporciona un algoritmo que se usa para razonar y aprender de ese conjunto de datos. Para obtener más información, consulte Modelo de Machine Learning.
Ejecución: Una ejecución corresponde a una única tirada del código del modelo. En MLflow, el seguimiento se basa en los experimentos y las ejecuciones.
Almacenamiento de datos de Synapse
Punto de conexión de análisis SQL: cada Instancia del almacén de lago tiene un punto de conexión de análisis SQL que permite al usuario consultar los datos de la tabla delta con TSQL a través de TDS. Para más información, consulte Punto de conexión de análisis SQL.
Synapse Data Warehouse: La funcionalidad de Synapse Data Warehouse funciona como un almacenamiento de datos tradicional y admite todas las capacidades transaccionales de T-SQL que cabría esperar de un almacenamiento de datos empresarial. Para obtener más información, vea Synapse Data Warehouse.
Inteligencia en tiempo real
Base de datos KQL: la base de datos KQL alberga datos en un formato en el que puede ejecutar consultas KQL. Para obtener más información, consulte Consulta de una base de datos KQL.
Conjunto de consultas KQL: El conjunto de consultas KQL es el elemento que se usa para ejecutar consultas, ver resultados y manipular los resultados de la consulta en los datos de la base de datos de Data Explorer. El conjunto de consultas incluye las bases de datos y las tablas, las consultas y los resultados. El conjunto de consultas KQL permite guardar consultas para su uso futuro o exportar y compartir consultas con otros usuarios. Para más información, lea Consulta de datos en un conjunto de consultas KQL
Flujo de eventos: La función de flujos de eventos de Microsoft Fabric proporciona un lugar centralizado en la plataforma Fabric para capturar, transformar y enrutar eventos en tiempo real a destinos con una experiencia sin código. Un flujo de eventos consta de varios orígenes de datos de flujos, destinos de ingesta y un procesador de eventos cuando se necesita la transformación. Para obtener más información, consulte Flujos de eventos de Microsoft Fabric.
OneLake
- Acceso directo: Los accesos directos son referencias incrustadas en OneLake que remiten a otras ubicaciones de almacén de archivos. Proporcionan una manera de conectarse a los datos existentes sin tener que copiarlos directamente. Para más información, consulte Accesos directos de OneLake.