Editar

Compartir a través de


Análisis de un extremo a otro con Azure Synapse

Azure Synapse Analytics
Azure Cosmos DB
Azure Data Factory
Azure Databricks
Azure Event Hubs

La solución que se describe en este artículo combina una variedad de servicios de Azure que ingieren, almacenan, procesan, enriquecen y sirven datos e información de diferentes orígenes (estructurados, semiestructurados, no estructurados y de streaming).

Architecture

Diagrama de arquitectura para una plataforma de datos moderna con los servicios de datos de Azure.

Descargue un archivo de Visio de esta arquitectura.

Nota

  • Los servicios que se incluyen en esta arquitectura son solo un subconjunto de una familia mucho más amplia de servicios de Azure. Se pueden conseguir resultados similares con otros servicios o características que no se abordan en este diseño.
  • Los requisitos empresariales específicos para el caso de uso de análisis también pueden necesitar el uso de diferentes servicios o características que no se tienen en cuenta en este diseño.

Flujo de datos

Los distintos orígenes de datos del lado izquierdo del diagrama ilustran los casos de uso de análisis que aborda la arquitectura. Los datos fluyen por la solución de manera ascendente como sigue:

Nota:

En las secciones siguientes, Azure Data Lake se usa como inicio de los datos en las distintas fases del ciclo de vida de los datos. Azure Data Lake se organiza en diferentes capas y contenedores de la siguiente manera:

  • La capa sin procesar es el área de aterrizaje de los datos procedentes de los sistemas de origen. Como indica el nombre, los datos de esta capa están en formato sin procesar, sin filtrar y sin depurar.
  • En la siguiente fase del ciclo de vida, los datos se mueven a la capa enriquecida donde los datos se limpian, se filtran y posiblemente se transforman.
  • A continuación, los datos se mueven a la capa mantenida, que es donde se mantienen los datos listos para el consumidor.

Consulte la documentación de Zonas de lago de datos y contenedores para obtener un análisis completo de las capas y contenedores de Azure Data Lake y sus usos.

Servicios de datos de Azure, HTAP nativo en la nube con Azure Cosmos DB y Dataverse

Proceso
  1. Azure Synapse Link para Azure Cosmos DB y Azure Synapse Link para Dataverse le permiten ejecutar análisis casi en tiempo real sobre datos de aplicaciones operativas y empresariales, mediante los motores de análisis que están disponibles en el área de trabajo de Azure Synapse: SQL sin servidor y grupos de Spark.

  2. Al usar Azure Synapse Link para Azure Cosmos DB, use una consulta de SQL sin servidor o un cuaderno del grupo de Spark. Puede acceder al almacén analítico de Azure Cosmos DB y, a continuación, combinar conjuntos de datos de los datos operativos casi en tiempo real con datos del lago de datos o del almacenamiento de datos.

  3. Al usar Azure Synapse Link para Dataverse, use una consulta de SQL sin servidor o un cuaderno del grupo de Spark. Puede acceder a las tablas de Dataverse seleccionadas y, a continuación, combinar conjuntos de datos de los datos de las aplicaciones empresariales casi en tiempo real con datos del lago de datos o del almacenamiento de datos.

Tienda
  1. Los conjuntos de datos resultantes de las consultas de SQL sin servidor se pueden conservar en el lago de datos. Si usa cuadernos de Spark, los conjuntos de datos resultantes se pueden conservar en el lago de datos o en el almacenamiento de datos (grupo de SQL).
Servicio
  1. Cargue los datos pertinentes desde el grupo de SQL de Azure Synapse o el lago de datos en conjuntos de datos de Power BI para la visualización y la exploración de los datos. Los modelos de Power BI implementan un modelo semántico para simplificar el análisis de los datos y relaciones empresariales. Los analistas de negocios usan los informes y paneles de Power BI para analizar los datos y obtener conclusiones de interés empresarial.

  2. Los datos también se pueden compartir de forma segura con otras unidades de negocio o asociados externos de confianza mediante Azure Data Share. Los consumidores de datos tienen la libertad de elegir qué formato de datos quieren usar y también qué motor de proceso es mejor para procesar los conjuntos de datos compartidos.

  3. Los datos estructurados y no estructurados almacenados en el área de trabajo de Synapse también se pueden usar para crear soluciones de minería de conocimiento y usar la inteligencia artificial para descubrir información empresarial valiosa en diferentes tipos de documentos y formatos, incluidos documentos de Office, archivos PDF, imágenes, audio, formularios y páginas web.

Bases de datos relacionales

Ingesta
  1. Use canalizaciones de Azure Synapse para extraer datos de una amplia variedad de bases de datos, tanto en el entorno local como en la nube. Las canalizaciones se pueden desencadenar en función de una programación predefinida, en respuesta a un evento, o se las puede llamar explícitamente mediante las API REST.
Tienda
  1. En la capa de lago de datos sin procesar, organice el lago de datos siguiendo los procedimientos recomendados en torno a qué capas crear, qué estructuras de carpetas usar en cada capa y qué formato de archivos usar para cada escenario de análisis.

  2. Desde la canalización de Azure Synapse, use una actividad de copia de datos para almacenar provisionalmente los datos copiados de las bases de datos relacionales en la capa sin procesar del lago de datos de Azure Data Lake Store Gen2. Puede guardar los datos en formato de texto delimitado o comprimirlos como archivos Parquet.

Proceso
  1. Use flujos de datos, consultas sin servidor de SQL o cuadernos de Spark para validar, transformar y mover los conjuntos de datos de la capa sin procesar, a través de la capa enriquecida y a la capa mantenida en el lago de datos.

    1. Como parte de las transformaciones de datos, puede invocar modelos de aprendizaje automático desde los grupos de SQL mediante T-SQL estándar o cuadernos de Spark. Estos modelos de ML se pueden usar para enriquecer los conjuntos de datos y generar más información empresarial. Estos modelos de Machine Learning se pueden consumir desde Azure Cognitive Services o modelos de ML personalizados de Azure ML.
Servicio
  1. Puede servir el conjunto de datos final directamente desde la capa mantenida del lago de datos o puede usar la actividad de copia de datos para ingerir el conjunto de datos final en las tablas del grupo de SQL mediante el comando COPY para una ingesta rápida.

  2. Cargue los datos pertinentes desde el grupo de SQL de Azure Synapse o el lago de datos en conjuntos de datos de Power BI para la visualización de los datos. Los modelos de Power BI implementan un modelo semántico para simplificar el análisis de los datos y relaciones empresariales. Los analistas de negocios usan los informes y paneles de Power BI para analizar los datos y obtener conclusiones de interés empresarial.

  3. Los datos también se pueden compartir de forma segura con otras unidades de negocio o asociados externos de confianza mediante Azure Data Share. Los consumidores de datos tienen la libertad de elegir qué formato de datos quieren usar y también qué motor de proceso es mejor para procesar los conjuntos de datos compartidos.

  4. Los datos estructurados y no estructurados almacenados en el área de trabajo de Synapse también se pueden usar para crear soluciones de minería de conocimiento y usar la inteligencia artificial para descubrir información empresarial valiosa en diferentes tipos de documentos y formatos, incluidos documentos de Office, archivos PDF, imágenes, audio, formularios y páginas web.

Orígenes de datos semiestructurados

Ingesta
  1. Use canalizaciones de Azure Synapse para extraer datos de una amplia variedad de orígenes de datos semiestructurados, tanto en el entorno local como en la nube. Por ejemplo:

    • Ingiera datos de orígenes basados en archivos que contienen archivos CSV o JSON.
    • Conéctese a bases de datos que no sean SQL, como Azure Cosmos DB o MongoDB.
    • Llame a las API REST que las aplicaciones SaaS proporcionan y que funcionarán como origen de datos de la canalización.
Tienda
  1. En la capa de lago de datos sin procesar, organice el lago de datos siguiendo los procedimientos recomendados en torno a qué capas crear, qué estructuras de carpetas usar en cada capa y qué formato de archivos usar para cada escenario de análisis.

  2. Desde la canalización de Azure Synapse, use una actividad de copiar de datos para almacenar provisionalmente los datos copiados de los orígenes de datos semiestructurados en la capa sin procesar del lago de datos de Azure Data Lake Store Gen2. Guarde los datos conservando el formato original tal como se adquirió desde los orígenes de datos.

Proceso
  1. Para las canalizaciones de loteo microlote, use flujos de datos, consultas sin servidor de SQL o cuadernos de Spark para validar, transformar y mover los conjuntos de datos a la capa mantenida del lago de datos. Las consultas de SQL sin servidor exponen archivos CSV, Parquet o JSON subyacentes como tablas externas para que se puedan consultar mediante T-SQL.

    1. Como parte de las transformaciones de datos, puede invocar modelos de Machine Learning desde los grupos de SQL mediante T-SQL estándar o cuadernos de Spark. Estos modelos de ML se pueden usar para enriquecer los conjuntos de datos y generar más información empresarial. Estos modelos de Machine Learning se pueden consumir desde Azure Cognitive Services o modelos de ML personalizados de Azure ML.
  2. Para escenarios de telemetría casi en tiempo real y análisis de series temporal, use grupos del Explorador de datos para ingerir, consolidar y correlacionar fácilmente registros y datos de eventos de IoT en varios orígenes de datos. Con los grupos del Explorador de datos, puede utilizar consultas Kusto (KQL) para realizar análisis de series temporales, agrupación geoespacial y enriquecimiento de aprendizaje automático.

Servicio
  1. Puede servir el conjunto de datos final directamente desde la capa mantenida del lago de datos o puede usar la actividad de copia de datos para ingerir el conjunto de datos final en las tablas del grupo de SQL mediante el comando COPY para una ingesta rápida.

  2. Cargue los datos pertinentes desde los grupos de SQL de Azure Synapse, los grupos del Explorador de datos o un lago de datos en conjuntos de datos de Power BI para la visualización de los datos. Los modelos de Power BI implementan un modelo semántico para simplificar el análisis de los datos y relaciones empresariales. Los analistas de negocios usan los informes y paneles de Power BI para analizar los datos y obtener conclusiones de interés empresarial.

  3. Los datos también se pueden compartir de forma segura con otras unidades de negocio o asociados externos de confianza mediante Azure Data Share. Los consumidores de datos tienen la libertad de elegir qué formato de datos quieren usar y también qué motor de proceso es mejor para procesar los conjuntos de datos compartidos.

  4. Los datos estructurados y no estructurados almacenados en el área de trabajo de Synapse también se pueden usar para crear soluciones de minería de conocimiento y usar la inteligencia artificial para descubrir información empresarial valiosa en diferentes tipos de documentos y formatos, incluidos documentos de Office, archivos PDF, imágenes, audio, formularios y páginas web.

Orígenes de datos no estructurados

Ingesta
  1. Use canalizaciones de Azure Synapse para extraer datos de una amplia variedad de orígenes de datos no estructurados, tanto en el entorno local como en la nube. Por ejemplo:

    • Ingiera vídeos, imágenes, audios o texto sin formato desde orígenes basados en archivos que contienen los archivos de origen.
    • Llame a las API REST que las aplicaciones SaaS proporcionan y que funcionarán como origen de datos de la canalización.
Tienda
  1. En la capa de lago de datos sin procesar, organice el lago de datos siguiendo los procedimientos recomendados acerca de qué capas crear, qué estructuras de carpetas usar en cada capa y qué formato de archivos usar para cada escenario de análisis.

  2. Desde la canalización de Azure Synapse, use una actividad de copiar de datos para almacenar provisionalmente los datos copiados de los orígenes de datos no estructurados en la capa sin procesar del lago de datos de Azure Data Lake Store Gen2. Guarde los datos conservando el formato original, tal como se adquirió desde los orígenes de datos.

Proceso
  1. Use cuadernos de Spark para validar, transformar, enriquecer y mover los conjuntos de datos de la capa sin procesar, a través de la capa enriquecida, a la capa mantenida en el lago de datos.

    1. Como parte de las transformaciones de datos, puede invocar modelos de Machine Learning desde los grupos de SQL mediante T-SQL estándar o cuadernos de Spark. Estos modelos de ML se pueden usar para enriquecer los conjuntos de datos y generar más información empresarial. Estos modelos de Machine Learning se pueden consumir desde Azure Cognitive Services o modelos de ML personalizados de Azure ML.
Servicio
  1. Puede servir el conjunto de datos final directamente desde la capa mantenida del lago de datos o puede usar la actividad de copiar de datos para ingerir el conjunto de datos final en las tablas de almacenamiento de datos mediante el comando COPY para una ingesta rápida.

  2. Cargue los datos pertinentes desde el grupo de SQL de Azure Synapse o el lago de datos en conjuntos de datos de Power BI para la visualización de los datos. Los modelos de Power BI implementan un modelo semántico para simplificar el análisis de los datos y relaciones empresariales.

  3. Los analistas de negocios usan los informes y paneles de Power BI para analizar los datos y obtener conclusiones de interés empresarial.

  4. Los datos también se pueden compartir de forma segura con otras unidades de negocio o asociados externos de confianza mediante Azure Data Share. Los consumidores de datos tienen la libertad de elegir qué formato de datos quieren usar y también qué motor de proceso es mejor para procesar los conjuntos de datos compartidos.

  5. Los datos estructurados y no estructurados almacenados en el área de trabajo de Synapse también se pueden emplear para crear soluciones de minería de conocimiento y usar la inteligencia artificial para descubrir información empresarial valiosa en diferentes tipos de documentos y formatos, incluidos documentos de Office, archivos PDF, imágenes, audio, formularios y páginas web.

Streaming

Ingesta
  1. Use Azure Event Hubs o Azure IoT Hubs para ingerir flujos de datos generados por aplicaciones cliente o dispositivos IoT. A continuación, Event Hubs o IoT Hub ingerirán y almacenarán los datos de streaming conservando la secuencia de los eventos recibidos. Después, los consumidores pueden conectarse a los puntos de conexión de Event Hubs o IoT Hub y recuperar los mensajes para su procesamiento.
Tienda
  1. En la capa de lago de datos sin procesar, organice el lago de datos siguiendo los procedimientos recomendados en torno a qué capas crear, qué estructuras de carpetas usar en cada capa y qué formato de archivos usar para cada escenario de análisis.

  2. Configure Captura de Event Hubs o Puntos de conexión de almacenamiento de IoT Hub para guardar una copia de los eventos en la capa sin procesar del lago de datos de Azure Data Lake Store Gen2. Esta característica implementa la "ruta de acceso inactiva" del patrón de arquitectura lambda, y le permite realizar análisis históricos y de tendencias en los datos de flujo guardados en el lago de datos mediante consultas de SQL sin servidor o cuadernos de Spark siguiendo el patrón para los orígenes de datos semiestructurados descrito anteriormente.

Proceso
  1. Para la información en tiempo real, use un trabajo de Stream Analytics para implementar la "ruta de acceso activa" del patrón de arquitectura lambda y obtener conclusiones de los datos de flujo en tránsito. Defina al menos una entrada para el flujo de datos procedente de Event Hubs o IoT Hub, una consulta para procesar el flujo de datos de entrada y una salida de Power BI a donde se enviarán los resultados de la consulta.

    1. Como parte del procesamiento de datos con Stream Analytics, puede invocar modelos de Machine Learning para enriquecer los conjuntos de datos de flujo e impulsar decisiones empresariales basadas en las predicciones generadas. Estos modelos de Machine Learning se pueden consumir desde Azure Cognitive Services o desde modelos de ML personalizados en Azure Machine Learning.
  2. Utilice otras salidas de trabajos de Stream Analytics para enviar los eventos procesados a los grupos de SQL o a los grupos del Explorador de datos de Azure Synapse para otros casos de uso analítico.

  3. Para escenarios de telemetría casi en tiempo real y análisis de series temporal, use grupos del Explorador de datos para ingerir fácilmente eventos de IoT directamente desde Event Hubs o IoT Hubs. Con los grupos del Explorador de datos, puede utilizar consultas Kusto (KQL) para realizar análisis de series temporales, agrupación geoespacial y enriquecimiento de aprendizaje automático.

Servicio
  1. A continuación, los analistas de negocios usarán conjuntos de datos en tiempo real y funcionalidades de paneles de Power BI para visualizar la cambiante información que genera la consulta de Stream Analytics.

  2. Los datos también se pueden compartir de forma segura con otras unidades de negocio o asociados externos de confianza mediante Azure Data Share. Los consumidores de datos tienen la libertad de elegir qué formato de datos quieren usar y también qué motor de proceso es mejor para procesar los conjuntos de datos compartidos.

  3. Los datos estructurados y no estructurados almacenados en el área de trabajo de Synapse también se pueden usar para crear soluciones de minería de conocimiento y usar la inteligencia artificial para descubrir información empresarial valiosa en diferentes tipos de documentos y formatos, incluidos documentos de Office, archivos PDF, imágenes, audio, formularios y páginas web.

Componentes

Se han utilizado los siguientes servicios de Azure en la arquitectura:

Alternativas

Detalles del escenario

En este escenario de ejemplo se muestra cómo usar Azure Synapse Analytics con la amplia familia de Azure Data Services para crear una plataforma de datos moderna capaz de hacer frente a los desafíos de datos más habituales de una organización.

Posibles casos de uso

Este enfoque también se puede utilizar para:

  • Establecer una arquitectura de producto de datos, que conste de un almacenamiento de datos para los datos estructurados y un lago de datos para los semiestructurados y no estructurados. Puede optar por implementar un único producto de datos para entornos centralizados o varios productos de datos para entornos distribuidos, como la malla de datos. Consulte más información sobre la administración de datos y las zonas de aterrizaje de datos.
  • Integrar orígenes de datos relacionales con otros conjuntos de datos no estructurados, mediante el uso de tecnologías de procesamiento de macrodatos.
  • Usar el modelado semántico y potentes herramientas de visualización para simplificar el análisis de los datos.
  • Compartir conjuntos de datos dentro de la organización o con asociados externos de confianza.
  • Implemente soluciones de minería de conocimiento para extraer valiosa información empresarial oculta en imágenes, archivos PDF o documentos, entre otros.

Recomendaciones

Detección y gobernanza

La gobernanza de datos es un desafío común en entornos empresariales grandes. Por un lado, los analistas de negocios deben ser capaces de detectar y comprender los recursos de datos que pueden ayudarles a resolver problemas empresariales. Por otro lado, los directores de datos quieren información sobre la privacidad y la seguridad de los datos empresariales.

Microsoft Purview

  1. Use Microsoft Purview para la detección de datos y la información sobre los recursos de datos, la clasificación de datos y la confidencialidad, de modo que abarque todo el panorama de datos de la organización.

  2. Microsoft Purview puede ayudarle a mantener un glosario empresarial con la terminología empresarial específica necesaria para que los usuarios comprendan la semántica de lo que significan los conjuntos de datos, y cómo estos están diseñados para usarse en toda la organización.

  3. Puede registrar todos los orígenes de datos y organizarlos en Colecciones, que también actúa como límite de seguridad para los metadatos.

  4. Configure exámenes periódicos para catalogar y actualizar automáticamente los metadatos pertinentes sobre los recursos de datos de la organización. Microsoft Purview también puede agregar automáticamente información de linaje de datos basada en la información de canalizaciones de Azure Data Factory o de Azure Synapse.

  5. Las etiquetas de clasificación de datos y confidencialidad de datos se pueden agregar automáticamente a los recursos de datos en función de las reglas preconfiguradas o personalizadas aplicadas durante los exámenes periódicos.

  6. Los profesionales de gobernanza de datos pueden usar los informes y la información que genera Microsoft Purview para mantener el control sobre todo el panorama de datos, y para proteger la organización frente a cualquier problema de seguridad y privacidad.

Servicios de plataforma

Para mejorar la calidad de las soluciones de Azure, siga las recomendaciones e instrucciones definidas en los cinco pilares de excelencia de la arquitectura del Marco de buena arquitectura de Azure: optimización de costos, excelencia operativa, eficiencia del rendimiento, confiabilidad y seguridad.

Siguiendo estas recomendaciones, los servicios a continuación deben considerarse como parte del diseño:

  1. Microsoft Entra ID: servicios de identidad, inicio de sesión único y autenticación multifactor entre cargas de trabajo de Azure.
  2. Microsoft Cost Management: gobernanza financiera sobre las cargas de trabajo de Azure.
  3. Azure Key Vault: administración segura de credenciales y certificados. Por ejemplo, canalizaciones de Azure Synapse, grupos de Spark de Azure Synapse y Azure ML pueden recuperar credenciales y certificados de Azure Key Vault que se usan para acceder de forma segura a los almacenes de datos.
  4. Azure Monitor: recopile, analice y actúe sobre la información de telemetría de los recursos de Azure para identificar de forma proactiva los problemas, y maximizar el rendimiento y la confiabilidad.
  5. Microsoft Defender for Cloud: refuerce y supervise la posición de seguridad de las cargas de trabajo de Azure.
  6. Azure DevOps y GitHub: implemente prácticas de DevOps para aplicar la automatización y el cumplimiento en las canalizaciones de implementación y desarrollo de cargas de trabajo para Azure Synapse y Azure ML.
  7. Azure Policy: implemente normas organizacionales y gobernanza para la coherencia de los recursos, el cumplimiento normativo, la seguridad, el costo y la administración.

Consideraciones

Estas consideraciones implementan los pilares del marco de buena arquitectura de Azure, que es un conjunto de principios guía que se pueden usar para mejorar la calidad de una carga de trabajo. Para más información, consulte Marco de buena arquitectura de Microsoft Azure.

Se eligieron las tecnologías de esta arquitectura porque cada una de ellas proporciona la funcionalidad necesaria para hacer frente a los más comunes desafíos de datos de una organización. Estos servicios cumplen los requisitos de escalabilidad y disponibilidad, a la vez que ayudan a controlar los costos. Los servicios que se incluyen en esta arquitectura son solo un subconjunto de una familia mucho más amplia de servicios de Azure. Se pueden conseguir resultados similares con otros servicios o características que no se incluyen en este diseño.

Los requisitos empresariales específicos para los casos de uso de análisis también pueden necesitar el uso de diferentes servicios o características que no se tienen en cuenta en este diseño.

También se puede implementar una arquitectura similar para entornos de preproducción, donde puede desarrollar y probar las cargas de trabajo. Tenga en cuenta los requisitos específicos de las cargas de trabajo y las funcionalidades de cada servicio para un entorno de preproducción rentable.

Optimización de costos

La optimización de costos trata de buscar formas de reducir los gastos innecesarios y mejorar las eficiencias operativas. Para más información, vea Información general del pilar de optimización de costos.

En general, use la calculadora de precios de Azure para calcular los costos. El plan de tarifa individual ideal y el costo total de cada servicio incluido en la arquitectura depende de la cantidad de datos que se van a procesar y almacenar, y del nivel de rendimiento aceptable esperado. Use la guía siguiente para más información sobre cómo se calcula el precio de cada servicio:

  • La arquitectura sin servidor de Azure Synapse Analytics le permite escalar los niveles de proceso y almacenamiento por separado. Los recursos de proceso se cobran según el uso, y puede escalar o pausar estos recursos a petición. Los recursos de almacenamiento se facturan por terabyte, por lo que los costos aumentan con la ingesta de datos.

  • Azure Data Lake Gen2 se cobra en función de la cantidad de datos almacenados y en función del número de transacciones para leer y escribir datos.

  • Azure Event Hubs y Azure IoT Hubs se cobran en función de la cantidad de recursos de proceso necesarios para procesar los flujos de mensajes.

  • Los cargos de Azure Machine Learning proceden de la cantidad de recursos de proceso que se usan para entrenar e implementar los modelos de Machine Learning.

  • Cognitive Services se cobra en función del número de llamadas que haga a las API de servicio.

  • Microsoft Purview tiene un precio basado en el número de recursos de datos del catálogo y en la cantidad de potencia de proceso necesaria para examinarlos.

  • Azure Stream Analytics se cobra en función de la cantidad de potencia de proceso necesaria para procesar las consultas de flujo.

  • Power BI tiene opciones de producto diferentes para distintos requisitos. Power BI Embedded proporciona una opción basada en Azure para insertar la funcionalidad de Power BI en las aplicaciones. En el precio de ejemplo anterior se incluye una instancia de Power BI Embedded.

  • Azure Cosmos DB tiene un precio basado en la cantidad de recursos de almacenamiento y proceso que requieren las bases de datos.

Implementación de este escenario

Este acelerador de implementación le ofrece la opción de implementar toda la arquitectura de referencia o elegir las cargas de trabajo que necesita para el caso de uso de análisis. También tiene la opción de seleccionar si los servicios son accesibles a través de puntos de conexión públicos o si solo se va a acceder a ellos a través de puntos de conexión privados.

Use el botón siguiente para implementar la referencia mediante Azure Portal.

Implementación en Azure

Para obtener información detallada y opciones de implementación adicionales, consulte el repositorio de GitHub del acelerador de implementación con la documentación y el código usados para definir esta solución.

Colaboradores

Microsoft está actualizando y manteniendo este artículo. Originalmente lo escribieron los siguientes colaboradores.

Autor principal:

Para ver los perfiles no públicos de LinkedIn, inicie sesión en LinkedIn.

Pasos siguientes