Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En esta página se explica cómo usar los datos de Azure Databricks desde las siguientes plataformas después de crear una conexión:
- Power Apps: cree aplicaciones que puedan leer y escribir en Azure Databricks, a la vez que conservan los controles de gobernanza de Azure Databricks.
- Power Automate: cree flujos y agregue acciones que permitan ejecutar SQL personalizado o un trabajo existente y obtener los resultados.
- Copilot Studio: cree agentes personalizados mediante los datos de Azure Databricks como origen de conocimiento o conecte espacios de Genie como herramientas.
Prerrequisitos
Antes de conectarse a Azure Databricks desde Power Platform, debe crear una conexión a Azure Databricks en Microsoft Power Platform.
Utilice sus datos de Azure Databricks para crear aplicaciones de lienzo Power.
Para agregar los datos de Azure Databricks a la aplicación, haga lo siguiente:
- En la barra de navegación situada más a la izquierda en Power Apps, haga clic en Crear.
- Haga clic en Iniciar con un lienzo en blanco y elija el tamaño del lienzo deseado para crear una nueva aplicación de lienzo.
- En la aplicación, haga clic en Agregar conectores > de datos > de Azure Databricks. Haga clic en la conexión de Azure Databricks que creó.
- Seleccione un catálogo en la barra lateral Elegir un conjunto de datos .
- Desde el panel lateral Choose a dataset, seleccione todas las tablas a las que desea conectar la aplicación Canvas.
- Haga clic en Conectar.
Operaciones de datos en Power Apps:
El conector admite operaciones de creación, actualización y eliminación, pero solo para tablas que tienen definida una clave principal. Al realizar operaciones de creación, siempre debe especificar la clave principal.
Azure Databricks admite columnas de identidad generadas. En este caso, los valores de clave principal se generan automáticamente en el servidor durante la creación de filas y no se pueden especificar manualmente.
Uso de los datos de Azure Databricks para crear flujos de Power Automate
La API de ejecución de instrucciones y la API de trabajos de Azure Databricks se exponen en Power Automate, lo que le permite escribir instrucciones SQL y ejecutar trabajos existentes. Para crear un flujo de Power Automate mediante Azure Databricks como una acción, haga lo siguiente:
En la barra de navegación situada más a la izquierda en Power Automate, haga clic en Crear.
Cree un flujo y agregue cualquier tipo de desencadenador.
En el nuevo flujo, haga clic + y busque "Databricks" para ver las acciones disponibles.
Para escribir una consulta SQL, seleccione una de las siguientes acciones:
Ejecute una instrucción SQL: escriba y ejecute una instrucción SQL. Escribe lo siguiente:
- En Body/warehouse_id, escriba el identificador del almacén en el que se va a ejecutar la instrucción SQL.
- En Cuerpo/statement_id, escriba el identificador de la instrucción SQL que se va a ejecutar.
Para más información sobre los parámetros avanzados, consulte la documentación de api.
Comprobar el estado y obtener resultados: compruebe el estado de una instrucción SQL y recopile los resultados. Escribe lo siguiente:
- Para ID de instrucción, introduzca el identificador devuelto cuando se ejecutó la instrucción SQL.
Para más información sobre el parámetro , consulte la documentación de api.
Cancele la ejecución de una instrucción: Finalice la ejecución de una instrucción SQL. Escribe lo siguiente:
- En el ID de la instrucción, escriba el identificador de la instrucción SQL que se desea finalizar.
Para más información sobre el parámetro , consulte la documentación de api.
Obtener el resultado por índice de fragmento: Obtiene los resultados por índice de fragmentos, que es adecuado para grandes conjuntos de resultados. Escribe lo siguiente:
- En ID de instrucción, introduzca el identificador de la instrucción SQL cuyos resultados desea obtener.
- En el índice de fragmento, escriba el índice de fragmento de destino.
Para más información sobre los parámetros, consulte la documentación de api.
Para interactuar con un trabajo de Azure Databricks existente, seleccione una de las siguientes acciones:
- Enumerar trabajos: Recupera una lista de trabajos. Para más información, consulte la documentación de api.
-
Desencadenar una nueva ejecución de trabajo: Ejecuta un trabajo y devuelve el
run_idde la ejecución desencadenada. Para más información, consulte la documentación de api. -
Obtenga una sola ejecución de trabajo: Devuelve metadatos sobre una ejecución, incluido el estado de ejecución (por ejemplo,
RUNNING, ,SUCCESSFAILED), la hora de inicio y finalización, las duraciones de ejecución, la información del clúster, etc. Para más información, consulte la documentación de api. - Cancelar una ejecución: Cancela una ejecución de trabajo o una ejecución de tareas. Para más información, consulte la documentación de api.
- Obtenga la salida de una sola ejecución: Recupera la salida y los metadatos de una sola ejecución de trabajo o tarea. Para más información, consulte la documentación de api.
Conexión a espacios de Genie en Copilot Studio
Importante
Esta característica está en versión preliminar pública.
Importante
Antes de usar esta característica, haga lo siguiente:
- Habilite la versión preliminar de los servidores MCP administrados en el área de trabajo. Consulte Administración de versiones preliminares de Azure Databricks.
- Cree una conexión a Azure Databricks en Power Apps. Consulte Creación de una conexión de Azure Databricks en Microsoft Power Platform.
AI/BI Genie es una característica de Azure Databricks que permite a los equipos empresariales interactuar con sus datos mediante lenguaje natural. Para obtener más información sobre cómo configurar espacios de Genie en Azure Databricks, consulte ¿Qué es un espacio de AI/BI Genie? Asegúrese de proporcionar al espacio de Azure Databricks Genie un nombre y una descripción claros.
Para agregar un espacio de Genie como una herramienta en un agente de Copilot Studio, haga lo siguiente:
En la barra lateral de Copilot Studio, haga clic en Agente.
Seleccione un agente existente o cree un nuevo agente haciendo clic en + Crear agente en blanco.
Seleccione el modelo del agente. Databricks recomienda que selecciones Sonnet 4.5 como el modelo de tu agente.
En Instrucciones, describa las funcionalidades del agente y cómo debe comportarse.
- Databricks recomienda incluir lo siguiente en las instrucciones: "Siga sondeando siempre el espacio de Genie hasta que reciba una respuesta. No se detenga después de unos segundos". Esto impide que la integración envíe repetidamente un mensaje de "aún en proceso" mientras el agente sondea el espacio de Genie.
En Herramientas, haga clic en + Agregar una herramienta.
Busque "Azure Databricks" o seleccione Protocolo de contexto de modelo.
Seleccione Azure Databricks Genie, elija la conexión a Azure Databricks junto a Conexión y haga clic en Agregar y configurar.
Configure la herramienta Azure Databricks Genie:
- Asigne un nombre a la herramienta. Un nombre de herramienta más descriptivo ayuda a que el agente de Copilot Studio organice las solicitudes.
- En Entradas, escriba el identificador de espacio de Genie o seleccione el espacio de Genie en el menú desplegable.
- Para utilizar el flujo en nombre de otro (OBO), en Detalles, haga clic en Detalles adicionales. Seleccione Credenciales de usuario final como credenciales que se van a usar. Para usar una identidad singular, seleccione Credenciales proporcionadas por maker.
- Para las credenciales de usuario final, debe habilitar el uso compartido de parámetros de conexión, consulte la documentación de Microsoft o los usuarios deben tener una conexión preexistente a Azure Databricks. Si el uso compartido de parámetros de conexión no está habilitado, los usuarios deben crear su conexión a Azure Databricks en Power Apps.
- Guarde la herramienta.
- (Opcional) Actualice la sección herramientas de la pantalla de configuración para confirmar que el espacio de Genie está conectado.
En la esquina superior derecha, haga clic en Configuración. En la sección Orquestación, haga clic en Sí para utilizar la orquestación de IA generativa en las respuestas de su agente.
Para publicar el agente, haga clic en Publicar en la esquina superior derecha.
(Opcional) Publique el agente de Copilot Studio habilitado para Genie en Microsoft Teams o Microsoft 365 para distribuir la información de Genie a otros usuarios. Para obtener información sobre cómo publicar el agente, consulte la documentación de Microsoft.
Puede agregar su agente a una Power App. Para configurar una aplicación de Power App, consulte Usa tus datos de Azure Databricks para crear aplicaciones canvas de Power. Para agregar el agente de Copilot Studio a power App, consulte la documentación de Microsoft.
Para usar el agente en la aplicación publicada, abra la aplicación publicada, haga clic en el icono de Copilot en la esquina superior derecha y haga una pregunta.
Uso de Azure Databricks como origen de conocimiento en Copilot Studio
Para agregar los datos de Azure Databricks como origen de conocimiento a un agente de Copilot Studio, haga lo siguiente:
En la barra lateral de Copilot Studio, haga clic en Agente.
Seleccione un agente existente o cree un nuevo agente haciendo clic en + Nuevo agente.
- Describa el agente mediante la entrada de un mensaje y, a continuación, haga clic en Crear.
- O bien, haga clic en Omitir para especificar manualmente la información del agente.
En la pestaña Conocimiento , haga clic en + Conocimientos.
Haz clic en Avanzado.
Haga clic en Azure Databricks como origen de conocimiento.
Escriba el nombre del catálogo en el que están los datos.
Haga clic en Conectar.
Seleccione las tablas que desea que use el agente como origen de conocimiento y haga clic en Agregar.
Creación de tablas virtuales de Dataverse con los datos de Azure Databricks
También puede crear tablas virtuales de Dataverse con el conector de Azure Databricks. Las tablas virtuales, también conocidas como entidades virtuales, integran datos de sistemas externos con Microsoft Dataverse. Una tabla virtual define una tabla en Dataverse sin almacenar la tabla física en la base de datos de Dataverse. Para más información sobre las tablas virtuales, consulte Introducción a las tablas virtuales (entidades).
Nota:
Aunque las tablas virtuales no consumen capacidad de almacenamiento de Dataverse, Databricks recomienda usar conexiones directas para mejorar el rendimiento.
Debe tener el rol Personalizador del sistema o Administrador del sistema. Para más información, consulte Roles de seguridad para Power Platform.
Siga estos pasos para crear una tabla virtual de Dataverse:
- En Power Apps, en la barra lateral, haga clic en Tablas.
- Haga clic en + Nueva tabla en la barra de menús y seleccione Crear una tabla virtual.
- Seleccione una conexión de Azure Databricks existente o cree una conexión a Azure Databricks. Para agregar una nueva conexión, consulte Creación de una conexión de Azure Databricks en Microsoft Power Platform.
- Databricks recomienda usar una conexión de entidad de servicio para crear una tabla virtual.
- Haga clic en Siguiente.
- Seleccione las tablas que se van a representar como una tabla virtual de Dataverse.
Nota:
Las tablas virtuales de Dataverse requieren una clave principal. La clave debe ser un GUID (cadena), bigInt o un entero. Las vistas no pueden ser tablas virtuales, pero las vistas materializadas pueden ser.
- Haga clic en Siguiente.
- Configure la tabla virtual actualizando los detalles de la tabla, si es necesario.
- Haga clic en Siguiente.
- Confirme los detalles del origen de datos y haga clic en Finalizar.
- Use la tabla virtual de Dataverse en Power Apps, Power Automate y Copilot Studio.
Para obtener una lista de las limitaciones conocidas de las tablas virtuales de Dataverse, consulte Limitaciones conocidas y solución de problemas.
¿Debe usar tablas virtuales o una conexión directa?
Las tablas virtuales de Dataverse y una conexión directa ofrecen diferentes ventajas. El método que elija depende de su caso de uso. En la tabla siguiente se resumen las principales funcionalidades de cada método.
| Método de acceso a datos | Acceso directo de credenciales de usuario final a través de OAuth | Copia cero | Read | Escribir en Azure Databricks | Aplicaciones Canvas | Aplicaciones controladas por modelos |
|---|---|---|---|---|---|---|
| Conexión directa | ✔ | ✔ | ✔ | ✔ | ✔ | |
| Tablas virtuales de Dataverse | ✔ | ✔ | ✔ | ✔ | ✔ |
Realización de actualizaciones por lotes
Si necesita realizar operaciones masivas de creación, actualización o eliminación en respuesta a las entradas de Power Apps, Databricks recomienda implementar un flujo de Power Automate. Para ello, siga estos pasos:
Cree una aplicación de lienzo mediante la conexión Azure Databricks en Power Apps.
Cree un flujo de Power Automate mediante la conexión de Azure Databricks y use Power Apps como desencadenador.
En el desencadenador de Power Automate, agregue los campos de entrada que desea pasar de Power Apps a Power Automate.
Cree un objeto de colección en Power Apps para recopilar todos los cambios.
Agregue el flujo de Power Automate a la aplicación Canvas.
Llame al flujo Power Automate desde su aplicación de lienzo y realice iteraciones sobre la colección utilizando el comando
ForAll.ForAll(collectionName, FlowName.Run(input field 1, input field 2, input field 3, …)
Escrituras simultáneas
La simultaneidad de nivel de fila reduce los conflictos entre las operaciones de escritura simultáneas mediante la detección de cambios en el nivel de fila y la resolución automática de los conflictos que se producen cuando operaciones de escritura simultáneas actualizan o eliminan filas diferentes en el mismo archivo de datos.
La concurrencia a nivel de fila está incluida en Databricks Runtime 14.2 o superior. La simultaneidad de nivel de fila se admite de forma predeterminada para los siguientes tipos de tablas:
- Tablas con vectores de eliminación habilitados y sin particiones
- Tablas con agrupación en clústeres líquidos, a menos que los vectores de eliminación estén deshabilitados
Para habilitar vectores de eliminación, ejecute el siguiente comando SQL.
ALTER TABLE table_name SET TBLPROPERTIES ('delta.enableDeletionVectors' = true);
Para más información sobre los conflictos de escritura simultáneos en Azure Databricks, consulte Niveles de aislamiento y conflictos de escritura en Azure Databricks.
Limitaciones
Limitaciones de Copilot Studio
- Los espacios de Genie en Copilot Studio admiten hasta cinco preguntas por minuto debido a los límites de velocidad de la API de Genie.
Limitaciones de Power Apps
Las siguientes fórmulas de PowerFx calculan valores con solo los datos recuperados localmente:
| Categoría | Formula |
|---|---|
| Función de tabla |
|
| Aggregation |
|