Partager via


Databricks Apps

Databricks Apps permet aux développeurs de créer et de déployer des applications de données et d’IA sécurisées directement sur la plateforme Azure Databricks, ce qui élimine le besoin d’une infrastructure distincte. Les applications sont hébergées sur la plateforme serverless Azure Databricks et s’intègrent aux services de plateforme clés, notamment :

  • Catalogue Unity pour la gouvernance des données
  • Databricks SQL pour l’interrogation des données
  • Service de modèle pour le déploiement de modèles IA
  • Travaux Lakeflow pour ETL et automatisation
  • OAuth et entités de service pour l’authentification et l’autorisation

Vous pouvez développer vos applications localement, les déployer dans un espace de travail et les déplacer entre les espaces de travail. Ce modèle d’hébergement élimine la nécessité pour les développeurs de gérer la sécurité, l’infrastructure et la conformité, ce qui simplifie le processus de mise en production des outils de données internes.

Pour plus d’informations sur la tarification de Databricks Apps, consultez Compute for Apps.

Frameworks pris en charge

Databricks Apps prend en charge les applications Python et Node.js. Les frameworks Python populaires incluent Streamlit, Dash et Gradio. Node.js frameworks tels que React, Angular, Svelte et Express sont également pris en charge.

La prise en charge de Python et de Node.js active les architectures d’application hybrides. Par exemple, un front-end Node.js associé à un back-end Node.js ou Python. Pour connaître les étapes prises par Azure Databricks pour déployer une application hybride, consultez La logique de déploiement.

Cas d’usage courants

Les applications Databricks fonctionnent bien pour les outils internes qui combinent les données, l’IA et l’automatisation. Voici quelques exemples de cas d’usage :

  • Visualisations de données interactives et tableaux de bord d'intelligence économique intégrés (BI)
  • Applications de chat avec génération augmentée de récupération (RAG) optimisées par Genie
  • Interfaces de configuration personnalisées pour Lakeflow
  • Formulaires d’entrée de données soutenus par Databricks SQL
  • Automatisation des processus métier combinant plusieurs services Azure Databricks
  • Outils d’opérations personnalisées pour le triage et la réponse des alertes

Limites

Support pour les normes de conformité

Databricks Apps est pris en charge avec le profil de sécurité de conformité dans toutes les régions où la norme de conformité sélectionnée est disponible avec le calcul serverless. Pour obtenir une prise en charge à l'échelle régionale pour le calcul sans serveur, consultez la prise en charge du calcul classique et sans serveur.