Partager via


Utiliser l’ingestion de données FHIR dans les solutions de données de santé (version préliminaire)

[Cet article fait partie de la documentation en version préliminaire et peut faire l’objet de modifications.]

Utilisez le pipeline d’ingestion de données FHIR pour importer efficacement vos données FHIR (Fast Healthcare Interoperability Resources) à partir du service FHIR Azure Health Data Services et stocker les fichiers JSON bruts dans le lac de données. . Avec une prise en charge complète de toutes les ressources FHIR R4, l’intégration de vos données FHIR dans l’environnement du lac vous permet d’exploiter une richesse de données cliniques, financières (y compris les réclamations et l’explication des avantages) et administratives. Cette intégration facilite le développement de scénarios analytiques adaptés à divers besoins de soins de santé. Ces scénarios incluent des rapports de qualité, la gestion de la santé de la population, des études de recherche clinique, des rapports opérationnels et une aide à la décision.

Pour en savoir plus sur cette fonctionnalité et comprendre comment la déployer et la configurer, accédez à :

La capacité comprend le notebook service d’exportation FHIR healthcare#_msft_fhir_export_service pour transférer les données du service FHIR Azure vers OneLake.

Note

Si vous utilisez vos propres données FHIR, la fonctionnalité d’ingestion des données FHIR est nécessaire pour exécuter d’autres fonctionnalités des solutions de données de santé (version préliminaire). L’ingestion des données FHIR a également une dépendance directe sur la fonctionnalité Sources des données de santé. Avant de déployer l’ingestion des données FHIR et d’exécuter le pipeline, assurez-vous au préalable de déployer et de configurer correctement les sources des données de santé.

Conditions préalables

Avant d’exécuter le notebook du service d’exportation FHIR, assurez-vous d’effectuer les étapes suivantes :

  • Si vous utilisez les services de données de santé Azure comme source de données FHIR, suivez les étapes de configuration décrites dans Utiliser le service FHIR.
  • Si vous n’utilisez pas de serveur FHIR dans votre environnement de test, configurez les exemples de données fournis, comme expliqué dans Déployer les exemples de données.
  • Déployez la fonctionnalité d’ingestion des données FHIR dans votre espace de travail Fabric.
  • Configurez le notebook healthcare#_msft_fhir_export_service comme expliqué dans Configurer le service d’exportation FHIR.

Exécuter le service d’exportation FHIR

Pour utiliser le pipeline d’ingestion de données FHIR, vous pouvez choisir l’une des trois options d’ingestion de données suivantes :

  1. Utilisez les exemples de données fournis avec les solutions de données de santé (version préliminaire).
  2. Apportez vos propres données au Fabric Lakehouse.
  3. Ingérez des données à l’aide d’un service FHIR tel que les Services de données de santé Azure.

Note

L’utilisation d’un service FHIR pour ingérer des données ne fonctionne qu’avec les services FHIR Microsoft propriétaires.

Étant donné que la configuration et l’exécution du notebook diffèrent pour chaque option d’ingestion de données, veillez à consulter les instructions de configuration dans Options d’ingestion de données FHIR.

Le pipeline utilise le point de terminaison de l’opération $export en bloc dans le service FHIR pour exporter les données FHIR vers un conteneur de stockage dans un compte de stockage Azure Data Lake Storage Gen2. Le FHIREExportService module dans le healthcare#_msft_fhir_export_service notebook facilite le statut et le processus de suivi de ces opérations d’exportation.

Après avoir confirmé que vous disposez de la configuration correcte en fonction de votre option d’ingestion de données, suivez ces étapes pour exécuter le pipeline :

  • Sur la page de gestion de la capacité d’ingestion de données FHIR, sélectionnez le Notebook healthcare#_msft_fhir_export_service pour l’ouvrir.
  • Consultez les détails dans le Gestion et configuration de la configuration et Exécutez le FHIREExportService sections.
  • Sélectionnez le Exécuter la cellule ou Exécutez tout option pour exécuter le pipeline et attendre la fin de l’exécution.

Nous vous recommandons de planifier l’exécution de cette tâche de bloc-notes toutes les quatre heures ou selon vos besoins, en fonction de vos besoins.

Important

Par défaut, tous les nouveaux espaces de travail Fabric utilisent la version d’exécution la plus récente de Fabric, qui est désormais Runtime 1.2. Cependant, la solution ne prend actuellement en charge que Runtime 1.1.

Par conséquent, après le déploiement des solutions de données de santé (version préliminaire) sur votre espace de travail, n’oubliez pas de mettre à jour la version d’exécution Fabric par défaut vers Runtime 1.1 (Apache Spark 3.3.1 et Delta Lake 2.2.0) avant d’exécuter l’un des pipelines ou notebooks. Sinon, les exécutions de votre notebook peuvent échouer. Pour plus d’informations, consultez Réinitialiser la version d’exécution Spark dans l’espace de travail Fabric.