Partager via


Installer et exécuter des conteneurs

Ce contenu s’applique à :checkmarkv3.0 (GA)checkmarkv3.1 (GA)checkmarkv4.0 (GA)

Azure AI Intelligence documentaire est un service Azure AI qui vous permet de générer des logiciels de traitement de données automatisé à l’aide de la technologie Machine Learning. Intelligence documentaire vous permet d’identifier et d’extraire du texte, des paires clé/valeur, des marques de sélection et des données de tableau de vos documents, et bien plus encore. Les résultats sont fournis sous forme de données structurées qui.../ incluent les relations dans le fichier d’origine. Les conteneurs traitent uniquement les données qui leur sont fournies et utilisent uniquement les ressources auxquelles ils sont autorisés à accéder. Les conteneurs ne peuvent pas traiter des données d’autres régions.

Dans cet article, vous découvrez comment télécharger, installer et exécuter des conteneurs Intelligence documentaire. Les conteneurs vous permettent d’exécuter le service Intelligence documentaire dans votre propre environnement. Les conteneurs conviennent particulièrement bien à certaines exigences de sécurité et de gouvernance des données.

  • Le modèle de disposition est pris en charge par les conteneurs Document Intelligence v4.0.

  • Les modèles Lecture, Disposition, ID du document, Reçu et Facture sont pris en charge par les conteneurs de Document Intelligence v3.1.

  • Les modèles Lecture, Disposition, Document général, Carte de visite et Personnalisation sont pris en charge par les conteneurs Intelligence documentaire v3.0.

Support de version

La prise en charge des conteneurs est disponible avec Intelligence documentaire version v3.0: 2022-08-31 (GA) pour tous les modèles, version v3.1 2023-07-31 (GA) pour les modèles Lecture, Disposition, Document d’identité, Reçu et Facture et version v4.0 2024-11-30 (GA) pour Disposition :

Prérequis

Pour commencer, il vous faut un compte Azure actif. Si vous n’en avez pas, vous pouvez créer un compte gratuit.

Vous avez également besoin des éléments suivants pour utiliser les conteneurs Intelligence documentaire :

Obligatoire Objectif
Bonne connaissance de Docker Vous devez comprendre les concepts de base liés à Docker (comme les registres, les référentiels, les conteneurs et les images conteneurs), et connaître les principaux docker utilisés pour .
Moteur Docker installé
  • Vous avez besoin d’un moteur Docker installé sur un ordinateur hôte. Docker fournit des packages qui configurent l’environnement Docker sur macOS, Windows et Linux. Pour apprendre les principes de base de Docker et des conteneurs, consultez la vue d’ensemble de Docker.
  • Vous devez configurer Docker pour permettre aux conteneurs de se connecter à Azure et de lui envoyer des données de facturation.
  • Sur Windows, vous devez également configurer Docker pour la prise en charge des conteneurs Linux.
Ressource Intelligence documentaire Une ressource Azure AI Intelligence documentaire à service unique ou multiservice dans le Azure Portal. Pour utiliser ces conteneurs, vous devez disposer de la clé et de l’URI de point de terminaison associés. Ces deux valeurs sont disponibles dans la page Clés et point de terminaison Intelligence documentaire dans le Portail Azure :
  • {FORM_RECOGNIZER_KEY} : une des deux clés de ressource disponibles.
  • {FORM_RECOGNIZER_ENDPOINT_URI} : point de terminaison de la ressource utilisée pour effectuer le suivi des informations de facturation.
Facultatif Objectif
Azure CLI (interface de ligne de commande) L’interface Azure CLI vous permet d’utiliser un ensemble de commandes en ligne pour créer et gérer des ressources Azure. Elle peut s’installer dans les environnements Windows, macOS et Linux, et s’exécuter dans un conteneur Docker et Azure Cloud Shell.

Ordinateur hôte requis

L’hôte est un ordinateur x64 qui exécute le conteneur Docker. Il peut s’agir d’un ordinateur local ou d’un service d’hébergement Docker dans Azure, comme :

Remarque

Le conteneur Studio ne peut pas être déployé et exécuté dans Azure Kubernetes Service. Le conteneur Studio est uniquement pris en charge pour s’exécuter sur des ordinateurs locaux.

Exigences et suggestions relatives au conteneur

Conteneurs de prise en charge requis

Le tableau suivant liste le ou les conteneurs qui prennent en charge chacun des conteneurs Intelligence documentaire que vous téléchargez. Pour plus d’informations, consultez la section Facturation.

Conteneur de fonctionnalités Conteneurs de soutien
Lire Non requis
Mise en page Non requis
Carte de visite Lire
Document général Mise en page
Facture Mise en page
Réception Lecture ou Mise en page
Document d’ID Lire
Modèle personnalisé Mise en page

Remarque

Les valeurs minimale et recommandée sont basées sur les limites de Docker, pas sur les ressources de la machine hôte.

Conteneurs d'intelligence documentaire
Conteneur Minimum Recommandé
Read 8 cœurs, 10 Go de mémoire 8 cœurs, 24 Go de mémoire
Layout 8 cœurs, 16 Go de mémoire 8 cœurs, 24 Go de mémoire
Business Card 8 cœurs, 16 Go de mémoire 8 cœurs, 24 Go de mémoire
General Document 8 cœurs, 12 Go de mémoire 8 cœurs, 24 Go de mémoire
ID Document 8 cœurs, 8 Go de mémoire 8 cœurs, 24 Go de mémoire
Invoice 8 cœurs, 16 Go de mémoire 8 cœurs, 24 Go de mémoire
Receipt 8 cœurs, 11 Go de mémoire 8 cœurs, 24 Go de mémoire
Custom Template 8 cœurs, 16 Go de mémoire 8 cœurs, 24 Go de mémoire
  • Chaque cœur doit être cadencé à au moins 2,6 gigahertz (GHz).
  • Le nombre de cœurs et la quantité de mémoire correspondent aux paramètres --cpus et --memory, qui sont utilisés dans le cadre de la commande docker compose ou docker run.

Conseil

Vous pouvez utiliser la commande docker images pour lister vos images conteneurs téléchargées. Par exemple, la commande suivante liste l’ID, le référentiel et la balise de chaque image conteneur téléchargée dans un tableau :

docker images --format "table {{.ID}}\t{{.Repository}}\t{{.Tag}}"

IMAGE ID         REPOSITORY                TAG
<image-id>       <repository-path/name>    <tag-name>

Exécuter le conteneur à l’aide de la commande docker-compose up

  • Remplacez les valeurs {ENDPOINT_URI} et {API_KEY} par votre URI de point de terminaison de ressource et la clé dans la page de ressources Azure.

    Capture d’écran de la page des clés et des points de terminaison du portail Azure

  • Vérifiez que la valeur de EULA est définie sur accepter.

  • Vous devez spécifier les valeurs EULA, Billing et ApiKey ; sinon, le conteneur ne démarrera pas.

Important

Les clés sont utilisées pour accéder à votre ressource Intelligence documentaire. Ne partagez pas vos clés. Stockez-les en toute sécurité, par exemple, à l’aide de Azure Key Vault. Nous vous recommandons également de régénérer ces clés régulièrement. Une seule clé est nécessaire pour effectuer un appel d’API. Lors de la régénération de la première clé, vous pouvez utiliser la deuxième clé pour un accès continu au service.

L’exemple de code suivant est un exemple docker compose autonome permettant d’exécuter le conteneur Intelligence documentaire Disposition. Avec docker compose, vous utilisez un fichier YAML pour configurer les services de votre application. Ensuite, avec la commande docker-compose up, vous créez et démarrez tous les services à partir de votre configuration. Entrez les valeurs {FORM_RECOGNIZER_ENDPOINT_URI} et {FORM_RECOGNIZER_KEY} pour votre instance de conteneur Disposition.

version: "3.9"
services:
  azure-form-recognizer-layout:
    container_name: azure-form-recognizer-layout
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/layout-4.0
    environment:
      - EULA=accept
      - billing={FORM_RECOGNIZER_ENDPOINT_URI}
      - apiKey={FORM_RECOGNIZER_KEY}
    ports:
      - "5000:5000"
    networks:
      - ocrvnet
networks:
  ocrvnet:
    driver: bridge

Maintenant, vous pouvez démarrer le service à l’aide de la commande docker compose :

docker-compose up

Exécuter le conteneur à l’aide de la commande docker-compose up

  • Remplacez les valeurs {ENDPOINT_URI} et {API_KEY} par votre URI de point de terminaison de ressource et la clé dans la page de ressources Azure.

    Capture d’écran de la page des clés et des points de terminaison du portail Azure

  • Vérifiez que la valeur de EULA est définie sur accepter.

  • Vous devez spécifier les valeurs EULA, Billing et ApiKey ; sinon, le conteneur ne démarrera pas.

Important

Les clés sont utilisées pour accéder à votre ressource Intelligence documentaire. Ne partagez pas vos clés. Stockez-les en toute sécurité, par exemple, à l’aide de Azure Key Vault. Nous vous recommandons également de régénérer ces clés régulièrement. Une seule clé est nécessaire pour effectuer un appel d’API. Lors de la régénération de la première clé, vous pouvez utiliser la deuxième clé pour un accès continu au service.

L’exemple de code suivant est un exemple docker compose autonome permettant d’exécuter le conteneur Intelligence documentaire Disposition. Avec docker compose, vous utilisez un fichier YAML pour configurer les services de votre application. Ensuite, avec la commande docker-compose up, vous créez et démarrez tous les services à partir de votre configuration. Entrez les valeurs {FORM_RECOGNIZER_ENDPOINT_URI} et {FORM_RECOGNIZER_KEY} pour votre instance de conteneur Disposition.

version: "3.9"
services:
  azure-form-recognizer-layout:
    container_name: azure-form-recognizer-layout
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/layout-3.1
    environment:
      - EULA=accept
      - billing={FORM_RECOGNIZER_ENDPOINT_URI}
      - apiKey={FORM_RECOGNIZER_KEY}
    ports:
      - "5000:5000"
    networks:
      - ocrvnet
networks:
  ocrvnet:
    driver: bridge

Maintenant, vous pouvez démarrer le service à l’aide de la commande docker compose :

docker-compose up

Créer un fichier docker compose

  1. Nommez ce fichier docker-compose.yml

  2. L’exemple de code suivant est un exemple docker compose autonome permettant d’exécuter ensemble des conteneurs Intelligence documentaire Disposition, Studio et Modèle personnalisé. Avec docker compose, vous utilisez un fichier YAML pour configurer les services de votre application. Ensuite, avec la commande docker-compose up, vous créez et démarrez tous les services à partir de votre configuration.

version: '3.3'
services:
  nginx:
    image: nginx:alpine
    container_name: reverseproxy
    depends_on:
      - layout
      - custom-template
    volumes:
      - ${NGINX_CONF_FILE}:/etc/nginx/nginx.conf
    ports:
      - "5000:5000"
  layout:
    container_name: azure-cognitive-service-layout
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/layout-3.0:latest
    environment:
      eula: accept
      apikey: ${FORM_RECOGNIZER_KEY}
      billing: ${FORM_RECOGNIZER_ENDPOINT_URI}
      Logging:Console:LogLevel:Default: Information
      SharedRootFolder: /share
      Mounts:Shared: /share
      Mounts:Output: /logs
    volumes:
      - type: bind
        source: ${SHARED_MOUNT_PATH}
        target: /share
      - type: bind
        source: ${OUTPUT_MOUNT_PATH}
        target: /logs
    expose:
      - "5000"

  custom-template:
    container_name: azure-cognitive-service-custom-template
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/custom-template-3.0:latest
    restart: always
    depends_on:
      - layout
    environment:
      AzureCognitiveServiceLayoutHost: http://azure-cognitive-service-layout:5000
      eula: accept
      apikey: ${FORM_RECOGNIZER_KEY}
      billing: ${FORM_RECOGNIZER_ENDPOINT_URI}
      Logging:Console:LogLevel:Default: Information
      SharedRootFolder: /share
      Mounts:Shared: /share
      Mounts:Output: /logs
    volumes:
      - type: bind
        source: ${SHARED_MOUNT_PATH}
        target: /share
      - type: bind
        source: ${OUTPUT_MOUNT_PATH}
        target: /logs
    expose:
      - "5000"

  studio:
    container_name: form-recognizer-studio
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/studio:3.0
    environment:
      ONPREM_LOCALFILE_BASEPATH: /onprem_folder
      STORAGE_DATABASE_CONNECTION_STRING: /onprem_db/Application.db
    volumes:
      - type: bind
        source: ${FILE_MOUNT_PATH} # path to your local folder
        target: /onprem_folder
      - type: bind
        source: ${DB_MOUNT_PATH} # path to your local folder
        target: /onprem_db
    ports:
      - "5001:5001"
    user: "1000:1000" # echo $(id -u):$(id -g)

Créer un fichier docker compose

  1. Nommez ce fichier docker-compose.yml

  2. L’exemple de code suivant est un exemple docker compose autonome permettant d’exécuter ensemble des conteneurs Intelligence documentaire Disposition, Studio et Modèle personnalisé. Avec docker compose, vous utilisez un fichier YAML pour configurer les services de votre application. Ensuite, avec la commande docker-compose up, vous créez et démarrez tous les services à partir de votre configuration.

version: '3.3'
services:
  nginx:
    image: nginx:alpine
    container_name: reverseproxy
    depends_on:
      - layout
      - custom-template
    volumes:
      - ${NGINX_CONF_FILE}:/etc/nginx/nginx.conf
    ports:
      - "5000:5000"
  layout:
    container_name: azure-cognitive-service-layout
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/layout-3.1:latest
    environment:
      eula: accept
      apikey: ${FORM_RECOGNIZER_KEY}
      billing: ${FORM_RECOGNIZER_ENDPOINT_URI}
      Logging:Console:LogLevel:Default: Information
      SharedRootFolder: /share
      Mounts:Shared: /share
      Mounts:Output: /logs
    volumes:
      - type: bind
        source: ${SHARED_MOUNT_PATH}
        target: /share
      - type: bind
        source: ${OUTPUT_MOUNT_PATH}
        target: /logs
    expose:
      - "5000"

  custom-template:
    container_name: azure-cognitive-service-custom-template
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/custom-template-3.1:latest
    restart: always
    depends_on:
      - layout
    environment:
      AzureCognitiveServiceLayoutHost: http://azure-cognitive-service-layout:5000
      eula: accept
      apikey: ${FORM_RECOGNIZER_KEY}
      billing: ${FORM_RECOGNIZER_ENDPOINT_URI}
      Logging:Console:LogLevel:Default: Information
      SharedRootFolder: /share
      Mounts:Shared: /share
      Mounts:Output: /logs
    volumes:
      - type: bind
        source: ${SHARED_MOUNT_PATH}
        target: /share
      - type: bind
        source: ${OUTPUT_MOUNT_PATH}
        target: /logs
    expose:
      - "5000"

  studio:
    container_name: form-recognizer-studio
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/studio:3.1
    environment:
      ONPREM_LOCALFILE_BASEPATH: /onprem_folder
      STORAGE_DATABASE_CONNECTION_STRING: /onprem_db/Application.db
    volumes:
      - type: bind
        source: ${FILE_MOUNT_PATH} # path to your local folder
        target: /onprem_folder
      - type: bind
        source: ${DB_MOUNT_PATH} # path to your local folder
        target: /onprem_db
    ports:
      - "5001:5001"
    user: "1000:1000" # echo $(id -u):$(id -g)

Le conteneur de modèles personnalisé et le conteneur de disposition peut utiliser des files d’attente Stockage Azure ou des files d’attente en mémoire. Les variables d’environnement Storage:ObjectStore:AzureBlob:ConnectionString et queue:azure:connectionstring ne doivent être définies que si vous utilisez des files d’attente Stockage Azure. En cas d’exécution locale, supprimez ces variables.

Veiller à ce que le service soit en cours d’exécution

Pour s'assurer que le service est opérationnel. exécutez ces commandes dans un interpréteur Ubuntu.

$cd <folder containing the docker-compose file>

$source .env

$docker-compose up

Les conteneurs de modèle personnalisé nécessitent quelques configurations différentes et prennent en charge d’autres configurations facultatives.

Réglage Obligatoire Descriptif
EULA Oui Acceptation de licence. Exemple : Eula=accept
Facturation Oui URI de point de terminaison de facturation de la ressource FR
ApiKey Oui Clé de point de terminaison de la ressource FR
Queue:Azure:ConnectionString Non Chaîne de connexion File d’attente Azure
Storage:ObjectStore:AzureBlob:ConnectionString Non Chaîne de connexion Blob Azure
HealthCheck:MemoryUpperboundInMB Non Seuil de mémoire pour signaler l’état non sain de liveness. Par défaut : identique à la mémoire recommandée
StorageTimeToLiveInMinutes Non Durée (TTL) pour supprimer tous les fichiers intermédiaires et finaux. Par défaut, la durée peut être définie à deux jours mais elle peut être ajustée entre cinq minutes et sept jours (TTL).
Task:MaxRunningTimeSpanInMinutes Non Durée maximale d’exécution avant de considérer la demande comme expirée. Valeur par défaut : 60 minutes
HTTP_PROXY_BYPASS_URLS Non Spécifier des URL pour contourner le proxy. Exemple : HTTP_PROXY_BYPASS_URLS = abc.com, xyz.com
AzureCognitiveServiceReadHost (conteneurs Reçu et Document d’identité uniquement) Oui Spécifier l’URI du conteneur Lecture. Exemple : AzureCognitiveServiceReadHost=http://onprem-frread:5000
AzureCognitiveServiceLayoutHost (conteneurs de documents et de factures uniquement) Oui Spécifier l’URI du conteneur de mise en page. Exemple: AzureCognitiveServiceLayoutHost=http://onprem-frlayout:5000

Utiliser le Studio Intelligence documentaire pour effectuer l’apprentissage d’un modèle

  • Rassemblez au moins cinq formulaires du même type. Vous allez utiliser ces données pour entraîner le modèle et tester un formulaire. Vous pouvez utiliser un exemple de jeu de données (téléchargez et extrayez sample_data.zip).

  • Une fois que vous avez vérifié que les conteneurs sont en cours d’exécution, ouvrez un navigateur et accédez au point de terminaison sur lequel vous avez déployé les conteneurs. Si ce déploiement est votre ordinateur local, le point de terminaison est [http://localhost:5001](http://localhost:5001).

  • Sélectionnez la vignette du modèle d’extraction personnalisé.

  • Sélectionnez l’option Create project.

  • Indiquez un nom de projet et éventuellement une description.

  • À l’étape « Configurer votre ressource », fournissez le point de terminaison à votre modèle personnalisé. Si vous avez déployé les conteneurs sur votre ordinateur local, utilisez cette URL [http://localhost:5000](http://localhost:5000).

  • Fournissez un sous-dossier pour l’emplacement de vos données d’entraînement dans le dossier files.

  • Enfin, créez le projet.

Vous devez à présent avoir un projet créé, prêt pour l’étiquetage. Chargez vos données d’entraînement et commencez l’étiquetage. Si vous débutez avec l’étiquetage, consultez Créer et effectuer l’apprentissage d’un modèle personnalisé.

Utilisation de l’API pour effectuer l’apprentissage

Si vous envisagez d’appeler les API directement pour entraîner un modèle, l’API d’apprentissage du modèle personnalisé nécessite un fichier zip codé en base64 qui correspond au contenu de votre projet d’étiquetage. Vous pouvez omettre les fichiers PDF ou image et envoyer uniquement les fichiers JSON.

Une fois votre jeu de données étiqueté et les fichiers *.ocr.json, *.labels.json et fields.json ajoutés à un fichier zip, utilisez les commandes PowerShell pour générer la chaîne codée en base64.

$bytes = [System.IO.File]::ReadAllBytes("<your_zip_file>.zip")
$b64String = [System.Convert]::ToBase64String($bytes, [System.Base64FormattingOptions]::None)

Utilisez l’API de création de modèle pour publier la requête.


  POST http://localhost:5000/formrecognizer/documentModels:build?api-version=2023-07-31

  {
      "modelId": "mymodel",
      "description": "test model",
      "buildMode": "template",

      "base64Source": "<Your base64 encoded string>",
      "tags": {
         "additionalProp1": "string",
         "additionalProp2": "string",
         "additionalProp3": "string"
       }
  }

Vérifier que le serveur est en cours d’exécution

Il existe plusieurs façons de vérifier que le conteneur est exécuté :

  • Le conteneur fournit une page d’accueil à \ comme validation visuelle que le conteneur est en cours d’exécution.

  • Vous pouvez ouvrir votre navigateur web habituel, puis accéder à l’adresse IP externe et au port exposé du conteneur en question. Utilisez les URL des requêtes listées pour vérifier que le conteneur est en cours d’exécution. Les exemples d’URL de requête listés sont http://localhost:5000, mais votre conteneur spécifique peut varier. N’oubliez pas que vous accédez à l’adresse IP externe et au port exposé de votre conteneur.

    URL de la demande Objectif
    http:// localhost :5000/ Le conteneur fournit une page d'accueil.
    http:// localhost :5000/ready Cette demande, effectuée avec GET, permet de vérifier que le conteneur est prêt à accepter une requête exécutée sur le modèle. Cette requête peut être utilisée pour les sondes de vivacité et de disponibilité de Kubernetes.
    http:// localhost :5000/status Cette demande, effectuée avec GET, permet de vérifier si la clé API servant à démarrer le conteneur est valide sans provoquer de requête de point de terminaison. Cette requête peut être utilisée pour les sondes de vivacité et de disponibilité de Kubernetes.
    http:// localhost :5000/swagger Le conteneur fournit un ensemble complet de documentation pour les points de terminaison et une fonctionnalité Essayer. Avec cette fonctionnalité, vous pouvez entrer vos paramètres dans un formulaire HTML basé sur le web, et constituer la requête sans avoir à écrire du code. Une fois la requête retournée, un exemple de commande CURL est fourni pour illustrer le format du corps et des en-têtes HTTP requis.

Capture d’écran de la page d’accueil des conteneurs Azure.

Arrêter les conteneurs

Pour arrêter les conteneurs, utilisez la commande suivante :

docker-compose down

Facturation

Les conteneurs Intelligence documentaire envoient des informations de facturation à Azure à l’aide d’une ressource Intelligence documentaire de votre compte Azure.

Les requêtes sur le conteneur sont facturées au niveau tarifaire de la ressource Azure utilisée pour l’API Key. La facturation est calculée pour chaque instance de conteneur utilisée afin de traiter vos documents et images.

Si vous recevez l’erreur suivante : Le conteneur n’est pas dans un état valide. Échec de la validation de l’abonnement avec l’état « OutOfQuota ». La clé API est hors quota. Cela indique que vos conteneurs ne communiquent pas avec le point de terminaison de facturation.

Connexion à Azure

Le conteneur a besoin des paramètres de facturation pour fonctionner. Ces valeurs permettent au conteneur de se connecter au point de terminaison de facturation. Le conteneur crée des rapports sur l’utilisation toutes les 10 à 15 minutes. Si le conteneur ne se connecte pas à Azure dans la fenêtre de temps imparti, il continue de s’exécuter, mais ne traite pas les requêtes tant que le point de terminaison de facturation n’est pas restauré. Une tentative de connexion est effectuée 10 fois, toutes les 10 à 15 minutes. S’il ne parvient pas à se connecter au point de terminaison de facturation au cours de ces 10 essais, le conteneur cesse de traiter les demandes. Pour obtenir un exemple des informations envoyées à Microsoft en lien avec la facturation, veuillez consulter les Questions fréquentes sur les conteneurs Azure AI.

Arguments de facturation

La commande docker-compose up démarre le conteneur quand des valeurs valides sont attribuées aux trois options suivantes :

Choix Descriptif
ApiKey Clé de la ressource Azure AI Foundry utilisée pour suivre les informations de facturation.
La valeur de cette option doit être définie sur une clé pour la ressource approvisionnée spécifiée dans Billing.
Billing Point de terminaison de la ressource Azure AI Foundry utilisée pour suivre les informations de facturation.
La valeur de cette option doit être définie sur l’URI de point de terminaison d’une ressource Azure provisionnée.
Eula Indique que vous avez accepté la licence pour le conteneur.
La valeur de cette option doit être définie sur accepter.

Pour plus d’informations sur ces options, consultez Configurer des conteneurs.

Résumé

C’est tout ! Dans cet article, vous avez découvert les concepts et les flux de travail de téléchargement, d’installation et d’exécution des conteneurs Intelligence documentaire. En résumé :

  • Intelligence documentaire fournit sept conteneurs Linux pour Docker.
  • Les images de conteneur sont téléchargées à partir de MCR.
  • Les images conteneurs s’exécutent dans Docker.
  • Vous devez spécifier les informations de facturation lors de l’instanciation d’un conteneur.

Important

Les conteneurs Azure AI ne sont pas autorisés à s’exécuter sans être connectés à Azure pour le comptage. Les clients doivent permettre aux conteneurs de toujours communiquer les informations de facturation au service de contrôle. Les conteneurs Azure AI n’envoient pas de données client (par exemple, l’image ou le texte en cours d’analyse) à Microsoft.

Étapes suivantes