Démarrage rapide : Azure AI Vision v3.2 en disponibilité générale

Éditions OCR (Read)

Important

Sélectionnez l’édition Read qui répond le mieux à vos besoins.

Entrée Exemples Édition Read Avantage
Images : Images génériques générales étiquettes, panneaux de rue et affiches OCR pour les images (version 4.0) Optimisé pour les images générales qui ne sont pas des documents avec une API synchrone optimisée pour les performances qui facilite l’incorporation de l’OCR dans vos scénarios d’expérience utilisateur.
Documents : Documents numériques et numérisés, y compris les images livres, articles et rapports Modèle de lecture d’Intelligence documentaire Optimisé pour les documents numérisés et numériques riches en texte avec une API asynchrone afin d’automatiser le traitement intelligent des documents à grande échelle.

À propos d’Azure AI Vision v3.2 GA Read

Vous recherchez l’API Azure AI Vision v3.2 GA Read la plus récente ? Toutes les futures améliorations de l’OCR en lecture font partie des deux services répertoriés précédemment. Il n’y a pas aucune autre mise à jour apportée à Azure AI Vision v3.2. Pour plus d’informations, consultez Appeler l’API Lecture en disponibilité générale Azure AI Vision 3.2 et Démarrage rapide : lecture en disponibilité générale Azure AI Vision v3.2.

Découvrez comment bien démarrer avec l’API REST et les bibliothèques de client Azure AI Vision Read. Le service API Read vous fournit des algorithmes d’IA pour extraire le texte des images et le renvoyer sous forme de chaînes structurées. Suivez les étapes suivantes pour installer un package sur votre application et tester l’exemple de code sur différentes tâches de base.

Utilisez la bibliothèque client de reconnaissance optique de caractères (OCR) pour lire du texte imprimé ou manuscrit à partir d'une image. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble OCR. Le code de cette section utilise le dernier package d’Azure AI Vision.

Conseil

Vous pouvez également extraire du texte d’une image locale. Consultez les méthodes ComputerVisionClient, comme ReadInStreamAsync. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.

Documentation de référence | Code source de la bibliothèque | Package (NuGet) | Exemples

Prérequis

  • Un abonnement Azure : créez-en un gratuitement.

  • L’IDE Visual Studio ou la version actuelle de .NET Core.

  • Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

  • La clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.

    1. Après le déploiement de votre ressource Azure Vision, sélectionnez Accéder à la ressource.
    2. Dans le menu de navigation de gauche, sélectionnez Clés et point de terminaison.
    3. Copiez l’une des clés et le point de terminaison pour une utilisation ultérieure dans le guide de démarrage rapide.

Créer des variables d’environnement

Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.

Conseil

N’incluez pas la clé directement dans votre code et ne la publiez jamais publiquement. Pour découvrir d’autres options d’authentification telles qu’Azure Key Vault, veuillez consulter l’article sur la sécurité d’Azure AI services.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  1. Pour définir la variable d’environnement VISION_KEY, remplacez your-key par l’une des clés de votre ressource.
  2. Pour définir la VISION_ENDPOINTvariable d’environnement, remplacez your-endpoint par le point de terminaison de votre ressource.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.

Lire du texte imprimé et manuscrit

  1. Créez une application C#.

    À l’aide de Visual Studio, créez un projet Application console (.NET Framework) pour C#, Windows, Console.

    Après avoir créé un projet, installez la bibliothèque cliente :

    1. Cliquez avec le bouton droit de la souris sur la solution du projet dans l'Explorateur de solutions et sélectionnez Gérer les paquets NuGet pour la solution.
    2. Dans le gestionnaire de package qui s’ouvre, sélectionnez Parcourir. Sélectionnez Inclure la préversion.
    3. Recherchez et sélectionnez Microsoft.Azure.CognitiveServices.Vision.ComputerVision.
    4. Dans la boîte de dialogue Détails, sélectionnez votre projet et sélectionnez la dernière version stable. Sélectionnez Installer.
  2. À partir du répertoire de projet, ouvrez le fichier Program.cs dans votre éditeur ou votre IDE favori. Remplacez le contenu de Program.cs par le code suivant.

    using System;
    using System.Collections.Generic;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models;
    using System.Threading.Tasks;
    using System.IO;
    using Newtonsoft.Json;
    using Newtonsoft.Json.Linq;
    using System.Threading;
    using System.Linq;
    
    namespace ComputerVisionQuickstart
    {
        class Program
        {
            // Add your Computer Vision key and endpoint
            static string key = Environment.GetEnvironmentVariable("VISION_KEY");
            static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT");
    
            private const string READ_TEXT_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg";
    
            static void Main(string[] args)
            {
                Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example");
                Console.WriteLine();
    
                ComputerVisionClient client = Authenticate(endpoint, key);
    
                // Extract text (OCR) from a URL image using the Read API
                ReadFileUrl(client, READ_TEXT_URL_IMAGE).Wait();
            }
    
            public static ComputerVisionClient Authenticate(string endpoint, string key)
            {
                ComputerVisionClient client =
                  new ComputerVisionClient(new ApiKeyServiceClientCredentials(key))
                  { Endpoint = endpoint };
                return client;
            }
    
            public static async Task ReadFileUrl(ComputerVisionClient client, string urlFile)
            {
                Console.WriteLine("----------------------------------------------------------");
                Console.WriteLine("READ FILE FROM URL");
                Console.WriteLine();
    
                // Read text from URL
                var textHeaders = await client.ReadAsync(urlFile);
                // After the request, get the operation location (operation ID)
                string operationLocation = textHeaders.OperationLocation;
                Thread.Sleep(2000);
    
                // Retrieve the URI where the extracted text will be stored from the Operation-Location header.
                // We only need the ID and not the full URL
                const int numberOfCharsInOperationId = 36;
                string operationId = operationLocation.Substring(operationLocation.Length - numberOfCharsInOperationId);
    
                // Extract the text
                ReadOperationResult results;
                Console.WriteLine($"Extracting text from URL file {Path.GetFileName(urlFile)}...");
                Console.WriteLine();
                do
                {
                    results = await client.GetReadResultAsync(Guid.Parse(operationId));
                }
                while ((results.Status == OperationStatusCodes.Running ||
                    results.Status == OperationStatusCodes.NotStarted));
    
                // Display the found text.
                Console.WriteLine();
                var textUrlFileResults = results.AnalyzeResult.ReadResults;
                foreach (ReadResult page in textUrlFileResults)
                {
                    foreach (Line line in page.Lines)
                    {
                        Console.WriteLine(line.Text);
                    }
                }
                Console.WriteLine();
            }
    
        }
    }
    
  3. En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, modifiez l’appel ReadAsync comme indiqué. Ignorez le paramètre ou utilisez "latest" pour utiliser le modèle GA le plus récent.

      // Read text from URL with a specific model version
      var textHeaders = await client.ReadAsync(urlFile,null,null,"2022-04-30");
    
  4. Exécutez l’application.

    • Dans le menu Déboguer, sélectionnez Démarrer le débogage.

Output

Azure AI Vision - .NET quickstart example

----------------------------------------------------------
READ FILE FROM URL

Extracting text from URL file printed_text.jpg...


Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.

Étapes suivantes

Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client OCR et à utiliser l’API Lire. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.

Utilisez la bibliothèque client de reconnaissance optique de caractères (OCR) pour lire du texte imprimé ou manuscrit à partir d'une image distante. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble OCR.

Conseil

Vous pouvez également lire du texte à partir d’une image locale. Consultez les méthodes ComputerVisionClientOperationsMixin, comme read_in_stream. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.

Documentation de référence | Code source de la bibliothèque | Package (PiPy) | Exemples C#

Prérequis

  • Un abonnement Azure : créez-en un gratuitement.

  • Python 3.x.

  • Votre installation Python doit inclure pip. Vous pouvez vérifier si pip est installé, exécutez pip --version sur la ligne de commande. Procurez-vous pip en installant la dernière version de Python.

  • Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

  • La clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.

    1. Après le déploiement de votre ressource Azure Vision, sélectionnez Accéder à la ressource.
    2. Dans le menu de navigation de gauche, sélectionnez Clés et point de terminaison.
    3. Copiez l’une des clés et le point de terminaison pour une utilisation ultérieure dans le guide de démarrage rapide.

Créer des variables d’environnement

Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.

Conseil

N’incluez pas la clé directement dans votre code et ne la publiez jamais publiquement. Pour découvrir d’autres options d’authentification telles qu’Azure Key Vault, veuillez consulter l’article sur la sécurité d’Azure AI services.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  1. Pour définir la variable d’environnement VISION_KEY, remplacez your-key par l’une des clés de votre ressource.
  2. Pour définir la VISION_ENDPOINTvariable d’environnement, remplacez your-endpoint par le point de terminaison de votre ressource.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.

Lire du texte imprimé et manuscrit

  1. Installez la bibliothèque de client.

    Dans la fenêtre de console, exécutez la commande suivante :

    pip install --upgrade azure-cognitiveservices-vision-computervision
    
  2. Installez la bibliothèque Pillow.

    pip install pillow
    
  3. Créez un nouveau fichier d’application Python, quickstart-file.py. Ensuite, ouvrez-le dans l’éditeur ou l’IDE de votre choix.

  4. Remplacez le contenu du fichier quickstart-file.py par le code suivant.

    from azure.cognitiveservices.vision.computervision import ComputerVisionClient
    from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes
    from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes
    from msrest.authentication import CognitiveServicesCredentials
    
    from array import array
    import os
    from PIL import Image
    import sys
    import time
    
    '''
    Authenticate
    Authenticates your credentials and creates a client.
    '''
    subscription_key = os.environ["VISION_KEY"]
    endpoint = os.environ["VISION_ENDPOINT"]
    
    computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key))
    '''
    END - Authenticate
    '''
    
    '''
    OCR: Read File using the Read API, extract text - remote
    This example will extract text in an image, then print results, line by line.
    This API call can also extract handwriting style text (not shown).
    '''
    print("===== Read File - remote =====")
    # Get an image with text
    read_image_url = "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png"
    
    # Call API with URL and raw response (allows you to get the operation location)
    read_response = computervision_client.read(read_image_url,  raw=True)
    
    # Get the operation location (URL with an ID at the end) from the response
    read_operation_location = read_response.headers["Operation-Location"]
    # Grab the ID from the URL
    operation_id = read_operation_location.split("/")[-1]
    
    # Call the "GET" API and wait for it to retrieve the results 
    while True:
        read_result = computervision_client.get_read_result(operation_id)
        if read_result.status not in ['notStarted', 'running']:
            break
        time.sleep(1)
    
    # Print the detected text, line by line
    if read_result.status == OperationStatusCodes.succeeded:
        for text_result in read_result.analyze_result.read_results:
            for line in text_result.lines:
                print(line.text)
                print(line.bounding_box)
    print()
    '''
    END - Read File - remote
    '''
    
    print("End of Computer Vision quickstart.")
    
    
  5. En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, modifiez l’instruction read comme indiqué. Si vous ignorez le paramètre ou que vous utilisez "latest", le modèle en disponibilité générale le plus récent est automatiquement utilisé.

       # Call API with URL and raw response (allows you to get the operation location)
       read_response = computervision_client.read(read_image_url,  raw=True, model_version="2022-04-30")
    
  6. Exécutez l’application avec la commande python de votre fichier de démarrage rapide.

    python quickstart-file.py
    

Output

===== Read File - remote =====
The quick brown fox jumps
[38.0, 650.0, 2572.0, 699.0, 2570.0, 854.0, 37.0, 815.0]
Over
[184.0, 1053.0, 508.0, 1044.0, 510.0, 1123.0, 184.0, 1128.0]
the lazy dog!
[639.0, 1011.0, 1976.0, 1026.0, 1974.0, 1158.0, 637.0, 1141.0]

End of Azure AI Vision quickstart.

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.

Étapes suivantes

Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client OCR et à utiliser l’API Lire. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.

Utilisez la bibliothèque de client Reconnaissance optique de caractères (OCR) pour lire des textes imprimés et manuscrits à l'aide de l'API Read. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble OCR.

Conseil

Vous pouvez également lire du texte à partir d’une image locale. Consultez les méthodes ComputerVisionClient, comme readInStream. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.

Documentation de référence | Code source de la bibliothèque | Package (npm) | Exemples

Prérequis

  • Un abonnement Azure : créez-en un gratuitement.

  • Version actuelle de Node.js.

  • Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

  • La clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.

    1. Après le déploiement de votre ressource Azure Vision, sélectionnez Accéder à la ressource.
    2. Dans le menu de navigation de gauche, sélectionnez Clés et point de terminaison.
    3. Copiez l’une des clés et le point de terminaison pour une utilisation ultérieure dans le guide de démarrage rapide.

Créer des variables d’environnement

Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.

Conseil

N’incluez pas la clé directement dans votre code et ne la publiez jamais publiquement. Pour découvrir d’autres options d’authentification telles qu’Azure Key Vault, veuillez consulter l’article sur la sécurité d’Azure AI services.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  1. Pour définir la variable d’environnement VISION_KEY, remplacez your-key par l’une des clés de votre ressource.
  2. Pour définir la VISION_ENDPOINTvariable d’environnement, remplacez your-endpoint par le point de terminaison de votre ressource.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.

Lire du texte imprimé et manuscrit

Créez une application Node.js.

  1. Dans une fenêtre de console, créez un nouveau répertoire pour votre application et naviguez-y.

    mkdir myapp
    cd myapp
    
  2. Exécutez la commande npm init pour créer une application de nœud avec un fichier package.json. Sélectionnez Entrée pour toutes les invites.

    npm init
    
  3. Pour installer la bibliothèque cliente, installez le ms-rest-azure package npm et @azure/cognitiveservices-computervision :

    npm install ms-rest-azure
    npm install @azure/cognitiveservices-computervision
    
  4. Installez le module asynchrone :

    npm install async
    

    Le fichier package.json de votre application est mis à jour avec les dépendances.

  5. Créez un fichier, index.js, puis ouvrez-le dans un éditeur de texte.

  6. Collez le code suivant dans votre fichier index.js.

    'use strict';
    
    const async = require('async');
    const fs = require('fs');
    const https = require('https');
    const path = require("path");
    const createReadStream = require('fs').createReadStream
    const sleep = require('util').promisify(setTimeout);
    const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient;
    const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials;
    /**
     * AUTHENTICATE
     * This single client is used for all examples.
     */
    const key = process.env.VISION_KEY;
    const endpoint = process.env.VISION_ENDPOINT;
    
    const computerVisionClient = new ComputerVisionClient(
      new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint);
    /**
     * END - Authenticate
     */
    
    function computerVision() {
      async.series([
        async function () {
    
          /**
           * OCR: READ PRINTED & HANDWRITTEN TEXT WITH THE READ API
           * Extracts text from images using OCR (optical character recognition).
           */
          console.log('-------------------------------------------------');
          console.log('READ PRINTED, HANDWRITTEN TEXT AND PDF');
          console.log();
    
          // URL images containing printed and/or handwritten text. 
          // The URL can point to image files (.jpg/.png/.bmp) or multi-page files (.pdf, .tiff).
          const printedTextSampleURL = 'https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg';
    
          // Recognize text in printed image from a URL
          console.log('Read printed text from URL...', printedTextSampleURL.split('/').pop());
          const printedResult = await readTextFromURL(computerVisionClient, printedTextSampleURL);
          printRecText(printedResult);
    
          // Perform read and await the result from URL
          async function readTextFromURL(client, url) {
            // To recognize text in a local image, replace client.read() with readTextInStream() as shown:
            let result = await client.read(url);
            // Operation ID is last path segment of operationLocation (a URL)
            let operation = result.operationLocation.split('/').slice(-1)[0];
    
            // Wait for read recognition to complete
            // result.status is initially undefined, since it's the result of read
            while (result.status !== "succeeded") { await sleep(1000); result = await client.getReadResult(operation); }
            return result.analyzeResult.readResults; // Return the first page of result. Replace [0] with the desired page if this is a multi-page file such as .pdf or .tiff.
          }
    
          // Prints all text from Read result
          function printRecText(readResults) {
            console.log('Recognized text:');
            for (const page in readResults) {
              if (readResults.length > 1) {
                console.log(`==== Page: ${page}`);
              }
              const result = readResults[page];
              if (result.lines.length) {
                for (const line of result.lines) {
                  console.log(line.words.map(w => w.text).join(' '));
                }
              }
              else { console.log('No recognized text.'); }
            }
          }
    
          /**
           * 
           * Download the specified file in the URL to the current local folder
           * 
           */
          function downloadFilesToLocal(url, localFileName) {
            return new Promise((resolve, reject) => {
              console.log('--- Downloading file to local directory from: ' + url);
              const request = https.request(url, (res) => {
                if (res.statusCode !== 200) {
                  console.log(`Download sample file failed. Status code: ${res.statusCode}, Message: ${res.statusMessage}`);
                  reject();
                }
                var data = [];
                res.on('data', (chunk) => {
                  data.push(chunk);
                });
                res.on('end', () => {
                  console.log('   ... Downloaded successfully');
                  fs.writeFileSync(localFileName, Buffer.concat(data));
                  resolve();
                });
              });
              request.on('error', function (e) {
                console.log(e.message);
                reject();
              });
              request.end();
            });
          }
    
          /**
           * END - Recognize Printed & Handwritten Text
           */
          console.log();
          console.log('-------------------------------------------------');
          console.log('End of quickstart.');
    
        },
        function () {
          return new Promise((resolve) => {
            resolve();
          })
        }
      ], (err) => {
        throw (err);
      });
    }
    
    computerVision();
    
  7. En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, modifiez l’instruction read comme indiqué. Si vous ignorez le paramètre ou que vous utilisez "latest", le modèle en disponibilité générale le plus récent est automatiquement utilisé.

      let result = await client.read(url,{modelVersion:"2022-04-30"});
    
  8. Exécutez l’application avec la commande node de votre fichier de démarrage rapide.

    node index.js
    

Output

-------------------------------------------------
READ PRINTED, HANDWRITTEN TEXT AND PDF

Read printed text from URL... printed_text.jpg
Recognized text:
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.

-------------------------------------------------
End of quickstart.

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.

Étapes suivantes

Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client OCR et à utiliser l’API Lire. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.

Utilisez l'API REST Reconnaissance optique de caractères (OCR) pour lire du texte imprimé et manuscrit.

Remarque

Ce guide de démarrage rapide utilise des commandes cURL pour appeler l’API REST. Vous pouvez également appeler l’API REST à l’aide d’un langage de programmation. Vous pouvez consulter des exemples C#, Python, Java et JavaScript sur GitHub.

Prérequis

  • Un abonnement Azure : créez-en un gratuitement.

  • cURL installé.

  • Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

  • La clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.

    1. Après le déploiement de votre ressource Azure Vision, sélectionnez Accéder à la ressource.
    2. Dans le menu de navigation de gauche, sélectionnez Clés et point de terminaison.
    3. Copiez l’une des clés et le point de terminaison pour une utilisation ultérieure dans le guide de démarrage rapide.

Lire du texte imprimé et manuscrit

Le service de reconnaissance optique de caractères (OCR) permet d'extraire le texte visible dans une image ou un document et de le convertir en un flux de caractères. Pour plus d’informations sur l’extraction de texte, consultez la vue d’ensemble OCR.

Appeler l’API Lire

Pour créer et exécuter l’exemple, effectuez les étapes suivantes :

  1. Copiez la commande ci-après dans un éditeur de texte.

  2. Modifiez la commande comme ci-dessous :

    1. Remplacez la valeur de <key> par votre propre clé.
    2. Remplacez la première partie de l’URL de la demande (https://westcentralus.api.cognitive.microsoft.com/) par le texte de votre propre URL de point de terminaison.

      Notes

      Les nouvelles ressources créées après le 1er juillet 2019 utilisent des noms de sous-domaines personnalisés. Pour plus d’informations et afin d’obtenir une liste complète des points de terminaison régionaux, consultez Noms personnalisés de sous-domaine pour Azure AI services.

    3. Éventuellement, changez l’URL d’image dans le corps de la requête (https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png) par l’URL d’une autre image à analyser.
  3. Ouvrir une fenêtre d’invite de commandes.

  4. Collez la commande à partir de l’éditeur de texte dans la fenêtre d’invite de commandes, puis exécutez la commande.

curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"

La réponse inclut un en-tête Operation-Location, dont la valeur est une URL unique. Utilisez cette URL pour interroger les résultats de l’opération de lecture. L’URL expire au bout de 48 heures.

Si vous le souhaitez, spécifiez la version du modèle.

En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, utilisez model-version=2022-04-30 comme paramètre. Si vous ignorez le paramètre ou que vous utilisez model-version=latest, le modèle en disponibilité générale le plus récent est automatiquement utilisé.

curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze?model-version=2022-04-30" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"

Obtenir les résultats de la lecture

  1. Copiez la commande ci-après dans votre éditeur de texte.

  2. Remplacez l’URL par la valeur Operation-Location que vous avez copiée à la procédure précédente.

  3. Remplacez la valeur de <key> par votre propre clé.

  4. Ouvrez une fenêtre de console.

  5. Collez la commande à partir de l’éditeur de texte dans la fenêtre de console, puis exécutez la commande.

    curl -v -X GET "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyzeResults/{operationId}" -H "Ocp-Apim-Subscription-Key: {key}" --data-ascii "{body}" 
    

Examiner la réponse

Une réponse correcte est retournée au format JSON. L’exemple d’application analyse et affiche une réponse réussie dans la fenêtre de console, comme dans l’exemple suivant :

{
  "status": "succeeded",
  "createdDateTime": "2021-04-08T21:56:17.6819115+00:00",
  "lastUpdatedDateTime": "2021-04-08T21:56:18.4161316+00:00",
  "analyzeResult": {
    "version": "3.2",
    "readResults": [
      {
        "page": 1,
        "angle": 0,
        "width": 338,
        "height": 479,
        "unit": "pixel",
        "lines": [
          {
            "boundingBox": [
              25,
              14,
              318,
              14,
              318,
              59,
              25,
              59
            ],
            "text": "NOTHING",
            "appearance": {
              "style": {
                "name": "other",
                "confidence": 0.971
              }
            },
            "words": [
              {
                "boundingBox": [
                  27,
                  15,
                  294,
                  15,
                  294,
                  60,
                  27,
                  60
                ],
                "text": "NOTHING",
                "confidence": 0.994
              }
            ]
          }
        ]
      }
    ]
  }
}

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.

Étapes suivantes

Dans ce guide de démarrage rapide, vous avez appris à appeler l’API REST Read. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.

Prérequis

  • Un abonnement Azure : créez-en un gratuitement.

  • Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

  • Connectez-vous à Vision Studio.

    • Vous devrez peut-être vous connecter.
    • Une fois connecté, sélectionnez Afficher toutes les ressources. Si nécessaire, sélectionnez Actualiser. Vérifiez que la ressource est disponible.

    Pour plus d’informations, consultez Bien démarrer avec Vision Studio.

Lire du texte imprimé et manuscrit

  1. Sous Reconnaissance optique de caractères, sélectionnez Extraire le texte à partir d’images.

  2. Sous Essayer, reconnaissez que cette démonstration entraîne l’utilisation de votre compte Azure. Pour plus d’informations, consultez Tarification d'Azure AI Vision.

  3. Sélectionnez une image dans le jeu disponible ou chargez votre propre image.

  4. Si nécessaire, sélectionnez Veuillez sélectionner une ressource pour sélectionner votre ressource.

    Une fois que vous avez sélectionné votre image, le texte extrait s’affiche dans la fenêtre de sortie. Vous pouvez également sélectionner l’onglet JSON pour voir la sortie JSON retournée par l’appel d’API.

En dessous de l’expérience d’essai, vous devez suivre les étapes suivantes pour commencer à utiliser cette fonctionnalité dans votre propre application.

Étapes suivantes

Dans ce guide de démarrage rapide, vous avez utilisé Vision Studio pour accéder à l’API Read. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.