Démarrage rapide : Azure AI Vision v3.2 en disponibilité générale
Éditions OCR (Read)
Important
Sélectionnez l’édition Read qui répond le mieux à vos besoins.
Entrée | Exemples | Édition Read | Avantage |
---|---|---|---|
Images : Images génériques générales | étiquettes, panneaux de rue et affiches | OCR pour les images (version 4.0) | Optimisé pour les images générales qui ne sont pas des documents avec une API synchrone optimisée pour les performances qui facilite l’incorporation de l’OCR dans vos scénarios d’expérience utilisateur. |
Documents : Documents numériques et numérisés, y compris les images | livres, articles et rapports | Modèle de lecture d’Intelligence documentaire | Optimisé pour les documents numérisés et numériques riches en texte avec une API asynchrone afin d’automatiser le traitement intelligent des documents à grande échelle. |
À propos d’Azure AI Vision v3.2 GA Read
Vous recherchez l’API Azure AI Vision v3.2 GA Read la plus récente ? Toutes les futures améliorations de l’OCR en lecture font partie des deux services répertoriés précédemment. Il n’y a pas aucune autre mise à jour apportée à Azure AI Vision v3.2. Pour plus d’informations, consultez Appeler l’API Lecture en disponibilité générale Azure AI Vision 3.2 et Démarrage rapide : lecture en disponibilité générale Azure AI Vision v3.2.
Découvrez comment bien démarrer avec l’API REST et les bibliothèques de client Azure AI Vision Read. Le service API Read vous fournit des algorithmes d’IA pour extraire le texte des images et le renvoyer sous forme de chaînes structurées. Suivez les étapes suivantes pour installer un package sur votre application et tester l’exemple de code sur différentes tâches de base.
Utilisez la bibliothèque client de reconnaissance optique de caractères (OCR) pour lire du texte imprimé ou manuscrit à partir d'une image. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble OCR. Le code de cette section utilise le dernier package d’Azure AI Vision.
Conseil
Vous pouvez également extraire du texte d’une image locale. Consultez les méthodes ComputerVisionClient, comme ReadInStreamAsync. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.
Documentation de référence | Code source de la bibliothèque | Package (NuGet) | Exemples
Prérequis
- Un abonnement Azure : créez-en un gratuitement.
- L’IDE Visual Studio ou la version actuelle de .NET Core.
- Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production. - La clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Après le déploiement de votre ressource Azure Vision, sélectionnez Accéder à la ressource.
- Dans le menu de navigation de gauche, sélectionnez Clés et point de terminaison.
- Copiez l’une des clés et le point de terminaison pour une utilisation ultérieure dans le guide de démarrage rapide.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.
Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY
, remplacez<your_key>
par l’une des clés de votre ressource. - Pour définir la
VISION_ENDPOINT
variable d’environnement, remplacez<your_endpoint>
par le point de terminaison de votre ressource.
Important
Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.
Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.
Lire du texte imprimé et manuscrit
Créez une application C#.
À l’aide de Visual Studio, créez un projet Application console (.NET Framework) pour C#, Windows, Console.
Après avoir créé un projet, installez la bibliothèque cliente :
- Cliquez avec le bouton droit de la souris sur la solution du projet dans l'Explorateur de solutions et sélectionnez Gérer les paquets NuGet pour la solution.
- Dans le gestionnaire de package qui s’ouvre, sélectionnez Parcourir. Sélectionnez Inclure la préversion.
- Recherchez et sélectionnez
Microsoft.Azure.CognitiveServices.Vision.ComputerVision
. - Dans la boîte de dialogue Détails, sélectionnez votre projet et sélectionnez la dernière version stable. Sélectionnez Installer.
À partir du répertoire de projet, ouvrez le fichier Program.cs dans votre éditeur ou votre IDE favori. Remplacez le contenu de Program.cs par le code suivant.
using System; using System.Collections.Generic; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models; using System.Threading.Tasks; using System.IO; using Newtonsoft.Json; using Newtonsoft.Json.Linq; using System.Threading; using System.Linq; namespace ComputerVisionQuickstart { class Program { // Add your Computer Vision key and endpoint static string key = Environment.GetEnvironmentVariable("VISION_KEY"); static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT"); private const string READ_TEXT_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg"; static void Main(string[] args) { Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example"); Console.WriteLine(); ComputerVisionClient client = Authenticate(endpoint, key); // Extract text (OCR) from a URL image using the Read API ReadFileUrl(client, READ_TEXT_URL_IMAGE).Wait(); } public static ComputerVisionClient Authenticate(string endpoint, string key) { ComputerVisionClient client = new ComputerVisionClient(new ApiKeyServiceClientCredentials(key)) { Endpoint = endpoint }; return client; } public static async Task ReadFileUrl(ComputerVisionClient client, string urlFile) { Console.WriteLine("----------------------------------------------------------"); Console.WriteLine("READ FILE FROM URL"); Console.WriteLine(); // Read text from URL var textHeaders = await client.ReadAsync(urlFile); // After the request, get the operation location (operation ID) string operationLocation = textHeaders.OperationLocation; Thread.Sleep(2000); // Retrieve the URI where the extracted text will be stored from the Operation-Location header. // We only need the ID and not the full URL const int numberOfCharsInOperationId = 36; string operationId = operationLocation.Substring(operationLocation.Length - numberOfCharsInOperationId); // Extract the text ReadOperationResult results; Console.WriteLine($"Extracting text from URL file {Path.GetFileName(urlFile)}..."); Console.WriteLine(); do { results = await client.GetReadResultAsync(Guid.Parse(operationId)); } while ((results.Status == OperationStatusCodes.Running || results.Status == OperationStatusCodes.NotStarted)); // Display the found text. Console.WriteLine(); var textUrlFileResults = results.AnalyzeResult.ReadResults; foreach (ReadResult page in textUrlFileResults) { foreach (Line line in page.Lines) { Console.WriteLine(line.Text); } } Console.WriteLine(); } } }
En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, modifiez l’appel
ReadAsync
comme indiqué. Ignorez le paramètre ou utilisez"latest"
pour utiliser le modèle GA le plus récent.// Read text from URL with a specific model version var textHeaders = await client.ReadAsync(urlFile,null,null,"2022-04-30");
Exécutez l’application.
- Dans le menu Déboguer, sélectionnez Démarrer le débogage.
Output
Azure AI Vision - .NET quickstart example
----------------------------------------------------------
READ FILE FROM URL
Extracting text from URL file printed_text.jpg...
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client OCR et à utiliser l’API Lire. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.
- Vue d’ensemble de la reconnaissance OCR
- Le code source de cet exemple est disponible sur GitHub.
Utilisez la bibliothèque client de reconnaissance optique de caractères (OCR) pour lire du texte imprimé ou manuscrit à partir d'une image distante. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble OCR.
Conseil
Vous pouvez également lire du texte à partir d’une image locale. Consultez les méthodes ComputerVisionClientOperationsMixin, comme read_in_stream. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.
Documentation de référence | Code source de la bibliothèque | Package (PiPy) | Exemples C#
Prérequis
- Un abonnement Azure : créez-en un gratuitement.
- Python 3.x.
- Votre installation Python doit inclure pip. Vous pouvez vérifier si pip est installé, exécutez
pip --version
sur la ligne de commande. Procurez-vous pip en installant la dernière version de Python. - Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production. - La clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Après le déploiement de votre ressource Azure Vision, sélectionnez Accéder à la ressource.
- Dans le menu de navigation de gauche, sélectionnez Clés et point de terminaison.
- Copiez l’une des clés et le point de terminaison pour une utilisation ultérieure dans le guide de démarrage rapide.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.
Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY
, remplacez<your_key>
par l’une des clés de votre ressource. - Pour définir la
VISION_ENDPOINT
variable d’environnement, remplacez<your_endpoint>
par le point de terminaison de votre ressource.
Important
Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.
Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.
Lire du texte imprimé et manuscrit
Installez la bibliothèque de client.
Dans la fenêtre de console, exécutez la commande suivante :
pip install --upgrade azure-cognitiveservices-vision-computervision
Installez la bibliothèque Pillow.
pip install pillow
Créez un nouveau fichier d’application Python, quickstart-file.py. Ensuite, ouvrez-le dans l’éditeur ou l’IDE de votre choix.
Remplacez le contenu du fichier quickstart-file.py par le code suivant.
from azure.cognitiveservices.vision.computervision import ComputerVisionClient from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes from msrest.authentication import CognitiveServicesCredentials from array import array import os from PIL import Image import sys import time ''' Authenticate Authenticates your credentials and creates a client. ''' subscription_key = os.environ["VISION_KEY"] endpoint = os.environ["VISION_ENDPOINT"] computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key)) ''' END - Authenticate ''' ''' OCR: Read File using the Read API, extract text - remote This example will extract text in an image, then print results, line by line. This API call can also extract handwriting style text (not shown). ''' print("===== Read File - remote =====") # Get an image with text read_image_url = "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png" # Call API with URL and raw response (allows you to get the operation location) read_response = computervision_client.read(read_image_url, raw=True) # Get the operation location (URL with an ID at the end) from the response read_operation_location = read_response.headers["Operation-Location"] # Grab the ID from the URL operation_id = read_operation_location.split("/")[-1] # Call the "GET" API and wait for it to retrieve the results while True: read_result = computervision_client.get_read_result(operation_id) if read_result.status not in ['notStarted', 'running']: break time.sleep(1) # Print the detected text, line by line if read_result.status == OperationStatusCodes.succeeded: for text_result in read_result.analyze_result.read_results: for line in text_result.lines: print(line.text) print(line.bounding_box) print() ''' END - Read File - remote ''' print("End of Computer Vision quickstart.")
En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, modifiez l’instruction
read
comme indiqué. Si vous ignorez le paramètre ou que vous utilisez"latest"
, le modèle en disponibilité générale le plus récent est automatiquement utilisé.# Call API with URL and raw response (allows you to get the operation location) read_response = computervision_client.read(read_image_url, raw=True, model_version="2022-04-30")
Exécutez l’application avec la commande
python
de votre fichier de démarrage rapide.python quickstart-file.py
Output
===== Read File - remote =====
The quick brown fox jumps
[38.0, 650.0, 2572.0, 699.0, 2570.0, 854.0, 37.0, 815.0]
Over
[184.0, 1053.0, 508.0, 1044.0, 510.0, 1123.0, 184.0, 1128.0]
the lazy dog!
[639.0, 1011.0, 1976.0, 1026.0, 1974.0, 1158.0, 637.0, 1141.0]
End of Azure AI Vision quickstart.
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client OCR et à utiliser l’API Lire. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.
- Vue d’ensemble de la reconnaissance OCR
- Le code source de cet exemple est disponible sur GitHub.
Utilisez la bibliothèque de client Reconnaissance optique de caractères (OCR) pour lire des textes imprimés et manuscrits à l'aide de l'API Read. Le service OCR peut lire du texte visible dans une image et le convertir en flux de caractères. Pour plus d’informations sur la reconnaissance de texte, consultez la vue d’ensemble OCR.
Conseil
Vous pouvez également lire du texte à partir d’une image locale. Consultez les méthodes ComputerVisionClient, comme readInStream. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.
Documentation de référence | Package (npm) | Échantillons
Prérequis
- Un abonnement Azure : créez-en un gratuitement.
- Version actuelle de Node.js.
- Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production. - La clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Après le déploiement de votre ressource Azure Vision, sélectionnez Accéder à la ressource.
- Dans le menu de navigation de gauche, sélectionnez Clés et point de terminaison.
- Copiez l’une des clés et le point de terminaison pour une utilisation ultérieure dans le guide de démarrage rapide.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.
Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY
, remplacez<your_key>
par l’une des clés de votre ressource. - Pour définir la
VISION_ENDPOINT
variable d’environnement, remplacez<your_endpoint>
par le point de terminaison de votre ressource.
Important
Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.
Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.
Lire du texte imprimé et manuscrit
Créez une application Node.js.
Dans une fenêtre de console, créez un nouveau répertoire pour votre application et naviguez-y.
mkdir myapp cd myapp
Exécutez la commande
npm init
pour créer une application de nœud avec un fichierpackage.json
. Sélectionnez Entrée pour toutes les invites.npm init
Pour installer la bibliothèque cliente, installez le
ms-rest-azure
package npm et@azure/cognitiveservices-computervision
:npm install ms-rest-azure npm install @azure/cognitiveservices-computervision
Installez le module asynchrone :
npm install async
Le fichier
package.json
de votre application est mis à jour avec les dépendances.Créez un fichier, index.js, puis ouvrez-le dans un éditeur de texte.
Collez le code suivant dans votre fichier index.js.
'use strict'; const async = require('async'); const fs = require('fs'); const https = require('https'); const path = require("path"); const createReadStream = require('fs').createReadStream const sleep = require('util').promisify(setTimeout); const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient; const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials; /** * AUTHENTICATE * This single client is used for all examples. */ const key = process.env.VISION_KEY; const endpoint = process.env.VISION_ENDPOINT; const computerVisionClient = new ComputerVisionClient( new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint); /** * END - Authenticate */ function computerVision() { async.series([ async function () { /** * OCR: READ PRINTED & HANDWRITTEN TEXT WITH THE READ API * Extracts text from images using OCR (optical character recognition). */ console.log('-------------------------------------------------'); console.log('READ PRINTED, HANDWRITTEN TEXT AND PDF'); console.log(); // URL images containing printed and/or handwritten text. // The URL can point to image files (.jpg/.png/.bmp) or multi-page files (.pdf, .tiff). const printedTextSampleURL = 'https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg'; // Recognize text in printed image from a URL console.log('Read printed text from URL...', printedTextSampleURL.split('/').pop()); const printedResult = await readTextFromURL(computerVisionClient, printedTextSampleURL); printRecText(printedResult); // Perform read and await the result from URL async function readTextFromURL(client, url) { // To recognize text in a local image, replace client.read() with readTextInStream() as shown: let result = await client.read(url); // Operation ID is last path segment of operationLocation (a URL) let operation = result.operationLocation.split('/').slice(-1)[0]; // Wait for read recognition to complete // result.status is initially undefined, since it's the result of read while (result.status !== "succeeded") { await sleep(1000); result = await client.getReadResult(operation); } return result.analyzeResult.readResults; // Return the first page of result. Replace [0] with the desired page if this is a multi-page file such as .pdf or .tiff. } // Prints all text from Read result function printRecText(readResults) { console.log('Recognized text:'); for (const page in readResults) { if (readResults.length > 1) { console.log(`==== Page: ${page}`); } const result = readResults[page]; if (result.lines.length) { for (const line of result.lines) { console.log(line.words.map(w => w.text).join(' ')); } } else { console.log('No recognized text.'); } } } /** * * Download the specified file in the URL to the current local folder * */ function downloadFilesToLocal(url, localFileName) { return new Promise((resolve, reject) => { console.log('--- Downloading file to local directory from: ' + url); const request = https.request(url, (res) => { if (res.statusCode !== 200) { console.log(`Download sample file failed. Status code: ${res.statusCode}, Message: ${res.statusMessage}`); reject(); } var data = []; res.on('data', (chunk) => { data.push(chunk); }); res.on('end', () => { console.log(' ... Downloaded successfully'); fs.writeFileSync(localFileName, Buffer.concat(data)); resolve(); }); }); request.on('error', function (e) { console.log(e.message); reject(); }); request.end(); }); } /** * END - Recognize Printed & Handwritten Text */ console.log(); console.log('-------------------------------------------------'); console.log('End of quickstart.'); }, function () { return new Promise((resolve) => { resolve(); }) } ], (err) => { throw (err); }); } computerVision();
En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, modifiez l’instruction
read
comme indiqué. Si vous ignorez le paramètre ou que vous utilisez"latest"
, le modèle en disponibilité générale le plus récent est automatiquement utilisé.let result = await client.read(url,{modelVersion:"2022-04-30"});
Exécutez l’application avec la commande
node
de votre fichier de démarrage rapide.node index.js
Output
-------------------------------------------------
READ PRINTED, HANDWRITTEN TEXT AND PDF
Read printed text from URL... printed_text.jpg
Recognized text:
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.
-------------------------------------------------
End of quickstart.
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client OCR et à utiliser l’API Lire. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.
- Vue d’ensemble de la reconnaissance OCR
- Le code source de cet exemple est disponible sur GitHub.
Utilisez l'API REST Reconnaissance optique de caractères (OCR) pour lire du texte imprimé et manuscrit.
Remarque
Ce guide de démarrage rapide utilise des commandes cURL pour appeler l’API REST. Vous pouvez également appeler l’API REST à l’aide d’un langage de programmation. Vous pouvez consulter des exemples C#, Python, Java et JavaScript sur GitHub.
Prérequis
- Un abonnement Azure : créez-en un gratuitement.
- cURL installé.
- Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production. - La clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Après le déploiement de votre ressource Azure Vision, sélectionnez Accéder à la ressource.
- Dans le menu de navigation de gauche, sélectionnez Clés et point de terminaison.
- Copiez l’une des clés et le point de terminaison pour une utilisation ultérieure dans le guide de démarrage rapide.
Lire du texte imprimé et manuscrit
Le service de reconnaissance optique de caractères (OCR) permet d'extraire le texte visible dans une image ou un document et de le convertir en un flux de caractères. Pour plus d’informations sur l’extraction de texte, consultez la vue d’ensemble OCR.
Appeler l’API Lire
Pour créer et exécuter l’exemple, effectuez les étapes suivantes :
Copiez la commande ci-après dans un éditeur de texte.
Modifiez la commande comme ci-dessous :
- Remplacez la valeur de
<key>
par votre propre clé. - Remplacez la première partie de l’URL de la demande (
https://westcentralus.api.cognitive.microsoft.com/
) par le texte de votre propre URL de point de terminaison.Notes
Les nouvelles ressources créées après le 1er juillet 2019 utilisent des noms de sous-domaines personnalisés. Pour plus d’informations et afin d’obtenir une liste complète des points de terminaison régionaux, consultez Noms personnalisés de sous-domaine pour Azure AI services.
- Éventuellement, changez l’URL d’image dans le corps de la requête (
https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png
) par l’URL d’une autre image à analyser.
- Remplacez la valeur de
Ouvrir une fenêtre d’invite de commandes.
Collez la commande à partir de l’éditeur de texte dans la fenêtre d’invite de commandes, puis exécutez la commande.
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
La réponse inclut un en-tête Operation-Location
, dont la valeur est une URL unique. Utilisez cette URL pour interroger les résultats de l’opération de lecture. L’URL expire au bout de 48 heures.
Si vous le souhaitez, spécifiez la version du modèle.
En guise d’étape facultative, consultez Déterminer comment traiter les données. Par exemple, pour spécifier explicitement le dernier modèle en disponibilité générale, utilisez model-version=2022-04-30
comme paramètre. Si vous ignorez le paramètre ou que vous utilisez model-version=latest
, le modèle en disponibilité générale le plus récent est automatiquement utilisé.
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze?model-version=2022-04-30" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
Obtenir les résultats de la lecture
Copiez la commande ci-après dans votre éditeur de texte.
Remplacez l’URL par la valeur
Operation-Location
que vous avez copiée à la procédure précédente.Remplacez la valeur de
<key>
par votre propre clé.Ouvrez une fenêtre de console.
Collez la commande à partir de l’éditeur de texte dans la fenêtre de console, puis exécutez la commande.
curl -v -X GET "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyzeResults/{operationId}" -H "Ocp-Apim-Subscription-Key: {key}" --data-ascii "{body}"
Examiner la réponse
Une réponse correcte est retournée au format JSON. L’exemple d’application analyse et affiche une réponse réussie dans la fenêtre de console, comme dans l’exemple suivant :
{
"status": "succeeded",
"createdDateTime": "2021-04-08T21:56:17.6819115+00:00",
"lastUpdatedDateTime": "2021-04-08T21:56:18.4161316+00:00",
"analyzeResult": {
"version": "3.2",
"readResults": [
{
"page": 1,
"angle": 0,
"width": 338,
"height": 479,
"unit": "pixel",
"lines": [
{
"boundingBox": [
25,
14,
318,
14,
318,
59,
25,
59
],
"text": "NOTHING",
"appearance": {
"style": {
"name": "other",
"confidence": 0.971
}
},
"words": [
{
"boundingBox": [
27,
15,
294,
15,
294,
60,
27,
60
],
"text": "NOTHING",
"confidence": 0.994
}
]
}
]
}
]
}
}
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à appeler l’API REST Read. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.
Prérequis
Un abonnement Azure : créez-en un gratuitement.
Une ressource Azure AI Vision. Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production.Connectez-vous à Vision Studio.
- Vous devrez peut-être vous connecter.
- Une fois connecté, sélectionnez Afficher toutes les ressources. Si nécessaire, sélectionnez Actualiser. Vérifiez que la ressource est disponible.
Pour plus d’informations, consultez Bien démarrer avec Vision Studio.
Lire du texte imprimé et manuscrit
Sous Reconnaissance optique de caractères, sélectionnez Extraire le texte à partir d’images.
Sous Essayer, reconnaissez que cette démonstration entraîne l’utilisation de votre compte Azure. Pour plus d’informations, consultez Tarification d'Azure AI Vision.
Sélectionnez une image dans le jeu disponible ou chargez votre propre image.
Si nécessaire, sélectionnez Veuillez sélectionner une ressource pour sélectionner votre ressource.
Une fois que vous avez sélectionné votre image, le texte extrait s’affiche dans la fenêtre de sortie. Vous pouvez également sélectionner l’onglet JSON pour voir la sortie JSON retournée par l’appel d’API.
En dessous de l’expérience d’essai, vous devez suivre les étapes suivantes pour commencer à utiliser cette fonctionnalité dans votre propre application.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez utilisé Vision Studio pour accéder à l’API Read. À présent, découvrez-en plus sur les fonctionnalités de l’API Lire.