Inicio rápido: Lectura de Visión de Azure AI v3.2 GA
Garrantzitsua
Seleccione la edición de Read que mejor se adapte a sus requisitos.
Entrada | Ejemplos | Edición de lectura | Prestación |
---|---|---|---|
Imágenes: Imágenes generales | etiquetas, carteles y pósteres | OCR para imágenes (versión 4.0) | Optimizada para imágenes generales, no provenientes de documentos, con una API sincrónica con rendimiento mejorado que facilita la inserción de experiencias con tecnología de OCR en los escenarios de experiencia de usuario. |
Documentos: Digitales y digitalizados, incluidas las imágenes | libros, artículos e informes | Modelo de lectura del documento de inteligencia | Optimizado para documentos digitales y que contienen gran cantidad de texto digitalizado con una API asincrónica para ayudar a automatizar el procesamiento inteligente de documentos a escala. |
Acerca de la lectura de Visión de Azure AI v3.2 de disponibilidad general
¿Busca la versión de lectura de disponibilidad general de Visión de Azure AI v3.2? Todas las futuras mejoras de la lectura por OCR forman parte de los dos servicios enumerados anteriormente. No habrá más actualizaciones de Visión de Azure AI v3.2. Para obtener más información, consulte Llamada a la API de lectura de disponibilidad general de Visión de Azure AI 3.2 e Inicio rápido: Lectura de disponibilidad general de Visión de Azure AI v3.2.
Comenzar con la API de REST de lectura de Visión de Azure AI o las bibliotecas cliente. Read API proporciona algoritmos de inteligencia artificial para extraer texto de imágenes y devolverlo como cadenas estructuradas. Siga estos pasos para instalar un paquete en la aplicación y probar el código de ejemplo en tareas básicas.
Use la biblioteca cliente de reconocimiento óptico de caracteres (OCR) para leer texto impreso y manuscrito desde una imagen. El servicio OCR puede leer texto visible de una imagen y convertirlo en una secuencia de caracteres. Para obtener más información sobre el reconocimiento de texto, consulte Información general de OCR. El código de esta sección utiliza la última versión del paquete de Visión de Azure AI.
Argibidea
También puede extraer texto de una imagen local. Consulte los métodos ComputerVisionClient, como ReadInStreamAsync. O bien, consulte el código de ejemplo en GitHub para escenarios relacionados con imágenes locales.
Documentación de referencia | Código fuente de la biblioteca | Paquete (NuGet) | Ejemplos
- Una suscripción a Azure (cree una cuenta gratuita).
- El IDE de Visual Studio o la versión actual de .NET Core.
- Un recurso de Visión de Azure AI. Puede usar el plan de tarifa gratis (
F0
) para probar el servicio y actualizarlo más adelante a un plan de pago para producción. - La clave y el punto de conexión del recurso que cree para conectar la aplicación al servicio Visión de Azure AI.
- Una vez implementado el recurso de Visión de Azure, seleccione Ir al recurso.
- En el menú de navegación izquierdo, seleccione Claves y punto de conexión.
- Copie una de las claves y el Punto de conexión para usarlos más adelante en el inicio rápido.
En este ejemplo, escriba las credenciales en variables de entorno del equipo local que ejecuta la aplicación.
Vaya a Azure Portal. Si el recurso que ha creado en la sección Requisitos previos se ha implementado correctamente, seleccione Ir al recurso en Pasos siguientes. Puede encontrar su clave y punto de conexión en Administración de recursos dentro de la página Claves y puntos de conexión. La clave de recurso no es la misma que el id. de suscripción de Azure.
Para establecer la variable de entorno para la clave y el punto de conexión, abra una ventana de consola y siga las instrucciones correspondientes a su sistema operativo y su entorno de desarrollo.
- Para establecer la variable de entorno
VISION_KEY
, reemplace<your_key>
por una de las claves del recurso. - Para establecer la variable de entorno
VISION_ENDPOINT
, reemplace<your_endpoint>
por el punto de conexión del recurso.
Garrantzitsua
Si usa una clave de API, almacénela de forma segura en otro lugar, como en Azure Key Vault. No incluya la clave de API directamente en el código ni la exponga nunca públicamente.
Para más información acerca de la seguridad de los servicios de AI, consulte Autenticación de solicitudes a los servicios de Azure AI.
export VISION_KEY=<your_key>
export VISION_ENDPOINT=<your_endpoint>
Después de agregar las variables de entorno ejecute source ~/.bashrc
en la ventana de consola para que los cambios surtan efecto.
Cree una aplicación de C#.
Con Visual Studio, cree un proyecto de aplicación de consola (.NET Framework) para C#, Windows, Console.
Después de crear un proyecto, instale la biblioteca cliente:
- Haga clic con el botón derecho en la solución del proyecto en el Explorador de soluciones y seleccione Administrar paquetes NuGet para la solución.
- En el administrador de paquetes que se abre, seleccione Examinar. Seleccione Incluir versión preliminar.
- Busque y seleccione
Microsoft.Azure.CognitiveServices.Vision.ComputerVision
. - En el cuadro de diálogo de detalles, seleccione el proyecto y seleccione la versión estable más reciente. A continuación, seleccione Instalar.
En el directorio del proyecto, abra el archivo Program.cs en el editor o IDE que prefiera. Reemplace el contenido de Program.cs por el código siguiente.
using System; using System.Collections.Generic; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models; using System.Threading.Tasks; using System.IO; using Newtonsoft.Json; using Newtonsoft.Json.Linq; using System.Threading; using System.Linq; namespace ComputerVisionQuickstart { class Program { // Add your Computer Vision key and endpoint static string key = Environment.GetEnvironmentVariable("VISION_KEY"); static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT"); private const string READ_TEXT_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg"; static void Main(string[] args) { Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example"); Console.WriteLine(); ComputerVisionClient client = Authenticate(endpoint, key); // Extract text (OCR) from a URL image using the Read API ReadFileUrl(client, READ_TEXT_URL_IMAGE).Wait(); } public static ComputerVisionClient Authenticate(string endpoint, string key) { ComputerVisionClient client = new ComputerVisionClient(new ApiKeyServiceClientCredentials(key)) { Endpoint = endpoint }; return client; } public static async Task ReadFileUrl(ComputerVisionClient client, string urlFile) { Console.WriteLine("----------------------------------------------------------"); Console.WriteLine("READ FILE FROM URL"); Console.WriteLine(); // Read text from URL var textHeaders = await client.ReadAsync(urlFile); // After the request, get the operation location (operation ID) string operationLocation = textHeaders.OperationLocation; Thread.Sleep(2000); // Retrieve the URI where the extracted text will be stored from the Operation-Location header. // We only need the ID and not the full URL const int numberOfCharsInOperationId = 36; string operationId = operationLocation.Substring(operationLocation.Length - numberOfCharsInOperationId); // Extract the text ReadOperationResult results; Console.WriteLine($"Extracting text from URL file {Path.GetFileName(urlFile)}..."); Console.WriteLine(); do { results = await client.GetReadResultAsync(Guid.Parse(operationId)); } while ((results.Status == OperationStatusCodes.Running || results.Status == OperationStatusCodes.NotStarted)); // Display the found text. Console.WriteLine(); var textUrlFileResults = results.AnalyzeResult.ReadResults; foreach (ReadResult page in textUrlFileResults) { foreach (Line line in page.Lines) { Console.WriteLine(line.Text); } } Console.WriteLine(); } } }
Como paso opcional, consulte Determinar cómo procesar los datos. Por ejemplo, para especificar explícitamente el último modelo de disponibilidad general, edite la
ReadAsync
llamada como se muestra. Omita el parámetro o use"latest"
para usar el modelo de disponibilidad general más reciente.// Read text from URL with a specific model version var textHeaders = await client.ReadAsync(urlFile,null,null,"2022-04-30");
Ejecute la aplicación.
- En el menú Depurar, seleccione Iniciar depuración.
Azure AI Vision - .NET quickstart example
----------------------------------------------------------
READ FILE FROM URL
Extracting text from URL file printed_text.jpg...
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.
Si quiere limpiar y eliminar una suscripción de servicios de Azure AI, puede eliminar el recurso o el grupo de recursos. Al eliminar el grupo de recursos, también se elimina cualquier otro recurso que esté asociado a él.
En este inicio rápido, ha aprendido a instalar la biblioteca cliente de OCR y a usar Read API. A continuación, obtenga más información sobre las características de Read API.
- Introducción al OCR
- El código fuente de este ejemplo está disponible en GitHub.
Use la biblioteca cliente de reconocimiento óptico de caracteres (OCR) para leer texto impreso y manuscrito de una imagen remota. El servicio OCR puede leer texto visible de una imagen y convertirlo en una secuencia de caracteres. Para obtener más información sobre el reconocimiento de texto, consulte Información general de OCR.
Argibidea
También puede leer el texto de una imagen local. Consulte los métodos ComputerVisionClientOperationsMixin, como read_in_stream. O bien, consulte el código de ejemplo en GitHub para escenarios relacionados con imágenes locales.
Documentación de referencia | Código fuente de la biblioteca | Paquete (PiPy) | Ejemplos
- Una suscripción a Azure (cree una cuenta gratuita).
- Python 3.x.
- La instalación de Python debe incluir pip. Puede comprobar si tiene pip instalado mediante la ejecución de
pip --version
en la línea de comandos. Para obtener pip, instale la versión más reciente de Python. - Un recurso de Visión de Azure AI. Puede usar el plan de tarifa gratis (
F0
) para probar el servicio y actualizarlo más adelante a un plan de pago para producción. - La clave y el punto de conexión del recurso que cree para conectar la aplicación al servicio Visión de Azure AI.
- Una vez implementado el recurso de Visión de Azure, seleccione Ir al recurso.
- En el menú de navegación izquierdo, seleccione Claves y punto de conexión.
- Copie una de las claves y el Punto de conexión para usarlos más adelante en el inicio rápido.
En este ejemplo, escriba las credenciales en variables de entorno del equipo local que ejecuta la aplicación.
Vaya a Azure Portal. Si el recurso que ha creado en la sección Requisitos previos se ha implementado correctamente, seleccione Ir al recurso en Pasos siguientes. Puede encontrar su clave y punto de conexión en Administración de recursos dentro de la página Claves y puntos de conexión. La clave de recurso no es la misma que el id. de suscripción de Azure.
Para establecer la variable de entorno para la clave y el punto de conexión, abra una ventana de consola y siga las instrucciones correspondientes a su sistema operativo y su entorno de desarrollo.
- Para establecer la variable de entorno
VISION_KEY
, reemplace<your_key>
por una de las claves del recurso. - Para establecer la variable de entorno
VISION_ENDPOINT
, reemplace<your_endpoint>
por el punto de conexión del recurso.
Garrantzitsua
Si usa una clave de API, almacénela de forma segura en otro lugar, como en Azure Key Vault. No incluya la clave de API directamente en el código ni la exponga nunca públicamente.
Para más información acerca de la seguridad de los servicios de AI, consulte Autenticación de solicitudes a los servicios de Azure AI.
export VISION_KEY=<your_key>
export VISION_ENDPOINT=<your_endpoint>
Después de agregar las variables de entorno ejecute source ~/.bashrc
en la ventana de consola para que los cambios surtan efecto.
Instale la biblioteca cliente.
Abra una ventana de la consola y ejecute el siguiente comando:
pip install --upgrade azure-cognitiveservices-vision-computervision
Instale la biblioteca Pillow.
pip install pillow
Cree un nuevo archivo de aplicación de Python, quickstart-file.py. A continuación, ábralo en el editor o IDE preferidos.
Reemplace el contenido de quickstart-file.py por el código siguiente.
from azure.cognitiveservices.vision.computervision import ComputerVisionClient from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes from msrest.authentication import CognitiveServicesCredentials from array import array import os from PIL import Image import sys import time ''' Authenticate Authenticates your credentials and creates a client. ''' subscription_key = os.environ["VISION_KEY"] endpoint = os.environ["VISION_ENDPOINT"] computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key)) ''' END - Authenticate ''' ''' OCR: Read File using the Read API, extract text - remote This example will extract text in an image, then print results, line by line. This API call can also extract handwriting style text (not shown). ''' print("===== Read File - remote =====") # Get an image with text read_image_url = "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png" # Call API with URL and raw response (allows you to get the operation location) read_response = computervision_client.read(read_image_url, raw=True) # Get the operation location (URL with an ID at the end) from the response read_operation_location = read_response.headers["Operation-Location"] # Grab the ID from the URL operation_id = read_operation_location.split("/")[-1] # Call the "GET" API and wait for it to retrieve the results while True: read_result = computervision_client.get_read_result(operation_id) if read_result.status not in ['notStarted', 'running']: break time.sleep(1) # Print the detected text, line by line if read_result.status == OperationStatusCodes.succeeded: for text_result in read_result.analyze_result.read_results: for line in text_result.lines: print(line.text) print(line.bounding_box) print() ''' END - Read File - remote ''' print("End of Computer Vision quickstart.")
Como paso opcional, consulte Determinar cómo procesar los datos. Por ejemplo, para especificar explícitamente el último modelo de disponibilidad general, edite la
read
instrucción como se muestra. Omitir el parámetro o usar"latest"
automáticamente el modelo de disponibilidad general más reciente.# Call API with URL and raw response (allows you to get the operation location) read_response = computervision_client.read(read_image_url, raw=True, model_version="2022-04-30")
Ejecute la aplicación con el comando
python
en el archivo de inicio rápido.python quickstart-file.py
===== Read File - remote =====
The quick brown fox jumps
[38.0, 650.0, 2572.0, 699.0, 2570.0, 854.0, 37.0, 815.0]
Over
[184.0, 1053.0, 508.0, 1044.0, 510.0, 1123.0, 184.0, 1128.0]
the lazy dog!
[639.0, 1011.0, 1976.0, 1026.0, 1974.0, 1158.0, 637.0, 1141.0]
End of Azure AI Vision quickstart.
Si quiere limpiar y eliminar una suscripción de servicios de Azure AI, puede eliminar el recurso o el grupo de recursos. Al eliminar el grupo de recursos, también se elimina cualquier otro recurso que esté asociado a él.
En este inicio rápido, ha aprendido a instalar la biblioteca cliente de OCR y a usar Read API. A continuación, obtenga más información sobre las características de Read API.
- Introducción al OCR
- El código fuente de este ejemplo está disponible en GitHub.
Use la biblioteca cliente de reconocimiento óptico de caracteres (OCR) para leer texto impreso y manuscrito con Read API. El servicio OCR puede leer texto visible de una imagen y convertirlo en una secuencia de caracteres. Para obtener más información sobre el reconocimiento de texto, consulte Información general de OCR.
Argibidea
También puede leer el texto de una imagen local. Consulte los métodos ComputerVisionClient, como readInStream. O bien, consulte el código de ejemplo en GitHub para escenarios relacionados con imágenes locales.
Documentación de referencia | Paquete (npm) | Muestras
- Una suscripción a Azure (cree una cuenta gratuita).
- La versión actual de Node.js.
- Un recurso de Visión de Azure AI. Puede usar el plan de tarifa gratis (
F0
) para probar el servicio y actualizarlo más adelante a un plan de pago para producción. - La clave y el punto de conexión del recurso que cree para conectar la aplicación al servicio Visión de Azure AI.
- Una vez implementado el recurso de Visión de Azure, seleccione Ir al recurso.
- En el menú de navegación izquierdo, seleccione Claves y punto de conexión.
- Copie una de las claves y el Punto de conexión para usarlos más adelante en el inicio rápido.
En este ejemplo, escriba las credenciales en variables de entorno del equipo local que ejecuta la aplicación.
Vaya a Azure Portal. Si el recurso que ha creado en la sección Requisitos previos se ha implementado correctamente, seleccione Ir al recurso en Pasos siguientes. Puede encontrar su clave y punto de conexión en Administración de recursos dentro de la página Claves y puntos de conexión. La clave de recurso no es la misma que el id. de suscripción de Azure.
Para establecer la variable de entorno para la clave y el punto de conexión, abra una ventana de consola y siga las instrucciones correspondientes a su sistema operativo y su entorno de desarrollo.
- Para establecer la variable de entorno
VISION_KEY
, reemplace<your_key>
por una de las claves del recurso. - Para establecer la variable de entorno
VISION_ENDPOINT
, reemplace<your_endpoint>
por el punto de conexión del recurso.
Garrantzitsua
Si usa una clave de API, almacénela de forma segura en otro lugar, como en Azure Key Vault. No incluya la clave de API directamente en el código ni la exponga nunca públicamente.
Para más información acerca de la seguridad de los servicios de AI, consulte Autenticación de solicitudes a los servicios de Azure AI.
export VISION_KEY=<your_key>
export VISION_ENDPOINT=<your_endpoint>
Después de agregar las variables de entorno ejecute source ~/.bashrc
en la ventana de consola para que los cambios surtan efecto.
Cree una nueva aplicación Node.js.
En una ventana de la consola, cree un directorio nuevo para la aplicación y vaya a ese directorio.
mkdir myapp cd myapp
Ejecute el comando
npm init
para crear una aplicación de nodo con un archivopackage.json
. Seleccione Entrar para cualquier solicitud.npm init
Para instalar la biblioteca cliente, instale los paquetes npm
ms-rest-azure
y@azure/cognitiveservices-computervision
:npm install ms-rest-azure npm install @azure/cognitiveservices-computervision
Instale el módulo asincrónico:
npm install async
El archivo
package.json
de la aplicación se actualiza con las dependencias.Cree un archivo, index.js y ábralo en un editor de texto.
Pegue el código siguiente en el archivo index.js.
'use strict'; const async = require('async'); const fs = require('fs'); const https = require('https'); const path = require("path"); const createReadStream = require('fs').createReadStream const sleep = require('util').promisify(setTimeout); const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient; const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials; /** * AUTHENTICATE * This single client is used for all examples. */ const key = process.env.VISION_KEY; const endpoint = process.env.VISION_ENDPOINT; const computerVisionClient = new ComputerVisionClient( new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint); /** * END - Authenticate */ function computerVision() { async.series([ async function () { /** * OCR: READ PRINTED & HANDWRITTEN TEXT WITH THE READ API * Extracts text from images using OCR (optical character recognition). */ console.log('-------------------------------------------------'); console.log('READ PRINTED, HANDWRITTEN TEXT AND PDF'); console.log(); // URL images containing printed and/or handwritten text. // The URL can point to image files (.jpg/.png/.bmp) or multi-page files (.pdf, .tiff). const printedTextSampleURL = 'https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg'; // Recognize text in printed image from a URL console.log('Read printed text from URL...', printedTextSampleURL.split('/').pop()); const printedResult = await readTextFromURL(computerVisionClient, printedTextSampleURL); printRecText(printedResult); // Perform read and await the result from URL async function readTextFromURL(client, url) { // To recognize text in a local image, replace client.read() with readTextInStream() as shown: let result = await client.read(url); // Operation ID is last path segment of operationLocation (a URL) let operation = result.operationLocation.split('/').slice(-1)[0]; // Wait for read recognition to complete // result.status is initially undefined, since it's the result of read while (result.status !== "succeeded") { await sleep(1000); result = await client.getReadResult(operation); } return result.analyzeResult.readResults; // Return the first page of result. Replace [0] with the desired page if this is a multi-page file such as .pdf or .tiff. } // Prints all text from Read result function printRecText(readResults) { console.log('Recognized text:'); for (const page in readResults) { if (readResults.length > 1) { console.log(`==== Page: ${page}`); } const result = readResults[page]; if (result.lines.length) { for (const line of result.lines) { console.log(line.words.map(w => w.text).join(' ')); } } else { console.log('No recognized text.'); } } } /** * * Download the specified file in the URL to the current local folder * */ function downloadFilesToLocal(url, localFileName) { return new Promise((resolve, reject) => { console.log('--- Downloading file to local directory from: ' + url); const request = https.request(url, (res) => { if (res.statusCode !== 200) { console.log(`Download sample file failed. Status code: ${res.statusCode}, Message: ${res.statusMessage}`); reject(); } var data = []; res.on('data', (chunk) => { data.push(chunk); }); res.on('end', () => { console.log(' ... Downloaded successfully'); fs.writeFileSync(localFileName, Buffer.concat(data)); resolve(); }); }); request.on('error', function (e) { console.log(e.message); reject(); }); request.end(); }); } /** * END - Recognize Printed & Handwritten Text */ console.log(); console.log('-------------------------------------------------'); console.log('End of quickstart.'); }, function () { return new Promise((resolve) => { resolve(); }) } ], (err) => { throw (err); }); } computerVision();
Como paso opcional, consulte Determinar cómo procesar los datos. Por ejemplo, para especificar explícitamente el último modelo de disponibilidad general, edite la
read
instrucción como se muestra. Omitir el parámetro o usar"latest"
automáticamente el modelo de disponibilidad general más reciente.let result = await client.read(url,{modelVersion:"2022-04-30"});
Ejecute la aplicación con el comando
node
en el archivo de inicio rápido.node index.js
-------------------------------------------------
READ PRINTED, HANDWRITTEN TEXT AND PDF
Read printed text from URL... printed_text.jpg
Recognized text:
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.
-------------------------------------------------
End of quickstart.
Si quiere limpiar y eliminar una suscripción de servicios de Azure AI, puede eliminar el recurso o el grupo de recursos. Al eliminar el grupo de recursos, también se elimina cualquier otro recurso que esté asociado a él.
En este inicio rápido, ha aprendido a instalar la biblioteca cliente de OCR y a usar Read API. A continuación, obtenga más información sobre las características de Read API.
- Introducción al OCR
- El código fuente de este ejemplo está disponible en GitHub.
Use la API de REST de reconocimiento óptico de caracteres (OCR) para leer texto impreso y manuscrito.
Oharra
Este inicio rápido usa comandos de cURL para llamar a la API REST. También puede llamar a la API REST mediante un lenguaje de programación. Consulte las muestras de GitHub para ver ejemplos en C#, Python, Java y JavaScript.
- Una suscripción a Azure (cree una cuenta gratuita).
- cURL instalado.
- Un recurso de Visión de Azure AI. Puede usar el plan de tarifa gratis (
F0
) para probar el servicio y actualizarlo más adelante a un plan de pago para producción. - La clave y el punto de conexión del recurso que cree para conectar la aplicación al servicio Visión de Azure AI.
- Una vez implementado el recurso de Visión de Azure, seleccione Ir al recurso.
- En el menú de navegación izquierdo, seleccione Claves y punto de conexión.
- Copie una de las claves y el Punto de conexión para usarlos más adelante en el inicio rápido.
El servicio de reconocimiento (OCR) puede extraer el texto visible de una imagen o documento y convertirlo en una secuencia de caracteres. Para obtener más información sobre la extracción de texto, consulte Información general del OCR.
Para crear y ejecutar el ejemplo, siga estos pasos:
Copie el comando siguiente en un editor de texto.
Realice los siguientes cambios en el comando donde sea necesario:
- Reemplace el valor de
<key>
por su clave. - Reemplace la primera parte de la dirección URL de la solicitud (
https://westcentralus.api.cognitive.microsoft.com/
) por el texto de la dirección URL de su punto de conexión.Oharra
Los nuevos recursos creados después del 1 de julio de 2019 usarán nombres de subdominio personalizados. Para obtener más información y una lista completa de puntos de conexión regionales, consulte Nombres de subdominios personalizados para los servicios de Azure AI.
- Si lo desea, cambie la dirección URL de la imagen del cuerpo de la solicitud (
https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png
) por la dirección URL de una imagen diferente que desee analizar.
- Reemplace el valor de
Abra una ventana de símbolo del sistema.
Pegue el comando del editor de texto en la ventana del símbolo del sistema y después ejecute el comando.
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
La respuesta incluye un encabezado Operation-Location
cuyo valor es una dirección URL única. Use esta dirección URL para consultar los resultados de la operación de lectura. La dirección URL expira dentro de 48 horas.
Como paso opcional, consulte Determinar cómo procesar los datos. Por ejemplo, para especificar explícitamente el modelo de disponibilidad general más reciente, use model-version=2022-04-30
como el parámetro. Omitir el parámetro o usar model-version=latest
automáticamente el modelo de disponibilidad general más reciente.
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze?model-version=2022-04-30" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
Copie el comando siguiente en el editor de texto.
Reemplace la dirección URL por el valor
Operation-Location
que usó en el procedimiento anterior.Reemplace el valor de
<key>
por su clave.Abra una ventana de la consola.
Pegue el comando del editor de texto en la ventana de la consola y después ejecute el comando.
curl -v -X GET "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyzeResults/{operationId}" -H "Ocp-Apim-Subscription-Key: {key}" --data-ascii "{body}"
Se devuelve una respuesta correcta en JSON. La aplicación de ejemplo analiza y muestra una respuesta correcta en la ventana de la consola, parecida a la del ejemplo siguiente:
{
"status": "succeeded",
"createdDateTime": "2021-04-08T21:56:17.6819115+00:00",
"lastUpdatedDateTime": "2021-04-08T21:56:18.4161316+00:00",
"analyzeResult": {
"version": "3.2",
"readResults": [
{
"page": 1,
"angle": 0,
"width": 338,
"height": 479,
"unit": "pixel",
"lines": [
{
"boundingBox": [
25,
14,
318,
14,
318,
59,
25,
59
],
"text": "NOTHING",
"appearance": {
"style": {
"name": "other",
"confidence": 0.971
}
},
"words": [
{
"boundingBox": [
27,
15,
294,
15,
294,
60,
27,
60
],
"text": "NOTHING",
"confidence": 0.994
}
]
}
]
}
]
}
}
Si quiere limpiar y eliminar una suscripción de servicios de Azure AI, puede eliminar el recurso o el grupo de recursos. Al eliminar el grupo de recursos, también se elimina cualquier otro recurso que esté asociado a él.
En este inicio rápido, ha aprendido a llamar a la API REST de Read. A continuación, obtenga más información sobre las características de Read API.
Una suscripción a Azure (cree una cuenta gratuita).
Un recurso de Visión de Azure AI. Puede usar el plan de tarifa gratis (
F0
) para probar el servicio y actualizarlo más adelante a un plan de pago para producción.Conéctese a Vision Studio.
- Podría necesitar iniciar sesión.
- Después de iniciar sesión, seleccione Ver todos los recursos. Seleccione Actualizar si es necesario. Compruebe que el recurso esté disponible.
Para obtener más información, consulte Introducción a Vision Studio.
En Reconocimiento óptico de caracteres, seleccione Extracción de texto desde imágenes.
En Probarlo, confirme que esta demostración incurre en el uso de su cuenta de Azure. Para obtener más información, consulte Precios de Visión de Azure AI.
Seleccione una imagen del conjunto disponible o cargue su propia imagen.
Si es necesario, seleccione Seleccionar un recurso para seleccionar el recurso.
Después de seleccionar la imagen, verá que el texto extraído aparece en la ventana de salida. También puede seleccionar la pestaña JSON para ver la salida JSON que devuelve la llamada API.
Después de la experiencia de prueba, encontrará los siguientes pasos para comenzar a usar esta capacidad en su propia aplicación.
En este inicio rápido, ha usado Vision Studio para acceder a Read API. A continuación, obtenga más información sobre las características de Read API.