快速入門:光學字元辨識 (OCR)

開始使用電腦視覺讀取 REST API 或用戶端程式庫。 讀取 API 會為您提供 AI 演算法,用以從影像中擷取文字,並將其傳回為結構化字串。 請遵循下列步驟將套件安裝至您的應用程式,並試用基本工作的程式碼範例。

使用 OCR 用戶端程式庫,從遠端影像中讀取印刷和手寫文字。 OCR 可以讀取影像中的可見文字,並將其轉換成字元資料流。 如需文字辨識的詳細資訊,請參閱光學字元辨識 (OCR) 概觀。 本節中的程式碼使用適用於 Read 3.0 的最新電腦視覺 SDK 版本

提示

您也可以從本機影像擷取文字。 請參閱 ComputerVisionClient 方法,例如 ReadInStreamAsync。 或如需本機影像的相關案例,請參閱 GitHub 上的範例程式碼。

參考文件 | 程式庫來源程式碼 | 套件 (NuGet) | 範例

必要條件

  • Azure 訂用帳戶 - 建立免費帳戶
  • Visual Studio IDE 或目前版本的 .NET Core
  • 擁有 Azure 訂用帳戶之後,在 Azure 入口網站中建立電腦視覺資源,以取得您的金鑰和端點。 在其部署後,按一下 [前往資源]。
    • 您需要來自所建立資源的金鑰和端點,以將應用程式連線至 電腦視覺服務。 您稍後會在快速入門中將金鑰和端點貼到下列程式碼中。
    • 您可以使用免費定價層 (F0) 來試用服務,之後可升級至付費層以用於實際執行環境。

讀取印刷和手寫文字

  1. 建立新的 C# 應用程式。

    使用 Visual Studio,建立新的 .NET Core 應用程式。

    安裝用戶端程式庫

    建立新專案後,以滑鼠右鍵按一下 [方案總管] 中的專案解決方案,然後選取 [管理 NuGet 套件],以安裝用戶端程式庫。 在開啟的套件管理員中,選取 [瀏覽]、核取 [包含發行前版本],然後搜尋 Microsoft.Azure.CognitiveServices.Vision.ComputerVision。 選取版本 7.0.0,然後 安裝

  2. 尋找金鑰和端點。

    前往 Azure 入口網站。 如果您在 [必要條件] 區段中建立的電腦視覺資源成功部署,請按一下 [後續步驟] 底下的 [前往資源] 按鈕。 您可以在 [資源管理] 底下的 [金鑰和端點] 頁面中找到金鑰和端點。

  3. 從專案目錄,在慣用的編輯器或 IDE 中開啟 Program.cs 檔案。 將 Program.cs 的內容取代為下列程式碼。

    using System;
    using System.Collections.Generic;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models;
    using System.Threading.Tasks;
    using System.IO;
    using Newtonsoft.Json;
    using Newtonsoft.Json.Linq;
    using System.Threading;
    using System.Linq;
    
    namespace ComputerVisionQuickstart
    {
        class Program
        {
            // Add your Computer Vision subscription key and endpoint
            static string subscriptionKey = "PASTE_YOUR_COMPUTER_VISION_SUBSCRIPTION_KEY_HERE";
            static string endpoint = "PASTE_YOUR_COMPUTER_VISION_ENDPOINT_HERE";
    
            private const string READ_TEXT_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg";
    
            static void Main(string[] args)
            {
                Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example");
                Console.WriteLine();
    
                ComputerVisionClient client = Authenticate(endpoint, subscriptionKey);
    
                // Extract text (OCR) from a URL image using the Read API
                ReadFileUrl(client, READ_TEXT_URL_IMAGE).Wait();
            }
    
            public static ComputerVisionClient Authenticate(string endpoint, string key)
            {
                ComputerVisionClient client =
                  new ComputerVisionClient(new ApiKeyServiceClientCredentials(key))
                  { Endpoint = endpoint };
                return client;
            }
    
            public static async Task ReadFileUrl(ComputerVisionClient client, string urlFile)
            {
                Console.WriteLine("----------------------------------------------------------");
                Console.WriteLine("READ FILE FROM URL");
                Console.WriteLine();
    
                // Read text from URL
                var textHeaders = await client.ReadAsync(urlFile);
                // After the request, get the operation location (operation ID)
                string operationLocation = textHeaders.OperationLocation;
                Thread.Sleep(2000);
    
                // Retrieve the URI where the extracted text will be stored from the Operation-Location header.
                // We only need the ID and not the full URL
                const int numberOfCharsInOperationId = 36;
                string operationId = operationLocation.Substring(operationLocation.Length - numberOfCharsInOperationId);
    
                // Extract the text
                ReadOperationResult results;
                Console.WriteLine($"Extracting text from URL file {Path.GetFileName(urlFile)}...");
                Console.WriteLine();
                do
                {
                    results = await client.GetReadResultAsync(Guid.Parse(operationId));
                }
                while ((results.Status == OperationStatusCodes.Running ||
                    results.Status == OperationStatusCodes.NotStarted));
    
                // Display the found text.
                Console.WriteLine();
                var textUrlFileResults = results.AnalyzeResult.ReadResults;
                foreach (ReadResult page in textUrlFileResults)
                {
                    foreach (Line line in page.Lines)
                    {
                        Console.WriteLine(line.Text);
                    }
                }
                Console.WriteLine();
            }
    
        }
    }
    
  4. 在指示的位置中貼上您的金鑰和端點。 您的電腦視覺端點格式為 https://<your_computer_vision_resource_name>.cognitiveservices.azure.com/

    重要

    完成時,請記得從程式碼中移除金鑰,且不要公開張貼金鑰。 在生產環境中,請使用安全的方式來儲存和存取您的認證,例如 Azure Key Vault。 如需詳細資訊,請參閱認知服務安全性一文。

  5. 如需了解選用步驟,請參閱如何指定模型版本。 例如,若要明確指定最新的 GA 模型,請編輯 ReadAsync 呼叫,如下所示。 略過參數或使用 "latest",會自動使用最新的 GA 模型。

      // Read text from URL with a specific model version
      var textHeaders = await client.ReadAsync(urlFile,null,null,"2022-04-30");
    
  6. 執行應用程式。

    按一下 IDE 視窗頂端的 [偵錯] 按鈕。


輸出

Azure Cognitive Services Computer Vision - .NET quickstart example

----------------------------------------------------------
READ FILE FROM URL

Extracting text from URL file printed_text.jpg...


Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.

清除資源

如果您想要清除和移除認知服務訂用帳戶,則可以刪除資源或資源群組。 刪除資源群組也會刪除其關聯的任何其他資源。

後續步驟

在此快速入門中,您已了解如何安裝 OCR 用戶端程式庫以及使用讀取 API。 接下來,請深入了解讀取 API 功能。

使用 OCR 用戶端程式庫,從遠端影像中讀取印刷和手寫文字。 OCR 可以讀取影像中的可見文字,並將其轉換成字元資料流。 如需文字辨識的詳細資訊,請參閱光學字元辨識 (OCR) 概觀。

提示

您也可以從本機影像讀取文字。 請參閱 ComputerVisionClientOperationsMixin 方法,例如 read_in_stream。 或如需本機影像的相關案例,請參閱 GitHub 上的範例程式碼。

參考文件 | 程式庫原始程式碼 | 套件 (PiPy) | 範例

必要條件

  • Azure 訂用帳戶 - 建立免費帳戶

  • Python 3.x

    • 您安裝的 Python 應包含 pip。 您可以在命令列上執行 pip --version 來檢查是否已安裝 pip。 安裝最新版本的 Python 以取得 pip。
  • 擁有 Azure 訂用帳戶之後,在 Azure 入口網站中建立電腦視覺資源,以取得您的金鑰和端點。 在其部署後,按一下 [前往資源]。

    • 您需要來自所建立資源的金鑰和端點,以將應用程式連線至 電腦視覺服務。 您稍後會在快速入門中將金鑰和端點貼到下列程式碼中。
    • 您可以使用免費定價層 (F0) 來試用服務,之後可升級至付費層以用於實際執行環境。

讀取印刷和手寫文字

  1. 安裝用戶端程式庫。

    您可以使用下列命令來安裝用戶端程式庫:

    pip install --upgrade azure-cognitiveservices-vision-computervision
    

    也可以安裝 Pillow 程式庫。

    pip install pillow
    
  2. 建立新的 Python 應用程式

    建立新的 Python 指令碼,例如 quickstart-file.py。 然後,以您慣用的編輯器或 IDE 加以開啟。

  3. 尋找金鑰和端點。

    前往 Azure 入口網站。 如果您在 [必要條件] 區段中建立的電腦視覺資源成功部署,請按一下 [後續步驟] 底下的 [前往資源] 按鈕。 您可以在 [資源管理] 底下的 [金鑰和端點] 頁面中找到金鑰和端點。

  4. quickstart-file.py 的內容取代為下列程式碼。

    from azure.cognitiveservices.vision.computervision import ComputerVisionClient
    from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes
    from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes
    from msrest.authentication import CognitiveServicesCredentials
    
    from array import array
    import os
    from PIL import Image
    import sys
    import time
    
    '''
    Authenticate
    Authenticates your credentials and creates a client.
    '''
    subscription_key = "PASTE_YOUR_COMPUTER_VISION_SUBSCRIPTION_KEY_HERE"
    endpoint = "PASTE_YOUR_COMPUTER_VISION_ENDPOINT_HERE"
    
    computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key))
    '''
    END - Authenticate
    '''
    
    '''
    OCR: Read File using the Read API, extract text - remote
    This example will extract text in an image, then print results, line by line.
    This API call can also extract handwriting style text (not shown).
    '''
    print("===== Read File - remote =====")
    # Get an image with text
    read_image_url = "https://raw.githubusercontent.com/MicrosoftDocs/azure-docs/master/articles/cognitive-services/Computer-vision/Images/readsample.jpg"
    
    # Call API with URL and raw response (allows you to get the operation location)
    read_response = computervision_client.read(read_image_url,  raw=True)
    
    # Get the operation location (URL with an ID at the end) from the response
    read_operation_location = read_response.headers["Operation-Location"]
    # Grab the ID from the URL
    operation_id = read_operation_location.split("/")[-1]
    
    # Call the "GET" API and wait for it to retrieve the results 
    while True:
        read_result = computervision_client.get_read_result(operation_id)
        if read_result.status not in ['notStarted', 'running']:
            break
        time.sleep(1)
    
    # Print the detected text, line by line
    if read_result.status == OperationStatusCodes.succeeded:
        for text_result in read_result.analyze_result.read_results:
            for line in text_result.lines:
                print(line.text)
                print(line.bounding_box)
    print()
    '''
    END - Read File - remote
    '''
    
    print("End of Computer Vision quickstart.")
    
    
  5. 在指示的位置中貼上您的金鑰和端點。 您的電腦視覺端點格式為 https://<your_computer_vision_resource_name>.cognitiveservices.azure.com/

    重要

    完成時,請記得從程式碼中移除金鑰,且不要公開張貼金鑰。 在生產環境中,請使用安全的方式來儲存和存取您的認證,例如 Azure Key Vault。 如需詳細資訊,請參閱認知服務安全性一文。

  6. 如需了解選用步驟,請參閱如何指定模型版本。 例如,若要明確指定最新的 GA 模型,請編輯 read 陳述式,如下所示。 略過參數或使用 "latest",會自動使用最新的 GA 模型。

       # Call API with URL and raw response (allows you to get the operation location)
       read_response = computervision_client.read(read_image_url,  raw=True, model_version="2022-04-30")
    
  7. 使用快速入門檔案上使用 python 命令執行應用程式。

    python quickstart-file.py
    

輸出

===== Read File - remote =====
The quick brown fox jumps
[38.0, 650.0, 2572.0, 699.0, 2570.0, 854.0, 37.0, 815.0]
Over
[184.0, 1053.0, 508.0, 1044.0, 510.0, 1123.0, 184.0, 1128.0]
the lazy dog!
[639.0, 1011.0, 1976.0, 1026.0, 1974.0, 1158.0, 637.0, 1141.0]

End of Computer Vision quickstart.

清除資源

如果您想要清除和移除認知服務訂用帳戶,則可以刪除資源或資源群組。 刪除資源群組也會刪除其關聯的任何其他資源。

後續步驟

在此快速入門中,您已了解如何安裝 OCR 用戶端程式庫以及使用讀取 API。 接下來,請深入了解讀取 API 功能。

使用「光學字元辨識」用戶端程式庫,以讀取 API 來讀取印刷和手寫文字。 OCR 可以讀取影像中的可見文字,並將其轉換成字元資料流。 如需文字辨識的詳細資訊,請參閱光學字元辨識 (OCR) 概觀。

提示

您也可以從本機影像讀取文字。 請參閱 ComputerVisionClient 方法,例如 readInStream。 或如需本機影像的相關案例,請參閱 GitHub 上的範例程式碼。

參考文件 | 程式庫來源程式碼 | 套件 (npm) | 範例

必要條件

  • Azure 訂用帳戶 - 建立免費帳戶
  • 最新版的 Node.js
  • 擁有 Azure 訂用帳戶之後,在 Azure 入口網站中建立電腦視覺資源,以取得您的金鑰和端點。 在其部署後,按一下 [前往資源]。
    • 您需要來自所建立資源的金鑰和端點,以將應用程式連線至 電腦視覺服務。 您稍後會在快速入門中將金鑰和端點貼到下列程式碼中。
    • 您可以使用免費定價層 (F0) 來試用服務,之後可升級至付費層以用於實際執行環境。

讀取印刷和手寫文字

  1. 建立新的 Node.js 應用程式。

    在主控台視窗 (例如 cmd、PowerShell 或 Bash) 中,為您的應用程式建立新的目錄,並瀏覽至該目錄。

    mkdir myapp && cd myapp
    

    執行命令 npm init,以使用 package.json 檔案建立節點應用程式。

    npm init
    

    安裝用戶端程式庫

    安裝 ms-rest-azure@azure/cognitiveservices-computervision NPM 套件:

    npm install @azure/cognitiveservices-computervision
    

    也請安裝非同步模組:

    npm install async
    

    您應用程式的 package.json 檔案會隨著相依性而更新。

    建立新檔案 index.js,並在文字編輯器中開啟它。

  2. 尋找金鑰和端點。

    前往 Azure 入口網站。 如果您在 [必要條件] 區段中建立的電腦視覺資源成功部署,請按一下 [後續步驟] 底下的 [前往資源] 按鈕。 您可以在 [資源管理] 底下的 [金鑰和端點] 頁面中找到金鑰和端點。

  3. 將下列程式碼貼入 index.js 檔案。

    'use strict';
    
    const async = require('async');
    const fs = require('fs');
    const https = require('https');
    const path = require("path");
    const createReadStream = require('fs').createReadStream
    const sleep = require('util').promisify(setTimeout);
    const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient;
    const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials;
    /**
     * AUTHENTICATE
     * This single client is used for all examples.
     */
    const key = 'PASTE_YOUR_COMPUTER_VISION_SUBSCRIPTION_KEY_HERE';
    const endpoint = 'PASTE_YOUR_COMPUTER_VISION_ENDPOINT_HERE';
    
    const computerVisionClient = new ComputerVisionClient(
      new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint);
    /**
     * END - Authenticate
     */
    
    function computerVision() {
      async.series([
        async function () {
    
          /**
           * OCR: READ PRINTED & HANDWRITTEN TEXT WITH THE READ API
           * Extracts text from images using OCR (optical character recognition).
           */
          console.log('-------------------------------------------------');
          console.log('READ PRINTED, HANDWRITTEN TEXT AND PDF');
          console.log();
    
          // URL images containing printed and/or handwritten text. 
          // The URL can point to image files (.jpg/.png/.bmp) or multi-page files (.pdf, .tiff).
          const printedTextSampleURL = 'https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg';
    
          // Recognize text in printed image from a URL
          console.log('Read printed text from URL...', printedTextSampleURL.split('/').pop());
          const printedResult = await readTextFromURL(computerVisionClient, printedTextSampleURL);
          printRecText(printedResult);
    
          // Perform read and await the result from URL
          async function readTextFromURL(client, url) {
            // To recognize text in a local image, replace client.read() with readTextInStream() as shown:
            let result = await client.read(url);
            // Operation ID is last path segment of operationLocation (a URL)
            let operation = result.operationLocation.split('/').slice(-1)[0];
    
            // Wait for read recognition to complete
            // result.status is initially undefined, since it's the result of read
            while (result.status !== "succeeded") { await sleep(1000); result = await client.getReadResult(operation); }
            return result.analyzeResult.readResults; // Return the first page of result. Replace [0] with the desired page if this is a multi-page file such as .pdf or .tiff.
          }
    
          // Prints all text from Read result
          function printRecText(readResults) {
            console.log('Recognized text:');
            for (const page in readResults) {
              if (readResults.length > 1) {
                console.log(`==== Page: ${page}`);
              }
              const result = readResults[page];
              if (result.lines.length) {
                for (const line of result.lines) {
                  console.log(line.words.map(w => w.text).join(' '));
                }
              }
              else { console.log('No recognized text.'); }
            }
          }
    
          /**
           * 
           * Download the specified file in the URL to the current local folder
           * 
           */
          function downloadFilesToLocal(url, localFileName) {
            return new Promise((resolve, reject) => {
              console.log('--- Downloading file to local directory from: ' + url);
              const request = https.request(url, (res) => {
                if (res.statusCode !== 200) {
                  console.log(`Download sample file failed. Status code: ${res.statusCode}, Message: ${res.statusMessage}`);
                  reject();
                }
                var data = [];
                res.on('data', (chunk) => {
                  data.push(chunk);
                });
                res.on('end', () => {
                  console.log('   ... Downloaded successfully');
                  fs.writeFileSync(localFileName, Buffer.concat(data));
                  resolve();
                });
              });
              request.on('error', function (e) {
                console.log(e.message);
                reject();
              });
              request.end();
            });
          }
    
          /**
           * END - Recognize Printed & Handwritten Text
           */
          console.log();
          console.log('-------------------------------------------------');
          console.log('End of quickstart.');
    
        },
        function () {
          return new Promise((resolve) => {
            resolve();
          })
        }
      ], (err) => {
        throw (err);
      });
    }
    
    computerVision();
    
  4. 在上述程式碼的指示位置中貼上您的金鑰和端點。 您的電腦視覺端點格式為 https://<your_computer_vision_resource_name>.cognitiveservices.azure.com/

    重要

    完成時,請記得從程式碼中移除金鑰,且不要公開張貼金鑰。 在生產環境中,請使用安全的方式來儲存和存取您的認證,例如 Azure Key Vault。 如需詳細資訊,請參閱認知服務安全性一文。

  5. 如需了解選用步驟,請參閱如何指定模型版本。 例如,若要明確指定最新的 GA 模型,請編輯 read 陳述式,如下所示。 略過參數或使用 "latest",會自動使用最新的 GA 模型。

      let result = await client.read(url,{modelVersion:"2022-04-30"});
    
  6. 使用快速入門檔案上使用 node 命令執行應用程式。

    node index.js
    

輸出

-------------------------------------------------
READ PRINTED, HANDWRITTEN TEXT AND PDF

Read printed text from URL... printed_text.jpg
Recognized text:
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.

-------------------------------------------------
End of quickstart.

清除資源

如果您想要清除和移除認知服務訂用帳戶,則可以刪除資源或資源群組。 刪除資源群組也會刪除其關聯的任何其他資源。

後續步驟

在此快速入門中,您已了解如何安裝 OCR 用戶端程式庫以及使用讀取 API。 接下來,請深入了解讀取 API 功能。

使用光學字元辨識 REST API 來讀取印刷和手寫文字。

注意

本快速入門會使用 cURL 命令來呼叫 REST API。 您也可以使用程式設計語言來呼叫 REST API。 如需 C#PythonJavaJavaScript 的範例,請參閱 GitHub 範例。

必要條件

  • Azure 訂用帳戶 - 建立免費帳戶
  • 擁有 Azure 訂用帳戶之後,在 Azure 入口網站中建立電腦視覺資源,以取得您的金鑰和端點。 在其部署後,按一下 [前往資源]。
    • 您需要來自所建立資源的金鑰和端點,以將應用程式連線至 電腦視覺服務。 您稍後會在快速入門中將金鑰和端點貼到下列程式碼中。
    • 您可以使用免費定價層 (F0) 來試用服務,之後可升級至付費層以用於實際執行環境。
  • 已安裝 cURL

讀取印刷和手寫文字

OCR 服務可擷取影像或文件中的可見文字,並將其轉換成字元資料流。 如需文字擷取的詳細資訊,請參閱光學字元辨識 (OCR) 概觀

呼叫讀取 API

若要建立並執行範例,請執行下列步驟:

  1. 將下列命令複製到文字編輯器。
  2. 視需要在命令中進行下列變更:
    1. <subscriptionKey> 的值取代為您的金鑰。
    2. 將要求 URL 的第一個部分 (westcentralus) 取代為您端點 URL 中的文字。

      注意

      2019 年 7 月 1 日之後建立的新資源會使用自訂的子網域名稱。 如需詳細資訊和完整的區域端點清單,請參閱認知服務的自訂子網域名稱

    3. (選擇性) 將要求本文 (https://upload.wikimedia.org/wikipedia/commons/thumb/a/af/Atomist_quote_from_Democritus.png/338px-Atomist_quote_from_Democritus.png\) 中的影像 URL 變更為要分析之不同影像的 URL。
  3. 開啟 [命令提示字元] 視窗。
  4. 將文字編輯器中的命令貼到命令提示字元視窗中,然後執行該命令。
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{\"url\":\"https://upload.wikimedia.org/wikipedia/commons/thumb/a/af/Atomist_quote_from_Democritus.png/338px-Atomist_quote_from_Democritus.png\"}"

回應會包含 Operation-Location 標頭,其值為唯一的 URL。 您可以使用此 URL 來查詢讀取作業的結果。 URL 會在 48 小時後過期。

您可以選擇是否指定模型版本

如需了解選用步驟,請參閱如何指定模型版本。 例如,若要明確指定最新的 GA 模型,請使用 model-version=2022-04-30 作為參數。 略過參數或使用 model-version=latest,會自動使用最新的 GA 模型。

curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze?model-version=2022-04-30" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{\"url\":\"https://upload.wikimedia.org/wikipedia/commons/thumb/a/af/Atomist_quote_from_Democritus.png/338px-Atomist_quote_from_Democritus.png\"}"

取得讀取結果

  1. 將下列命令複製到文字編輯器。
  2. 將 URL 取代為您在上一個步驟中複製的 Operation-Location 值。
  3. 視需要在命令中進行下列變更:
    1. <subscriptionKey> 的值取代為您的訂用帳戶金鑰。
  4. 開啟 [命令提示字元] 視窗。
  5. 將文字編輯器中的命令貼到命令提示字元視窗中,然後執行該命令。
curl -v -X GET "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyzeResults/{operationId}" -H "Ocp-Apim-Subscription-Key: {subscription key}" --data-ascii "{body}" 

檢查回應

成功的回應會以 JSON 的形式傳回。 範例應用程式會在命令提示字元視窗中剖析並顯示成功的回應,如下列範例所示:

{
  "status": "succeeded",
  "createdDateTime": "2021-04-08T21:56:17.6819115+00:00",
  "lastUpdatedDateTime": "2021-04-08T21:56:18.4161316+00:00",
  "analyzeResult": {
    "version": "3.2",
    "readResults": [
      {
        "page": 1,
        "angle": 0,
        "width": 338,
        "height": 479,
        "unit": "pixel",
        "lines": [
          {
            "boundingBox": [
              25,
              14,
              318,
              14,
              318,
              59,
              25,
              59
            ],
            "text": "NOTHING",
            "appearance": {
              "style": {
                "name": "other",
                "confidence": 0.971
              }
            },
            "words": [
              {
                "boundingBox": [
                  27,
                  15,
                  294,
                  15,
                  294,
                  60,
                  27,
                  60
                ],
                "text": "NOTHING",
                "confidence": 0.994
              }
            ]
          }
        ]
      }
    ]
  }
}

後續步驟

在此快速入門中,您已了解如何呼叫讀取 REST API。 接下來,請深入了解讀取 API 功能。

先決條件

讀取印刷和手寫文字

  1. 選取 [擷取文字] 索引標籤,然後選取標題為 [從影像擷取文字] 的面板。
  2. 若要使用立即試用體驗,您必須選擇資源並確認其會根據您的定價層產生使用量。
  3. 從可用的集合中選取影像,或上傳您自己的影像。
  4. 選取影像之後,您會看到擷取的文字出現在輸出視窗中。 您也可以選取 [JSON] 索引標籤,以查看 API 呼叫傳回的 JSON 輸出。
  5. 立即試用體驗之後的後續步驟是在您自己的應用程式中開始使用此功能。

後續步驟

在本快速入門中,您使用了 Vision Studio 來存取讀取 API。 接下來,請深入了解讀取 API 功能。