HoloLens (第 1 代) 和 Azure 302:電腦視覺
注意
混合實境學院教學課程的設計是以 HoloLens (第 1 代) 和混合實境沉浸式頭戴裝置為準。 因此,對於仍在尋找這些裝置開發指引的開發人員而言,我們覺得這些教學課程很重要。 這些教學課程不會使用用於 HoloLens 2 的最新工具組或互動進行更新。 系統會保留這些資訊,以繼續在支援的裝置上運作。 未來將會張貼一系列新的教學課程,以示範如何為 HoloLens 2 進行開發。 張貼這些教學課程的連結將會更新此通知。
在此課程中,您將瞭解如何使用混合實境應用程式中的 Azure 電腦視覺 功能,辨識所提供影像內的視覺內容。
辨識結果會顯示為描述性標記。 您可以使用此服務,而不需要定型機器學習模型。 如果您的實作需要定型機器學習模型,請參閱 MR 和 Azure 302b。
Microsoft 電腦視覺是一組 API,旨在讓開發人員使用來自雲端的進階演算法,提供影像處理和分析(傳回資訊)。 開發人員上傳影像或影像 URL,而Microsoft 電腦視覺 API 演算法會根據所選使用者的輸入來分析視覺內容,然後可以傳回資訊,包括識別影像的類型和品質、偵測人臉(傳回其座標),以及標記或分類影像。 如需詳細資訊,請流覽 Azure 電腦視覺 API 頁面。
完成本課程之後,您將有混合實境 HoloLens 應用程式,其可以執行下列動作:
- 使用點選手勢,HoloLens 的相機會擷取影像。
- 映射將會傳送至 Azure 電腦視覺 API 服務。
- 辨識的物件會列在位於 Unity 場景的簡單 UI 群組中。
在您的應用程式中,您應該瞭解如何將結果與設計整合。 本課程旨在教導您如何整合 Azure 服務與 Unity 專案。 使用本課程中取得的知識來增強混合實境應用程式,是您的工作。
裝置支援
課程 | HoloLens | 沉浸式頭戴裝置 |
---|---|---|
MR 和 Azure 302:電腦視覺 | ✔️ | ✔️ |
注意
雖然本課程主要著重於 HoloLens,但您也可以將此課程中學到的內容套用至 Windows Mixed Reality 沉浸式 (VR) 頭戴式裝置。 由於沉浸式 (VR) 頭戴式裝置沒有無障礙相機,因此您需要連線到計算機的外部相機。 隨著您遵循課程,您將會看到任何您可能需要採用以支援沉浸式(VR)頭戴式裝置變更的附註。
必要條件
注意
本教學課程專為具備 Unity 和 C# 基本經驗的開發人員所設計。 另請注意,本檔內的必要條件和書面指示代表在撰寫期間經過測試和驗證的內容(2018 年 5 月)。 您可以自由使用最新的軟體,如安裝工具文章中所列,不過不應該假設本課程中的資訊會完全符合您在較新的軟體中找到的內容,而不是下面所列的內容。
針對此課程,我們建議使用下列硬體和軟體:
- 開發計算機, 與 Windows Mixed Reality 相容以進行沉浸式 (VR) 頭戴式裝置開發
- 已啟用開發人員模式的 Windows 10 Fall Creators Update (或更新版本)
- 最新的 Windows 10 SDK
- Unity 2017.4
- Visual Studio 2017
- 已啟用開發人員模式的 Windows Mixed Reality 沉浸式 (VR) 頭戴式裝置或Microsoft HoloLens
- 線上到您電腦的相機(用於沉浸式頭戴式裝置開發)
- Azure 設定和 電腦視覺 API 擷取的因特網存取
在您開始使用 Intune 之前
- 為了避免建置此專案時發生問題,強烈建議您在根資料夾或近根資料夾中建立本教學課程中所提及的專案(長文件夾路徑在建置時可能會導致問題)。
- 設定及測試 HoloLens。 如果您需要設定 HoloLens 的支援, 請務必流覽 HoloLens 設定文章。
- 開始開發新的 HoloLens 應用程式時,最好執行校正和感測器微調(有時有助於為每個使用者執行這些工作)。
如需校正的說明,請遵循此 連結至 HoloLens 校正文章。
如需感測器微調的說明,請遵循此 連結至 HoloLens 感測器微調文章。
第 1 章 – Azure 入口網站
若要在 Azure 中使用 電腦視覺 API 服務,您必須將服務的實體設定為可供您的應用程式使用。
首先,登入 Azure 入口網站。
注意
如果您還沒有 Azure 帳戶,則必須建立一個帳戶。 如果您在教室或實驗室情況中遵循本教學課程,請洽詢您的講師或其中一名監看員,以協助設定您的新帳戶。
登入之後,按兩下左上角的 [新增],然後搜尋 電腦視覺 API,然後按兩下 Enter。
注意
[新增] 一詞可能已取代為在較新的入口網站中建立資源。
新頁面將提供 電腦視覺 API 服務的描述。 在此頁面左下方,選取 [ 建立] 按鈕,以建立與這項服務的關聯。
按兩下 [建立]:
插入此服務實例所需的 名稱 。
選取 [訂用帳戶]。
選取適合您的定價層,如果這是第一次建立 電腦視覺 API 服務,您應該可以使用免費層(名為 F0)。
選擇資源群組或建立新的群組。 資源群組提供一種方式來監視、控制存取、布建和管理 Azure 資產集合的計費。 建議將所有與單一專案相關聯的 Azure 服務(例如,例如這些實驗室)保留在通用資源群組之下。
如果您想要深入瞭解 Azure 資源群組,請 瀏覽資源群組文章。
判斷資源群組的位置(如果您要建立新的資源群組)。 在理想情況下,位置位於應用程式執行所在的區域中。 某些 Azure 資產僅適用於特定區域。
您也必須確認您已瞭解此服務適用的條款和條件。
按一下 [建立]。
按兩下 [ 建立] 之後,您必須等候服務建立,這可能需要一分鐘的時間。
建立服務實例之後,入口網站中就會顯示通知。
按兩下通知以探索新的服務實例。
按兩下通知中的 [ 移至資源 ] 按鈕,以探索新的服務實例。 系統會帶您前往新的 電腦視覺 API 服務實例。
在本教學課程中,您的應用程式必須呼叫您的服務,這是透過使用您服務的訂用帳戶密鑰來完成的。
從您 電腦視覺 API 服務的 [快速啟動] 頁面,流覽至第一個步驟:擷取您的金鑰,然後按兩下 [金鑰] (您也可以按下位於服務導覽功能表中的藍色超連結 [金鑰],以索引鍵圖示表示)。 這會顯示您的服務 金鑰。
擷取其中一個顯示金鑰的複本,因為您稍後會在專案中用到此密鑰。
返回 [快速入門] 頁面,然後從該處擷取您的端點。 請注意,您的情況可能會有所不同,視您的區域而定(如果是的話,您稍後將需要變更您的程式代碼)。 請取得此端點的複本,以供稍後使用:
第 2 章 – 設定 Unity 專案
以下是使用混合實境進行開發的一般設定,因此是其他專案的良好範本。
開啟 Unity ,然後按兩下 [ 新增]。
您現在必須提供 Unity 項目名稱。 插入 MR_ComputerVision。 請確定專案類型已設定為 3D。 將 [ 位置 ] 設定為您適當的位置(請記住,更接近根目錄會更好)。 然後按兩下 [ 建立專案]。
在 Unity 開啟時,值得檢查預設 的腳本編輯器 設定為 Visual Studio。 移至 [ 編輯 > 喜好設定 ],然後從新視窗流覽至 [外部工具]。 將外部腳本編輯器變更為 Visual Studio 2017。 關閉 [喜好設定] 視窗。
接下來,移至 [檔案>建置設定] 並選取 [通用 Windows 平台],然後按兩下 [切換平臺] 按鈕以套用您的選取專案。
仍在 [檔案>建置設定] 中,並確定:
目標裝置 設定為 HoloLens
針對沉浸式頭戴裝置,將 [目標裝置] 設定為 [任何裝置]。
組建類型 設定為 D3D
SDK 設定為 [最新安裝]
Visual Studio 版本 設定為 [最新安裝]
[建置並執行 ] 設定為 [ 本機計算機]
儲存場景並將它新增至組建。
選取 [ 新增開啟場景] 來執行此動作。 隨即會出現儲存視窗。
為此建立新的資料夾,以及任何未來場景,然後選取 [新增資料夾] 按鈕,以建立新的資料夾 ,並將它命名為 Scenes。
開啟新建立 的 Scenes 資料夾,然後在 [檔名:文字] 字段中輸入 MR_ComputerVisionScene,然後按兩下 [ 儲存]。
請注意,您必須將 Unity 場景儲存在 Assets 資料夾中,因為它們必須與 Unity 專案相關聯。 建立場景資料夾(和其他類似的資料夾)是建構 Unity 專案的一般方式。
[建置設定] 中的其餘設定現在應該保留為預設值。
在 [建置設定] 視窗中,按兩下 [播放程序設定] 按鈕,這會在 Inspector 所在的空間中開啟相關的面板。
在此面板中,需要驗證一些設定:
在 [ 其他設定] 索引標籤中:
腳本運行時間版本 應該是 穩定 (.NET 3.5 對等專案)。
腳本後端 應該是 .NET
API 相容性層級 應該是 .NET 4.6
在 [發佈設定] 索引標籤的 [功能] 底下,檢查:
InternetClient
網路攝影機
在面板的下方,在 [XR 設定] 中,勾選 [支援虛擬現實] 中的 [XR 設定],確定已新增 Windows Mixed Reality SDK。
回到 [組建設定] Unity C# 專案不再呈現灰色;勾選此旁邊的複選框。
關閉 [建置設定] 視窗。
儲存場景和專案(檔案 > 儲存場景/檔案 > 儲存專案)。
第 3 章 – 主要相機設定
重要
如果您想要略過 本課程的 Unity 設定 元件,並繼續直接進入程式碼,請隨意下載此 .unitypackage、將它匯入您的專案做為 自定義套件,然後從 第 5 章繼續進行。
在 [ 階層面板] 中 ,選取 [主要相機]。
選取之後,您將能夠在偵測器面板中看到主相機的所有元件。
Camera 對象必須命名為主相機(請注意拼字!)
主相機 標記 必須設定為 MainCamera (請注意拼字!
確定 [ 轉換位置 ] 設定為 0、0、0
將 [清除旗標] 設定為 [純色] (針對沉浸式頭戴式裝置忽略此專案)。
將相機元件的背景色彩設定為黑色、Alpha 0 (十六進位代碼: #00000000000) (忽略沉浸式頭戴式裝置。
接下來,您必須建立附加至 主相機的簡單「游標」物件,以協助您在應用程式執行時放置影像分析輸出。 此游標會決定相機焦點的中心點。
若要建立資料指標:
在 [階層面板] 中,以滑鼠右鍵按兩下主要相機。 在 [3D 物件] 底下 ,按兩下 [Sphere]。
將 Sphere 重新命名為 Cursor (雙擊 Cursor 物件,或按下選取物件的 『F2』 鍵盤按鈕),並確定它位於主相機的 子系。
在 [階層面板] 中,以滑鼠左鍵按兩下游標。 選取 [資料指標] 之後,請在 [偵測器面板] 中調整下列變數:
將 [ 轉換位置 ] 設定為 0、0、5
將 [調整] 設定為 0.02、0.02、0.02
第 4 章 – 設定標籤系統
使用 HoloLens 相機擷取影像之後,該影像會傳送至您的 Azure 電腦視覺 API 服務實例進行分析。
該分析的結果將會是稱為 Tags的已辨識物件清單。
您將使用標籤(作為世界空間中的 3D 文字),在拍攝相片的位置顯示這些標籤。
下列步驟將示範如何設定 Label 物件。
以滑鼠右鍵按兩下 [階層面板] 中的任何位置(此時位置並不重要),在 [3D 物件] 底下,新增 3D 文字。 將它命名為 LabelText。
在 [ 階層面板] 中,以滑鼠左鍵按兩下 [LabelText]。 選取 LabelText 之後,請在偵測器面板中調整下列變數:
- 將 位置 設定為 0,0,0
- 將 Scale 設定為 0.01、0.01、0.01
- 在元件 文字格中:
- 將 Text 中的所有文字取代為 “...”
- 將錨點設定為中間中心
- 將 對齊 設定為 置中
- 將索引 標籤大小 設定為 4
- 將字型大小設定為 50
- 將 Color 設定為 #FFFFFFFF
將 LabelText 從 [階層面板] 拖曳至 [項目面板] 內的 [資產資料夾]。 這會使 LabelText 成為 Prefab,使其可在程式代碼中具現化。
您應該從階層面板刪除 LabelText,使其不會顯示在開啟的場景中。 由於現在是預製專案,因此您將從 Assets 資料夾呼叫個別實例,因此不需要將它保留在場景中。
階層面板中的最後一個對象結構應該與下圖所示的對象結構類似:
第 5 章 – 建立 ResultsLabel 類別
您需要建立的第一個腳本是 ResultsLabel 類別,負責下列事項:
- 在適當的世界空間中建立標籤,相對於相機的位置。
- 顯示影像 Anaysis 中的標記。
若要建立此類別:
以 滑鼠右鍵按兩下 [項目面板],然後按兩下 [ 建立 > 資料夾]。 將資料夾 命名為文稿。
在 [腳本] 資料夾建立之後,按兩下它以開啟。 然後在該資料夾中按兩下滑鼠右鍵,然後選取 [建立],然後選取 [C># 腳本]。 將腳本 命名為 ResultsLabel。
按兩下新的 ResultsLabel 腳稿,以使用 Visual Studio 開啟它。
在類別內,在 ResultsLabel 類別中插入下列程式代碼:
using System.Collections.Generic; using UnityEngine; public class ResultsLabel : MonoBehaviour { public static ResultsLabel instance; public GameObject cursor; public Transform labelPrefab; [HideInInspector] public Transform lastLabelPlaced; [HideInInspector] public TextMesh lastLabelPlacedText; private void Awake() { // allows this instance to behave like a singleton instance = this; } /// <summary> /// Instantiate a Label in the appropriate location relative to the Main Camera. /// </summary> public void CreateLabel() { lastLabelPlaced = Instantiate(labelPrefab, cursor.transform.position, transform.rotation); lastLabelPlacedText = lastLabelPlaced.GetComponent<TextMesh>(); // Change the text of the label to show that has been placed // The final text will be set at a later stage lastLabelPlacedText.text = "Analysing..."; } /// <summary> /// Set the Tags as Text of the last Label created. /// </summary> public void SetTagsToLastLabel(Dictionary<string, float> tagsDictionary) { lastLabelPlacedText = lastLabelPlaced.GetComponent<TextMesh>(); // At this point we go through all the tags received and set them as text of the label lastLabelPlacedText.text = "I see: \n"; foreach (KeyValuePair<string, float> tag in tagsDictionary) { lastLabelPlacedText.text += tag.Key + ", Confidence: " + tag.Value.ToString("0.00 \n"); } } }
請務必先在Visual Studio中儲存變更,再返回 Unity。
回到 Unity 編輯器中,按兩下 [ResultsLabel] 類別,然後將 [腳本] 資料夾拖曳至 [階層面板] 中的 [主要相機] 物件。
按兩下 [主要相機 ] 並查看 [偵測器面板]。
您會注意到,從您剛拖曳到相機的腳本中,有兩個字段:游標和標籤預製。
將名為 Cursor 的物件從 [階層面板] 拖曳至名為 Cursor 的位置,如下圖所示。
將名為 LabelText 的物件從專案面板中的 Assets Folder 拖曳至名為 Label Prefab 的位置,如下圖所示。
第 6 章 – 建立 ImageCapture 類別
您要建立的下一個類別是 ImageCapture 類別。 此類別負責:
- 使用 HoloLens 相機擷取影像,並將其儲存在應用程式資料夾中。
- 從使用者擷取點選手勢。
若要建立此類別:
移至您先前建立的 Scripts 資料夾。
以滑鼠右鍵按兩下資料夾內的 [ 建立 > C# 文稿]。 呼叫 Script ImageCapture。
按兩下新的 ImageCapture 腳稿,以使用 Visual Studio 開啟它。
將下列命名空間新增至檔案頂端:
using System.IO; using System.Linq; using UnityEngine; using UnityEngine.XR.WSA.Input; using UnityEngine.XR.WSA.WebCam;
然後在 ImageCapture 類別中,於 Start() 方法上方新增下列變數:
public static ImageCapture instance; public int tapsCount; private PhotoCapture photoCaptureObject = null; private GestureRecognizer recognizer; private bool currentlyCapturing = false;
tapsCount 變數會儲存從使用者擷取的點選手勢數目。 這個數位用於擷取之影像的命名。
現在必須新增 Awake() 和 Start() 方法的程式代碼。 當 類別初始化時,將會呼叫下列專案:
private void Awake() { // Allows this instance to behave like a singleton instance = this; } void Start() { // subscribing to the HoloLens API gesture recognizer to track user gestures recognizer = new GestureRecognizer(); recognizer.SetRecognizableGestures(GestureSettings.Tap); recognizer.Tapped += TapHandler; recognizer.StartCapturingGestures(); }
實作會在點選手勢發生時呼叫的處理程式。
/// <summary> /// Respond to Tap Input. /// </summary> private void TapHandler(TappedEventArgs obj) { // Only allow capturing, if not currently processing a request. if(currentlyCapturing == false) { currentlyCapturing = true; // increment taps count, used to name images when saving tapsCount++; // Create a label in world space using the ResultsLabel class ResultsLabel.instance.CreateLabel(); // Begins the image capture and analysis procedure ExecuteImageCaptureAndAnalysis(); } }
TapHandler() 方法會遞增從使用者擷取的點選數目,並使用目前的游標位置來判斷新標籤的位置。
然後,這個方法會 呼叫 ExecuteImageCaptureAndAnalysis() 方法來開始此應用程式的核心功能。
擷取並儲存映像之後,將會呼叫下列處理程式。 如果程式成功,結果會傳遞至 VisionManager(您尚未建立的視覺管理器 ),以供分析。
/// <summary> /// Register the full execution of the Photo Capture. If successful, it will begin /// the Image Analysis process. /// </summary> void OnCapturedPhotoToDisk(PhotoCapture.PhotoCaptureResult result) { // Call StopPhotoMode once the image has successfully captured photoCaptureObject.StopPhotoModeAsync(OnStoppedPhotoMode); } void OnStoppedPhotoMode(PhotoCapture.PhotoCaptureResult result) { // Dispose from the object in memory and request the image analysis // to the VisionManager class photoCaptureObject.Dispose(); photoCaptureObject = null; StartCoroutine(VisionManager.instance.AnalyseLastImageCaptured()); }
然後,新增應用程式用來啟動映像擷取程式並儲存映像的方法。
/// <summary> /// Begin process of Image Capturing and send To Azure /// Computer Vision service. /// </summary> private void ExecuteImageCaptureAndAnalysis() { // Set the camera resolution to be the highest possible Resolution cameraResolution = PhotoCapture.SupportedResolutions.OrderByDescending((res) => res.width * res.height).First(); Texture2D targetTexture = new Texture2D(cameraResolution.width, cameraResolution.height); // Begin capture process, set the image format PhotoCapture.CreateAsync(false, delegate (PhotoCapture captureObject) { photoCaptureObject = captureObject; CameraParameters camParameters = new CameraParameters(); camParameters.hologramOpacity = 0.0f; camParameters.cameraResolutionWidth = targetTexture.width; camParameters.cameraResolutionHeight = targetTexture.height; camParameters.pixelFormat = CapturePixelFormat.BGRA32; // Capture the image from the camera and save it in the App internal folder captureObject.StartPhotoModeAsync(camParameters, delegate (PhotoCapture.PhotoCaptureResult result) { string filename = string.Format(@"CapturedImage{0}.jpg", tapsCount); string filePath = Path.Combine(Application.persistentDataPath, filename); VisionManager.instance.imagePath = filePath; photoCaptureObject.TakePhotoAsync(filePath, PhotoCaptureFileOutputFormat.JPG, OnCapturedPhotoToDisk); currentlyCapturing = false; }); }); }
警告
此時,您會注意到 Unity 編輯器主控台面板中出現錯誤。 這是因為程式代碼會參考將在下一章中建立的 VisionManager 類別。
第 7 章 – 呼叫 Azure 和影像分析
您需要建立的最後一個腳本是 VisionManager 類別。
此類別負責:
- 載入擷取為位元組數位的最新影像。
- 將位元組數位傳送至 Azure 電腦視覺 API 服務實例進行分析。
- 以 JSON 字串形式接收回應。
- 將回應還原串行化,並將產生的標記傳遞至 ResultsLabel 類別。
若要建立此類別:
按兩下 [文稿] 資料夾,以開啟它。
在 [腳本] 資料夾內按下滑鼠右鍵,按兩下 [建立 > C# 腳本]。 將腳本 命名為 VisionManager。
按兩下新的文稿,以使用Visual Studio加以開啟。
將命名空間更新為與下列相同,位於 VisionManager 類別頂端:
using System; using System.Collections; using System.Collections.Generic; using System.IO; using UnityEngine; using UnityEngine.Networking;
在腳本頂端的 VisionManager 類別 (Start() 方法上方,您現在必須建立兩個類別,以代表 Azure 的還原串行化 JSON 回應:
[System.Serializable] public class TagData { public string name; public float confidence; } [System.Serializable] public class AnalysedObject { public TagData[] tags; public string requestId; public object metadata; }
注意
TagData 和 AnalysisdObject 類別必須在宣告之前新增 [System.Serializable] 屬性,才能使用 Unity 連結庫還原串行化。
在 VisionManager 類別中,您應該新增下列變數:
public static VisionManager instance; // you must insert your service key here! private string authorizationKey = "- Insert your key here -"; private const string ocpApimSubscriptionKeyHeader = "Ocp-Apim-Subscription-Key"; private string visionAnalysisEndpoint = "https://westus.api.cognitive.microsoft.com/vision/v1.0/analyze?visualFeatures=Tags"; // This is where you need to update your endpoint, if you set your location to something other than west-us. internal byte[] imageBytes; internal string imagePath;
警告
請務必將驗證金鑰插入 authorizationKey 變數。 在本課程的第 1 章開始,您將記下您的驗證金鑰。
警告
visionAnalysisEndpoint 變數可能與此範例中指定的變數不同。 美國 西部 嚴格是指針對美國西部區域建立的服務實例。 使用您的 端點 URL 來更新此值;以下是一些可能看起來如下的範例:
- 西歐:
https://westeurope.api.cognitive.microsoft.com/vision/v1.0/analyze?visualFeatures=Tags
- 東南亞:
https://southeastasia.api.cognitive.microsoft.com/vision/v1.0/analyze?visualFeatures=Tags
- 澳大利亞東部:
https://australiaeast.api.cognitive.microsoft.com/vision/v1.0/analyze?visualFeatures=Tags
- 西歐:
現在必須新增 Awake 的程式代碼。
private void Awake() { // allows this instance to behave like a singleton instance = this; }
接下來,新增協同程式(其下方的靜態數據流方法),以取得 ImageCapture 類別所擷取影像分析的結果。
/// <summary> /// Call the Computer Vision Service to submit the image. /// </summary> public IEnumerator AnalyseLastImageCaptured() { WWWForm webForm = new WWWForm(); using (UnityWebRequest unityWebRequest = UnityWebRequest.Post(visionAnalysisEndpoint, webForm)) { // gets a byte array out of the saved image imageBytes = GetImageAsByteArray(imagePath); unityWebRequest.SetRequestHeader("Content-Type", "application/octet-stream"); unityWebRequest.SetRequestHeader(ocpApimSubscriptionKeyHeader, authorizationKey); // the download handler will help receiving the analysis from Azure unityWebRequest.downloadHandler = new DownloadHandlerBuffer(); // the upload handler will help uploading the byte array with the request unityWebRequest.uploadHandler = new UploadHandlerRaw(imageBytes); unityWebRequest.uploadHandler.contentType = "application/octet-stream"; yield return unityWebRequest.SendWebRequest(); long responseCode = unityWebRequest.responseCode; try { string jsonResponse = null; jsonResponse = unityWebRequest.downloadHandler.text; // The response will be in Json format // therefore it needs to be deserialized into the classes AnalysedObject and TagData AnalysedObject analysedObject = new AnalysedObject(); analysedObject = JsonUtility.FromJson<AnalysedObject>(jsonResponse); if (analysedObject.tags == null) { Debug.Log("analysedObject.tagData is null"); } else { Dictionary<string, float> tagsDictionary = new Dictionary<string, float>(); foreach (TagData td in analysedObject.tags) { TagData tag = td as TagData; tagsDictionary.Add(tag.name, tag.confidence); } ResultsLabel.instance.SetTagsToLastLabel(tagsDictionary); } } catch (Exception exception) { Debug.Log("Json exception.Message: " + exception.Message); } yield return null; } }
/// <summary> /// Returns the contents of the specified file as a byte array. /// </summary> private static byte[] GetImageAsByteArray(string imageFilePath) { FileStream fileStream = new FileStream(imageFilePath, FileMode.Open, FileAccess.Read); BinaryReader binaryReader = new BinaryReader(fileStream); return binaryReader.ReadBytes((int)fileStream.Length); }
請務必先在Visual Studio中儲存變更,再返回 Unity。
回到 Unity 編輯器中,按兩下 [VisionManager] 和 [ImageCapture] 類別,並將其從 [腳本] 資料夾拖曳至 [階層面板] 中的 [主要相機] 物件。
第 8 章 – 建置前
若要對應用程式執行徹底測試,您必須將它側載至 HoloLens。 在您執行之前,請確定:
- 第2章中所述的所有設定都已正確設定。
- 所有腳本都會附加至 Main Camera 物件。
- 主要相機偵測器面板中的所有欄位都會正確指派。
- 請務必將驗證金鑰插入 authorizationKey 變數。
- 請確定您已在 VisionManager 腳本中檢查您的端點,且其符合您的區域(本文件預設會使用 west-us)。
第 9 章 – 建置 UWP 解決方案並側載應用程式
此專案的 Unity 區段已全部完成,因此是時候從 Unity 建置它了。
瀏覽至 [建置設定檔 - ] > [組建設定...
從 [ 建置設定] 視窗中,按兩下 [ 建置]。
如果還沒這麼做,請勾選 Unity C# 專案。
按兩下 [ 建置]。 Unity 會啟動 檔案總管 視窗,您需要在其中建立,然後選取要建置應用程式的資料夾。 立即建立該資料夾,並將它命名為 應用程式。 然後選取 [ 應用程式 ] 資料夾,然後按 [選取資料夾]。
Unity 將會開始將您的專案建置至 App 資料夾。
一旦 Unity 完成建置(可能需要一些時間),它會在組建的位置開啟 檔案總管 視窗(請檢查您的任務列,因為它可能並不總是出現在您的視窗上方,但會通知您新增視窗)。
第 10 章 – 部署至 HoloLens
若要在 HoloLens 上部署:
您需要 HoloLens 的 IP 位址(適用於遠端部署),並確保 HoloLens 處於 開發人員模式。 若要這樣做:
- 使用 HoloLens 時,開啟 [ 設定]。
- 移至 網路和因特網 > Wi-Fi > 進階選項
- 記下 IPv4 位址。
- 接下來,流覽回 [設定],然後流覽至 [更新與開發人員的安全性>]
- 將開發人員模式設定為開啟。
流覽至新的 Unity 組建(應用程式資料夾),並使用 Visual Studio 開啟方案檔。
在 [解決方案組態] 中,選取 [ 偵錯]。
在 [解決方案平臺] 中,選取 [x86] [ 遠端計算機]。
移至 [ 建置] 功能表 ,然後按兩下 [ 部署解決方案],將應用程式側載至您的HoloLens。
您的應用程式現在應該會出現在您的 HoloLens 上安裝的應用程式清單中,準備好啟動!
注意
若要部署至沉浸式頭戴式裝置,請將 [解決方案平臺] 設定為 [本機計算機],並將 [組態] 設定為 [偵錯],並將 x86 設定為 [平臺]。 然後使用 [ 建置] 功能表,選取 [部署解決方案] 來部署至本機計算機。
您已完成 電腦視覺 API 應用程式
恭喜,您建置了混合實境應用程式,利用 Azure 電腦視覺 API 來辨識真實世界物件,並顯示所看到內容的信心。
額外練習
練習 1
就像您使用 Tags 參數一樣(如 VisionManager 中使用的端點內辨識項所示),擴充應用程式來偵測其他資訊;請查看您可以存取 HERE 的其他參數。
練習 2
以更交談且更容易閱讀的方式顯示傳回的 Azure 數據,或許會隱藏數位。 好像 Bot 可能會對使用者說話一樣。