Windows Data Science Virtual Machine을 사용하는 데이터 과학

DSVM(Windows Data Science Virtual Machine)은 데이터 검색 및 모델링 작업을 수행할 수 있는 강력한 데이터 과학 개발 환경입니다. 이 환경은 이미 빌드되어 온-프레미스, 클라우드 또는 하이브리드 배포에 대한 분석을 쉽게 시작할 수 있는 여러 인기 있는 데이터 분석 도구와 함께 번들로 제공됩니다.

DSVM은 Azure 서비스와 긴밀하게 작동합니다. 이미 Azure, Azure Synapse(이전의 SQL DW), Azure Data Lake, Azure Storage 또는 Azure Cosmos DB에 저장된 데이터를 읽고 처리할 수 있습니다. 또한 Azure Machine Learning과 같은 다른 분석 도구를 활용할 수도 있습니다.

이 문서에서는 DSVM을 사용하여 데이터 과학 작업을 수행하고 다른 Azure 서비스와 상호 작용하는 방법에 대해 알아봅니다. 다음은 DSVM에서 수행할 수 있는 작업 중 일부입니다.

  • Jupyter Notebook을 사용하여 Python 2, Python 3 및 Microsoft R을 사용하여 브라우저에서 데이터를 실험합니다. (Microsoft R은 성능을 위해 설계된 엔터프라이즈 지원 R 버전입니다.)

  • Microsoft Machine Learning Server 및 Python을 사용하여 DSVM에서 로컬로 데이터를 검색하고 모델을 개발합니다.

  • Azure Portal 또는 PowerShell을 사용하여 Azure 리소스를 관리합니다.

  • Azure Files 공유를 탑재 가능한 드라이브로 DSVM에 만들어 스토리지 공간을 확장하고 팀 전체에서 대규모 데이터 세트/코드를 공유합니다.

  • GitHub를 사용하여 코드를 팀과 공유합니다. 미리 설치된 Git 클라이언트인 Git Bash 및 Git GUI를 사용하여 리포지토리에 액세스합니다.

  • Azure Blob 스토리지, Azure Cosmos DB, Azure Synapse(이전의 SQL DW) 및 Azure SQL Database와 같은 Azure 데이터 및 분석 서비스에 액세스합니다.

  • DSVM에 미리 설치된 Power BI Desktop 인스턴스를 사용하여 보고서와 대시보드를 만들고 클라우드에 배포합니다.

  • 추가 도구를 가상 머신에 설치합니다.

참고 항목

이 문서에 나와 있는 많은 데이터 스토리지 및 분석 서비스에는 추가 사용량 요금이 적용됩니다. 자세한 내용은 Azure 가격 페이지를 참조하세요.

필수 조건

  • Azure 구독이 필요합니다. 무료 평가판에 등록할 수 있습니다.
  • Azure Portal에서 Data Science Virtual Machine을 프로비저닝하기 위한 지침은 가상 머신 만들기에서 사용할 수 있습니다.

참고 항목

Azure Az PowerShell 모듈을 사용하여 Azure와 상호 작용하는 것이 좋습니다. 시작하려면 Azure PowerShell 설치를 참조하세요. Az PowerShell 모듈로 마이그레이션하는 방법에 대한 자세한 내용은 Azure PowerShell을 AzureRM에서 Azure로 마이그레이션을 참조하세요.

Jupyter Notebook 사용

Jupyter Notebook은 데이터 검색 및 모델링을 위한 브라우저 기반 "IDE"를 제공합니다. Jupyter Notebook에서 Python 2, Python 3 또는 R을 사용할 수 있습니다.

Jupyter Notebook을 시작하려면 시작 메뉴 또는 바탕 화면에서 Jupyter Notebook아이콘을 선택합니다. DSVM 명령 프롬프트에서 기존 Notebook이 있거나 새 Notebook을 만들려는 디렉터리에서 jupyter notebook 명령을 실행할 수도 있습니다.

Jupyter가 시작되면 DSVM에 미리 패키지된 예제 Notebook에 대한 /notebooks 디렉터리로 이동합니다. 이제 다음을 수행할 수 있습니다.

  • Notebook을 선택하여 코드를 살펴봅니다.
  • Shift+Enter를 선택하여 각 셀을 실행합니다.
  • >실행을 차례로 선택하여 전체 Notebook을 실행합니다.
  • Jupyter 아이콘(왼쪽 위 모서리)을 선택하고, 오른쪽에서 새로 만들기 단추를 선택한 다음, Notebook 언어(커널이라고도 함)를 선택하여 새 Notebook을 만듭니다.

참고 항목

현재 Jupyter의 Python 2.7, Python 3.6, R, Julia 및 PySpark 커널이 지원됩니다. R 커널은 오픈 소스 R 및 Microsoft R 모두에서 프로그래밍을 지원합니다.

Notebook에 있는 경우 선택한 라이브러리를 사용하여 데이터를 검색하고, 모델을 빌드하고, 모델을 테스트할 수 있습니다.

Microsoft Machine Learning Server를 사용하여 데이터 검색 및 모델 개발

참고 항목

Machine Learning Server 독립 실행형에 대한 지원은 2021년 7월 1일에 종료됩니다. 6월 30일 이후에 DSVM 이미지에서 이를 제거합니다. 기존 배포는 계속해서 소프트웨어에 액세스할 수 있지만, 2021년 7월 1일 이후에는 지원이 종료되기 때문에 이를 지원하지 않습니다.

R 및 Python 같은 언어를 사용하여 DSVM에서 바로 데이터를 분석할 수 있습니다.

R의 경우 Visual Studio용 R 도구를 사용할 수 있습니다. Microsoft는 확장 가능한 분석 및 병렬 청크 분석에서 허용되는 메모리 크기보다 큰 데이터를 분석할 수 있는 기능을 사용할 수 있도록 오픈 소스 CRAN R 기반의 추가 라이브러리를 제공했습니다.

Python의 경우 PTVS(Python Tools for Visual Studio) 확장 기능이 사전 설치된 Visual Studio Community Edition 같은 IDE를 사용할 수 있습니다. 기본적으로 루트 Conda 환경인 Python 3.6만 PTVS에서 구성됩니다. Anaconda Python 2.7을 사용하도록 설정하려면 다음 단계를 수행합니다.

  1. 도구>Python 도구>Python 환경으로 차례로 이동한 다음, Visual Studio Community Edition에서 + 사용자 지정을 선택하여 각 버전에 맞는 사용자 지정 환경을 만듭니다.
  2. 설명을 제공하고, Anaconda Python 2.7에 대한 환경 접두사 경로를 c:\anaconda\envs\python2로 설정합니다.
  3. 자동 검색>적용을 차례로 선택하여 환경을 저장합니다.

Python 환경을 만드는 방법에 대한 자세한 내용은 PTVS 설명서를 참조하세요.

이제 새 Python 프로젝트를 만들 수 있도록 설정되었습니다. 파일>새로 만들기>프로젝트>Python으로 차례로 이동하고, 빌드하는 Python 애플리케이션의 유형을 선택합니다. 마우스 오른쪽 단추로 Python 환경을 클릭한 다음, Python 환경 추가/제거를 선택하여 현재 프로젝트에 대한 Python 환경을 원하는 버전(Python 2.7 또는 3.6)으로 설정할 수 있습니다. PTVS를 사용하는 방법에 대한 자세한 내용은 제품 설명서에서 확인할 수 있습니다.

Azure 리소스 관리

DSVM을 사용하는 경우 분석 솔루션은 가상 머신에서 로컬로 빌드할 수 없습니다. 또한 Azure 클라우드 플랫폼의 서비스에 액세스할 수 있습니다. Azure는 DSVM에서 관리하고 액세스할 수 있는 여러 컴퓨팅, 스토리지, 데이터 분석 및 기타 서비스를 제공합니다.

Azure 구독 및 클라우드 리소스를 관리하려면 다음 두 가지 옵션을 사용할 수 있습니다.

  • 브라우저를 사용하여 Azure Portal로 이동합니다.

  • PowerShell 스크립트를 사용합니다. 바탕 화면 또는 시작 메뉴의 바로 가기에서 Azure PowerShell을 실행합니다. 자세한 내용은 Microsoft Azure PowerShell 설명서를 참조하세요.

공유 파일 시스템을 사용하여 스토리지 확장

데이터 과학자는 팀 내에서 대용량 데이터 세트, 코드 또는 기타 리소스를 공유할 수 있습니다. DSVM에는 약 45GB의 사용 가능한 공간이 있습니다. 스토리지를 확장하려면 Azure Files를 사용하고, 해당 스토리지를 하나 이상의 DSVM 인스턴스에 탑재하거나 REST API를 통해 이에 액세스할 수 있습니다. Azure Portal 또는 Azure PowerShell을 사용하여 추가 전용 데이터 디스크를 추가할 수도 있습니다.

참고 항목

Azure Files 공유의 최대 공간은 5TB입니다. 각 파일의 크기 제한은 1TB입니다.

Azure PowerShell에서 다음 스크립트를 사용하여 Azure Files 공유를 만들 수 있습니다.

# Authenticate to Azure.
Connect-AzAccount
# Select your subscription
Get-AzSubscription –SubscriptionName "<your subscription name>" | Select-AzSubscription
# Create a new resource group.
New-AzResourceGroup -Name <dsvmdatarg>
# Create a new storage account. You can reuse existing storage account if you want.
New-AzStorageAccount -Name <mydatadisk> -ResourceGroupName <dsvmdatarg> -Location "<Azure Data Center Name For eg. South Central US>" -Type "Standard_LRS"
# Set your current working storage account
Set-AzCurrentStorageAccount –ResourceGroupName "<dsvmdatarg>" –StorageAccountName <mydatadisk>

# Create an Azure Files share
$s = New-AzStorageShare <<teamsharename>>
# Create a directory under the file share. You can give it any name
New-AzStorageDirectory -Share $s -Path <directory name>
# List the share to confirm that everything worked
Get-AzStorageFile -Share $s

이제 Azure Files 공유를 만들었으므로 해당 공유를 Azure의 모든 가상 머신에 탑재할 수 있습니다. 대기 시간 및 데이터 전송 요금을 방지하려면 VM을 스토리지 계정과 동일한 Azure 데이터 센터에 배치하는 것이 좋습니다. 드라이브를 DSVM에 탑재하는 Azure PowerShell 명령은 다음과 같습니다.

# Get the storage key of the storage account that has the Azure Files share from the Azure portal. Store it securely on the VM to avoid being prompted in the next command.
cmdkey /add:<<mydatadisk>>.file.core.windows.net /user:<<mydatadisk>> /pass:<storage key>

# Mount the Azure Files share as drive Z on the VM. You can choose another drive letter if you want.
net use z:  \\<mydatadisk>.file.core.windows.net\<<teamsharename>>

이제 VM의 일반적인 드라이브처럼 이 드라이브에 액세스할 수 있습니다.

GitHub에서 코드 공유

GitHub는 개발자 커뮤니티에서 공유하는 기술을 사용하여 다양한 도구에 대한 코드 샘플 및 원본을 찾을 수 있는 코드 리포지토리입니다. Github는 코드 파일 버전을 추적하고 저장하는 기술로 Git를 사용합니다. GitHub는 팀의 공유 코드와 설명서를 저장하고, 사용자 고유의 리포지토리를 만들고, 버전 제어를 구현하고, 코드를 보고 기여할 수 있는 액세스 권한이 있는 사용자를 제어할 수 있는 플랫폼이기도 합니다.

Git 사용에 대한 자세한 내용을 보려면 GitHub 도움말 페이지를 방문하세요. GitHub는 팀과 협력하고, 커뮤니티에서 개발한 코드를 사용하고, 코드를 커뮤니티에 다시 기여하는 방법 중 하나로 사용할 수 있습니다.

DSVM은 GitHub 리포지토리에 액세스하기 위해 명령줄 및 GUI에서 클라이언트 도구와 함께 로드됩니다. Git 및 GitHub에서 작동하는 명령줄 도구를 Git Bash라고 합니다. Visual Studio는 DSVM에 설치되며 Git 확장을 포함하고 있습니다. 이러한 도구에 대한 아이콘은 시작 메뉴 및 바탕 화면에서 찾을 수 있습니다.

GitHub 리포지토리에서 코드를 다운로드하려면 git clone 명령을 사용합니다. 예를 들어 Microsoft에서 게시한 데이터 과학 리포지토리를 현재 디렉터리에 다운로드하려면 Git Bash에서 다음 명령을 실행할 수 있습니다.

git clone https://github.com/Azure/DataScienceVM.git

Visual Studio에서 동일한 복제 작업을 수행할 수 있습니다. 다음 스크린샷에서는 Visual 스튜디오에서 Git 및 GitHub 도구에 액세스하는 방법을 보여 줍니다.

Screenshot of Visual Studio with the GitHub connection displayed

Git을 사용하여 GitHub 리포지토리에서 작업하는 방법에 대한 자세한 내용은 github.com에서 제공하는 리소스에서 확인할 수 있습니다. 참고 자료 를 보시면 많은 도움이 될 것입니다.

Azure 데이터 및 분석 서비스에 액세스

Azure Blob 스토리지

Azure Blob 스토리지는 크고 작은 데이터를 위한 안정적이고 경제적인 클라우드 스토리지 서비스입니다. 이 섹션에서는 데이터를 Blob 스토리지로 이동하고, Azure Blob에 저장된 데이터에 액세스하는 방법에 대해 설명합니다.

필수 조건

  • Azure Portal에서 Azure Blob 스토리지 계정을 만듭니다.

    Screenshot of the storage account creation process in the Azure portal

  • AzCopy 명령줄 도구(C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy\azcopy.exe)가 미리 설치되어 있는지 확인합니다. azcopy.exe가 포함된 디렉터리는 이미 PATH 환경 변수에 있으므로 이 도구를 실행할 때 전체 명령 경로를 입력할 필요가 없습니다. AzCopy 도구에 대한 자세한 내용은 AzCopy 설명서를 참조하세요.

  • Azure Storage Explorer 도구를 시작합니다. 이 도구는 Storage Explorer 웹 페이지에서 다운로드 할 수 있습니다.

    Screenshot of Azure Storage Explorer accessing a storage account

VM에서 Azure Blob으로 데이터 이동: AzCopy

로컬 파일과 Blob 스토리지 간에 데이터를 이동하려면 명령줄 또는 PowerShell에서 AzCopy를 사용할 수 있습니다.

AzCopy /Source:C:\myfolder /Dest:https://<mystorageaccount>.blob.core.windows.net/<mycontainer> /DestKey:<storage account key> /Pattern:abc.txt

C:\myfolder 폴더를 파일이 저장된 경로로, mystorageaccount를 Blob 스토리지 계정 이름으로, mycontainer를 컨테이너 이름으로, 스토리지 계정 키를 Blob 스토리지 액세스 키로 바꿉니다. 스토리지 계정 자격 증명은 Azure Portal에서 찾을 수 있습니다.

PowerShell 또는 명령 프롬프트에서 AzCopy 명령을 실행합니다. AzCopy 명령을 사용하는 몇 가지 예제는 다음과 같습니다.

# Copy *.sql from a local machine to an Azure blob
"C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy\azcopy" /Source:"c:\Aaqs\Data Science Scripts" /Dest:https://[ENTER STORAGE ACCOUNT].blob.core.windows.net/[ENTER CONTAINER] /DestKey:[ENTER STORAGE KEY] /S /Pattern:*.sql

# Copy back all files from an Azure blob container to a local machine

"C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy\azcopy" /Dest:"c:\Aaqs\Data Science Scripts\temp" /Source:https://[ENTER STORAGE ACCOUNT].blob.core.windows.net/[ENTER CONTAINER] /SourceKey:[ENTER STORAGE KEY] /S

AzCopy 명령을 실행하여 Azure Blob에 복사하면 파일이 Azure Storage Explorer에 표시됩니다.

Screenshot of the storage account, displaying the uploaded CSV file

VM에서 Azure Blob으로 데이터 이동: Azure Storage Explorer

Azure Storage Explorer를 사용하여 VM의 로컬 파일에서 데이터를 업로드할 수도 있습니다.

  • 컨테이너에 데이터를 업로드하려면 대상 컨테이너를 선택하고 업로드 단추를 선택합니다.Screenshot of the upload button in Azure Storage Explorer
  • 파일 상자 오른쪽의 줄임표(...)를 선택하고 파일 시스템에서 업로드할 파일을 하나 이상 선택한 후에 업로드를 선택하여 파일 업로드를 시작합니다.Screenshot of the Upload files dialog box

Azure Blob에서 데이터 읽기: Python ODBC

BlobService 라이브러리를 사용하여 Jupyter Notebook 또는 Python 프로그램의 Blob에서 데이터를 직접 읽을 수 있습니다.

먼저 필요한 패키지를 가져옵니다.

import pandas as pd
from pandas import Series, DataFrame
import numpy as np
import matplotlib.pyplot as plt
from time import time
import pyodbc
import os
from azure.storage.blob import BlobService
import tables
import time
import zipfile
import random

그런 다음, Blob 스토리지 계정 자격 증명을 연결하고, Blob에서 데이터를 읽습니다.

CONTAINERNAME = 'xxx'
STORAGEACCOUNTNAME = 'xxxx'
STORAGEACCOUNTKEY = 'xxxxxxxxxxxxxxxx'
BLOBNAME = 'nyctaxidataset/nyctaxitrip/trip_data_1.csv'
localfilename = 'trip_data_1.csv'
LOCALDIRECTORY = os.getcwd()
LOCALFILE =  os.path.join(LOCALDIRECTORY, localfilename)

#download from blob
t1 = time.time()
blob_service = BlobService(account_name=STORAGEACCOUNTNAME,account_key=STORAGEACCOUNTKEY)
blob_service.get_blob_to_path(CONTAINERNAME,BLOBNAME,LOCALFILE)
t2 = time.time()
print(("It takes %s seconds to download "+BLOBNAME) % (t2 - t1))

#unzip downloaded files if needed
#with zipfile.ZipFile(ZIPPEDLOCALFILE, "r") as z:
#    z.extractall(LOCALDIRECTORY)

df1 = pd.read_csv(LOCALFILE, header=0)
df1.columns = ['medallion','hack_license','vendor_id','rate_code','store_and_fwd_flag','pickup_datetime','dropoff_datetime','passenger_count','trip_time_in_secs','trip_distance','pickup_longitude','pickup_latitude','dropoff_longitude','dropoff_latitude']
print 'the size of the data is: %d rows and  %d columns' % df1.shape

데이터를 데이터 프레임으로 읽힙니다.

Screenshot of the first 10 rows of data

Azure Synapse Analytics 및 데이터베이스

Azure Synapse Analytics는 엔터프라이즈급 SQL Server 환경을 갖춘 탄력적인 서비스 제공 데이터 웨어하우스입니다.

이 문서의 지침에 따라 Azure Synapse Analytics를 프로비저닝할 수 있습니다. Azure Synapse Analytics가 프로비저닝되면 이 연습을 통해 Azure Synapse Analytics 내에서 데이터를 사용하여 데이터 업로드, 검색 및 모델링을 수행할 수 있습니다.

Azure Cosmos DB

Azure Cosmos DB는 클라우드의 NoSQL 데이터베이스입니다. 이를 사용하여 JSON과 같은 문서로 작업하고, 이러한 문서를 저장 및 쿼리할 수 있습니다.

다음 사전 요구 사항 단계를 사용하여 DSVM에서 Azure Cosmos DB에 액세스합니다.

  1. Azure Cosmos DB Python SDK는 이미 DSVM에 설치되어 있습니다. 업데이트하려면 명령 프롬프트에서 pip install pydocumentdb --upgrade를 실행합니다.

  2. Azure Portal에서 Azure Cosmos DB 계정 및 데이터베이스를 만듭니다.

  3. Microsoft 다운로드 센터에서 Azure Cosmos DB 데이터 마이그레이션 도구를 다운로드하고, 원하는 디렉터리에 압축을 풉니다.

  4. 마이그레이션 도구에 대한 다음 명령 매개 변수를 사용하여 공용 Blob에 저장된 JSON 데이터(화산 데이터)를 Azure Cosmos DB로 가져옵니다. (Azure Cosmos DB 데이터 마이그레이션 도구를 설치한 디렉터리의 dtui.exe를 사용합니다.) 아래의 원본 및 대상 위치를 다음 매개 변수와 함께 입력합니다.

    /s:JsonFile /s.Files:https://data.humdata.org/dataset/a60ac839-920d-435a-bf7d-25855602699d/resource/7234d067-2d74-449a-9c61-22ae6d98d928/download/volcano.json /t:DocumentDBBulk /t.ConnectionString:AccountEndpoint=https://[DocDBAccountName].documents.azure.com:443/;AccountKey=[[KEY];Database=volcano /t.Collection:volcano1

데이터를 가져오면 Jupyter로 이동하여 DocumentDBSample이라는 Notebook을 열 수 있습니다. 여기에는 Azure Cosmos DB에 액세스하고 몇 가지 기본 쿼리를 수행하는 Python 코드가 포함되어 있습니다. 서비스의 설명서 페이지를 방문하여 Azure Cosmos DB에 대해 자세히 알아볼 수 있습니다.

Power BI 보고서 및 대시보드 사용

Power BI Desktop에서 이전 Azure Cosmos DB 예제의 Volcano JSON 파일을 시각화하여 데이터에 대한 시각적 인사이트를 얻을 수 있습니다. 자세한 단계는 Power BI 문서에서 확인할 수 있습니다. 대략적인 단계는 다음과 같습니다.

  1. Power BI Desktop을 열고 데이터 가져오기를 선택합니다. URL을 https://cahandson.blob.core.windows.net/samples/volcano.json으로 지정합니다.
  2. 목록으로 가져온 JSON 레코드가 표시됩니다. Power BI에서 사용할 수 있도록 목록을 테이블로 변환합니다.
  3. 확장(화살표) 아이콘을 선택하여 열을 펼칩니다.
  4. 위치가 Record 필드임을 확인합니다. 레코드를 확장하고 좌표만 선택합니다. Coordinate는 목록 열입니다.
  5. 새 열을 추가하여 목록 좌표 열을 쉼표로 구분된 LatLong 열로 변환합니다. 수식(Text.From([coordinates]{1})&","&Text.From([coordinates]{0}))을 사용하여 좌표 목록 필드의 두 요소를 연결합니다.
  6. Elevation 열을 10진수로 변환하고, 닫기적용 단추를 선택합니다.

이전 단계 대신 다음 코드를 붙여넣을 수 있습니다. Power BI의 고급 편집기에서 사용되는 단계를 스크립팅하여 데이터 변환을 쿼리 언어로 작성합니다.

let
    Source = Json.Document(Web.Contents("https://cahandson.blob.core.windows.net/samples/volcano.json")),
    #"Converted to Table" = Table.FromList(Source, Splitter.SplitByNothing(), null, null, ExtraValues.Error),
    #"Expanded Column1" = Table.ExpandRecordColumn(#"Converted to Table", "Column1", {"Volcano Name", "Country", "Region", "Location", "Elevation", "Type", "Status", "Last Known Eruption", "id"}, {"Volcano Name", "Country", "Region", "Location", "Elevation", "Type", "Status", "Last Known Eruption", "id"}),
    #"Expanded Location" = Table.ExpandRecordColumn(#"Expanded Column1", "Location", {"coordinates"}, {"coordinates"}),
    #"Added Custom" = Table.AddColumn(#"Expanded Location", "LatLong", each Text.From([coordinates]{1})&","&Text.From([coordinates]{0})),
    #"Changed Type" = Table.TransformColumnTypes(#"Added Custom",{{"Elevation", type number}})
in
    #"Changed Type"

이제 Power BI 데이터 모델에 데이터가 있습니다. Power BI Desktop 인스턴스는 다음과 같이 표시됩니다.

Power BI Desktop

데이터 모델을 사용하여 보고서를 작성하고 시각화할 수 있습니다. 이 Power BI 문서의 단계에 따라 보고서를 작성할 수 있습니다.

동적으로 DSVM 크기 조정

DSVM 크기는 프로젝트의 요구 사항에 맞게 확장 및 축소할 수 있습니다. VM을 저녁 또는 주말에 사용할 필요가 없는 경우 Azure Portal에서 VM을 종료할 수 있습니다.

참고 항목

VM의 운영 체제에 대한 종료 단추만 사용하는 경우에도 컴퓨팅 요금이 발생합니다. 대신 Azure Portal 또는 Cloud Shell을 사용하여 DSVM의 할당을 취소해야 합니다.

대규모 분석을 처리하고 더 많은 CPU, 메모리 또는 디스크 용량이 필요할 수 있습니다. 그렇다면 컴퓨팅 및 예산 요구 사항을 충족하는 CPU 코어 수, 딥 러닝에 대한 GPU 기반 인스턴스 수, 메모리 용량 및 디스크 유형(SSD 디스크 포함) 측면에서 VM 크기를 선택할 수 있습니다. 시간당 컴퓨팅 가격 책정을 포함한 전체 VM 목록은 Azure Virtual Machines 가격 페이지에서 사용할 수 있습니다.

더 많은 도구 추가

DSVM에 미리 빌드된 도구는 많은 일반적인 데이터 분석 요구 사항을 해결할 수 있습니다. 이렇게 하면 환경을 하나씩 설치하고 구성할 필요가 없으므로 시간이 절약됩니다. 또한 사용하는 리소스에 대해서만 비용을 지불하므로 비용이 절약됩니다.

이 문서에서 프로파일링한 다른 Azure 데이터 및 분석 서비스를 사용하여 분석 환경을 향상시킬 수 있습니다. 경우에 따라 일부 독점 파트너 도구를 포함하여 추가 도구가 필요할 수 있습니다. 필요한 새 도구를 설치할 수 있는 가상 머신에 대한 모든 관리 액세스 권한이 있습니다. 또한 사전 설치되지 않은 추가 패키지를 Python 및 R에 설치할 수 있습니다. Python의 경우 conda 또는 pip를 사용할 수 있습니다. R의 경우 R 콘솔에서 install.packages()를 사용하거나 IDE를 사용하여 패키지>패키지 설치를 차례로 선택할 수 있습니다.

딥 러닝

프레임워크 기반 샘플 외에도 DSVM에서 유효성이 검사된 포괄적인 연습 세트를 얻을 수 있습니다. 이러한 연습은 이미지 및 텍스트/언어 이해와 같은 영역에서 딥 러닝 애플리케이션 개발을 빠르게 시작하는 데 도움이 됩니다.

  • 다양한 프레임워크에서 신경망 실행: 이 연습에서는 코드를 한 프레임워크에서 다른 프레임워크로 마이그레이션하는 방법을 보여 줍니다. 또한 프레임워크 간에 모델과 런타임 성능을 비교하는 방법도 보여 줍니다.

  • 이미지 내 제품을 검색하는 엔드투엔드 솔루션을 빌드하는 방법 가이드: 이미지 검색은 이미지 내의 개체를 찾고 분류할 수 있는 기술입니다. 이 기술에는 많은 실제 비즈니스 영역에서 엄청난 보상을 가져올 수 있는 잠재력이 있습니다. 예를 들어 소매업체는 이 기술을 사용하여 고객이 선택한 제품을 확인할 수 있습니다. 또한 이 정보는 매장의 제품 재고를 관리하는 데 도움이 됩니다.

  • 오디오 딥 러닝: 이 자습서에서는 도시 소리 데이터 세트에서 오디오 이벤트를 검색하기 위한 딥 러닝 모델을 학습시키는 방법을 보여 줍니다. 또한 오디오 데이터를 사용하는 방법에 대한 개요를 제공합니다.

  • 텍스트 문서 분류: 이 연습에서는 Hierarchical Attention Network 및 LSTM(Long Short Term Memory) 네트워크라는 두 가지 신경망 아키텍처를 빌드하고 학습시키는 방법을 보여 줍니다. 이러한 신경망은 Keras API를 딥 러닝에 사용하여 텍스트 문서를 분류합니다.

요약

이 문서에서는 Microsoft Data Science Virtual Machine에서 수행할 수 있는 몇 가지 작업에 대해 설명했습니다. DSVM을 효과적인 분석 환경으로 만들기 위해 수행할 수 있는 더 많은 작업이 있습니다.