Vad är en Azure Machine Learning-beräkningsinstans?

En Azure Machine Learning-beräkningsinstans är en hanterad molnbaserad arbetsstation för dataexperter. Varje beräkningsinstans har bara en ägare, även om du kan dela filer mellan flera beräkningsinstanser.

Beräkningsinstanser gör det enkelt att komma igång med Azure Machine Learning-utveckling samt tillhandahålla hanterings- och företagsberedskapsfunktioner för IT-administratörer.

Använd en beräkningsinstans som din fullständigt konfigurerade och hanterade utvecklingsmiljö i molnet för maskininlärning. De kan också användas som beräkningsmål för träning och slutsatsdragning i utvecklings- och testsyfte.

För att beräkningsinstansens Jupyter-funktioner ska fungera kontrollerar du att kommunikationen med webbsocket inte är inaktiverad. Kontrollera att nätverket tillåter websocket-anslutningar till *.instances.azureml.net och *.instances.azureml.ms.

Viktigt

Objekt markerade (förhandsversion) i den här artikeln är för närvarande i offentlig förhandsversion. Förhandsversionen tillhandahålls utan serviceavtal och rekommenderas inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Varför använda en beräkningsinstans?

En beräkningsinstans är en fullständigt hanterad molnbaserad arbetsstation som är optimerad för din utvecklingsmiljö för maskininlärning. Det ger följande fördelar:

Viktiga fördelar Beskrivning
Produktivitet Du kan skapa och distribuera modeller med hjälp av integrerade notebook-filer och följande verktyg i Azure Machine Learning-studio:
- Jupyter
- JupyterLab
– VS Code (förhandsversion)
Beräkningsinstansen är helt integrerad med Azure Machine Learning-arbetsytan och studio. Du kan dela notebook-filer och data med andra dataforskare på arbetsytan.
Hanterad & säker Minska ditt säkerhetsavtryck och lägg till efterlevnad av företagets säkerhetskrav. Beräkningsinstanser tillhandahåller robusta hanteringsprinciper och säkra nätverkskonfigurationer, till exempel:

– Automatisk avetablering från Resource Manager mallar eller Azure Machine Learning SDK
- Rollbaserad åtkomstkontroll i Azure (Azure RBAC)
- Stöd för virtuella nätverk
– Azure-princip för att inaktivera SSH-åtkomst
– Azure-princip för att framtvinga skapande i ett virtuellt nätverk
– Automatisk avstängning/automatisk start baserat på schema
– TLS 1.2 aktiverat
Förkonfigurerad för ML Spara tid på installationsuppgifter med förkonfigurerade och uppdaterade ML-paket, djupinlärningsramverk, GPU-drivrutiner.
Fullständigt anpassningsbar Brett stöd för typer av virtuella Azure-datorer, inklusive GPU:er och bestående anpassning på låg nivå, till exempel installation av paket och drivrutiner, gör avancerade scenarier enkla. Du kan också använda installationsskript för att automatisera anpassningen

Verktyg och miljöer

Med Azure Machine Learning-beräkningsinstansen kan du skapa, träna och distribuera modeller i en helt integrerad notebook-miljö på arbetsytan.

Du kan köra Jupyter-notebook-filer i VS Code med beräkningsinstansen som fjärrserver utan att behöva SSH. Du kan också aktivera VS Code-integrering via fjärr-SSH-tillägget.

Du kan installera paket och lägga till kernels i beräkningsinstansen.

Följande verktyg och miljöer är redan installerade på beräkningsinstansen:

Allmänna verktygsmiljöer & Information
Drivrutiner CUDA
cuDNN
NVIDIA
Blob FUSE
Intel MPI-bibliotek
Azure CLI
Azure Machine Learning-exempel
Docker
Nginx
NCCL 2.0
Protobuf
R-verktygsmiljöer & Information
R-kernel

Du kan lägga till RStudio när du skapar instansen.

Python-verktygsmiljöer& Information
Anaconda Python
Jupyter och tillägg
Jupyterlab och tillägg
Azure Machine Learning SDK för Python
från PyPI
Innehåller de flesta extra azureml-paket. Om du vill se hela listan öppnar du ett terminalfönster på beräkningsinstansen och kör
conda list -n azureml_py36 azureml*
Andra PyPI-paket jupytext
tensorboard
nbconvert
notebook
Pillow
Conda-paket cython
numpy
ipykernel
scikit-learn
matplotlib
tqdm
joblib
nodejs
nb_conda_kernels
Djupinlärningspaket PyTorch
TensorFlow
Keras
Horovod
MLFlow
pandas-ml
scrapbook
ONNX-paket keras2onnx
onnx
onnxconverter-common
skl2onnx
onnxmltools
Python-exempel för Azure Machine Learning

Python-paket installeras alla i Python 3.8 – AzureML-miljön . Beräkningsinstansen har Ubuntu 18.04 som basoperativsystem.

Åtkomst till filer

Notebook-filer och R-skript lagras i standardlagringskontot för din arbetsyta i Azure-filresursen. Dessa filer finns under katalogen "Användarfiler". Den här lagringen gör det enkelt att dela notebook-filer mellan beräkningsinstanser. Lagringskontot bevarar även dina anteckningsböcker på ett säkert sätt när du stoppar eller tar bort en beräkningsinstans.

Azure-filresurskontot för din arbetsyta monteras som en enhet på beräkningsinstansen. Den här enheten är standardarbetskatalogen för Jupyter, Jupyter Labs och RStudio. Det innebär att notebook-filer och andra filer som du skapar i Jupyter, JupyterLab eller RStudio lagras automatiskt på filresursen och är tillgängliga att använda även i andra beräkningsinstanser.

Filerna i filresursen är tillgängliga från alla beräkningsinstanser på samma arbetsyta. Alla ändringar av dessa filer på beräkningsinstansen sparas på ett tillförlitligt sätt tillbaka till filresursen.

Du kan också klona de senaste Azure Machine Learning-exemplen till din mapp under katalogen användarfiler i arbetsytans filresurs.

Att skriva små filer kan vara långsammare på nätverksenheter än att skriva till själva beräkningsinstansens lokala disk. Om du skriver många små filer kan du prova att använda en katalog direkt på beräkningsinstansen, till exempel en /tmp katalog. Observera att dessa filer inte kommer att vara tillgängliga från andra beräkningsinstanser.

Lagra inte träningsdata på filresursen notebook-filer. Du kan använda /tmp katalogen på beräkningsinstansen för dina tillfälliga data. Skriv dock inte mycket stora filer med data på OS-disken för beräkningsinstansen. OS-disken på beräkningsinstansen har kapacitet på 128 GB. Du kan också lagra tillfälliga träningsdata på en tillfällig disk monterad på /mnt. Den tillfälliga diskstorleken kan konfigureras baserat på den valda VM-storleken och kan lagra större mängder data om en virtuell dator med högre storlek väljs. Du kan också montera datalager och datauppsättningar. Alla programvarupaket som du installerar sparas på OS-disken för beräkningsinstansen. Observera att kryptering av kundhanterad nyckel för närvarande inte stöds för OS-disk. OS-disken för beräkningsinstansen krypteras med Microsoft-hanterade nycklar.

Skapa

Som administratör kan du skapa en beräkningsinstans för andra på arbetsytan (förhandsversion).

Du kan också använda ett installationsskript (förhandsversion) för ett automatiserat sätt att anpassa och konfigurera beräkningsinstansen.

Om du vill skapa en beräkningsinstans själv använder du din arbetsyta i Azure Machine Learning-studio, skapar en ny beräkningsinstans från avsnittet Beräkning eller i avsnittet Notebooks när du är redo att köra en av dina notebook-filer.

Du kan också skapa en instans

De dedikerade kärnorna per region per VM-familjekvot och total regional kvot, som gäller för att skapa beräkningsinstanser, är enhetliga och delas med kvoten för Azure Machine Learning-träningsberäkningskluster. Om du stoppar beräkningsinstansen frigörs inte kvoten för att säkerställa att du kan starta om beräkningsinstansen. Stoppa inte beräkningsinstansen via OS-terminalen genom att göra en sudo-avstängning.

Beräkningsinstansen levereras med P10 OS-disk. Typ av tempdisk beror på vilken VM-storlek som valts. För närvarande går det inte att ändra operativsystemdisktypen.

Beräkningsmål

Beräkningsinstanser kan användas som ett träningsberäkningsmål som liknar Azure Machine Learning-beräkningsträningskluster. Men en beräkningsinstans har bara en enda nod, medan ett beräkningskluster kan ha fler noder.

En beräkningsinstans:

  • Har en jobbkö.
  • Kör jobb på ett säkert sätt i en virtuell nätverksmiljö, utan att företag behöver öppna SSH-porten. Jobbet körs i en containerbaserad miljö och paketera dina modellberoenden i en Docker-container.
  • Kan köra flera små jobb parallellt (förhandsversion). Ett jobb per kärna kan köras parallellt medan resten av jobben placeras i kö.
  • Stöder distribuerade träningsjobb med flera noder för flera GPU:ar

Du kan använda beräkningsinstansen som ett lokalt mål för inferensdistribution för test-/felsökningsscenarier.

Tips

Beräkningsinstansen har en OS-disk på 120 GB. Om du får slut på diskutrymme och hamnar i ett oanvändbart tillstånd rensar du minst 5 GB diskutrymme på OS-disken (monterad på /) via beräkningsinstansterminalen genom att ta bort filer/mappar och sedan göra sudo reboot. Om du vill komma åt terminalen går du till sidan med beräkningslista eller information om beräkningsinstansen och klickar på terminallänken . Du kan kontrollera tillgängligt diskutrymme genom att köra df -h på terminalen. Rensa minst 5 GB utrymme innan du gör .sudo reboot Stoppa eller starta inte om beräkningsinstansen via Studio förrän 5 GB diskutrymme har rensats.

Nästa steg