Vad är en Azure Machine Learning-beräkningsinstans?

En Azure Machine Learning-beräkningsinstans är en hanterad molnbaserad arbetsstation för dataforskare. Varje beräkningsinstans har bara en ägare, även om du kan dela filer mellan flera beräkningsinstanser.

Beräkningsinstanser gör det enkelt att komma igång med Azure Machine Learning-utveckling och tillhandahålla hanterings- och företagsberedskapsfunktioner för IT-administratörer.

Använd en beräkningsinstans som din fullständigt konfigurerade och hanterade utvecklingsmiljö i molnet för maskininlärning. De kan också användas som beräkningsmål för träning och slutsatsdragning i utvecklings- och testsyfte.

För att Jupyter-funktioner för beräkningsinstanser ska fungera kontrollerar du att kommunikationen med webbsocketen inte är inaktiverad. Se till att ditt nätverk tillåter websocket-anslutningar till *.instances.azureml.net och *.instances.azureml.ms.

Viktigt!

Objekt markerade (förhandsversion) i den här artikeln är för närvarande i offentlig förhandsversion. Förhandsversionen tillhandahålls utan ett serviceavtal och rekommenderas inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Varför ska jag använda en beräkningsinstans?

En beräkningsinstans är en fullständigt hanterad molnbaserad arbetsstation som är optimerad för din utvecklingsmiljö för maskininlärning. Den ger följande fördelar:

Viktiga fördelar beskrivning
Produktivitet Du kan skapa och distribuera modeller med hjälp av integrerade notebook-filer och följande verktyg i Azure Machine Learning-studio:
- Jupyter
- JupyterLab
– VS Code (förhandsversion)
Beräkningsinstansen är helt integrerad med Azure Machine Learning-arbetsytan och studio. Du kan dela notebook-filer och data med andra dataforskare på arbetsytan.
Hanterad och säker Minska ditt säkerhetsavtryck och lägg till efterlevnad av företagets säkerhetskrav. Beräkningsinstanser tillhandahåller robusta hanteringsprinciper och säkra nätverkskonfigurationer, till exempel:

– Automatisk etablering från Resource Manager-mallar eller Azure Machine Learning SDK
- Rollbaserad åtkomstkontroll i Azure (Azure RBAC)
- Stöd för virtuella nätverk
– Azure-princip för att inaktivera SSH-åtkomst
– Azure-princip för att framtvinga skapande i ett virtuellt nätverk
– Automatisk avstängning/automatisk start baserat på schema
– TLS 1.2 aktiverat
Förkonfigurerad för ML Spara tid på installationsuppgifter med förkonfigurerade och uppdaterade ML-paket, djupinlärningsramverk, GPU-drivrutiner.
Helt anpassningsbar Brett stöd för typer av virtuella Azure-datorer, inklusive GPU:er och bevarad anpassning på låg nivå, till exempel installation av paket och drivrutiner, gör avancerade scenarier enkla. Du kan också använda installationsskript för att automatisera anpassningen

Verktyg och miljöer

Med Azure Machine Learning-beräkningsinstansen kan du skapa, träna och distribuera modeller i en helt integrerad notebook-upplevelse på din arbetsyta.

Du kan köra notebook-filer från din Azure Machine Learning-arbetsyta, Jupyter, JupyterLab eller Visual Studio Code. VS Code Desktop kan konfigureras för åtkomst till din beräkningsinstans. Eller använd VS Code för webben, direkt från webbläsaren och utan nödvändiga installationer eller beroenden.

Vi rekommenderar att du provar VS Code för webben för att dra nytta av den enkla integrering och omfattande utvecklingsmiljö som den tillhandahåller. VS Code för webben ger dig många av funktionerna i VS Code Desktop som du älskar, inklusive sökning och syntaxmarkering vid surfning och redigering. Mer information om hur du använder VS Code Desktop och VS Code för webben finns i Starta Visual Studio Code integrerat med Azure Machine Learning (förhandsversion) och Arbeta i VS Code via fjärranslutning till en beräkningsinstans (förhandsversion).

Du kan installera paket och lägga till kernels i beräkningsinstansen.

Följande verktyg och miljöer är redan installerade på beräkningsinstansen:

Allmänna verktyg och miljöer Details
Drivrutiner CUDA
cuDNN
NVIDIA
Blob FUSE
Intel MPI-bibliotek
Azure CLI
Azure Machine Learning-exempel
Docker
Nginx
NCCL 2.0
Protobuf
R-verktyg och miljöer Details
R-kernel

Du kan lägga till RStudio eller Posit Workbench (tidigare RStudio Workbench) när du skapar instansen.

PYTHON-verktyg och miljöer Details
Anaconda Python
Jupyter och tillägg
Jupyterlab och tillägg
Azure Machine Learning SDK
för Python
från PyPI
Innehåller azure-ai-ml och många vanliga extra azure-paket. Om du vill se hela listan
öppna ett terminalfönster på beräkningsinstansen och kör
conda list -n azureml_py310_sdkv2 ^azure
Andra PyPI-paket jupytext
tensorboard
nbconvert
notebook
Pillow
Conda-paket cython
numpy
ipykernel
scikit-learn
matplotlib
tqdm
joblib
nodejs
Djupinlärningspaket PyTorch
TensorFlow
Keras
Horovod
MLFlow
pandas-ml
scrapbook
ONNX-paket keras2onnx
onnx
onnxconverter-common
skl2onnx
onnxmltools
Azure Machine Learning Python-exempel

Beräkningsinstansen har Ubuntu som basoperativsystem.

Åtkomst till filer

Notebook-filer och Python-skript lagras i standardlagringskontot för din arbetsyta i Azure-filresursen. Dessa filer finns under katalogen "Användarfiler". Den här lagringen gör det enkelt att dela notebook-filer mellan beräkningsinstanser. Lagringskontot bevarar även dina anteckningsböcker på ett säkert sätt när du stoppar eller tar bort en beräkningsinstans.

Azure-filresurskontot för din arbetsyta monteras som en enhet på beräkningsinstansen. Den här enheten är standardarbetskatalogen för Jupyter, Jupyter Labs, RStudio och Posit Workbench. Det innebär att notebook-filer och andra filer som du skapar i Jupyter, JupyterLab, VS Code för webben, RStudio eller Posit lagras automatiskt på filresursen och är tillgängliga att använda även i andra beräkningsinstanser.

Filerna i filresursen är tillgängliga från alla beräkningsinstanser på samma arbetsyta. Alla ändringar av dessa filer på beräkningsinstansen sparas på ett tillförlitligt sätt tillbaka till filresursen.

Du kan också klona de senaste Azure Machine Learning-exemplen till din mapp under katalogen användarfiler i arbetsytans filresurs.

Att skriva små filer kan vara långsammare på nätverksenheter än att skriva till själva den lokala disken för beräkningsinstansen. Om du skriver många små filer kan du prova att använda en katalog direkt på beräkningsinstansen, till exempel en /tmp katalog. Observera att dessa filer inte är tillgängliga från andra beräkningsinstanser.

Lagra inte träningsdata på notebook-filresursen. Information om de olika alternativen för att lagra data finns i Åtkomst till data i ett jobb.

Du kan använda katalogen /tmp på beräkningsinstansen för temporära data. Skriv dock inte stora datafiler till OS-disken för beräkningsinstansen. OS-disken på beräkningsinstansen har kapacitet på 128 GB. Du kan också lagra temporära träningsdata på temporär disk monterad på /mnt. Den temporära diskens storlek baseras på den VM-storlek du väljer, du kan lagra större mängder data om du väljer en större VM-storlek. Alla programvarupaket som du installerar sparas på OS-disken för beräkningsinstansen. Observera att kundhanterad nyckelkryptering för närvarande inte stöds för OS-disk. OS-disken för beräkningsinstansen krypteras med Microsoft-hanterade nycklar.

Du kan också montera datalager och datauppsättningar.

Skapa

Följ stegen i Skapa resurser som du behöver för att komma igång för att skapa en grundläggande beräkningsinstans.

Fler alternativ finns i Skapa en ny beräkningsinstans.

Som administratör kan du skapa en beräkningsinstans för andra på arbetsytan.

Du kan också använda ett installationsskript för ett automatiserat sätt att anpassa och konfigurera beräkningsinstansen.

Andra sätt att skapa en beräkningsinstans:

De dedikerade kärnorna per region per VM-familjekvot och total regional kvot, som gäller för skapande av beräkningsinstanser, är enhetliga och delas med kvoten för Azure Machine Learning-träningsberäkningskluster. Om du stoppar beräkningsinstansen frigörs inte kvoten för att säkerställa att du kan starta om beräkningsinstansen. Stoppa inte beräkningsinstansen via OS-terminalen genom att göra en sudo-avstängning.

Beräkningsinstansen levereras med P10 OS-disk. Temporär disktyp beror på vilken VM-storlek som valts. För närvarande går det inte att ändra OS-disktypen.

Beräkningsmål

Beräkningsinstanser kan användas som ett träningsberäkningsmål som liknar Azure Machine Learning-beräkningsträningskluster. Men en beräkningsinstans har bara en enda nod, medan ett beräkningskluster kan ha fler noder.

En beräkningsinstans:

  • Har en jobbkö.
  • Kör jobb på ett säkert sätt i en virtuell nätverksmiljö, utan att företag behöver öppna SSH-porten. Jobbet körs i en containerbaserad miljö och paketera dina modellberoenden i en Docker-container.
  • Kan köra flera små jobb parallellt. Ett jobb per vCPU kan köras parallellt medan resten av jobben placeras i kö.
  • Stöder distribuerade träningsjobb med en nod för flera GPU:ar

Du kan använda beräkningsinstansen som ett lokalt mål för inferensdistribution för test-/felsökningsscenarier.

Dricks

Beräkningsinstansen har en OS-disk på 120 GB. Om du får slut på diskutrymme och hamnar i ett oanvändbart tillstånd rensar du minst 5 GB diskutrymme på OS-disken (monterad på /) via beräkningsinstansterminalen genom att ta bort filer/mappar och sedan göra sudo reboot. Temporär disk frigörs efter omstart. du behöver inte rensa utrymme på temporär disk manuellt. Om du vill komma åt terminalen går du till sidan för beräkningslista eller informationssidan för beräkningsinstansen och klickar på terminallänken . Du kan kontrollera det tillgängliga diskutrymmet genom att köra df -h i terminalen. Rensa minst 5 GB utrymme innan du utför sudo reboot. Stoppa eller starta inte om beräkningsinstansen via Studio förrän 5 GB diskutrymme har rensats. Automatiska avstängningar, till exempel schemalagd start eller stopp samt avstängningar vid inaktivitet, fungerar inte om beräkningsinstansdisken är full.

Nästa steg