Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Rozwiązanie PyTorch z językiem DirectML zapewnia łatwy w użyciu sposób dla deweloperów wypróbowanie najnowszych i największych modeli sztucznej inteligencji na maszynie z systemem Windows. Narzędzie PyTorch można pobrać za pomocą języka DirectML, instalując pakiet PyPi torch-directml . Po skonfigurowaniu możesz zacząć od naszych przykładów lub użyć zestawu narzędzi AI Toolkit for VS Code.
Sprawdzanie wersji systemu Windows
Pakiet torch-directml w natywnym systemie Windows działa począwszy od systemu Windows 10 w wersji 1709 (kompilacja 16299 lub nowsza). Numer wersji kompilacji można sprawdzić, uruchamiając winver
polecenie Uruchom (logo systemu Windows + R).
Sprawdzanie aktualizacji sterowników procesora GPU
Upewnij się, że masz zainstalowany najnowszy sterownik procesora GPU. Wybierz pozycję Sprawdź dostępność aktualizacji w sekcji Windows Update w aplikacji Ustawienia .
Skonfiguruj Torch-DirectML
Zalecamy skonfigurowanie wirtualnego środowiska języka Python w systemie Windows. Istnieje wiele narzędzi, których można użyć do skonfigurowania wirtualnego środowiska języka Python — na potrzeby tych instrukcji użyjemy Anaconda's Miniconda. W pozostałej części tej konfiguracji przyjęto założenie, że używasz środowiska Miniconda.
Konfigurowanie środowiska języka Python
Pobierz i zainstaluj instalator Miniconda Windows w systemie. W witrynie anaconda znajdują się dodatkowe wskazówki dotyczące instalacji . Po zainstalowaniu narzędzia Miniconda utwórz środowisko przy użyciu języka Python o nazwie pytdml i aktywuj je za pomocą następujących poleceń.
conda create --name pytdml -y
conda activate pytdml
Instalowanie biblioteki PyTorch i Torch-DirectML
Uwaga / Notatka
Pakiet torch-directml obsługuje do PyTorch 2.3.1
Wszystko, co jest potrzebne do skonfigurowania, to zainstalowanie najnowszej wersji torch-directml poprzez uruchomienie następującego polecenia:
pip install torch-directml
Weryfikacja i tworzenie urządzenia
Po zainstalowaniu pakietu torch-directml możesz sprawdzić, czy działa prawidłowo, dodając dwa tensory. Najpierw rozpocznij interaktywną sesję języka Python i zaimportuj torch z następującymi wierszami:
import torch
import torch_directml
dml = torch_directml.device()
Bieżąca wersja torch-directml jest przypisywana do backendu "PrivateUse1". Interfejs API torch_directml.device() to wygodne opakowanie do przesyłania tensorów do urządzenia DirectML.
Po stworzeniu urządzenia DirectML możesz teraz zdefiniować dwa proste tensory: jeden tensor zawierający 1, a drugi zawierający 2. Umieść tensory na urządzeniu "dml".
tensor1 = torch.tensor([1]).to(dml) # Note that dml is a variable, not a string!
tensor2 = torch.tensor([2]).to(dml)
Dodaj tensory i wyświetl wyniki.
dml_algebra = tensor1 + tensor2
dml_algebra.item()
Powinna zostać wyświetlona liczba 3, jak w poniższym przykładzie.
>>> import torch
>>> tensor1 = torch.tensor([1]).to(dml)
>>> tensor2 = torch.tensor([2]).to(dml)
>>> dml_algebra = tensor1 + tensor2
>>> dml_algebra.item()
3
PyTorch z przykładami i opiniami dotyczącymi DirectML
Zapoznaj się z naszymi przykładami , aby zobaczyć więcej zastosowań rozwiązania PyTorch z językiem DirectML. Jeśli wystąpią problemy lub masz opinię na temat pakietu PyTorch z językiem DirectML, skontaktuj się z naszym zespołem tutaj.