Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
ОБЛАСТЬ ПРИМЕНЕНИЯ:Azure Stack Edge Pro — GPU
Azure Stack Edge Pro 2
Azure Stack Edge Pro R
Azure Stack Edge Mini R
В этой статье описывается, как применять ускорение вычислений на устройствах Azure Stack Edge при использовании развертываний Kubernetes.
Ускорение вычислений
Центральный процессор (CPU) по умолчанию реализует вычисления общего назначения для большинства процессов, выполняемых на компьютере. Зачастую используется специализированное компьютерное оборудование для более эффективного выполнения некоторых функций по сравнению с запуском таких функций в программного обеспечении на ЦП. Например, графический процессор (GPU) можно использовать для ускорения обработки пиксельных данных.
Ускорение вычислений — это термин, применяемый специально для устройств Azure Stack Edge, где для аппаратного ускорения используются графические процессоры (GPU), процессоры машинного зрения (VPU) или программируемая пользователем вентильная матрица (ППВМ). Большинство рабочих нагрузок, развернутых на устройстве Azure Stack Edge, включают критически важный тайминг, потоковые данные с нескольких камер и (или) высокую кадровую частоту — то есть функции, для которых требуется специальное аппаратное ускорение.
В этой статье мы рассмотрим ускорение вычислений с использованием GPU или VPU для следующих устройств.
- GPU Azure Stack Edge Pro. Эти устройства могут иметь 1 или 2 NVIDIA T4 Tensor Core GPU. Дополнительные сведения см. в разделе NVIDIA T4.
- Azure Stack Edge Pro R — эти устройства имеют 1 GPU NVIDIA T4 Tensor Core. Дополнительные сведения см. в разделе NVIDIA T4.
- Azure Stack Edge Mini R — эти устройства содержат один VPU Intel Movidius Myriad X. Дополнительные сведения см. в разделе VPU Intel Movidius Myriad X.
Использование GPU для развертывания Kubernetes
Следующий пример yaml
можно использовать для устройства GPU Azure Stack Edge Pro или Azure Stack Edge Pro R с GPU.
apiVersion: v1
kind: Pod
metadata:
name: gpu-pod
spec:
containers:
- name: cuda-container
image: nvidia/cuda:9.0-devel
resources:
limits:
nvidia.com/gpu: 1 # requesting 1 GPU
- name: digits-container
image: nvidia/digits:6.0
resources:
limits:
nvidia.com/gpu: 1 # requesting 1 GPU
Использование VPU для развертывания Kubernetes
Следующий пример yaml
можно использовать для устройства Azure Stack Edge Mini R с VPU.
apiVersion: batch/v1
kind: Job
metadata:
name: intelvpu-demo-job
labels:
jobgroup: intelvpu-demo
spec:
template:
metadata:
labels:
jobgroup: intelvpu-demo
spec:
restartPolicy: Never
containers:
-
name: intelvpu-demo-job-1
image: ubuntu-demo-openvino:devel
imagePullPolicy: IfNotPresent
command: [ "/do_classification.sh" ]
resources:
limits:
vpu.intel.com/hddl: 1