Поделиться через


Использование ускорения вычислений на устройствах GPU Azure Stack Edge Pro для развертывания Kubernetes

ОБЛАСТЬ ПРИМЕНЕНИЯ:Да для SKU GPU ProAzure Stack Edge Pro — GPUДа для SKU Pro 2Azure Stack Edge Pro 2Да для SKU R ProAzure Stack Edge Pro RДа для номера SKU Mini RAzure Stack Edge Mini R

В этой статье описывается, как применять ускорение вычислений на устройствах Azure Stack Edge при использовании развертываний Kubernetes.

Ускорение вычислений

Центральный процессор (CPU) по умолчанию реализует вычисления общего назначения для большинства процессов, выполняемых на компьютере. Зачастую используется специализированное компьютерное оборудование для более эффективного выполнения некоторых функций по сравнению с запуском таких функций в программного обеспечении на ЦП. Например, графический процессор (GPU) можно использовать для ускорения обработки пиксельных данных.

Ускорение вычислений — это термин, применяемый специально для устройств Azure Stack Edge, где для аппаратного ускорения используются графические процессоры (GPU), процессоры машинного зрения (VPU) или программируемая пользователем вентильная матрица (ППВМ). Большинство рабочих нагрузок, развернутых на устройстве Azure Stack Edge, включают критически важный тайминг, потоковые данные с нескольких камер и (или) высокую кадровую частоту — то есть функции, для которых требуется специальное аппаратное ускорение.

В этой статье мы рассмотрим ускорение вычислений с использованием GPU или VPU для следующих устройств.

  • GPU Azure Stack Edge Pro. Эти устройства могут иметь 1 или 2 NVIDIA T4 Tensor Core GPU. Дополнительные сведения см. в разделе NVIDIA T4.
  • Azure Stack Edge Pro R — эти устройства имеют 1 GPU NVIDIA T4 Tensor Core. Дополнительные сведения см. в разделе NVIDIA T4.
  • Azure Stack Edge Mini R — эти устройства содержат один VPU Intel Movidius Myriad X. Дополнительные сведения см. в разделе VPU Intel Movidius Myriad X.

Использование GPU для развертывания Kubernetes

Следующий пример yaml можно использовать для устройства GPU Azure Stack Edge Pro или Azure Stack Edge Pro R с GPU.

apiVersion: v1
kind: Pod
metadata:
  name: gpu-pod
spec:
  containers:
    - name: cuda-container
      image: nvidia/cuda:9.0-devel
      resources:
        limits:
          nvidia.com/gpu: 1 # requesting 1 GPU
    - name: digits-container
      image: nvidia/digits:6.0
      resources:
        limits:
          nvidia.com/gpu: 1 # requesting 1 GPU

Использование VPU для развертывания Kubernetes

Следующий пример yaml можно использовать для устройства Azure Stack Edge Mini R с VPU.

apiVersion: batch/v1
kind: Job
metadata:
 name: intelvpu-demo-job
 labels:
   jobgroup: intelvpu-demo
spec:
 template:
   metadata:
     labels:
       jobgroup: intelvpu-demo
   spec:
     restartPolicy: Never
     containers:
       -
         name: intelvpu-demo-job-1
         image: ubuntu-demo-openvino:devel
         imagePullPolicy: IfNotPresent
         command: [ "/do_classification.sh" ]
         resources:
           limits:
             vpu.intel.com/hddl: 1

Следующие шаги

Узнайте, как использовать kubectl для запуска приложения Kubernetes с отслеживанием состояния с помощью PersistentVolume на устройстве GPU Azure Stack Edge Pro.