다음을 통해 공유


DirectML 시작

DirectML을 ONNX 런타임과 페어링하는 것은 많은 개발자가 대규모로 사용자에게 하드웨어 가속 AI를 가져오는 가장 간단한 방법입니다. 이 세 단계는 이 강력한 콤보를 사용하기 위한 일반적인 가이드입니다.

1. 변환

ONNX 형식을 사용하면 하드웨어 간 기능을 제공하는 DirectML에서 ONNX 런타임을 활용할 수 있습니다.

모델을 ONNX 형식으로 변환하려면 ONNXMLTools 또는 Olive 활용할 수 있습니다.

2. 최적화

.onnx 모델이 있으면 DirectML에서 제공하는 Olive를 활용하여 모델을 최적화합니다. Windows 하드웨어 에코시스템에서 배포할 수 있는 성능이 크게 향상되었습니다.

3. 통합

모델이 준비되면 ONNX 런타임 및 DirectML을 사용하여 하드웨어 가속 추론을 앱에 가져와야 합니다. 생성 AI 모델의 경우 ONNX 런타임 생성() API를 사용하는 것이 좋습니다.

DirectML 및 ONNX 런타임을 사용하는 방법을 보여 줄 몇 가지 샘플을 빌드했습니다.

DirectML 및 PyTorch

Pytorch용 DirectML 백 엔드를 사용하면 개발자에게 친숙한 Pytorch API를 노출하면서 GPU 하드웨어에 대한 고성능의 낮은 수준의 액세스를 가능하게 합니다. DirectML에서 PyTorch를 사용하는 방법에 대한 자세한 내용은 여기를 참조하세요.

웹 애플리케이션용 DirectML(미리 보기)

WebNN(웹 신경망 API)은 웹앱 및 프레임워크가 GPU, CPU 또는 NPU와 같은 용도로 빌드된 AI 가속기와 같은 디바이스 내 하드웨어를 사용하여 심층 신경망을 가속화할 수 있는 새로운 웹 표준입니다. WebNN API는 Windows의 DirectML API를 활용하여 네이티브 하드웨어 기능에 액세스하고 신경망 모델 실행을 최적화합니다. WebNN에 대한 자세한 내용은 여기를 참조하세요.