Zusammenfassung
In diesem Modul haben Sie Folgendes gelernt:
- Erstellen einer NVIDIA-VM mit GPU-Beschleunigung
- Konfigurieren von NVIDIA Triton Inference Server und der zugehörigen Voraussetzungen
- Ausführen einer Rückschlussworkload in NVIDIA Triton Inference Server
Zusammenfassung
Das Entwicklungsteam hat erfolgreich eine vollständige benutzerdefinierte Lösung zur Objekterkennung in seiner Branche implementiert. Das Team hat Azure Machine Learning Studio verwendet, um das Erfassen und Taggen von Bildproben zu operationalisieren. Außerdem konnte es die Möglichkeit optimieren, neue Modelle mithilfe von GPU-beschleunigten Computeinstanzen zu trainieren. Jetzt hat das Team das Projekt abgeschlossen, indem es sein Modell in NVIDIA Triton Inference Server bereitgestellt und bestätigt hat, dass das Modell nun bereit ist, in der Produktion am Fertigungsstandort eingesetzt zu werden.
Weitere Informationen
- Damit sichergestellt ist, dass Sie über die besten Ressourcen für Ihr Berufsleben verfügen, nehmen Sie am NVIDIA Developer Program teil, und greifen Sie auf kostenlose Software Development Kits (SDKs), technische Dokumentation und die Hilfe von Kollegen und Fachexperten zu.
- So können Sie Ihre Kenntnisse zu KI, beschleunigtem Computing, beschleunigter Data Science, Grafik und Simulation erweitern. Sehen Sie sich eine umfassende Liste mit Kursen zum Selbststudium sowie die Kursleiter*innen geführten Schulungen vom NVIDIA Deep Learning Institute an.