Episode

GPU Beschleunigtes Maschinelles Lernen mit WSL 2

Clarke Rahig wird etwas darüber erklären, was es bedeutet, Ihre GPU zu beschleunigen, um Machine Learning (ML)-Modelle zu trainieren, Konzepte wie Parallelität einzuführen und dann zu zeigen, wie Sie Ihren vollständigen ML-Workflow (einschließlich GPU-Beschleunigung) mit NVIDIA CUDA und TensorFlow in WSL 2 einrichten und ausführen.

Darüber hinaus wird er zeigen, wie Schüler und Anfänger mit dem Erstellen von Kenntnissen im Machine Learning (ML)-Bereich auf ihrer vorhandenen Hardware beginnen können, indem er das TensorFlow mit DirectML-Paket verwendet.

Kapitel
  • 00:00: Einführung
  • 00:49 - Was ist Machine Learning (ML)?
  • 01:24 – Was ist GPU-Beschleunigung?
  • 02:18 - Kann ich meinen vollständigen ML-Workflow in WSL ausführen?
  • 02:52 - Wie kann ich NVIDIA CUDA innerhalb von WSL nutzen?
  • 03:39 - Gewusst wie NVIDIA CUDA in WSL einrichten?
  • 11:07 - Gibt es eine Möglichkeit, meine vorhandene GPU zu nutzen?
  • 11:26 - Gewusst wie Tensorflow mit DirectML einrichten?
  • 14:00 - Registerkarten im Vergleich zu Leerzeichen?
  • 14:29 - Was ist als Nächstes? Wo kann ich mehr erfahren?
Verbinden