Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of mappen te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen om mappen te wijzigen.
Belangrijk
Deze functie bevindt zich in de bètaversie. Werkruimtebeheerders kunnen de toegang tot deze functie beheren vanaf de pagina Previews . Zie Azure Databricks-previews beheren.
In dit artikel worden serverloze GPU-berekeningen op Databricks beschreven en worden aanbevolen use cases, richtlijnen geboden voor het instellen van GPU-rekenresources en functiebeperkingen.
Wat is serverloze GPU-rekenkracht?
Serverloze GPU-rekenkracht maakt deel uit van de serverloze compute-aanbieding. Serverloze GPU-rekenkracht is gespecialiseerd voor aangepaste deep learning-workloads met één en meerdere knooppunten. U kunt serverloze GPU-berekeningen gebruiken om aangepaste modellen te trainen en af te stemmen met behulp van uw favoriete frameworks en geavanceerde efficiëntie, prestaties en kwaliteit te verkrijgen.
Serverloze GPU-rekenkracht omvat:
- Een geïntegreerde ervaring in Notebooks, Unity Catalog en MLflow: U kunt uw code interactief ontwikkelen met behulp van Notebooks.
- A10 GPU-accelerators:A10 GPU's zijn ontworpen om kleine tot middelgrote machine learning- en Deep Learning-workloads te versnellen, waaronder klassieke ML-modellen en het verfijnen van kleinere taalmodellen. A10's zijn geschikt voor taken met gemiddelde rekenvereisten.
- Ondersteuning voor meerdere GPU's en meerdere knooppunten: U kunt gedistribueerde trainingsworkloads uitvoeren met meerdere GPU's en meerdere knooppunten met behulp van de Serverloze GPU Python-API. Zie Gedistribueerde training.
De vooraf geïnstalleerde pakketten op serverloze GPU-rekenkracht zijn geen vervanging voor Databricks Runtime ML. Hoewel er algemene pakketten zijn, worden niet alle Databricks Runtime ML-afhankelijkheden en -bibliotheken weergegeven in de serverloze GPU-rekenomgeving.
Python-omgevingen op serverloze GPU-rekenkracht
Databricks biedt twee beheerde omgevingen voor verschillende gebruiksvoorbeelden.
Opmerking
Basisomgevingen voor werkruimten worden niet ondersteund voor serverloze GPU-berekeningen. Gebruik in plaats daarvan de standaard- of AI-omgeving en geef extra afhankelijkheden rechtstreeks op in het deelvenster Omgevingen of pip install specificeer ze daar.
Standaardbasisomgeving
Dit biedt een minimale omgeving met een stabiele client-API om toepassingscompatibiliteit te garanderen. Alleen vereiste Python-pakketten worden geïnstalleerd. Hierdoor kan Databricks de server onafhankelijk upgraden, prestatieverbeteringen, beveiligingsverbeteringen en bugfixes leveren zonder dat er codewijzigingen in workloads nodig zijn. Dit is de standaardomgeving wanneer u serverloze GPU-rekenkracht kiest. Kies deze omgeving als u de omgeving voor uw training volledig wilt aanpassen.
Zie de releaseopmerkingen voor meer informatie over pakketversies die in verschillende versies zijn geïnstalleerd:
AI-omgeving
De Databricks AI-omgeving is beschikbaar in serverloze GPU-omgeving 4. De AI-omgeving is gebouwd op basis van de standaardbasisomgeving met algemene runtimepakketten en pakketten die specifiek zijn voor machine learning op GPU's. Het bevat populaire machine learning-bibliotheken, waaronder PyTorch, LangChain, Transformers, Ray en XGBoost voor modeltraining en deductie. Kies deze omgeving voor het uitvoeren van trainingsworkloads. Raadpleeg het document voor meer informatie.
Zie de releaseopmerkingen voor meer informatie over pakketversies die in verschillende versies zijn geïnstalleerd:
Aanbevolen gebruiksvoorbeelden
Databricks raadt serverloze GPU-rekenkracht aan voor elke use case voor modeltraining waarvoor trainingsaanpassingen en GPU's nodig zijn.
Voorbeeld:
- Afstemmen van LLM
- Computervisie
- Aanbevelingssystemen
- Bekrachtigend leren
- Prognose van tijdreeksen op basis van Deep Learning
Behoeften
- Een werkruimte in een van de volgende door Azure ondersteunde regio's:
eastuseastus2centralusnorthcentraluswestcentraluswestuswestus2
Serverloze GPU-rekenkracht instellen
Uw notebook verbinden met serverloze GPU-rekenkracht en de omgeving configureren:
- Klik in een notebook op de vervolgkeuzelijst Verbinding maken bovenaan en selecteer Serverloze GPU.
- Klik op het
het deelvenster Omgeving te openen.
- Selecteer A10 in het veld Accelerator .
- Selecteer Geen voor de standaardomgeving of AI v4 voor de AI-omgeving in het veld Basisomgeving .
- Klik op Toepassenen bevestig vervolgens dat u de serverloze GPU-rekenkracht wilt toepassen op uw notebookomgeving.
Opmerking
De verbinding met uw berekening wordt automatisch beëindigd na 60 minuten inactiviteit.
Bibliotheken toevoegen aan de omgeving
U kunt extra bibliotheken installeren in de serverloze GPU-rekenomgeving. Zie Afhankelijkheden toevoegen aan het notebook.
Opmerking
Het toevoegen van afhankelijkheden met behulp van het deelvenster Omgevingen , zoals te zien is in Afhankelijkheden toevoegen aan het notebook , wordt niet ondersteund voor geplande taken voor serverloze GPU-berekeningen.
Een taak maken en plannen
De volgende stappen laten zien hoe u taken maakt en plant voor uw serverloze GPU-rekenworkloads. Zie Geplande notebooktaken maken en beheren voor meer informatie.
Nadat u het notitieblok hebt geopend dat u wilt gebruiken:
- Selecteer de knop Planning rechtsboven.
- Selecteer Planning toevoegen.
- Vul het formulier Nieuw schema in met de taaknaam, Planning en Compute.
- Klik op Creëren.
U kunt ook taken maken en plannen vanuit de gebruikersinterface voor taken en pijplijnen . Zie Een nieuwe taak maken voor stapsgewijze instructies.
Een taak programmatisch maken en plannen
U kunt ook rechtstreeks via de Taken-API een taak maken met GPU-rekenkracht zonder server. Geef de GPU-accelerator in het tasks > compute > hardware_accelerator veld op. De volledige API-specificatie is beschikbaar in de jobs-API-documentatie. Dit is handig voor het maken van programmatische taken, continue integratie en oplevering (CI/CD) en DABs-gebaseerde implementaties.
Gedistribueerde training
Beperkingen
- Serverloze GPU-rekenkracht ondersteunt alleen A10-accelerators.
- Private Link wordt niet ondersteund. Opslagplaatsen of pip-repositories die gebruik maken van Private Link worden niet ondersteund.
- Serverloze GPU-rekenkracht wordt niet ondersteund voor werkruimten voor nalevingsbeveiligingsprofielen (zoals HIPAA of PCI). Het verwerken van gereguleerde gegevens wordt momenteel niet ondersteund.
- Voor geplande taken op serverloze GPU-berekeningen wordt automatisch herstelgedrag voor incompatibele pakketversies die aan uw notebook zijn gekoppeld, niet ondersteund.
- De maximale runtime voor een workload is zeven dagen. Voor modeltrainingstaken die deze limiet overschrijden, implementeert u controlepunten en start u de taak opnieuw zodra de maximale runtime is bereikt.
Volgende stappen
- Zie Gegevens laden op serverloze GPU-berekeningen voor meer informatie over het laden van gegevens.
- Zie Best practices voor serverloze GPU-berekeningen voor best practices.
- Raadpleeg de gids voor probleemoplossing voor veelvoorkomende problemen, tijdelijke oplossingen en ondersteuningsbronnen.
- Voor notebooks en zelfstudies, zie de voorbeelden van serverloze GPU-rekennotebooks.