Trasferire carichi di lavoro R
SI APPLICA A:Estensione ML dell'interfaccia della riga di comando di Azure v2 (corrente)
Python SDK azure-ai-ml v2 (corrente)
Non è disponibile alcun SDK di Azure Machine Learning per R. Per l’esecuzione di script R, invece, verrà usata l'interfaccia della riga di comando o uno script di controllo Python.
Questo articolo descrive gli scenari principali per R supportati in Azure Machine Learning e le limitazioni note.
Tipico flusso di lavoro R
Tipico flusso di lavoro per l'uso di R con Azure Machine Learning:
Sviluppare script R in modo interattivo usando notebook Jupyter in un'istanza di ambiente di calcolo. Anche se è possibile aggiungere Posit o RStudio a un'istanza di ambiente di calcolo, attualmente non è possibile accedere agli asset di dati nell'area di lavoro da queste applicazioni nell'istanza di ambiente di calcolo. Per il momento, quindi, è preferibile eseguire il lavoro interattivo in un notebook Jupyter.
- Leggere i dati tabulari da un archivio dati o un asset di dati registrati
- Installare librerie R aggiuntive
- Salvare gli artefatti nella risorsa di archiviazione file dell'area di lavoro
Adattare lo script per l'esecuzione come processo di produzione in Azure Machine Learning
- Rimuovere tutto il codice che potrebbe richiedere l'interazione dell'utente
- Aggiungere parametri di input della riga di comando allo script in base alla necessità
- Includere e originare lo script
azureml_utils.R
nella stessa directory di lavoro dello script R da eseguire - Usare
crate
per creare un pacchetto del modello - Includere le funzioni R/MLflow nello script per registrare artefatti, modelli, parametri e/o tag nel processo in MLflow
Inviare processi R asincroni remoti (inviare processi tramite l'interfaccia della riga di comando o l’SDK Python, non tramite R)
- Generare un ambiente
- Registrare artefatti, parametri, tag e modelli del processo
Registrare il proprio modello usando Azure Machine Learning Studio
Distribuire i modelli R registrati agli endpoint online gestiti
- Usare gli endpoint distribuiti per l'inferenza/assegnazione dei punteggi in tempo reale
Limitazioni note
Limitazione | Alternativa |
---|---|
Non esiste un SDK control-plane R. | Usare lo script di controllo dell'interfaccia della riga di comando di Azure o Python per l’invio di processi. |
RStudio in esecuzione come applicazione personalizzata, ad esempio Posit o RStudio, all'interno di un contenitore nell'istanza di calcolo non può accedere agli asset dell'area di lavoro o a MLflow. | Usare notebook Jupyter con il kernel R nell'istanza di ambiente di calcolo. |
L'esecuzione interattiva di query del registro MLflow dell'area di lavoro da R non è supportata. | |
Le esecuzioni di MLflow annidate in R non sono supportate. | |
Il passaggio del processo in parallelo non è supportato. | Eseguire uno script in parallelo n volte usando parametri di input differenti. A tal fine, tuttavia, è necessaria la metaprogrammazione per la generazione di chiamate YAML o dell'interfaccia della riga di comando n . |
La registrazione programmatica di un modello da un processo in esecuzione con R non è supportata. | |
La distribuzione senza l’uso di codice (ossia la distribuzione automatica) di un modello MLflow R attualmente non è supportata. | Creare un contenitore personalizzato con plumber per la distribuzione. |
L'assegnazione di punteggi a un modello R con endpoint batch non è supportata. | |
Il file yml della distribuzione online di Azure Machine Learning può usare URI immagine solo direttamente dal registro per la specifica dell'ambiente, non da ambienti predefiniti dallo stesso Dockerfile. | Seguire la procedura descritta in Come distribuire un modello R registrato in un endpoint online (in tempo reale) per la modalità di distribuzione corretta. |
Passaggi successivi
Altre informazioni su R in Azure Machine Learning:
Commenti e suggerimenti
https://aka.ms/ContentUserFeedback.
Presto disponibile: Nel corso del 2024 verranno gradualmente disattivati i problemi di GitHub come meccanismo di feedback per il contenuto e ciò verrà sostituito con un nuovo sistema di feedback. Per altre informazioni, vedereInvia e visualizza il feedback per