Usar modelos baseados em Azure Machine Learning
Os dados unificados no Dynamics 365 Customer Insights- Data são uma fonte para a criação dos modelos de machine learning capazes de gerar insights comerciais adicionais. O Customer Insights - Data se integra ao Azure Machine Learning para usar os próprios modelos personalizados.
Pré-requisitos
- Acesso a Customer Insights - Data
- Ativar assinatura do Azure Enterprise
- Perfis unificados de cliente
- Exportação de tabela para armazenamento de Blobs do Azure configurada
Configurar o espaço de trabalho do Azure Machine Learning
Consulte Criar um espaço de trabalho do Azure Machine Learning e conheça opções diferentes para criar o espaço de trabalho. Para obter o melhor desempenho, crie o espaço de trabalho em uma região do Azure que seja geograficamente mais próxima de seu ambiente do Customer Insights.
Acesse seu espaço de trabalho por meio do Azure Machine Learning Studio. Existem várias maneiras de interagir com seu espaço de trabalho.
Trabalhar com o designer do Azure Machine Learning
O designer do Azure Machine Learning fornece uma tela visual onde você pode arrastar e soltar conjuntos de dados e módulos. Um pipeline de lote criado no designer poderá ser integrado ao Customer Insights - Data se estiver configurado de acordo.
Trabalhar com o SDK do Azure Machine Learning
Cientistas de dados e desenvolvedores de IA usam o SDK do Azure Machine Learning para criar fluxos de trabalho de aprendizado de máquina. Atualmente, os modelos treinados usando o SDK não podem ser integrados diretamente. Um pipeline de inferência em lote que consuma esse modelo é necessário para a integração com o Customer Insights - Data.
Requisitos do pipeline em lote para integração com o Customer Insights - Data
Configuração do conjunto de dados
Crie conjuntos de dados para usar dados de tabela do Customer Insights para seu pipeline de inferência em lote. Registre esses conjuntos de dados no espaço de trabalho. Atualmente, nós apenas oferecemos suporte a conjuntos de dados de tabela no formato .csv. Parametrize os conjuntos de dados que correspondem aos dados da tabela como um parâmetro de pipeline.
Parâmetros do conjunto de dados no designer
No designer, abra Selecionar colunas no conjunto de dados e selecione Definir como parâmetro de pipeline em que você fornece um nome para o parâmetro.
Parâmetro do conjunto de dados no SDK (Python)
HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data') HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset) HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
Pipeline de inferência em lote
No designer, use um pipeline de treinamento para criar ou atualizar um pipeline de inferência. Atualmente, apenas pipelines de inferência em lote são compatíveis.
Usando o SDK, publique o pipeline em um ponto de extremidade. Atualmente, o Customer Insights - Data se integra ao pipeline padrão em um ponto de extremidade de pipeline em lote no espaço de trabalho do Machine Learning.
published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline") pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") pipeline_endpoint.add_default(pipeline=published_pipeline)
Importar dados de pipeline
O designer fornece o Módulo de exportação de dados que permite à saída de um pipeline ser exportada para o armazenamento do Azure. Atualmente, o módulo deve usar o tipo de armazenamento de dados Armazenamento de Blobs do Azure e parametrizar o Armazenamento de dados e o Caminho relativo. O sistema substitui esses dois parâmetros durante a execução do pipeline por um armazenamento de dados e um caminho acessível ao aplicativo.
Ao gravar a saída de inferência usando código, carregue a saída para um caminho dentro de um armazenamento de dados registrado no espaço de trabalho. Se o caminho e o armazenamento de dados forem parametrizados no pipeline, o Customer Insights poderá ler e importar a saída da inferência. Atualmente, uma única saída de tabela no formato csv é compatível. O caminho deve incluir o diretório e o nome do arquivo.
# In Pipeline setup script OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv") OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore") ... # In pipeline execution script run = Run.get_context() ws = run.experiment.workspace datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized directory_name = os.path.dirname(output_path) # output_path is parameterized. # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True) output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name