Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Los datos unificados de Dynamics 365 Customer Insights: los datos son un origen para crear modelos de aprendizaje automático que pueden generar información empresarial adicional. Customer Insights: los datos se integran con Azure Machine Learning para usar sus propios modelos personalizados.
Prerrequisitos
- Acceso a Customer Insights: datos
- Suscripción de Azure Enterprise activa
- Perfiles de cliente unificados
- Exportación de tablas a Azure Blob Storage configurada
Configuración del área de trabajo de Azure Machine Learning
Consulte Creación de un área de trabajo de Azure Machine Learning para ver diferentes opciones para crear el área de trabajo. Para obtener el mejor rendimiento, cree el área de trabajo en una región de Azure más cercana geográficamente al entorno de Customer Insights.
Acceda al área de trabajo a través de Azure Machine Learning Studio. Hay varias maneras de interactuar con el área de trabajo.
Uso del diseñador de Azure Machine Learning
El diseñador de Azure Machine Learning proporciona un lienzo visual donde puede arrastrar y colocar conjuntos de datos y módulos. Una canalización por lotes creada desde el diseñador se puede integrar en Customer Insights: datos si están configurados en consecuencia.
Uso del SDK de Azure Machine Learning
Los científicos de datos y los desarrolladores de inteligencia artificial usan el SDK de Azure Machine Learning para crear flujos de trabajo de aprendizaje automático. Actualmente, los modelos entrenados mediante el SDK no se pueden integrar directamente. Una canalización de inferencia por lotes que consume ese modelo es necesario para la integración con Customer Insights - Data.
Requisitos de canalización por lotes para integrarse con Customer Insights: datos
Configuración del conjunto de datos
Cree conjuntos de datos para usar datos de tabla de Customer Insights para la canalización de inferencia por lotes. Registre estos conjuntos de datos en el área de trabajo. Actualmente, solo se admiten conjuntos de datos tabulares en formato .csv. Parametrice los conjuntos de datos que corresponden a los datos de tabla como parámetro de canalización.
Parámetros del conjunto de datos en el Diseñador
En el diseñador, abra Seleccionar columnas en conjunto de datos y seleccione Establecer como parámetro de canalización donde proporcione un nombre para el parámetro.
Parámetro de conjunto de datos en EL SDK (Python)
HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data') HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset) HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
Canalización de inferencia por lotes
En el diseñador, use una canalización de entrenamiento para crear o actualizar una canalización de inferencia. Actualmente, solo se admiten canalizaciones de inferencia por lotes.
Con el SDK, publique la canalización en un punto de conexión. Actualmente, Customer Insights- Data se integra con la canalización predeterminada en un punto de conexión de canalización por lotes en el área de trabajo de Machine Learning.
published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline") pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") pipeline_endpoint.add_default(pipeline=published_pipeline)
Importación de datos de canalización
El diseñador proporciona el módulo Exportar datos que permite exportar la salida de una canalización a Azure Storage. Actualmente, el módulo debe usar el tipo de almacén de datos Azure Blob Storage y parametrizar el almacén de datos y la ruta de acceso relativa. El sistema invalida estos parámetros durante la ejecución de la canalización con un almacén de datos y una ruta de acceso accesibles para la aplicación.
Al escribir la salida de inferencia mediante código, cargue la salida en una ruta de acceso dentro de un almacén de datos registrado en el área de trabajo. Si la ruta de acceso y el almacén de datos se parametrizan en la canalización, Customer Insights puede leer e importar la salida de la inferencia. Actualmente, se admite una salida tabular única en formato csv. La ruta de acceso debe incluir el directorio y el nombre de archivo.
# In Pipeline setup script OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv") OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore") ... # In pipeline execution script run = Run.get_context() ws = run.experiment.workspace datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized directory_name = os.path.dirname(output_path) # output_path is parameterized. # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True) output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name