Azuren automaattianalyysipalveluihin perustuvien mallien käyttäminen
Dynamics 365 Customer Insights - Datan yhtenäistetyt tiedot ovat sellaisten koneoppimismallien muodostamisen lähde, joilla voidaan luoda lisää merkityksellisiä liiketoimintatietoja. Azuren automaattianalyysipalveluihin integroituvan Customer Insights - Datan ansiosta voidaan käyttää omia mukautettuja malleja.
Edellytykset
- Customer Insights - Datan käyttöoikeus
- Aktiivinen Azure Enterprise -tilaus
- Yhdistetyt asiakasprofiilit
- Taulukkovienti Azure Blob -säilöön määritetty
Azuren automaattianalyysipalvelujen työtilan määrittäminen
Azuren automaattianalyysipalvelujen työtilan luonti sisältää lisätietoja työtilan luontivaihtoehdoista. Paras tulos saadaan luomalla työtila sillä Azure-alueella, joka on maantieteellisesti lähinnä Customer Insights -ympäristöä.
Työtilaa käytetään Azuren koneoppimisstudion kautta. Työtilaa voi käyttää eri tavoin.
Azuren automaattianalyysipalvelujen suunnitteluohjelman käyttäminen
Azuren koneoppimisen suunnittelija tarjoaa visuaalisen pohjan, johon voit vetää ja pudottaa tietojoukkoja ja moduuleja. Suunnitteluohjelmassa luotu eräjakso voidaan integroida Customer Insights - Dataan, jos määritykset sen sallivat.
Azuren automaattianalyysipalvelujen SDK:n käyttäminen
Data-analyytikot ja tekoälykehittäjät luovat koneoppisen työnkulkuja käyttämällä Azuren automaattianalyysipalvelujen SDK:ta. Tällä hetkellä SDK:n avulla koulutettuja malleja ei voi integroida suoraan. Customer Insights - Data -integrointiin tarvitaan mallia käyttävä eräpäättelyjakso.
Customer Insights - Data -integroinnin eräjaksovaatimukset
Tietojoukon määritys
Tietojoukkoja luodaan käyttämään Customer Insightsin taulukkotietoja eräpäättelyjaksossa. Nämä tietojoukot rekisteröidään työtilassa. Tällä tuetaan vain taukokkomuotoisia tietojoukkoja, joiden muoto on.csv. Taulukkotietoja vastaavat tietojoukot muutetaan jaksoparametreiksi.
Suunnitteluohjelman tietojoukkoparametrit
Avaa suunnitteluohjelmassa Valitse tietojoukon sarakkeet ja valitse Määritä jaksoparametrina, jossa annetaan parametrin nimi.
SDK:n tietojoukkoparametri (Python)
HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data') HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset) HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
Eräpäättelyjakso
Koulutusjaksoa käytetään suunnitteluohjelmassa luomaan tai päivittämään päättelyjakso. Tällä tuetaan vain eräpäättelyjaksoja.
Jakso voidaan julkaista SDK:n avulla päätepisteeseen. Tällä hetkellä Customer Insights - Data integroi koneoppimistyötilassa oletusjakson eräjakson päätepisteessä.
published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline") pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") pipeline_endpoint.add_default(pipeline=published_pipeline)
Jakson tietojen tuominen
Suunnitteluohjelmassa on tietojen vientimoduuli, jolla jakson tuloste voidaan viedä Azure-tallennustilaan. Tällä hetkellä moduulin tietosäilön tyypin on oltava Azure Blob -säilö, minkä lisäksi tietosäilö ja suhteellinen polku on muutettava parametreiksi. Järjestelmä korvaa nämä molemmat parametrit jakson suorituksen aikana tietosäilöllä ja polulla, jota sovellus voi käyttää.
Kun päättelytuloksen kirjoittamiseen käytetään koodia, tulos voidaan ladata polkuun työtilan rekisteröidyssä tietosäilössä. Jos polku ja tietosäilö on muutettu jaksossa parametreiksi, Customer Insights voi lukea ja tuoda päättelytuloksen. Tällä hetkellä tuetaan yhtä taulukkomuotoista tulostetta, jonka muoto on csv. Polun on sisällettävä hakemisto ja tiedostonimi.
# In Pipeline setup script OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv") OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore") ... # In pipeline execution script run = Run.get_context() ws = run.experiment.workspace datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized directory_name = os.path.dirname(output_path) # output_path is parameterized. # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True) output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name