Jaa


Azuren automaattianalyysipalveluihin perustuvien mallien käyttäminen

Dynamics 365 Customer Insights - Datan yhtenäistetyt tiedot ovat sellaisten koneoppimismallien muodostamisen lähde, joilla voidaan luoda lisää merkityksellisiä liiketoimintatietoja. Azuren automaattianalyysipalveluihin integroituvan Customer Insights - Datan ansiosta voidaan käyttää omia mukautettuja malleja.

Edellytykset

Azuren automaattianalyysipalvelujen työtilan määrittäminen

  1. Azuren automaattianalyysipalvelujen työtilan luonti sisältää lisätietoja työtilan luontivaihtoehdoista. Paras tulos saadaan luomalla työtila sillä Azure-alueella, joka on maantieteellisesti lähinnä Customer Insights -ympäristöä.

  2. Työtilaa käytetään Azuren koneoppimisstudion kautta. Työtilaa voi käyttää eri tavoin.

Azuren automaattianalyysipalvelujen suunnitteluohjelman käyttäminen

Azuren koneoppimisen suunnittelija tarjoaa visuaalisen pohjan, johon voit vetää ja pudottaa tietojoukkoja ja moduuleja. Suunnitteluohjelmassa luotu eräjakso voidaan integroida Customer Insights - Dataan, jos määritykset sen sallivat.

Azuren automaattianalyysipalvelujen SDK:n käyttäminen

Data-analyytikot ja tekoälykehittäjät luovat koneoppisen työnkulkuja käyttämällä Azuren automaattianalyysipalvelujen SDK:ta. Tällä hetkellä SDK:n avulla koulutettuja malleja ei voi integroida suoraan. Customer Insights - Data -integrointiin tarvitaan mallia käyttävä eräpäättelyjakso.

Customer Insights - Data -integroinnin eräjaksovaatimukset

Tietojoukon määritys

Tietojoukkoja luodaan käyttämään Customer Insightsin taulukkotietoja eräpäättelyjaksossa. Nämä tietojoukot rekisteröidään työtilassa. Tällä tuetaan vain taukokkomuotoisia tietojoukkoja, joiden muoto on.csv. Taulukkotietoja vastaavat tietojoukot muutetaan jaksoparametreiksi.

  • Suunnitteluohjelman tietojoukkoparametrit

    Avaa suunnitteluohjelmassa Valitse tietojoukon sarakkeet ja valitse Määritä jaksoparametrina, jossa annetaan parametrin nimi.

    Suunnitteluohjelman tietojoukon muuttaminen parametreiksi.

  • SDK:n tietojoukkoparametri (Python)

    HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data')
    HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset)
    HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
    

Eräpäättelyjakso

  • Koulutusjaksoa käytetään suunnitteluohjelmassa luomaan tai päivittämään päättelyjakso. Tällä tuetaan vain eräpäättelyjaksoja.

  • Jakso voidaan julkaista SDK:n avulla päätepisteeseen. Tällä hetkellä Customer Insights - Data integroi koneoppimistyötilassa oletusjakson eräjakson päätepisteessä.

    published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline")
    pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") 
    pipeline_endpoint.add_default(pipeline=published_pipeline)
    

Jakson tietojen tuominen

  • Suunnitteluohjelmassa on tietojen vientimoduuli, jolla jakson tuloste voidaan viedä Azure-tallennustilaan. Tällä hetkellä moduulin tietosäilön tyypin on oltava Azure Blob -säilö, minkä lisäksi tietosäilö ja suhteellinen polku on muutettava parametreiksi. Järjestelmä korvaa nämä molemmat parametrit jakson suorituksen aikana tietosäilöllä ja polulla, jota sovellus voi käyttää.

    Tietojen vientimoduulin määritys.

  • Kun päättelytuloksen kirjoittamiseen käytetään koodia, tulos voidaan ladata polkuun työtilan rekisteröidyssä tietosäilössä. Jos polku ja tietosäilö on muutettu jaksossa parametreiksi, Customer Insights voi lukea ja tuoda päättelytuloksen. Tällä hetkellä tuetaan yhtä taulukkomuotoista tulostetta, jonka muoto on csv. Polun on sisällettävä hakemisto ja tiedostonimi.

    # In Pipeline setup script
        OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv")
        OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore")
    ...
    # In pipeline execution script
        run = Run.get_context()
        ws = run.experiment.workspace
        datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized
        directory_name =  os.path.dirname(output_path)  # output_path is parameterized.
    
        # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data
        # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True)
        output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name