Share via


Importeren vanuit Azure Blob Storage

Belangrijk

De ondersteuning voor Azure Machine Learning-studio (klassiek) eindigt op 31 augustus 2024. U wordt aangeraden om vóór die datum over te stappen naar Azure Machine Learning.

Vanaf 1 december 2021 kunt u geen nieuwe resources voor Azure Machine Learning-studio (klassiek) meer maken. Tot en met 31 augustus 2024 kunt u de bestaande resources van Azure Machine Learning-studio (klassiek) blijven gebruiken.

De documentatie van ML-studio (klassiek) wordt buiten gebruik gesteld en wordt in de toekomst mogelijk niet meer bijgewerkt.

In dit onderwerp wordt beschreven hoe u de module Gegevens importeren in Machine Learning Studio (klassiek) gebruikt om gegevens uit Azure Blob Storage te lezen, zodat u de gegevens kunt gebruiken in een machine learning experiment.

Notitie

Van toepassing op: Machine Learning Studio (klassiek)

Vergelijkbare modules voor slepen en neerzetten zijn beschikbaar in Azure Machine Learning designer.

De Azure Blob Service is voor het opslaan van grote hoeveelheden gegevens, waaronder binaire gegevens. Azure-blobs zijn overal toegankelijk via HTTP of HTTPS. Verificatie is mogelijk vereist, afhankelijk van het type blobopslag.

  • Openbare blobs zijn toegankelijk voor iedereen of voor gebruikers die een SAS-URL hebben.
  • Voor privé-blobs zijn een aanmelding en referenties vereist.

Voor het importeren uit blob-opslag moeten gegevens worden opgeslagen in blobs die gebruikmaken van de blok-blob-indeling . De bestanden die in de blob zijn opgeslagen, moeten de indelingen door komma's gescheiden (CSV) of door tabs gescheiden (TSV) gebruiken. Wanneer u het bestand leest, worden de records en eventuele toepasselijke kenmerkkoppen als rijen als een gegevensset in het geheugen geladen.

Notitie

De module Gegevens importeren biedt geen ondersteuning voor het maken van verbinding met Azure Blob Storage account als de optie Veilige overdracht vereist is ingeschakeld.

Zie de sectie Technische notities voor andere beperkingen voor de typen blob-opslag die worden ondersteund voor gebruik Machine Learning opslag.

Tip

Moet u gegevens importeren in een indeling die niet wordt ondersteund? U kunt Python of R gebruiken. Zie dit voorbeeld in de Azure AI Gallery: Niet-tekstbestand laden vanuit Azure Blob Storage

Gegevens importeren uit Azure-blobs

We raden u ten zeerste aan uw gegevens te profileren voordat u importeert, om ervoor te zorgen dat het schema is zoals verwacht. Tijdens het importproces wordt een aantal hoofdrijen gescand om het schema te bepalen, maar latere rijen bevatten mogelijk extra kolommen of gegevens die fouten veroorzaken.

De wizard Gegevens importeren gebruiken

De module bevat een nieuwe wizard om u te helpen een opslagoptie te kiezen, een keuze te maken uit bestaande abonnementen en accounts en snel alle opties te configureren.

  1. Voeg de module Gegevens importeren toe aan uw experiment. U vindt de module in Studio (klassiek) in de categorie Gegevensinvoer en -uitvoer.

  2. Klik op Wizard Gegevens importeren starten en volg de aanwijzingen.

  3. Wanneer de configuratie is voltooid, kopieert u de gegevens daadwerkelijk naar uw experiment, klikt u met de rechtermuisknop op de module en selecteert u Geselecteerde uitvoeren.

Als u een bestaande gegevensverbinding wilt bewerken, laadt de wizard alle eerdere configuratiegegevens, zodat u niet opnieuw opnieuw hoeft te beginnen.

Handmatig eigenschappen instellen in de module Gegevens importeren

In de volgende stappen wordt beschreven hoe u de importbron handmatig configureert.

  1. Voeg de module Gegevens importeren toe aan uw experiment. U vindt deze module in Studio (klassiek) in de categorie Gegevensinvoer en - uitvoer.

  2. Selecteer bij Gegevensbron de optie Azure Blob Storage.

  3. Kies bij Verificatietype de optie Openbare (SAS-URL) als u weet dat de informatie is opgegeven als een openbare gegevensbron. Een SAS-URL is een tijdsgebonden URL voor openbare toegang die u kunt genereren met behulp van een Azure Storage-hulpprogramma.

    Kies anders Account.

  4. Als uw gegevens zich in een openbare blob hebben die toegankelijk is via een SAS-URL, hebt u geen aanvullende referenties nodig, omdat de URL-tekenreeks alle informatie bevat die nodig is voor downloaden en verificatie.

    Typ of plak in het veld URI de volledige URI die het account en de openbare blob definieert.

    Notitie

    Op een pagina die toegankelijk is via EEN SAS-URL, kunnen gegevens alleen worden opgeslagen in de volgende indelingen: CSV, TSV en ARFF.

  5. Als uw gegevens zich in een privéaccount , moet u referenties, inclusief de accountnaam en de sleutel.

    • Bij Accountnaam typt of plakt u de naam van het account dat de blob bevat die u wilt openen.

      Als de volledige URL van het opslagaccount bijvoorbeeld is https://myshared.blob.core.windows.net, typt u myshared.

    • Plak bij Accountsleutel de toegangssleutel voor opslag die aan het account is gekoppeld.

      Als u de toegangssleutel niet weet, bekijkt u de sectie 'Uw Azure-opslagaccounts beheren' in dit artikel: Over Azure Storage accounts.

  6. Bij Pad naar container, map of blob typt u de naam van de specifieke blob die u wilt ophalen.

    Als u bijvoorbeeld een bestand met de naamdata01.csv hebt geüpload naar de trainingsgegevens van de container in een account met de naam mymldata, is de volledige URL voor het bestand: https://mymldata.blob.core.windows.net/trainingdata/data01.txt.

    In het veld Pad naar container, map of blob typt u daarom: trainingdata/data01.csv

    Als u meerdere bestanden wilt importeren, kunt u de jokertekens * (sterretje) of ? (vraagteken) gebruiken.

    Als de container trainingdata bijvoorbeeld meerdere bestanden met een compatibele indeling bevat, datakunt u de volgende specificatie gebruiken om alle bestanden te lezen die beginnen met , en deze samen te stellen in één gegevensset:

    trainingdata/data*.csv

    U kunt geen jokertekens gebruiken in containernamen. Als u bestanden uit meerdere containers wilt importeren, gebruikt u een afzonderlijk exemplaar van de module Gegevens importeren voor elke container en voegt u de gegevenssets vervolgens samen met behulp van de module Rijen toevoegen.

    Notitie

    Als u de optie In cache opgeslagen resultaten gebruiken hebt geselecteerd, worden de gegevens in het experiment niet vernieuwd door wijzigingen die u aan de bestanden in de container aan te brengen.

  7. Selecteer voor Blob-bestandsindeling een optie die de indeling aangeeft van de gegevens die zijn opgeslagen in de blob, zodat Machine Learning de gegevens op de juiste wijze kunnen verwerken. De volgende indelingen worden ondersteund:

    • CSV: Door komma's gescheiden waarden (CSV) is de standaardopslagindeling voor het exporteren en importeren van bestanden in Machine Learning. Als de gegevens al een koprij bevatten, selecteert u de optie Bestand heeft koptekstrij of wordt de header behandeld als een gegevensrij.

      Zie [Converteren naar CSV] (convert-to-csv.md) voor meer informatie over de CSV-indeling die Machine Learning wordt gebruikt in

    • TSV: door tabs gescheiden waarden (TSV) is een indeling die wordt gebruikt door veel machine learning hulpprogramma's. Als de gegevens al een koprij bevatten, selecteert u de optie Bestand heeft koptekstrij of wordt de header behandeld als een gegevensrij.

      Zie Converteren naar TSV voor meer informatie over de TSV-indeling die wordt gebruikt in Machine Learning.

    • ARFF: deze indeling ondersteunt het importeren van bestanden in de indeling die wordt gebruikt door de Weka-toolset. Zie Converteren naar ARFF voor meer informatie.

    • CSV met een opgegeven codering: gebruik deze optie voor CSV-bestanden die mogelijk zijn voorbereid met een ander veldscheidingsteken of als de bron mogelijk een ander tekencoderen dan UTF-8 heeft gebruikt. Deze indeling wordt niet ondersteund voor bestanden die zijn opgeslagen in een SAS-URL.

    • Excel: gebruik deze optie om gegevens te lezen uit Excel werkmappen die zijn opgeslagen in Azure Blob Storage. De Excel wordt niet ondersteund voor bestanden die zijn opgeslagen in een SAS-URL.

  8. Stel voor CSV-bestanden met speciale coderingen deze extra opties in om de juiste import van de tekens te beheren:

    • Door komma's gescheiden notatie: kies uit een lijst met algemene tekens die worden gebruikt als veldscheidingstekens, met inbegrip van het komma-tabteken , en puntkomma's ;.

    • Indeling voor codering: kies de tekencoderen die wordt gebruikt door het bestand dat u wilt lezen. Zie de sectie Technische notities voor een lijst met ondersteunde coderingen.

    • Rij met koptekst voor bestand: selecteer deze optie als de gegevens al een veldnamenrij bevatten. Anders wordt de header geïmporteerd als een gegevensrij.

  9. Voor Excel-bestanden moet u na het opgeven van het account en de container waarin het Excel-bestand is opgeslagen, de Excel-indeling en de naam van het bereik of de tabel opgeven met behulp van de volgende opties:

    • Excel gegevensindeling: geef aan of de gegevens zich in een Excel werkbladbereik of in een Excel tabel.

    • Excel of ingesloten tabel: als u de optie Excel werkblad selecteert, geeft u de naam op van het werkblad (de naam van het tabblad) of een tabel die is ingesloten in de werkmap. Alle gegevens uit het werkblad worden gelezen; u kunt geen celbereik opgeven. Als u de optie Excel tabel selecteert, moet u de tabelnaam en niet de werkbladnaam krijgen, zelfs als er slechts één tabel op een werkblad staat. Als u de tabelnaam wilt weergeven, klikt u in de tabel en bekijkt u vervolgens de eigenschap Tabelnaam op het tabblad Hulpprogramma's voor tabellen.

  10. Voer het experiment uit.

Voorbeelden

Zie de Azure Gallery voor meer informatie over Azure Blob Storage gegevens uit machine learning experimenten:

Technische opmerkingen

Deze sectie bevat implementatiedetails, tips en antwoorden op veelgestelde vragen.

Veelgestelde vragen

Is er een manier om het importeren van gegevens te automatiseren?

Er zijn verschillende manieren om nieuwe gegevens op te halen en deze te gebruiken om regelmatig een experiment bij te werken. Veel is afhankelijk van waar de brongegevens vandaan komen en de hulpprogramma's die u liever gebruikt voor het verplaatsen van gegevens. zie deze artikelen voor enkele ideeën.

Voor het automatiseren van de uitvoering van het experiment moet doorgaans een webservice worden gemaakt, die vervolgens kan worden geactiveerd door een taakplander, PowerShell of andere aangepaste code.

Waarom krijg ik een foutmelding toen ik probeerde invoergegevens van een bestaande blob te lezen?

Er zijn verschillende mogelijke problemen:

  • De blob gebruikt een niet-ondersteunde indeling
  • Het account zelf is gemaakt met behulp van een optie die nog niet wordt ondersteund door Machine Learning.

Niet-ondersteunde indeling: bij het lezen van Azure Blob Storage vereist Machine Learning dat de blob de blok-blob-indeling gebruikt, zodat u grote blobs efficiënt kunt uploaden. Als u bijvoorbeeld een CSV-bestand uploadt naar blobopslag, wordt het bestand opgeslagen als een blok-blob. Wanneer u echter een blobbestand programmatisch maakt, genereert u mogelijk een ander type blob, zoals het type AppendBlob, dat niet wordt ondersteund.

Als tijdelijke oplossing raden we u aan het blok-blobtype te gebruiken.

Belangrijk

Nadat de blob is gemaakt, kan het type niet worden gewijzigd.

Zie Blok-blobs , toevoegen-blobs en pagina-blobs voor meer informatie.

Niet-ondersteund accounttype: de import- en exportmodules kunnen alleen gegevens lezen en schrijven uit Azure-opslagaccounts die zijn gemaakt met het klassieke implementatiemodel. Met andere woorden, het nieuwe Azure Blob Storage accounttype dat toegangslagen voor 'hot' en 'cool' opslag biedt, wordt nog niet ondersteund. Over het algemeen mogen alle Azure-opslagaccounts die u hebt gemaakt voordat deze serviceoptie beschikbaar werd, niet worden beïnvloed.

Als u een nieuw account wilt maken voor gebruik met Machine Learning, selecteert u Klassiek als implementatiemodel of gebruikt u Resource Manager en bij Soort account selecteert u Algemeen gebruik in plaats van Blob Storage.

Hoe voorkom ik dat dezelfde gegevens onnodig opnieuw worden geladen?

Als uw brongegevens veranderen, kunt u de gegevensset vernieuwen en nieuwe gegevens toevoegen door Gegevens importeren opnieuw uit te voeren. Als u echter niet telkens wanneer u het experiment uit te voeren opnieuw wilt lezen uit de bron, selecteert u de optie In cache opgeslagen resultaten gebruiken op TRUE. Wanneer deze optie is ingesteld op TRUE, controleert de module of het experiment eerder is uitgevoerd met dezelfde bron en dezelfde invoeropties. Als er een eerdere run wordt gevonden, worden de gegevens in de cache gebruikt in plaats van de gegevens opnieuw te laden uit de bron.

Kan ik gegevens filteren terwijl deze uit de bron worden gelezen?

De module Gegevens importeren biedt geen ondersteuning voor filteren terwijl gegevens worden gelezen.

Nadat u de gegevens in Machine Learning Studio (klassiek) hebt geladen, kunt u de gegevens wijzigen met de volgende hulpprogramma's:

  • Gebruik een aangepast R-script om gegevens te filteren of te transformeren.

  • Gebruik de module Split Data (Gegevens splitsen) met een relatieve expressie of een reguliere expressie om de persoonsgegevens te isoleren en sla deze vervolgens op als een gegevensset.

Als u meer gegevens hebt geladen dan nodig is, kunt u de gegevensset overschrijven door een nieuwe gegevensset te lezen en op te geven dat deze wordt opgeslagen met dezelfde naam als de oudere, grotere gegevens.

Waarom voegt het importproces een extra rij toe aan het einde van mijn gegevensset wanneer er een aan het einde een nieuwe regel wordt gevonden?

Als de module Gegevens importeren een rij met gegevens tegenkomt die wordt gevolgd door een lege regel of een navolgend nieuw regelteken, wordt er aan het einde van de tabel een extra rij met ontbrekende waarden toegevoegd.

De reden voor het interpreteren van een aan het einde van een nieuwe regel als een nieuwe rij is dat Import Data niet het verschil kan bepalen tussen een werkelijke lege regel en een lege regel die wordt gemaakt door de gebruiker die op ENTER aan het einde van een bestand drukt.

Omdat sommige machine learning-algoritmen ontbrekende gegevens ondersteunen en deze regel dus als een case behandelen (die op zijn beurt van invloed kunnen zijn op de resultaten), moet u Clean Missing Data gebruiken om te controleren op ontbrekende waarden en deze indien nodig te verwijderen.

Voordat u op lege rijen controleert, wilt u mogelijk ook de uiteindelijke lege rij scheiden van andere rijen met gedeeltelijke ontbrekende waarden, die mogelijk de werkelijke ontbrekende waarden in de brongegevens vertegenwoordigen. Hiervoor kunt u de gegevensset delen met behulp van Gegevens splitsen. Selecteer de optie Hoofd-N-rijen selecteren om alle rijen behalve de laatste rij te lezen.

Wat gebeurt er als u gegevens importeert die zijn geladen uit verschillende geografische regio's?

Als het blob- of tabelopslagaccount zich in een andere regio dan het rekenpunt dat wordt gebruikt voor het machine learning experiment, kan de toegang tot gegevens langzamer zijn. Daarnaast worden er kosten in rekening gebracht voor het in- en uit te gaan van gegevens in het abonnement.

Waarom worden sommige tekens in mijn bronbestand niet correct weergegeven in de header?

Machine Learning biedt over het algemeen ondersteuning voor UTF-8-codering. Als uw bronbestand een ander type codering gebruikt, worden de tekens mogelijk niet correct geïmporteerd.

Als u problemen hebt met het correct laden van gegevens, gebruikt u de optie CSV met codering en geeft u parameters op voor aangepaste scheidingstekens, de codepagina, enzovoort.

Zijn er niet-verboden tekens of tekens die tijdens het importeren worden gewijzigd?

Als kenmerkgegevens aanhalingstekens of tekenreeksen met een escape-teken bevatten, worden ze verwerkt met behulp van de regels voor dergelijke tekens in Microsoft Excel. Alle andere tekens worden verwerkt met behulp van de volgende specificaties als richtlijn: RFC 4180.

De groottelimiet voor het rechtstreeks uploaden van lokale gegevenssets naar Machine Learning is 1,98 GB. Bij zeer grote bestanden kan het lang duren voordat de gegevensset aan uw experimentaccount is toegevoegd.

  • Schat 10 minuten of meer per GB aan gegevens.
  • Gebruik een opslagaccount in dezelfde regio als azure ML service om de prestaties te optimaliseren.

Voor het uploaden van grotere bestanden, tot 10 GB, zijn er verschillende benaderingen:

  • Gebruik een ingepakt bestand. U kunt gegevenssets uploaden naar Azure ML Studio (klassiek) in een ingepakte indeling en vervolgens de module Uitgepakte gegevenssets gebruiken om de gegevensset uit te pakken en op te slaan. Ingepakte gegevenssets kunnen ook worden uitgepakt met behulp van de module Execute R Script , maar de prestaties zijn mogelijk beperkt.

  • Gebruik een snel Azure-hulpprogramma zoals AzCopy. Faseer de gegevens naar Microsoft Azure Blob Storage met behulp van een hulpprogramma zoals AzCopy. Gebruik vervolgens de module Gegevens importeren om gegevens uit blobopslag te importeren in Studio (klassiek).

    De volgende code toont bijvoorbeeld de AzCopy-syntaxis voor het schrijven naar blob-opslag.

    cd "C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy"
    .\AzCopy.exe /Source:C:\LocalFolder /Dest:https://mystorage.blob.core.windows.net/mycontainer /DestKey:MyStorageAccountKey /Pattern:myfile.csv
    

Ik heb een CSV-bestand geïmporteerd met behulp van een opgegeven codering, maar de tekst wordt niet correct weergegeven wanneer ik de optie gebruik om te visualiseren. Hoe komt dat?

Voor geüploade gegevenssets Machine Learning in het algemeen alleen UTF-8 ondersteund. De module Gegevens importeren ondersteunt echter aanvullende coderingsindelingen. Wanneer u een bestand hebt geïmporteerd met behulp van een van deze indelingen, kan het zijn dat de tekens niet correct worden weergegeven. De oplossing is om de codering te converteren naar UTF-8 met behulp van een van deze methoden:

  • Sla de geïmporteerde gegevens op als een gegevensset. (Het gebruik van een opgeslagen gegevensset in plaats van de CSV-gegevens kan ook de prestaties verbeteren.)

  • Als u de gegevensset in de module Execute R Script gebruikt, kunt u de juiste codering afdwingen met behulp van een script, zoals:

    dataset <- maml.mapInputPort(1)
    Encoding(dataset$city) <- "UTF-8"
    maml.mapOutputPort("dataset")
    

    Vervolgens kunt u Visualize gebruiken in de uitvoer van de module Execute R Script en controleren of tekens correct worden weergegeven.

Welke opties heb ik voor het importeren van tekstbestanden? Het CSV-bestand is niet geschikt voor mijn gegevens.

Het verwerken en ops manieren van ongestructureerde tekst die netjes in kolommen past, is altijd een uitdaging. Als u echter kolommen met tekstgegevens wilt importeren, brengt de TSV-indeling vaak minder problemen met zich mee, hoewel u nog steeds van tevoren op overtollige tabtekens moet controleren.

U wordt aangeraden de sjabloon Tekstclassificatie in de Azure AI Gallery te bekijken voor een voorbeeld van tekstingestie en -verwerking in Machine Learning Studio (klassiek).

Aangepaste codering voor CSV-bestanden

Vroege versies van de module Gegevens importeren bieden geen ondersteuning voor een aantal geldige CSV-bestanden. Gegevens die worden geëxporteerd uit Excel soms tekens bevatten die voorkomen dat het bestand correct kan worden geparseerd.

Ter ondersteuning van een breder mogelijk bereik van scheidingstekens en tekenindelingen, ondersteunt Gegevens importeren nu het kiezen van het scheidingsteken en de coderingsindeling. Als u de optie CSV met codering gebruikt, is het resultaat een krachtigere en efficiëntere parsering van het CSV-bestand.

U kunt de volgende tekencodeeringen gebruiken:

Type Encoding
Unicode Unicode (UTF-8)

Unicode

Unicode (UTF-32)

Unicode (UTF-7)
CJYK Traditioneel Chinees (Big5)

Vereenvoudigd Chinees (GB2312)

Vereenvoudigd Chinees (Mac)

Vereenvoudigd Chinees (GB2312-80)

Vereenvoudigd Chinees (ISO-2022)

Vereenvoudigd Chinees (GB18030)

Japans (JIS)

Koreaans (ISO)

Koreaans (Mac)
Anders West-Europees (Windows)

West-Europese (ISO)

Hebreeuws (ISO-Visual)

US ASCII

Tip

Nadat het csv-importeren is voltooid, raden we u aan geïmporteerde bestanden op te slaan als een gegevensset om ervoor te zorgen dat de geïmporteerde gegevens de UTF-8-codering in uw experiment gebruiken.

Gegevenstypedeferentie in CSV- en TSV-indelingen

Wanneer de module Gegevens importeren gegevens laadt uit een CSV- of TSV-bestand in Azure Blob Storage, zoekt een type-guesser naar categorische of numerieke gegevens in het bronbestand en vertegenwoordigt het type gevonden in de metagegevens voor de nieuwe gegevensset.

U kunt de resultaten van het type guesser echter overschrijven door de kolomkenmerken in de module Edit Metadata te bewerken nadat de gegevens zijn geladen.

Moduleparameters

Algemene opties

Name Bereik Type Standaard Beschrijving
Gegevensbron Lijst Gegevensbron of sink Azure Blob Storage De gegevensbron kan HTTP, FTP, anonieme HTTPS of FTPS zijn, een bestand in Azure BLOB Storage, een Azure-tabel, een Azure SQL Database, een on-premises SQL Server-database, een Hive-tabel of een OData-eindpunt.
Verificatietype PublicOrSas/Account Tekenreeks Account Geef op of de gegevens zich in een openbare container die toegankelijk is via een SAS-URL, of in een privéopslagaccount zijn dat verificatie vereist voor toegang.
Resultaten in cache gebruiken TRUE/FALSE Booleaans FALSE Selecteren om te voorkomen dat gegevens tussen runs worden geladen

Openbaar of SAS: opties voor openbare opslag

Name Bereik Type Standaard Beschrijving
URI alle Tekenreeks geen HDFS-rest-eindpunt
Bestandsindeling ARFF, CSV of TSV Tekenreeks CSV Selecteer een van de ondersteunde indelingen
URI heeft koprij Booleaans TRUE/FALSE TRUE Waar als het bestand een koprij bevat; Indien onwaar, wordt de eerste rij met gegevens gebruikt als de kolomkoppen

Account - opties voor privéopslag

Name Bereik Type Standaard Beschrijving
Accountnaam alle Tekenreeks geen Typ de naam van het opslagaccount
Accountsleutel alle SecureString geen Plak de accountsleutel
Pad naar container, map of blob alle Tekenreeks N.v.t. Typ de naam van de container of map
Indeling van blobbestand ARFF, CSV of TSV Tekenreeks CSV Selecteer een van de ondersteunde indelingen
Bestand heeft koptekstrij alle Tekenreeks True Naam van het Microsoft Azure Storage-account

Uitvoerwaarden

Naam Type Description
Gegevensset met resultaten Gegevenstabel Gegevensset met geïmporteerde gegevens

Uitzonderingen

Uitzondering Description
Fout 0027 Er treedt een uitzondering op wanneer twee objecten dezelfde grootte moeten hebben, maar dat niet zijn.
Fout 0003 Een uitzondering treedt op als een of meer invoer null of leeg zijn.
Fout 0029 Er treedt een uitzondering op wanneer een ongeldige URI wordt doorgegeven.
Fout 0030 Er treedt een uitzondering op wanneer het niet mogelijk is om een bestand te downloaden.
Fout 0002 Er treedt een uitzondering op als een of meer parameters niet kunnen worden geparseerd of geconverteerd van het opgegeven type naar het type dat is vereist voor de doelmethode.
Fout 0009 Er treedt een uitzondering op als de naam van het Azure-opslagaccount of de containernaam onjuist is opgegeven.
Fout 0048 Er treedt een uitzondering op wanneer het niet mogelijk is om een bestand te openen.
Fout 0046 Er treedt een uitzondering op wanneer het niet mogelijk is om een map te maken op het opgegeven pad.
Fout 0049 Er treedt een uitzondering op wanneer het niet mogelijk is om een bestand te parseren.

Zie Foutcodes voor een lijst met fouten die specifiek zijn Machine Learning voor Studio-modules (klassiek).

Zie Foutcodes voor een lijst Machine Learning REST API API-uitzonderingen.

Zie ook

Gegevens importeren
Gegevens exporteren
Importeren vanuit een web-URL via HTTP
Importeren vanuit Hive-query
Importeren vanuit een Azure SQL Database
Importeren uit Azure Table
Importeren vanuit gegevensfeedproviders
Importeren vanuit on-premises SQL Server database