TabularDataset Klas

Vertegenwoordigt een tabellaire gegevensset die moet worden gebruikt in Azure Machine Learning.

Een TabularDataset definieert een reeks vertraagd geëvalueerde, onveranderbare bewerkingen om gegevens uit de gegevensbron in tabelvorm te laden. Gegevens worden pas vanuit de bron geladen als TabularDataset wordt gevraagd om gegevens te leveren.

TabularDataset wordt gemaakt met behulp van methoden zoals from_delimited_files uit de TabularDatasetFactory klasse.

Zie het artikel Gegevenssets toevoegen & registreren voor meer informatie. Zie https://aka.ms/tabulardataset-samplenotebookom aan de slag te gaan met een gegevensset in tabelvorm.

Initialiseer een TabularDataset-object.

Deze constructor mag niet rechtstreeks worden aangeroepen. De gegevensset is bedoeld om te worden gemaakt met behulp van TabularDatasetFactory klasse.

Overname
TabularDataset

Constructor

TabularDataset()

Opmerkingen

Een TabularDataset kan worden gemaakt op basis van CSV-, TSV-, Parquet-bestanden of SQL-query's met behulp van de from_* methoden van de TabularDatasetFactory klasse. U kunt subsetbewerkingen uitvoeren op een TabularDataset, zoals het splitsen, overslaan en filteren van records. Het resultaat van subseting is altijd een of meer nieuwe TabularDataset-objecten.

U kunt een TabularDataset ook converteren naar andere indelingen, zoals een pandas DataFrame. De werkelijke gegevens worden geladen wanneer TabularDataset wordt gevraagd om de gegevens in een ander opslagmechanisme te leveren (bijvoorbeeld een Pandas Dataframe of een CSV-bestand).

TabularDataset kan worden gebruikt als invoer van een experimentuitvoering. Het kan ook worden geregistreerd bij de werkruimte met een opgegeven naam en later met die naam worden opgehaald.

Methoden

download

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Download bestandsstromen die door de gegevensset zijn gedefinieerd naar het lokale pad.

drop_columns

Verwijder de opgegeven kolommen uit de gegevensset.

Als een tijdreekskolom wordt verwijderd, worden de bijbehorende mogelijkheden ook verwijderd voor de geretourneerde gegevensset.

filter

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Filter de gegevens en laat alleen de records over die overeenkomen met de opgegeven expressie.

get_profile

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Gegevensprofiel ophalen uit de meest recente profieluitvoering die is ingediend voor deze of dezelfde gegevensset in de werkruimte.

get_profile_runs

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Vorige profieluitvoeringen retourneren die zijn gekoppeld aan deze of dezelfde gegevensset in de werkruimte.

keep_columns

Behoud de opgegeven kolommen en verwijdert alle andere kolommen uit de gegevensset.

Als een tijdreekskolom wordt verwijderd, worden de bijbehorende mogelijkheden ook verwijderd voor de geretourneerde gegevensset.

mount

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Maak een contextbeheer voor het koppelen van bestandsstromen die door de gegevensset zijn gedefinieerd als lokale bestanden.

partition_by

Gepartitioneerde gegevens worden gekopieerd en uitgevoerd naar de bestemming die is opgegeven door het doel.

maak de gegevensset van het uitgevoerde gegevenspad met partitieindeling, registreer de gegevensset als de naam is opgegeven, retourneer de gegevensset voor het nieuwe gegevenspad met partities


   ds = Dataset.get_by_name('test') # indexed by country, state, partition_date

   # #1: call partition_by locally
   new_ds = ds.partition_by(name="repartitioned_ds", partition_keys=['country'],
               target=DataPath(datastore, "repartition"))
   partition_keys = newds.partition_keys # ['country']

   # new_ds can be passed to PRS as input dataset
random_split

Splits records in de gegevensset willekeurig in twee delen en ongeveer op basis van het opgegeven percentage.

De eerste gegevensset bevat ongeveer percentage het totale aantal records en de tweede gegevensset de resterende records.

skip

Sla records vanaf de bovenkant van de gegevensset over op basis van het opgegeven aantal.

submit_profile_run

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Dien een experimentele uitvoering in om het gegevensprofiel te berekenen.

Een gegevensprofiel kan erg handig zijn om de invoergegevens te begrijpen, afwijkingen en ontbrekende waarden te identificeren door nuttige informatie te verstrekken over de gegevens, zoals kolomtype, ontbrekende waarden, enzovoort.

take

Neem een voorbeeld van records boven aan de gegevensset op basis van het opgegeven aantal.

take_sample

Neem een willekeurige steekproef van records in de gegevensset, ongeveer op basis van de opgegeven waarschijnlijkheid.

time_after

Filter TabularDataset met tijdstempelkolommen na een opgegeven begintijd.

time_before

Filter TabularDataset met tijdstempelkolommen vóór een opgegeven eindtijd.

time_between

Filter TabularDataset tussen een opgegeven begin- en eindtijd.

time_recent

Filter TabularDataset om alleen de opgegeven duur (hoeveelheid) van recente gegevens te bevatten.

to_csv_files

Converteer de huidige gegevensset naar een FileDataset met CSV-bestanden.

De resulterende gegevensset bevat een of meer CSV-bestanden die elk overeenkomen met een partitie met gegevens uit de huidige gegevensset. Deze bestanden worden pas gerealiseerd als ze zijn gedownload of gelezen.

to_dask_dataframe

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Retourneert een Dask DataFrame dat de gegevens in de gegevensset lui kan lezen.

to_pandas_dataframe

Laad alle records uit de gegevensset in een pandas DataFrame.

to_parquet_files

Converteer de huidige gegevensset naar een FileDataset met Parquet-bestanden.

De resulterende gegevensset bevat een of meer Parquet-bestanden die elk overeenkomen met een partitie met gegevens uit de huidige gegevensset. Deze bestanden worden pas gerealiseerd als ze zijn gedownload of gelezen.

to_spark_dataframe

Laad alle records uit de gegevensset in een Spark DataFrame.

with_timestamp_columns

Tijdstempelkolommen definiëren voor de gegevensset.

download

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Download bestandsstromen die door de gegevensset zijn gedefinieerd naar het lokale pad.

download(stream_column, target_path=None, overwrite=False, ignore_not_found=True)

Parameters

stream_column
str
Vereist

De stroomkolom die moet worden gedownload.

target_path
str
Vereist

De lokale map waar u de bestanden naar wilt downloaden. Indien Geen, worden de gegevens gedownload naar een tijdelijke map.

overwrite
bool
Vereist

Geeft aan of bestaande bestanden moeten worden overschreven. De standaardwaarde is False. Bestaande bestanden worden overschreven als overschrijven is ingesteld op Waar; anders wordt er een uitzondering gegenereerd.

ignore_not_found
bool
Vereist

Hiermee wordt aangegeven of het downloaden mislukt als sommige bestanden die door de gegevensset zijn verwezen, niet zijn gevonden. De standaardwaarde is True. Downloaden mislukt als het downloaden van bestanden om welke reden dan ook mislukt als ignore_not_found is ingesteld op Onwaar; anders wordt een waring geregistreerd voor niet-gevonden fouten en kan de dowload worden uitgevoerd zolang er geen andere fouttypen worden aangetroffen.

Retouren

Retourneert een matrix met bestandspaden voor elk gedownload bestand.

Retourtype

drop_columns

Verwijder de opgegeven kolommen uit de gegevensset.

Als een tijdreekskolom wordt verwijderd, worden de bijbehorende mogelijkheden ook verwijderd voor de geretourneerde gegevensset.

drop_columns(columns)

Parameters

columns
Union[str, list[str]]
Vereist

De naam of een lijst met namen voor de kolommen die moeten worden verwijderd.

Retouren

Retourneert een nieuw TabularDataset-object met de opgegeven kolommen verwijderd.

Retourtype

filter

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Filter de gegevens en laat alleen de records over die overeenkomen met de opgegeven expressie.

filter(expression)

Parameters

expression
any
Vereist

De expressie die moet worden geëvalueerd.

Retouren

De gewijzigde gegevensset (niet geregistreerd).

Retourtype

Opmerkingen

Expressies worden gestart door de gegevensset te indexeren met de naam van een kolom. Ze ondersteunen verschillende functies en operators en kunnen worden gecombineerd met behulp van logische operators. De resulterende expressie wordt lazily geëvalueerd voor elke record wanneer een gegevens pull plaatsvindt en niet waar deze is gedefinieerd.


   dataset['myColumn'] > dataset['columnToCompareAgainst']
   dataset['myColumn'].starts_with('prefix')

get_profile

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Gegevensprofiel ophalen uit de meest recente profieluitvoering die is ingediend voor deze of dezelfde gegevensset in de werkruimte.

get_profile(workspace=None)

Parameters

workspace
Workspace
Vereist

De werkruimte waarin het profiel wordt uitgevoerd, is verzonden. Standaard ingesteld op de werkruimte van deze gegevensset. Vereist als de gegevensset niet is gekoppeld aan een werkruimte. Zie https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace voor meer informatie over werkruimten.

Retouren

Profielresultaat van de meest recente profieluitvoering van het type DatasetProfile.

Retourtype

get_profile_runs

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Vorige profieluitvoeringen retourneren die zijn gekoppeld aan deze of dezelfde gegevensset in de werkruimte.

get_profile_runs(workspace=None)

Parameters

workspace
Workspace
Vereist

De werkruimte waarin het profiel wordt uitgevoerd, is verzonden. Standaard ingesteld op de werkruimte van deze gegevensset. Vereist als de gegevensset niet is gekoppeld aan een werkruimte. Zie https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace voor meer informatie over werkruimten.

Retouren

iterator-object van het type azureml.core.Run.

Retourtype

keep_columns

Behoud de opgegeven kolommen en verwijdert alle andere kolommen uit de gegevensset.

Als een tijdreekskolom wordt verwijderd, worden de bijbehorende mogelijkheden ook verwijderd voor de geretourneerde gegevensset.

keep_columns(columns, validate=False)

Parameters

columns
Union[str, list[str]]
Vereist

De naam of een lijst met namen voor de kolommen die moeten worden bewaard.

validate
bool
Vereist

Hiermee wordt aangegeven of moet worden gevalideerd of gegevens uit de geretourneerde gegevensset kunnen worden geladen. De standaardwaarde is False. Voor validatie is vereist dat de gegevensbron toegankelijk is via de huidige berekening.

Retouren

Retourneert een nieuw TabularDataset-object met alleen de opgegeven kolommen.

Retourtype

mount

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Maak een contextbeheer voor het koppelen van bestandsstromen die door de gegevensset zijn gedefinieerd als lokale bestanden.

mount(stream_column, mount_point=None)

Parameters

stream_column
str
Vereist

De stroomkolom die moet worden gekoppeld.

mount_point
str
Vereist

De lokale map waaraan u de bestanden wilt koppelen. Indien Geen, worden de gegevens gekoppeld aan een tijdelijke map, die u kunt vinden door de MountContext.mount_point-instantiemethode aan te roepen.

Retouren

Retourneert een contextbeheer voor het beheren van de levenscyclus van de koppeling.

Retourtype

<xref:azureml.dataprep.fuse.daemon.MountContext>

partition_by

Gepartitioneerde gegevens worden gekopieerd en uitgevoerd naar de bestemming die is opgegeven door het doel.

maak de gegevensset van het uitgevoerde gegevenspad met partitieindeling, registreer de gegevensset als de naam is opgegeven, retourneer de gegevensset voor het nieuwe gegevenspad met partities


   ds = Dataset.get_by_name('test') # indexed by country, state, partition_date

   # #1: call partition_by locally
   new_ds = ds.partition_by(name="repartitioned_ds", partition_keys=['country'],
               target=DataPath(datastore, "repartition"))
   partition_keys = newds.partition_keys # ['country']

   # new_ds can be passed to PRS as input dataset
partition_by(partition_keys, target, name=None, show_progress=True, partition_as_file_dataset=False)

Parameters

partition_keys
list[str]
Vereist

Vereist, partitiesleutels

target
DataPath, Datastore of tuple(Datastore, str) object
Vereist

Vereist: het gegevensarchiefpad waarnaar de dataframe parquet-gegevens worden geüpload. Er wordt een GUID-map gegenereerd onder het doelpad om conflict te voorkomen.

name
str
Vereist

Optioneel, de registratienaam.

show_progress
bool
Vereist

Optioneel, geeft aan of de voortgang van het uploaden in de console moet worden weergegeven. De standaardinstelling is True.

partition_as_file_dataset
Vereist

Optioneel, geeft aan of een filedataset wordt geretourneerd of niet. De standaardinstelling is False.

Retouren

De opgeslagen of geregistreerde gegevensset.

Retourtype

random_split

Splits records in de gegevensset willekeurig in twee delen en ongeveer op basis van het opgegeven percentage.

De eerste gegevensset bevat ongeveer percentage het totale aantal records en de tweede gegevensset de resterende records.

random_split(percentage, seed=None)

Parameters

percentage
float
Vereist

Het percentage waarop de gegevensset moet worden gesplitst bij benadering. Dit moet een getal tussen 0,0 en 1,0 zijn.

seed
int
Vereist

Optioneel seed voor gebruik voor de willekeurige generator.

Retouren

Retourneert een tuple van nieuwe TabularDataset-objecten die de twee gegevenssets na de splitsing vertegenwoordigen.

Retourtype

skip

Sla records vanaf de bovenkant van de gegevensset over op basis van het opgegeven aantal.

skip(count)

Parameters

count
int
Vereist

Het aantal records dat moet worden overgeslagen.

Retouren

Retourneert een nieuw TabularDataset-object dat een gegevensset vertegenwoordigt met records die zijn overgeslagen.

Retourtype

submit_profile_run

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Dien een experimentele uitvoering in om het gegevensprofiel te berekenen.

Een gegevensprofiel kan erg handig zijn om de invoergegevens te begrijpen, afwijkingen en ontbrekende waarden te identificeren door nuttige informatie te verstrekken over de gegevens, zoals kolomtype, ontbrekende waarden, enzovoort.

submit_profile_run(compute_target, experiment, cache_datastore_name=None)

Parameters

compute_target
Union[str, ComputeTarget]
Vereist

Het rekendoel waarop het profielberekeningsexperiment moet worden uitgevoerd. Geef 'lokaal' op om lokale rekenkracht te gebruiken. Zie https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.computetarget voor meer informatie over rekendoelen.

experiment
Experiment
Vereist

Het experimentobject. Zie https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.experiment.experiment voor meer informatie over experimenten.

cache_datastore_name
str
Vereist

de naam van het gegevensarchief voor het opslaan van de profielcache, indien Geen, wordt het standaardgegevensarchief gebruikt

Retouren

Een object van het type DatasetProfileRun-klasse.

Retourtype

take

Neem een voorbeeld van records boven aan de gegevensset op basis van het opgegeven aantal.

take(count)

Parameters

count
int
Vereist

Het aantal records dat moet worden genomen.

Retouren

Retourneert een nieuw TabularDataset-object dat de voorbeeldgegevensset vertegenwoordigt.

Retourtype

take_sample

Neem een willekeurige steekproef van records in de gegevensset, ongeveer op basis van de opgegeven waarschijnlijkheid.

take_sample(probability, seed=None)

Parameters

probability
float
Vereist

De kans dat een record wordt opgenomen in de steekproef.

seed
int
Vereist

Optioneel seed voor gebruik voor de willekeurige generator.

Retouren

Retourneert een nieuw TabularDataset-object dat de voorbeeldgegevensset vertegenwoordigt.

Retourtype

time_after

Filter TabularDataset met tijdstempelkolommen na een opgegeven begintijd.

time_after(start_time, include_boundary=True, validate=True)

Parameters

start_time
datetime
Vereist

De ondergrens voor het filteren van gegevens.

include_boundary
bool
Vereist

Geef aan of de rij die is gekoppeld aan de grenstijd (start_time) moet worden opgenomen.

validate
bool
Vereist

Geeft aan of moet worden gevalideerd of opgegeven kolommen bestaan in de gegevensset. De standaardwaarde is True. Validatie vereist dat de gegevensbron toegankelijk is vanuit de huidige berekening.

Retouren

Een TabularDataset met de nieuwe gefilterde gegevensset.

Retourtype

time_before

Filter TabularDataset met tijdstempelkolommen vóór een opgegeven eindtijd.

time_before(end_time, include_boundary=True, validate=True)

Parameters

end_time
datetime
Vereist

Bovengrens voor het filteren van gegevens.

include_boundary
bool
Vereist

Geef aan of de rij die is gekoppeld aan de grenstijd (end_time) moet worden opgenomen.

validate
bool
Vereist

Geeft aan of moet worden gevalideerd of opgegeven kolommen bestaan in de gegevensset. De standaardwaarde is True. Validatie vereist dat de gegevensbron toegankelijk is vanuit de huidige berekening.

Retouren

Een TabularDataset met de nieuwe gefilterde gegevensset.

Retourtype

time_between

Filter TabularDataset tussen een opgegeven begin- en eindtijd.

time_between(start_time, end_time, include_boundary=True, validate=True)

Parameters

start_time
datetime
Vereist

De ondergrens voor het filteren van gegevens.

end_time
datetime
Vereist

De bovengrens voor het filteren van gegevens.

include_boundary
bool
Vereist

Geef aan of de rij die is gekoppeld aan de grenstijd (start_end en end_time) moet worden opgenomen.

validate
bool
Vereist

Geeft aan of moet worden gevalideerd of opgegeven kolommen bestaan in de gegevensset. De standaardwaarde is True. Validatie vereist dat de gegevensbron toegankelijk is vanuit de huidige berekening.

Retouren

Een TabularDataset met de nieuwe gefilterde gegevensset.

Retourtype

time_recent

Filter TabularDataset om alleen de opgegeven duur (hoeveelheid) van recente gegevens te bevatten.

time_recent(time_delta, include_boundary=True, validate=True)

Parameters

time_delta
timedelta
Vereist

De duur (hoeveelheid) van recente gegevens die moeten worden opgehaald.

include_boundary
bool
Vereist

Geef aan of de rij die is gekoppeld aan de grenstijd (time_delta) moet worden opgenomen.

validate
bool
Vereist

Geeft aan of moet worden gevalideerd of opgegeven kolommen bestaan in de gegevensset. De standaardwaarde is True. Validatie vereist dat de gegevensbron toegankelijk is vanuit de huidige berekening.

Retouren

Een TabularDataset met de nieuwe gefilterde gegevensset.

Retourtype

to_csv_files

Converteer de huidige gegevensset naar een FileDataset met CSV-bestanden.

De resulterende gegevensset bevat een of meer CSV-bestanden die elk overeenkomen met een partitie met gegevens uit de huidige gegevensset. Deze bestanden worden pas gerealiseerd als ze zijn gedownload of gelezen.

to_csv_files(separator=',')

Parameters

separator
str
Vereist

Het scheidingsteken dat moet worden gebruikt om waarden in het resulterende bestand te scheiden.

Retouren

Retourneert een nieuw FileDataset-object met een set CSV-bestanden met de gegevens in deze gegevensset.

Retourtype

to_dask_dataframe

Notitie

Dit is een experimentele methode en kan op elk gewenst moment worden gewijzigd. Zie https://aka.ms/azuremlexperimental voor meer informatie.

Retourneert een Dask DataFrame dat de gegevens in de gegevensset lui kan lezen.

to_dask_dataframe(sample_size=10000, dtypes=None, on_error='null', out_of_range_datetime='null')

Parameters

sample_size
Vereist

Het aantal records dat moet worden gelezen om het schema en de typen te bepalen.

dtypes
Vereist

Een optioneel dict waarin de verwachte kolommen en hun dtypes worden opgegeven. sample_size wordt genegeerd als dit is opgegeven.

on_error
Vereist

Foutwaarden in de gegevensset afhandelen, zoals de waarden die worden geproduceerd door een fout tijdens het parseren van waarden. Geldige waarden zijn 'null' waardoor ze worden vervangen door null; en 'mislukt', wat resulteert in een uitzondering.

out_of_range_datetime
Vereist

Het afhandelen van datum-tijdwaarden die buiten het bereik liggen dat wordt ondersteund door Pandas. Geldige waarden zijn 'null' waardoor ze worden vervangen door null; en 'mislukt', wat resulteert in een uitzondering.

Retouren

dask.dataframe.core.DataFrame

to_pandas_dataframe

Laad alle records uit de gegevensset in een pandas DataFrame.

to_pandas_dataframe(on_error='null', out_of_range_datetime='null')

Parameters

on_error
Vereist

Foutwaarden in de gegevensset afhandelen, zoals de waarden die worden geproduceerd door een fout tijdens het parseren van waarden. Geldige waarden zijn 'null' waardoor ze worden vervangen door null; en 'mislukt', wat resulteert in een uitzondering.

out_of_range_datetime
Vereist

Het afhandelen van datum-tijdwaarden die buiten het bereik liggen dat wordt ondersteund door Pandas. Geldige waarden zijn 'null' waardoor ze worden vervangen door null; en 'mislukt', wat resulteert in een uitzondering.

Retouren

Retourneert een pandas DataFrame.

Retourtype

to_parquet_files

Converteer de huidige gegevensset naar een FileDataset met Parquet-bestanden.

De resulterende gegevensset bevat een of meer Parquet-bestanden die elk overeenkomen met een partitie met gegevens uit de huidige gegevensset. Deze bestanden worden pas gerealiseerd als ze zijn gedownload of gelezen.

to_parquet_files()

Retouren

Retourneert een nieuw FileDataset-object met een set Parquet-bestanden die de gegevens in deze gegevensset bevatten.

Retourtype

to_spark_dataframe

Laad alle records uit de gegevensset in een Spark DataFrame.

to_spark_dataframe()

Retouren

Retourneert een Spark DataFrame.

Retourtype

with_timestamp_columns

Tijdstempelkolommen definiëren voor de gegevensset.

with_timestamp_columns(timestamp=None, partition_timestamp=None, validate=False, **kwargs)

Parameters

timestamp
str
Vereist

De naam van de kolom als tijdstempel (voorheen fine_grain_timestamp genoemd) (optioneel). De standaardwaarde is Geen(wissen).

partition_timestamp
str
Vereist

De naam van de kolom partition_timestamp (wordt ook wel de tijdstempel voor grofkorrels genoemd) (optioneel). De standaardwaarde is Geen(wissen).

validate
bool
Vereist

Geeft aan of moet worden gevalideerd of opgegeven kolommen bestaan in de gegevensset. De standaardwaarde is False. Validatie vereist dat de gegevensbron toegankelijk is vanuit de huidige berekening.

Retouren

Retourneert een nieuwe TabularDataset met gedefinieerde tijdstempelkolommen.

Retourtype

Opmerkingen

De methode definieert kolommen die moeten worden gebruikt als tijdstempels. Tijdstempelkolommen in een gegevensset maken het mogelijk om de gegevens als tijdreeksgegevens te behandelen en extra mogelijkheden in te schakelen. Wanneer een gegevensset zowel als timestamp (used to be referred as fine_grain_timestamp)partition_timestamp (used to be referred as coarse grain timestamp) opgegeven heeft, moeten de twee kolommen dezelfde tijdlijn vertegenwoordigen.

Kenmerken

timestamp_columns

Retourneer de tijdstempelkolommen.

Retouren

De kolomnamen voor tijdstempel (voorheen fine_grain_timestamp genoemd) en partition_timestamp (voorheen grofkorreltijdstempel genoemd) die voor de gegevensset zijn gedefinieerd.

Retourtype

(str, str)