Delen via


make_interval

Interval maken van jaren, maanden, weken, dagen, uren, mins en sec.

Voor de overeenkomstige Databricks SQL-functie, zie de make_interval functie.

Syntaxis

from pyspark.databricks.sql import functions as dbf

dbf.make_interval(years=<years>, months=<months>, weeks=<weeks>, days=<days>, hours=<hours>, mins=<mins>, secs=<secs>)

Parameterwaarden

Kenmerk Typologie Description
years pyspark.sql.Column of str, optional Het aantal jaren, positief of negatief.
months pyspark.sql.Column of str, optional Het aantal maanden, positief of negatief.
weeks pyspark.sql.Column of str, optional Het aantal weken, positief of negatief.
days pyspark.sql.Column of str, optional Het aantal dagen, positief of negatief.
hours pyspark.sql.Column of str, optional Het aantal uren, positief of negatief.
mins pyspark.sql.Column of str, optional Het aantal minuten, positief of negatief.
secs pyspark.sql.Column of str, optional Het aantal seconden met het breukdeel in microsecondenprecisie.

Retouren

pyspark.sql.Column: Een nieuwe kolom die een interval bevat.

Voorbeelden

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour, df.min, df.sec)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour, df.min)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month, 'week', df.day)).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month, 'week')).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month)).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year)).show(truncate=False)
spark.range(1).select(dbf.make_interval()).show(truncate=False)