Not
Åtkomst till denna sida kräver auktorisation. Du kan prova att logga in eller byta katalog.
Åtkomst till denna sida kräver auktorisation. Du kan prova att byta katalog.
Returnerar en ny matriskolumn genom att segmentera indatamatriskolumnen från ett startindex till en viss längd. Indexen börjar vid 1 och kan vara negativa för index från slutet av matrisen. Längden anger antalet element i den resulterande matrisen.
Syntax
from pyspark.sql import functions as sf
sf.slice(x, start, length)
Parameterar
| Parameter | Typ | Description |
|---|---|---|
x |
pyspark.sql.Column eller str |
Indatamatriskolumn eller kolumnnamn som ska segmenteras. |
start |
pyspark.sql.Column, str eller int |
Startindexet för segmentåtgärden. Om det är negativt startar indexet från slutet av matrisen. |
length |
pyspark.sql.Column, str eller int |
Sektorns längd, som representerar antalet element i den resulterande matrisen. |
Retur
pyspark.sql.Column: Ett nytt kolumnobjekt av matristyp, där varje värde är en sektor i motsvarande lista från indatakolumnen.
Examples
Exempel 1: Grundläggande användning av sektorfunktionen.
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],), ([4, 5],)], ['x'])
df.select(sf.slice(df.x, 2, 2)).show()
+--------------+
|slice(x, 2, 2)|
+--------------+
| [2, 3]|
| [5]|
+--------------+
Exempel 2: Segmentering med negativt startindex.
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],), ([4, 5],)], ['x'])
df.select(sf.slice(df.x, -1, 1)).show()
+---------------+
|slice(x, -1, 1)|
+---------------+
| [3]|
| [5]|
+---------------+
Exempel 3: Sektorfunktion med kolumnindata för start och längd.
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3], 2, 2), ([4, 5], 1, 3)], ['x', 'start', 'length'])
df.select(sf.slice(df.x, df.start, df.length)).show()
+-----------------------+
|slice(x, start, length)|
+-----------------------+
| [2, 3]|
| [4, 5]|
+-----------------------+