Aracılığıyla paylaş


string_agg_distinct

Toplama işlevi: Sınırlayıcı ile ayrılmış, null olmayan farklı giriş değerlerinin birleştirmesini döndürür. diğer adı.listagg_distinct

Sözdizimi

import pyspark.sql.functions as sf

sf.string_agg_distinct(col=<col>)

# With delimiter
sf.string_agg_distinct(col=<col>, delimiter=<delimiter>)

Parametreler

Parametre Türü Description
col pyspark.sql.Column veya str Hesap için hedef sütun.
delimiter pyspark.sql.Column, str veya bytes Optional. Değerleri ayırmak için sınırlayıcı. Varsayılan değer Yok değeridir.

İade

pyspark.sql.Column: hesaplanan sonuçlar için sütun.

Örnekler

Örnek 1: string_agg_distinct işlevini kullanma.

import pyspark.sql.functions as sf
df = spark.createDataFrame([('a',), ('b',), (None,), ('c',), ('b',)], ['strings'])
df.select(sf.string_agg_distinct('strings')).show()
+----------------------------------+
|string_agg(DISTINCT strings, NULL)|
+----------------------------------+
|                               abc|
+----------------------------------+

Örnek 2: sınırlayıcı ile string_agg_distinct işlevini kullanma.

import pyspark.sql.functions as sf
df = spark.createDataFrame([('a',), ('b',), (None,), ('c',), ('b',)], ['strings'])
df.select(sf.string_agg_distinct('strings', ', ')).show()
+--------------------------------+
|string_agg(DISTINCT strings, , )|
+--------------------------------+
|                         a, b, c|
+--------------------------------+

Örnek 3: İkili sütun ve sınırlayıcı ile string_agg_distinct işlevini kullanma.

import pyspark.sql.functions as sf
df = spark.createDataFrame([(b'\x01',), (b'\x02',), (None,), (b'\x03',), (b'\x02',)],
                           ['bytes'])
df.select(sf.string_agg_distinct('bytes', b'\x42')).show()
+---------------------------------+
|string_agg(DISTINCT bytes, X'42')|
+---------------------------------+
|                 [01 42 02 42 03]|
+---------------------------------+

Örnek 4: Tüm None değerlerine sahip bir sütunda string_agg_distinct işlevi kullanma.

import pyspark.sql.functions as sf
from pyspark.sql.types import StructType, StructField, StringType
schema = StructType([StructField("strings", StringType(), True)])
df = spark.createDataFrame([(None,), (None,), (None,), (None,)], schema=schema)
df.select(sf.string_agg_distinct('strings')).show()
+----------------------------------+
|string_agg(DISTINCT strings, NULL)|
+----------------------------------+
|                              NULL|
+----------------------------------+