구분 기호를 사용하여 입력 배열 열의 요소를 연결하여 문자열 열을 반환합니다. 배열 내의 Null 값은 null_replacement 인수를 통해 지정된 문자열로 바꿀 수 있습니다. null_replacement 설정되지 않으면 null 값이 무시됩니다.
문법
from pyspark.sql import functions as sf
sf.array_join(col, delimiter, null_replacement=None)
매개 변수
| 매개 변수 | 유형 | Description |
|---|---|---|
col |
pyspark.sql.Column 또는 str |
조인할 배열이 포함된 입력 열입니다. |
delimiter |
스트링 | 배열 요소를 조인할 때 구분 기호로 사용할 문자열입니다. |
null_replacement |
str, 선택 사항 | 배열 내에서 null 값을 바꿀 문자열입니다. 설정하지 않으면 null 값이 무시됩니다. |
Returns
pyspark.sql.Column: 각 값이 입력 열에서 해당 배열을 조인한 결과인 문자열 형식의 새 열입니다.
예시
예제 1: array_join 함수의 기본 사용.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), (["a", "b"],)], ['data'])
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| a,b,c|
| a,b|
+-------------------+
예제 2: null_replacement 인수를 사용하여 array_join 함수를 사용합니다.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_join(df.data, ",", "NULL")).show()
+-------------------------+
|array_join(data, ,, NULL)|
+-------------------------+
| a,NULL,c|
+-------------------------+
예제 3: null_replacement 인수 없이 array_join 함수를 사용합니다.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| a,c|
+-------------------+
예제 4: null인 배열을 사용하여 array_join 함수를 사용합니다.
from pyspark.sql import functions as sf
from pyspark.sql.types import StructType, StructField, ArrayType, StringType
schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([(None,)], schema)
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| NULL|
+-------------------+
예제 5: null 값만 포함하는 배열이 있는 array_join 함수를 사용합니다.
from pyspark.sql import functions as sf
from pyspark.sql.types import StructType, StructField, ArrayType, StringType
schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([([None, None],)], schema)
df.select(sf.array_join(df.data, ",", "NULL")).show()
+-------------------------+
|array_join(data, ,, NULL)|
+-------------------------+
| NULL,NULL|
+-------------------------+