행 그룹에 대한 col의 첫 번째 값을 반환합니다. true로 설정된 경우 ignoreNulls 표시되는 첫 번째 null이 아닌 값을 반환합니다. 모든 값이 null이면 null이 반환됩니다.
문법
from pyspark.sql import functions as sf
sf.first_value(col, ignoreNulls=None)
매개 변수
| 매개 변수 | 유형 | Description |
|---|---|---|
col |
pyspark.sql.Column 또는 str |
작업할 대상 열입니다. |
ignoreNulls |
pyspark.sql.Column 또는 bool, 선택 사항 |
첫 번째 값이 null이면 null이 아닌 첫 번째 값을 찾습니다. |
Returns
pyspark.sql.Column: 행 그룹에 대한 일부 값 col 입니다.
예시
예제 1: null을 무시하지 않고 첫 번째 값 가져오기
from pyspark.sql import functions as sf
spark.createDataFrame(
[(None, 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["a", "b"]
).select(sf.first_value('a'), sf.first_value('b')).show()
+--------------+--------------+
|first_value(a)|first_value(b)|
+--------------+--------------+
| NULL| 1|
+--------------+--------------+
예제 2: null을 무시하는 첫 번째 값 가져오기
from pyspark.sql import functions as sf
spark.createDataFrame(
[(None, 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["a", "b"]
).select(sf.first_value('a', True), sf.first_value('b', True)).show()
+--------------+--------------+
|first_value(a)|first_value(b)|
+--------------+--------------+
| a| 1|
+--------------+--------------+