CSV 형식의 DataFrame 콘텐츠를 지정된 경로에 저장합니다.
문법
csv(path, mode=None, compression=None, sep=None, quote=None, escape=None,
header=None, nullValue=None, escapeQuotes=None, quoteAll=None,
dateFormat=None, timestampFormat=None, ignoreLeadingWhiteSpace=None,
ignoreTrailingWhiteSpace=None, charToEscapeQuoteEscaping=None,
encoding=None, emptyValue=None, lineSep=None)
매개 변수
| 매개 변수 | 유형 | 설명 |
|---|---|---|
path |
str | Hadoop 지원 파일 시스템의 경로입니다. |
mode |
str, 선택 사항 | 데이터가 이미 있는 경우의 동작입니다. 허용되는 값은 , 'append', 'overwrite'또는 'ignore''error' (기본값)입니다'errorifexists'. |
Returns
없음
예제
DataFrame을 CSV 파일에 쓰고 다시 읽습니다.
import tempfile
with tempfile.TemporaryDirectory(prefix="csv") as d:
df = spark.createDataFrame([{"age": 100, "name": "Alice"}])
df.write.csv(d, mode="overwrite")
spark.read.schema(df.schema).format("csv").option(
"nullValue", "Alice").load(d).show()
# +---+----+
# |age|name|
# +---+----+
# |100|NULL|
# +---+----+