回傳一個新的 DataFrame,該 DataFrame 只包含該 DataFrame 與另一個 DataFrame 的列。 請注意,所有重複的部分都會被移除。 為了保留重複,請使用 intersectAll。
語法
intersect(other: "DataFrame")
參數
| 參數 | 類型 | 說明 |
|---|---|---|
other |
資料框架 | 另一個需要合併的資料框架。 |
退貨
DataFrame:合併資料框架。
Notes
這相當於 INTERSECT SQL 中的做法。
Examples
df1 = spark.createDataFrame([("a", 1), ("a", 1), ("b", 3), ("c", 4)], ["C1", "C2"])
df2 = spark.createDataFrame([("a", 1), ("a", 1), ("b", 3)], ["C1", "C2"])
result_df = df1.intersect(df2).sort("C1", "C2")
result_df.show()
# +---+---+
# | C1| C2|
# +---+---+
# | a| 1|
# | b| 3|
# +---+---+
df1 = spark.createDataFrame([(1, "A"), (2, "B")], ["id", "value"])
df2 = spark.createDataFrame([(2, "B"), (3, "C")], ["id", "value"])
result_df = df1.intersect(df2).sort("id", "value")
result_df.show()
# +---+-----+
# | id|value|
# +---+-----+
# | 2| B|
# +---+-----+