文字列として表される H3 セル ID の配列を返します。これは、入力線形または等角の地理を最小にカバーする、指定した解像度の六角形または五角形に対応します。 この式は、geography が線形 (linestring または multilinestring)、areal (polygon または multipolygon) でない場合、または入力の解析時にエラーが見つかった場合に、 None を返します。 入力解決が無効な場合、式はエラーを返します。 許容される入力表現は、WKT、GeoJSON、WKB です。 最初の 2 つのケースでは、入力は文字列型であることが想定されますが、最後のケースでは、入力は BINARY 型であることが予想されます。
対応する Databricks SQL 関数については、 h3_try_coverash3string 関数を参照してください。
構文
from pyspark.databricks.sql import functions as dbf
dbf.h3_try_coverash3string(col1=<col1>, col2=<col2>)
パラメーター
| パラメーター | タイプ | Description |
|---|---|---|
col1 |
pyspark.sql.Column または str |
WKT 形式または GeoJSON 形式の WGS84 座標参照システムの線形または等値地理を表す文字列、または WKB 形式の WGS84 座標参照システムの線形または等値地理を表す BINARY。 |
col2 |
pyspark.sql.Column、 str、または int |
地理をカバーする H3 セル ID の解像度。 |
例示
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_try_coverash3string('wkt', 'res').alias('result')).collect()
[Row(result=['8126fffffffffff', '81283ffffffffff', '8129bffffffffff', '812a3ffffffffff', '812abffffffffff', '8148fffffffffff', '81263ffffffffff', '81267ffffffffff', '8126bffffffffff'])]
df_invalid = spark.createDataFrame([('invalid input', 1),], ['wkt', 'res'])
df_invalid.select(dbf.h3_try_coverash3string('wkt', 'res').alias('result')).collect()
[Row(result=None)]