次の方法で共有


st_scale

Important

この機能は パブリック プレビュー段階です

指定した係数を使用して、入力ジオメトリを X、Y、Z (省略可能) 方向にスケーリングします。

対応する Databricks SQL 関数については、 st_scale 関数を参照してください。

構文

from pyspark.databricks.sql import functions as dbf

dbf.st_scale(col1=<col1>, col2=<col2>, col3=<col3>, col4=<col4>)

パラメーター

パラメーター タイプ Description
col1 pyspark.sql.Column または str Geometry の値。
col2 pyspark.sql.Column またはフロート X スケール ファクターを表す DOUBLE の値。
col3 pyspark.sql.Column またはフロート Y スケールファクターを表すDOUBLEの値。
col4 pyspark.sql.Column または float、省略可能 Z 倍率を表す DOUBLE の値(省略可能)。 既定値の は 1 です。

例示

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('MULTIPOINT ZM (1 2 3 -4,5 6 7 -8,EMPTY)',)], ['wkt'])
df.select(dbf.st_asewkt(dbf.st_scale(dbf.st_geomfromtext('wkt', 4326), 10.0, 20.0)).alias('result')).collect()
[Row(result='SRID=4326;MULTIPOINT ZM ((10 40 3 -4),(50 120 7 -8),EMPTY)')]
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('MULTIPOINT ZM (1 2 3 -4,5 6 7 -8,EMPTY)',)], ['wkt'])
df.select(dbf.st_asewkt(dbf.st_scale(dbf.st_geomfromtext('wkt', 4326), 10.0, 20.0, 3.0)).alias('result')).collect()
[Row(result='SRID=4326;MULTIPOINT ZM ((10 40 9 -4),(50 120 21 -8),EMPTY)')]