값 <expression>은 형식 <sourceType>에서 형식 <targetType>로 캐스팅할 수 없습니다. 잘못된 형식이기 때문입니다.
구문에 따라 값을 수정하거나 대상 형식을 변경합니다.
try_cast 사용하여 잘못된 형식의 입력을 허용하고 대신 NULL을 반환합니다.
필요한 경우 이 오류를 무시하려면 <ansiConfig> "false"로 설정합니다.
매개 변수
-
expression:
targettype로 캐스트해야 할 표현입니다. -
sourceType:
expression의 데이터 유형입니다. - targetType: 캐스트 작업의 대상 형식입니다.
- ansiConfig: ANSI 모드를 변경하는 구성 설정입니다.
설명
expression을(를) targetType으로 캐스팅할 수 없는 이유는 다음 중 하나입니다.
-
expression형식의 도메인에 비해 너무 큽합니다. 예를 들어, 숫자1000는 도메인TINYINT으로 캐스팅할 수 없습니다. 해당 도메인은-128부터+127까지의 범위만을 가집니다. -
expression형식의 일부가 아닌 문자를 포함합니다. 예를 들어a숫자 형식으로 캐스팅할 수 없습니다. -
expression는 캐스트 작업에서 구문을 분석할 수 없도록 형식이 지정되었습니다. 예를 들어1.0및1e1정수 숫자 형식으로 캐스팅할 수 없습니다.
캐스트가 명시적으로 지정되지 않았을 수도 있지만 Azure Databricks에서 암시적으로 삽입되었을 수 있습니다.
이 오류와 함께 제공되는 컨텍스트 정보는 오류가 발생한 개체와 식을 격리합니다.
도메인 정의 및 허용되는 리터럴 형식은 데이터 형식 tyopeName 정의를 참조하세요.
완화
이 오류의 완화 방법은 원인에 따라 달라집니다.
value지정된typeName도메인 및 형식을 준수해야 합니까?입력 생성 값을 확인하고 데이터 원본을 수정합니다.
캐스트 대상이 너무 한정적인가요?
예를 들어
DATE에서TIMESTAMP로,INT에서BIGINT또는DOUBLE로 이동하여 유형을 확장합니다.value형식이 잘못된가요?다음을 사용하는 것이 좋습니다.
이러한 함수를 사용하면 지정할 수 있는 다양한 형식을 사용할 수 있습니다.
소수점(예:
1.0) 또는 과학적 표기법(예:1e0)을 사용하여 숫자 리터럴을 캐스팅할 때, 먼저DECIMAL또는DOUBLE로 두 번 캐스팅한 후, 정확한 숫자형으로 캐스팅하는 것이 좋습니다.잘못된 값을 가진 데이터가 예상되고 NULL을 생성하여 허용되어야 하나요?
식 사용을 변경하거나 try_cast(값 AS typeName)을 삽입합니다. 이 함수는 형식을 충족하는
NULL없이 전달되면value반환합니다.식을 변경할 수 없는 경우 마지막 수단으로
ansiConfig사용하여 ANSI 모드를 일시적으로 사용하지 않도록 설정할 수 있습니다.
예제
-- A view with a cast and string literals outside the domain of the target type
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
[CAST_INVALID_INPUT] The value '50000' of the type "STRING" cannot be cast to "SMALLINT" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL of VIEW v(line 1, position 8) ==
SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') A...
^^^^^^^^^^^^^^^^^^^
-- Widen the target type to match the domain of the input
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT cast(a AS INTEGER) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
100
50000
-- The input data format does not match the target type
> SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
[CAST_INVALID_INPUT] The value '1.0' of the type "STRING" cannot be cast to "INT" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS ...
^^^^^^^^^^^^^^^^^^
-- Adjust the target type to the match the format if the format is indicative of the domain.
> SELECT cast(a AS DOUBLE) FROM VALUES('1.0'), ('1e0') AS t(a);
1.0
1.0
-- ALternatively double cast to preserver the target type
> SELECT cast(cast(a AS DOUBLE) AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
1
1
-- The format of the numeric input contains display artifacts
> SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('12,345.30-'), ('12+') AS t(a);
[CAST_INVALID_INPUT] The value '12,345.30-' of the type "STRING" cannot be cast to "DECIMAL(10,3)" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('$<123,45.30>'), ('...
^^^^^^^^^^^^^^^^^^^^^^^^^
-- Use to_number() to parse formatted values
> SELECT to_number(a, '9,999,999.999S') FROM VALUES('123,45.30-'), ('12+') AS t(a);
-12345.300
12.000
-- The format of a date input does not match the default format
> SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
[CAST_INVALID_INPUT] The value '6.6.2000' of the type "STRING" cannot be cast to "DATE" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.1...
^^^^^^^^^^^^^^^^^^^^^^^^^^
-- Use to_date to parse the correct input format for a date
> SELECT to_date(geburtsdatum, 'dd.MM.yyyy') FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
2000-06-06
1970-10-31
-- The type resolution of Databricks did not derive a sufficiently wide type, failing an implicit cast
> SELECT 12 * monthly AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
[CAST_INVALID_INPUT] The value '1520.56' of the type "STRING" cannot be cast to "BIGINT" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT 12 * monthly AS yearly FROM VALUES ('1200'),...
^^^^^^^^^^^^
-- Explicitly declare the expected type
> SELECT 12 * cast(monthly AS DECIMAL(8, 2)) AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
14400.00
18246.72
-- The input data is occasionally expected to incorrect
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
[CAST_INVALID_INPUT] The value 'prefer not to say' of the type "STRING" cannot be cast to "DECIMAL(9,2)" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer ...
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
-- Use try_cast to tolerate incorrect input
> SELECT try_cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
30000.00
NULL
-- In Databricks SQL temporarily disable ANSI mode to tolerate incorrect input.
> SET ANSI_MODE = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
30000.00
NULL
> SET ANSI_MODE = true;
-- In Databricks Runtime temporarily disable ANSI mode to tolerate incorrect input.
> SET spark.sql.ansi.enabled = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
30000.00
NULL
> SET spark.sql.ansi.enabled = true;