Megosztás a következőn keresztül:


CAST_INVALID_INPUT hibafeltétel

SQLSTATE: 22018

A <expression> típus <sourceType> értéke nem vethető <targetType>-re, mert hibásan formázott. Javítsa ki az értéket a szintaxis szerint, vagy módosítsa a céltípust. A try_cast használatával tolerálhatja a helytelenül formázott bemenetet, és null értéket ad vissza helyette. Ha szükséges, állítsa a <ansiConfig> "false" értékre a hiba megkerüléséhez.

Paraméterek

  • kifejezés: A kifejezés, amit át kell alakítani targettype-re
  • sourceType: A expressionadattípusa.
  • targetType: Az öntött művelet céltípusa.
  • ansiConfig: Az ANSI-mód módosítására vonatkozó konfigurációs beállítás.

Magyarázat

A expression nem lehet targetType-é alakítani az alábbi okok valamelyike miatt:

  • expression túl nagy a típus tartományához. A 1000 szám például nem adható át TINYINT, mert ez a tartomány csak -128 és +127között van.
  • expression olyan karaktereket tartalmaz, amelyek nem részei a típusnak. Például a a nem konvertálható bármilyen numerikus típusra.
  • expression úgy van formázva, hogy a típuskonverziós művelet nem tudja értelmezni. Például 1.0 és 1e1 nem lehet egyetlen egész numerikus típusra sem leadni.

Előfordulhat, hogy a szereplőket nem explicit módon adták meg, de az Azure Databricks implicit módon injektálhatta.

A hiba által biztosított környezeti információk elkülönítik az objektumot és a kifejezést, amelyen belül a hiba történt.

A tartomány definíciójáért és az elfogadott literális formátumokért lásd a adattípus definícióját a -ban.

Mérséklés

A hiba elhárítása az októl függ:

  • A value várhatóan megfelel a megadott typeNametartományának és formátumának?

    Ellenőrizze a bemeneti termelő értéket, és javítsa ki az adatforrást.

  • Túl keskeny a szereposztás célja?

    Bővítse a típust például az DATE-ről a TIMESTAMP, INTBIGINT vagy DOUBLE.

  • Helytelen a value formátuma?

    Fontolja meg a következő használatát:

    Ezek a függvények a formátumok széles választékát teszik lehetővé, amit meghatározhat.

    Számok öntésekor decimális pontokkal (például 1.0) vagy tudományos jelöléssel (például 1e0) érdemes először DECIMAL vagy DOUBLE típusúvá alakítani őket, majd a pontos számmá konvertálni.

  • Helytelen értékekkel rendelkező adatok várhatók, és az NULL-ek előállításával el kell tolerálni őket?

    A kifejezés használatának megváltoztatása vagy a try_cast(value AS typeName)beszúrása. Ez a függvény NULL-t ad vissza, ha nem adnak meg olyan value-t, amely megfelel a típusnak.

    Ha nem tudja módosítani a kifejezést, végső megoldásként ideiglenesen letilthatja az ANSI módot a ansiConfighasználatával.

Példák

-- A view with a cast and string literals outside the domain of the target type
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
 [CAST_INVALID_INPUT] The value '50000' of the type "STRING" cannot be cast to "SMALLINT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL of VIEW v(line 1, position 8) ==
 SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') A...
        ^^^^^^^^^^^^^^^^^^^

-- Widen the target type to match the domain of the input
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT cast(a AS INTEGER) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
 100
 50000

-- The input data format does not match the target type
> SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
 [CAST_INVALID_INPUT] The value '1.0' of the type "STRING" cannot be cast to "INT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS ...
        ^^^^^^^^^^^^^^^^^^

-- Adjust the target type to the match the format if the format is indicative of the domain.
> SELECT cast(a AS DOUBLE) FROM VALUES('1.0'), ('1e0') AS t(a);
 1.0
 1.0

-- ALternatively double cast to preserver the target type
> SELECT cast(cast(a AS DOUBLE) AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
 1
 1

-- The format of the numeric input contains display artifacts
> SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('12,345.30-'), ('12+') AS t(a);
 [CAST_INVALID_INPUT] The value '12,345.30-' of the type "STRING" cannot be cast to "DECIMAL(10,3)" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('$<123,45.30>'), ('...
        ^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use to_number() to parse formatted values
> SELECT to_number(a, '9,999,999.999S') FROM VALUES('123,45.30-'), ('12+') AS t(a);
 -12345.300
 12.000

-- The format of a date input does not match the default format
> SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
 [CAST_INVALID_INPUT] The value '6.6.2000' of the type "STRING" cannot be cast to "DATE" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.1...
        ^^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use to_date to parse the correct input format for a date
> SELECT to_date(geburtsdatum, 'dd.MM.yyyy') FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
  2000-06-06
  1970-10-31

-- The type resolution of Databricks did not derive a sufficiently wide type, failing an implicit cast
> SELECT 12 * monthly AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
 [CAST_INVALID_INPUT] The value '1520.56' of the type "STRING" cannot be cast to "BIGINT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT 12 * monthly AS yearly FROM VALUES ('1200'),...
        ^^^^^^^^^^^^

-- Explicitly declare the expected type
> SELECT 12 * cast(monthly AS DECIMAL(8, 2)) AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
 14400.00
 18246.72

-- The input data is occasionally expected to incorrect
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 [CAST_INVALID_INPUT] The value 'prefer not to say' of the type "STRING" cannot be cast to "DECIMAL(9,2)" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer ...
       ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use try_cast to tolerate incorrect input
> SELECT try_cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL

-- In Databricks SQL temporarily disable ANSI mode to tolerate incorrect input.
> SET ANSI_MODE = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL
> SET ANSI_MODE = true;

-- In Databricks Runtime temporarily disable ANSI mode to tolerate incorrect input.
> SET spark.sql.ansi.enabled = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL
> SET spark.sql.ansi.enabled = true;