CAST_INVALID_INPUT, klasa błędów

SQLSTATE: 22018

Nie można rzutować wartości <expression> typu <sourceType> na <targetType> , ponieważ jest ona źle sformułowana. Popraw wartość zgodnie ze składnią lub zmień jego typ docelowy. Służy try_cast do tolerowania źle sformułowanych danych wejściowych i zwracania wartości NULL. Jeśli to konieczne, ustaw <ansiConfig> wartość "false", aby pominąć ten błąd.

Parametry

  • wyrażenie: wyrażenie, które należy rzutować do targettype
  • sourceType: typ danych .expression
  • targetType: typ docelowy operacji rzutowania.
  • ansiConfig: ustawienie konfiguracji umożliwiające zmianę trybu ANSI.

Wyjaśnienie

Nie expression można rzutować elementu targetType z jednego z następujących powodów:

  • expression jest zbyt duża dla domeny typu. Na przykład nie można rzutować liczby 1000 do TINYINT , ponieważ ta domena waha się tylko od -128 do +127.
  • expression zawiera znaki, które nie są częścią typu. Na przykład a nie można rzutować do żadnego typu liczbowego.
  • expression jest sformatowany w sposób, w jaki operacja rzutowania nie może przeanalizować. Na przykład 1.0 nie 1e1 można rzutować do żadnego typu liczbowego całkowitego.

Rzutowanie mogło nie zostać jawnie określone, ale mogło zostać wstrzymywane niejawnie przez usługę Azure Databricks.

Informacje kontekstowe podane przy użyciu tego błędu izoluje obiekt i wyrażenie, w którym wystąpił błąd.

Aby uzyskać definicję domeny i akceptowanych formatów literałów, zobacz definicję typu danych .tyopeName

Łagodzenia

Ograniczenie ryzyka dla tego błędu zależy od przyczyny:

  • Czy oczekiwana value jest zgodność z domeną i formatem określonego typeNameobiektu ?

    Sprawdź wartość wprowadzania i popraw źródło danych.

  • Czy cel obsady jest zbyt wąski?

    Poszerz typ, przenosząc na przykład z DATE do TIMESTAMP, INT do BIGINT lub DOUBLE.

  • Czy format jest niepoprawny value ?

    Rozważ użycie następujących opcji:

    Te funkcje umożliwiają określenie szerokiej gamy formatów.

    Podczas rzutowania literałów liczbowych z punktami dziesiętnymi (np 1.0 . lub notacją naukową (np. 1e0) należy najpierw rozważyć podwójne rzutowanie do DECIMAL lub DOUBLE , a następnie do dokładnej liczbowej.

  • Czy dane o nieprawidłowych wartościach są oczekiwane i powinny być tolerowane przez tworzenie NULLs?

    Zmień wyrażenie użyj lub wstrzyknąć try_cast(wartość AS typeName). Ta funkcja zwraca wartość NULL , gdy jest przekazywana bez value wartości, która spełnia typ.

    Jeśli nie możesz zmienić wyrażenia w ostateczności, możesz tymczasowo wyłączyć tryb ANSI przy użyciu polecenia ansiConfig.

Przykłady

-- A view with a cast and string literals outside the domain of the target type
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
 [CAST_INVALID_INPUT] The value '50000' of the type "STRING" cannot be cast to "SMALLINT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL of VIEW v(line 1, position 8) ==
 SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') A...
        ^^^^^^^^^^^^^^^^^^^

-- Widen the target type to match the domain of the input
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT cast(a AS INTEGER) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
 100
 50000

-- The input data format does not match the target type
> SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
 [CAST_INVALID_INPUT] The value '1.0' of the type "STRING" cannot be cast to "INT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS ...
        ^^^^^^^^^^^^^^^^^^

-- Adjust the target type to the match the format if the format is indicative of the domain.
> SELECT cast(a AS DOUBLE) FROM VALUES('1.0'), ('1e0') AS t(a);
 1.0
 1.0

-- ALternatively double cast to preserver the target type
> SELECT cast(cast(a AS DOUBLE) AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
 1
 1

-- The format of the numeric input contains display artifacts
> SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('12,345.30-'), ('12+') AS t(a);
 [CAST_INVALID_INPUT] The value '12,345.30-' of the type "STRING" cannot be cast to "DECIMAL(10,3)" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('$<123,45.30>'), ('...
        ^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use to_number() to parse formatted values
> SELECT to_number(a, '9,999,999.999S') FROM VALUES('123,45.30-'), ('12+') AS t(a);
 -12345.300
 12.000

-- The format of a date input does not match the default format
> SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
 [CAST_INVALID_INPUT] The value '6.6.2000' of the type "STRING" cannot be cast to "DATE" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.1...
        ^^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use to_date to parse the correct input format for a date
> SELECT to_date(geburtsdatum, 'dd.MM.yyyy') FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
  2000-06-06
  1970-10-31

-- The type resolution of Databricks did not derive a sufficiently wide type, failing an implicit cast
> SELECT 12 * monthly AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
 [CAST_INVALID_INPUT] The value '1520.56' of the type "STRING" cannot be cast to "BIGINT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT 12 * monthly AS yearly FROM VALUES ('1200'),...
        ^^^^^^^^^^^^

-- Explicitly declare the expected type
> SELECT 12 * cast(monthly AS DECIMAL(8, 2)) AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
 14400.00
 18246.72

-- The input data is occasionally expected to incorrect
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 [CAST_INVALID_INPUT] The value 'prefer not to say' of the type "STRING" cannot be cast to "DECIMAL(9,2)" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer ...
       ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use try_cast to tolerate incorrect input
> SELECT try_cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL

-- In Databricks SQL temporarily disable ANSI mode to tolerate incorrect input.
> SET ANSI_MODE = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL
> SET ANSI_MODE = true;

-- In Databricks Runtime temporarily disable ANSI mode to tolerate incorrect input.
> SET spark.sql.ansi.enabled = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL
> SET spark.sql.ansi.enabled = true;