فئة الخطأ CAST_INVALID_INPUT

SQLSTATE: 22018

لا يمكن تحويل قيمة <expression> النوع <sourceType> إلى <targetType> لأنها مشوهة. قم بتصحيح القيمة وفقا لبناء الجملة، أو قم بتغيير نوع الهدف الخاص بها. استخدم try_cast لتحمل الإدخال المشوه وإرجاع NULL بدلا من ذلك. إذا لزم الأمر، فقم بتعيين <ansiConfig> إلى "خطأ" لتجاوز هذا الخطأ.

معلمات

  • تعبير: التعبير الذي يجب تحويله إلى targettype
  • sourceType: نوع expressionبيانات .
  • targetType: النوع الهدف لعملية الإرسال.
  • ansiConfig: إعداد التكوين لتغيير وضع ANSI.

تفسير

expression لا يمكن تحويل إلى targetType بسبب أحد الأسباب التالية:

  • expression كبير جدا بالنسبة للمجال من النوع. على سبيل المثال، لا يمكن تحويل الرقم 1000 إلى TINYINT لأن هذا المجال يتراوح فقط من -128 إلى +127.
  • expression يحتوي على أحرف ليست جزءا من النوع. على سبيل المثال a لا يمكن تحويلها إلى أي نوع رقمي.
  • expression يتم تنسيقه بطريقة لا يمكن من خلالها تحليل عملية الإرسال. على سبيل المثال 1.0 ولا 1e1 يمكن تحويله إلى أي نوع رقمي متكامل.

ربما لم يتم تحديد الإرسال بشكل صريح، ولكن ربما تم حقنه ضمنيا بواسطة Azure Databricks.

تعزل معلومات السياق المتوفرة مع هذا الخطأ الكائن والتعبير الذي حدث فيه الخطأ.

للحصول على تعريف للمجال والتنسيقات الحرفية المقبولة، راجع تعريف نوعtyopeNameبيانات .

التخفيف

يعتمد التخفيف من هذا الخطأ على السبب:

  • value هل من المتوقع أن يمتثل لمجال وتنسيق المحددtypeName؟

    تحقق من قيمة إنتاج الإدخال وتصحيح مصدر البيانات.

  • هل الهدف من المدلى بها ضيق جدا؟

    توسيع النوع عن طريق النقل، على سبيل المثال، من DATE إلى TIMESTAMP، INT إلى BIGINT أو DOUBLE.

  • هل تنسيق غير value صحيح؟

    ضع في اعتبارك استخدام:

    تسمح هذه الدالات بمجموعة واسعة من التنسيقات التي يمكنك تحديدها.

    عند تحويل القيم الحرفية الرقمية بنقاط عشرية (على سبيل المثال 1.0 ، أو تدوين علمي (على سبيل المثال 1e0) ضع في اعتبارك الصب المزدوج أولا إلى DECIMAL أو DOUBLE ثم إلى العدد الدقيق.

  • هل البيانات ذات القيم غير الصحيحة متوقعة، ويجب التسامح معها من خلال إنتاج NULLs؟

    تغيير استخدام التعبير أو إدخال try_cast(value AS typeName). ترجع NULL هذه الدالة عند تمريرها دون value أن تفي بالنوع.

    إذا لم تتمكن من تغيير التعبير، كحل أخير، يمكنك تعطيل وضع ANSI مؤقتا باستخدام ansiConfig.

امثله

-- A view with a cast and string literals outside the domain of the target type
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
 [CAST_INVALID_INPUT] The value '50000' of the type "STRING" cannot be cast to "SMALLINT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL of VIEW v(line 1, position 8) ==
 SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') A...
        ^^^^^^^^^^^^^^^^^^^

-- Widen the target type to match the domain of the input
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT cast(a AS INTEGER) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
 100
 50000

-- The input data format does not match the target type
> SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
 [CAST_INVALID_INPUT] The value '1.0' of the type "STRING" cannot be cast to "INT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS ...
        ^^^^^^^^^^^^^^^^^^

-- Adjust the target type to the match the format if the format is indicative of the domain.
> SELECT cast(a AS DOUBLE) FROM VALUES('1.0'), ('1e0') AS t(a);
 1.0
 1.0

-- ALternatively double cast to preserver the target type
> SELECT cast(cast(a AS DOUBLE) AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
 1
 1

-- The format of the numeric input contains display artifacts
> SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('12,345.30-'), ('12+') AS t(a);
 [CAST_INVALID_INPUT] The value '12,345.30-' of the type "STRING" cannot be cast to "DECIMAL(10,3)" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('$<123,45.30>'), ('...
        ^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use to_number() to parse formatted values
> SELECT to_number(a, '9,999,999.999S') FROM VALUES('123,45.30-'), ('12+') AS t(a);
 -12345.300
 12.000

-- The format of a date input does not match the default format
> SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
 [CAST_INVALID_INPUT] The value '6.6.2000' of the type "STRING" cannot be cast to "DATE" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.1...
        ^^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use to_date to parse the correct input format for a date
> SELECT to_date(geburtsdatum, 'dd.MM.yyyy') FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
  2000-06-06
  1970-10-31

-- The type resolution of Databricks did not derive a sufficiently wide type, failing an implicit cast
> SELECT 12 * monthly AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
 [CAST_INVALID_INPUT] The value '1520.56' of the type "STRING" cannot be cast to "BIGINT" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
 == SQL(line 1, position 8) ==
 SELECT 12 * monthly AS yearly FROM VALUES ('1200'),...
        ^^^^^^^^^^^^

-- Explicitly declare the expected type
> SELECT 12 * cast(monthly AS DECIMAL(8, 2)) AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
 14400.00
 18246.72

-- The input data is occasionally expected to incorrect
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 [CAST_INVALID_INPUT] The value 'prefer not to say' of the type "STRING" cannot be cast to "DECIMAL(9,2)" because it is malformed.
 Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
 If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer ...
       ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

-- Use try_cast to tolerate incorrect input
> SELECT try_cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL

-- In Databricks SQL temporarily disable ANSI mode to tolerate incorrect input.
> SET ANSI_MODE = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL
> SET ANSI_MODE = true;

-- In Databricks Runtime temporarily disable ANSI mode to tolerate incorrect input.
> SET spark.sql.ansi.enabled = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
 30000.00
 NULL
> SET spark.sql.ansi.enabled = true;