Partager via


Conditions d’erreur dans Azure Databricks

S’applique à :oui coché Databricks SQL oui coché Databricks Runtime 12.2 et versions ultérieures

Les conditions d’erreur sont des chaînes descriptives lisibles par l’homme qui sont propres à l’erreur qu’elles décrivent.

Vous pouvez utiliser des conditions d’erreur pour gérer par programmation les erreurs dans votre application sans avoir à analyser le message d’erreur.

Il s’agit d’une liste de conditions d’erreur courantes nommées retournées par Azure Databricks.

Databricks Runtime et Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE : 42623

Impossible d’exécuter <statementType> la commande, car DEFAULT les valeurs ne sont pas prises en charge lors de l’ajout de nouvelles colonnes à une source de données cible existante avec le fournisseur de tables : «<dataSource> ».

FONCTION_AGRÉGÉE_DANS_RÉFÉRENCES_IMBRIQUÉES_NON_SUPPORTÉE

SQLSTATE : 0A000

Détection de fonctions d’agrégation dans les références <expression> d’étendue externe qui ne sont pas prises en charge.

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE : 42845

L’expression <sqlExpr> non déterministe ne doit pas apparaître dans les arguments d’une fonction d’agrégation.

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE : 2203G

Échec de l'analyse de la sortie du modèle lors de la conversion vers le returnType spécifié : « <dataType> », la réponse JSON était : « <responseString> ». Mettez à jour le returnType pour qu’il corresponde au contenu du type représenté par la réponse JSON , puis réessayez la requête. Exception : <errorMessage>

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE : 2203G

La sortie réelle du modèle comporte plusieurs colonnes «<responseString> ». Toutefois, le type de retour spécifié["<dataType>"] n’a qu’une seule colonne. Mettez à jour le returnType pour contenir le même nombre de colonnes que la sortie du modèle, puis réessayez la requête.

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE : 08000

Une erreur s’est produite lors de l’exécution d’une requête HTTP pour la fonction <funcName>: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE : 08000

Réponse HTTP non valide pour la fonction <funcName>: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE : 22032

Le nombre maximal de mots doit être un entier non négatif, mais <maxWords> reçu.

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE : 22023

Les paramètres de modèle fournis (<modelParameters>) ne sont pas valides dans la fonction pour servir le AI_QUERY point de terminaison «<endpointName> ».

Pour plus d’informations , consultez AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE

SQLSTATE : 0A000

Fonction IA : «<functionName> » nécessite une chaîne valide <format> pour responseFormat le paramètre, mais a trouvé le format de réponse suivant : «<invalidResponseFormat> ». Exception : <errorMessage>

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE : 22000

Une erreur s’est produite lors de l’analyse de la réponse pour la JSON fonction <funcName>: <errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE : 2203G

Échec de l’analyse du schéma pour le point de terminaison de service « »<endpointName> : , réponse <errorMessage> a été : «JSON<responseJson> ».

Définissez le paramètre returnType manuellement dans la fonction AI_QUERY pour remplacer la résolution de schéma.

ÉCHEC_DE_RECHERCHE_DANS_LE_REGISTRE_DE_FONCTION_IA

SQLSTATE : 42883

Échec de la résolution dynamique de la fonction «<functionName> » à partir du Registre de fonctions IA.

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE : 56038

La fonction <funcName> n’est pas prise en charge dans l’environnement actuel. Il est disponible uniquement dans Databricks SQL Pro et Serverless.

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE : 0A000

Impossible d’évaluer la fonction SQL «<functionName> », car l’argument <invalidValue> fourni a «<invalidDataType> », mais seuls les types suivants sont pris en charge : <supportedDataTypes>. Mettez à jour l’appel de fonction pour fournir un argument de type chaîne et réessayez la requête.

AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

SQLSTATE : 0A000

Format de réponse non pris en charge.

Pour plus de détails, consultez AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE : 0A000

Fonction IA : «<functionName> » ne prend pas en charge le type suivant comme type de retour : «<typeName> ». Le type de retour doit être un type SQL valide compris par Catalyst et pris en charge par la fonction IA. Les types pris en charge actuels incluent : <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE : 22032

La valeur fournie «<argValue> » n’est pas prise en charge par l’argument «<argName> ». Les valeurs prises en charge sont les suivantes : <supportedValues>

AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT

SQLSTATE : 0A000

S’attendait à ce que le type de tâche de point de terminaison de service soit « Conversation » pour le support de sortie structurée, mais a trouvé « <taskType> » pour le point de terminaison « <endpointName> ».

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE : 0A000

Le «<sqlExpr> » fourni n’est pas pris en charge par l’argument returnType.

AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR

SQLSTATE : 0A000

Paramètres en conflit détectés pour la vector_search fonction SQL : <conflictParamNames>.<hint>

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE : 0A000

vector_search La fonction SQL avec type <embeddingColumnType> de colonne incorporé n’est pas prise en charge.

AI_SEARCH_EMPTY_QUERY_PARAM_ERROR

SQLSTATE : 0A000

vector_search La fonction SQL n’a pas de paramètre d’entrée de requête, spécifiez au moins l’un des éléments suivants : <parameterNames>.

AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR

SQLSTATE : 0A000

Le paramètre query de la fonction SQL vector_search n’est pas pris en charge pour la recherche vectorielle hybrid. Utilisez plutôt query_text.

AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR

SQLSTATE : 0A000

Texte de requête introuvable dans la fonction SQL vector_search pour la recherche vectorielle hybrid. Veuillez fournir query_text.

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE : 0A000

vector_search La fonction SQL avec type <indexType> d’index n’est pas prise en charge.

AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR

SQLSTATE : 0A000

query_vector doit être spécifié pour l’index <indexName> , car il n’est pas associé à un point de terminaison de modèle incorporé.

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE : 0A000

Défaillance de matérialisation de la requête de fonction SQL vector_search de type Spark <dataType> vers des objets natifs scala pendant l’encodage des requêtes avec une erreur : <errorMessage>.

AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR

SQLSTATE : 0A000

vector_search La fonction SQL avec le type <unexpectedQueryType> de requête n’est pas prise en charge. Spécifiez l’une des suivantes : <supportedQueryTypes>.

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE : 0A000

vector_search La fonction SQL avec num_results supérieur à <maxLimit> n'est pas prise en charge. La limite spécifiée était <requestedLimit>. Réessayez avec num_results <= <maxLimit>

AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE

SQLSTATE : 22003

Le ai_top_drivers paramètre <param> doit être compris entre <lo> et <hi>.

AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE

SQLSTATE : 0A000

ai_top_drivers ne prend pas en charge l’agrégation <aggName> . Choisissez l’un des agrégats pris en charge suivants : <allowed>.

AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE

SQLSTATE : 0A000

ai_top_drivers ne prend pas en charge les colonnes de dimension numérique, carte ou structure. La colonne <colName> a le type <dataType>. Supprimez cette dimension ou forcez-la dans un type pris en charge.

AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE

SQLSTATE : 0A000

ai_top_drivers nécessite que le type de colonne d’étiquette soit booléen. La colonne <colName> a le type <dataType>. Modifiez la colonne d’étiquette ou convertissez-la en un type compatible.

AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE

SQLSTATE : 0A000

ai_top_drivers nécessite que le type de colonne de métrique soit numérique. La colonne <colName> a le type <dataType>. Modifiez la colonne de métrique ou forcez-la dans un type pris en charge.

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE : 07001

L’utilisation de requêtes paramétrables de nom nécessite que tous les paramètres soient nommés. Noms de paramètres manquants : <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE : KD005

Impossible d’utiliser toutes les colonnes des colonnes de partition.

ALTER_SCHEDULE_DOES_NOT_EXIST

SQLSTATE : 42704

Impossible de modifier <scheduleType> sur une table sans planification ou déclencheur existant. Ajoutez une planification ou un déclencheur à la table avant de tenter de la modifier.

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE : 42710

ALTER TABLE <type> la colonne <columnName> spécifie le descripteur «<optionName> » plusieurs fois, qui n’est pas valide.

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE : 42KD0

Le nom <name> est ambigu dans l’expression l’expression de table commune imbriquée.

<config> Définissez la valeur «CORRECTED » pour que le nom défini dans l’environnement CTE interne soit prioritaire. S’il est défini sur «LEGACY », les définitions CTE externes sont prioritaires.

Voir «https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine ».

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE : 42702

La colonne ou le champ <name> est ambigu et possède <n> correspondances.

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE : 42702

La colonne <name> est ambiguë. C’est parce que vous avez joint plusieurs DataFrame ensemble, et certains de ces DataFrames sont identiques.

Cette colonne pointe vers l’un des DataFrames, mais Spark n’est pas en mesure de déterminer celui-ci.

Affectez des alias aux DataFrames avec différents noms via DataFrame.alias avant de les joindre,

et spécifiez la colonne en utilisant le nom qualifié, par exemple df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).

AMBIGUOUS_CONSTRAINT

SQLSTATE : 42K0C

Référence ambiguë à la contrainte <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE : 42702

L’alias de colonne latérale <name> est ambigu et a <n> correspondances.

AMBIGUOUS_REFERENCE

SQLSTATE : 42704

La référence <name> est ambiguë, peut être : <referenceNames>.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE : 42000

Référence ambiguë au champ <field>. Elle apparaît <count> fois dans le schéma.

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE : 0A000

La fonction ANALYZE CONSTRAINTS n'est pas prise en charge.

ANALYSE_TABLE_CALCULER_MÉTRIQUES_DE_STOCKAGE_NON_SUPPORTE

SQLSTATE : 0A000

La fonction ANALYZE TABLE COMPUTE STORAGE METRICS n'est pas prise en charge. Contactez votre équipe du support technique Databricks pour inscrire cet espace de travail.

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE : 56038

La configuration <config> ANSI SQL ne peut pas être désactivée dans ce produit.

APPEND_ONCE_FROM_BATCH_QUERY

SQLSTATE : 42000

Utilisez l’opérateur stream().

La création d’une table de diffusion en continu à partir d’une requête batch empêche le chargement incrémentiel de nouvelles données à partir de la source. Tableau incriminé : '<table>'.

Exemple d'utilisation :

CREATE STREAMING TABLE <target table name> ... AS SELECT ... FROM stream(<source table name>) ...

APPROX_TOP_K_NOMBRE_ARGUMENTS_INVALIDE

SQLSTATE : 42605

approx_top_k attend 1 à 3 arguments, mais a obtenu <argNum>.

APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT

SQLSTATE : 22023

Le nombre maximal d’éléments suivis maxItemsTracked(<maxItemsTracked>) de approx_top_k doit être inférieur ou égal à <limit>.

APPROX_NOMBRE_MAXIMAL_D'ÉLÉMENTS_SUIVIS_INFÉRIEUR_À_K

SQLSTATE : 22023

Le nombre maximum d'éléments suivis maxItemsTracked(<maxItemsTracked>) de approx_top_k doit être supérieur ou égal à k(<k>).

ARGUMENT_NON_POSITIF_TOP_K_APPROX

SQLSTATE : 22023

La valeur de <argName> in approx_top_k doit être un entier positif, mais a obtenu <argValue>.

APPROX_TOP_K_NULL_ARG

SQLSTATE : 22004

La valeur de <argName> in approx_top_k ne peut pas être NULL.

APPROX_TOP_K_ESQUISSE_TAILLE_NE_CORRESPOND_PAS

SQLSTATE : 42846

La combinaison de sketches approx_top_k de différentes tailles est interdite. Des croquis de taille <size1> et <size2> ont été trouvés.

LE_TYPE_DU_CROQUIS_APPROX_TOP_K_NE_CORRESPOND_PAS

SQLSTATE : 42846

Combiner des « approx_top_k sketches » de différents types n’est pas autorisé. Croquis de type <type1> et <type2> trouvés.

AQE_THREAD_INTERRUPTED

SQLSTATE : HY008

Le thread AQE est interrompu, probablement en raison de l’annulation de requête par l’utilisateur.

ARGUMENT_NOT_CONSTANT

SQLSTATE : 42K08

La fonction <functionName> inclut un paramètre <parameterName> à la position <pos> qui nécessite un argument constant. Calculez l’argument <sqlExpr> séparément et transmettez le résultat sous la forme d’une constante.

ARITHMETIC_OVERFLOW

SQLSTATE : 22003

<message>. <alternative> Si nécessaire, définissez <config> la valeur « false » pour contourner cette erreur.

Pour plus d’informations , consultez ARITHMETIC_OVERFLOW

ARROW_TYPE_MISMATCH

SQLSTATE : 42K0G

Schéma invalide de <operation> : attendu <outputTypes>, reçu <actualDataTypes>.

ARTIFACT_ALREADY_EXISTS

SQLSTATE : 42713

L’artefact <normalizedRemoteRelativePath> existe déjà. Choisissez un autre nom pour le nouvel artefact, car il ne peut pas être remplacé.

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE : 42802

Nombre de colonnes ou de variables assignées ou aliasées : <numTarget> ne correspond pas au nombre d'expressions sources : <numExpr>.

AS_OF_JOIN

SQLSTATE : 42604

Jointure as-of non valide.

Pour plus d’informations, consultez AS_OF_JOIN

ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION

SQLSTATE : 0A000

Les opérations qui déclenchent l’analyse ou l’exécution de DataFrame ne sont pas autorisées dans les fonctions de requête de pipeline. Déplacez le code en dehors de la fonction de requête de pipeline.

AUTORISATION_AUTOMATIQUE_DÉMARRER_TRANSACTION_PENDANT_TRANSACTION_AUTORISÉE_AUTOMATIQUEMENT

SQLSTATE : 25000

Impossible de démarrer une nouvelle transaction alors qu’une transaction implicite démarrée par SET AUTOCOMMIT=FALSE est active. COMMIT ou ROLLBACK la transaction actuelle en premier et assurez-vous que SET AUTOCOMMIT=TRUE avant de commencer une nouvelle transaction.

AUTOCOMMIT_NOT_SUPPORTED

SQLSTATE : 0A000

La AUTOCOMMIT fonctionnalité de mode est actuellement en cours de développement et n’est pas encore prise en charge sur Databricks.

L'AUTOCOMMIT N'EST PAS PRIS EN CHARGE PAR L'ANCIEN ÉDITEUR SQL

SQLSTATE : 0A000

AUTOCOMMIT ne peut pas être accessible ou modifié dans l’éditeur SQL hérité. Basculez vers le nouvel éditeur SQL (<docLink>) ou utilisez un notebook connecté à un entrepôt Databricks SQL.

AUTOCOMMIT_SEULEMENT_SUPPORTÉ_DANS_DBSQL

SQLSTATE : 0A000

AUTOCOMMIT est accessible ou modifié uniquement dans les entrepôts SQL Databricks.

AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION

SQLSTATE : 25000

SET AUTOCOMMIT n’est pas autorisé pendant une transaction active. Engager ou annuler d'abord.

AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED

SQLSTATE : 25000

SET AUTOCOMMIT=FALSE n’est pas autorisé lorsqu’il AUTOCOMMIT est déjà désactivé. Cette restriction empêche la confusion et maintient les limites des transactions claires.

AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE : 25000

SET AUTOCOMMIT=TRUE n’est pas autorisé après que les instructions ont été exécutées dans une transaction implicite démarrée par SET AUTOCOMMIT=FALSE. Elle n’est autorisée que immédiatement après SET AUTOCOMMIT=FALSE (avant toutes les instructions), ou après COMMIT ou ROLLBACK.

AUTO_TTL_COLUMN_NOT_FOUND

SQLSTATE : 42703

Schéma de table non valide pour Auto-TTL. La colonne Auto-TTL <column> est introuvable.

AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED

SQLSTATE : 42K09

La colonne Auto-TTL <column> a un type <type> qui n'est pas valide. Le type de colonne doit être l’un de TIMESTAMP, TIMESTAMP_NTZ, ou DATE.

FONCTIONNALITÉ_AUTO_TTL_NON_ACTIVÉE

SQLSTATE : 0A000

Contactez votre représentant Databricks pour activer la fonctionnalité Auto-TTL.

Réglage incomplet du TTL automatique

SQLSTATE : 42601

Pour définir l'Auto-TTL sur une table, les propriétés autottl.timestampColumn de la table et autottl.expireInDays sont requises, mais <missing> est manquante.

AUTO_TTL_CHANGEMENT_DE_COLONNE_INVALIDE

SQLSTATE : 42703

La colonne <column> ne peut pas être <operation> car elle est utilisée dans la définition de l'Auto-TTL.

AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES (AUTO_TTL_NE_SOUTIENT_PAS_LES_CLONES_SUPERFICIELS)

SQLSTATE : 56038

La fonctionnalité Auto-TTL n’est pas prise en charge sur les tables clones peu profondes.

AUTO_TTL_NE_PAS_SUPPORTER_LES_TABLES_AVEC_DES_CLONES_FAIBLES

SQLSTATE : 56038

L'expiration automatique n’est pas prise en charge sur les tables qui ont des clones superficiels.

AUTO_TTL_NÉCESSITE_UNE_OPTIMISATION_PRÉDICTIVE

SQLSTATE : 56038

La fonction Auto-TTL nécessite l'activation de l'optimisation prédictive.

AUTO_TTL_REQUIRES_UC_MANAGED_TABLE

SQLSTATE : 56038

Auto-TTL n’est pris en charge que sur les tables gérées par l’UC.

AVRO_CANNOT_WRITE_NULL_FIELD

SQLSTATE : 22004

Impossible d’écrire la valeur Null pour le champ <name> défini comme type <dataType>de données Avro non null.

Pour autoriser la valeur Null pour ce champ, spécifiez son schéma avro en tant que type d’union avec « null » à l’aide de l’option avroSchema .

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE : 0A000

L'utilisation des valeurs par défaut n'est pas prise en charge lorsquerescuedDataColumn est activé. Vous pouvez peut-être supprimer cette vérification en définissant spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue sur false, mais les valeurs par défaut ne s’appliquent pas et les valeurs null sont toujours utilisées.

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE : 22KD3

Impossible de convertir Avro <avroPath> en SQL <sqlPath> , car le type de données encodé d’origine est <avroType>, mais vous essayez de lire le champ comme <sqlType>, ce qui entraînerait une réponse incorrecte.

Pour autoriser la lecture de ce champ, activez la configuration SQL : « spark.sql.legacy.avro.allowIncompatibleSchema ».

AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE : 22KD3

Impossible d’appeler la <functionName> fonction SQL, car la source de données Avro n’est pas chargée.

Redémarrez votre travail ou session avec le package « spark-avro » chargé, par exemple en utilisant l’argument --packages sur la ligne de commande, puis réessayez votre requête ou commande.

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE : 0A000

L’utilisation de la correspondance de champ positionnelle n’est pas prise en charge lorsque rescuedDataColumn ou failOnUnknownFields sont activés. Supprimez ces options pour continuer.

Configuration des identifiants Azure invalide

SQLSTATE : 42KDK

Le fournisseur de clés Azure ou les informations d’identification sont configurés de manière incorrecte. Raison : <causedBy>.

BATCH_METADATA_NOT_FOUND

SQLSTATE : 42K03

Impossible de trouver le lot <batchMetadataFile>.

BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE : 42616

Échec de la validation de la ou des options de source de données BigQuery.

Pour plus d’informations , consultez BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE : 42616

Les informations d’identification de connexion BigQuery doivent être spécifiées avec le paramètre « GoogleServiceAccountJson » ou l’ensemble de « projectId », « OAuthServiceAcctEmail », « OAuthPvtKey »

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE : 22003

<value1> <symbol> <value2> a provoqué un dépassement de capacité. Utilisez <functionName> pour ignorer le problème de dépassement de capacité et renvoyer NULL.

BUILT_IN_CATALOG

SQLSTATE : 42832

<operation> ne prend pas en charge les catalogues intégrés.

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE : 42KDE

La méthode <methodName> ne peut pas être appelée sur le jeu de données/dataFrame de streaming.

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE : 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN ne peut pas modifier le classement des types/sous-types des colonnes de compartiments, mais la colonne <columnName> a été trouvée dans la table <tableName>.

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE : 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN n’est pas pris en charge pour les colonnes de partition, mais il a trouvé la colonne <columnName> de partition dans la table <tableName>.

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE : 42611

Le filigrane doit être défini pour réattribuer la colonne heure de l’événement. Échec de la recherche de la définition du filigrane dans la requête de diffusion en continu.

CANNOT_CAST_DATATYPE

SQLSTATE : 42846

Impossible de convertir <sourceType> en <targetType>.

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE : 42846

Impossible de convertir Protobuf <protobufColumn> en SQL <sqlColumn> , car le schéma est incompatible (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE : 42846

Impossible de convertir <protobufType> de Protobuf en type SQL <toType>.

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE : 42846

Impossible de convertir SQL <sqlColumn> en Protobuf <protobufColumn> , car le schéma est incompatible (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE : 42846

Impossible de convertir SQL <sqlColumn> en Protobuf <protobufColumn> , car <data> il n’est pas dans les valeurs définies pour l’énumération : <enumString>.

CANNOT_COPY_STATE

SQLSTATE : 0AKD0

Impossible de copier l’état du catalogue comme la base de données actuelle et les vues temporaires du catalogue Unity vers un catalogue hérité.

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE : 42KDE

Échec de la création d’une table <tableName>de source de données :

Pour plus de détails, consultez CANNOT_CREATE_DATA_SOURCE_TABLE

CANNOT_DECODE_URL

SQLSTATE : 22546

L’URL fournie ne peut pas être décodée : <url>. Vérifiez que l’URL est correctement mise en forme et réessayez.

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE : 42832

Le <resourceType> appartenant au système ne peut pas être supprimé.

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE : 42K0C

Impossible de supprimer la contrainte avec le nom <constraintName> partagé par une contrainte CHECK

et une contrainte PRIMARY KEY ou FOREIGN KEY. Vous pouvez supprimer le PRIMARY KEY ou

Contrainte FOREIGN KEY par requêtes :

ALTER TABLE .. DROP PRIMARY KEY ou

ALTER TABLE .. DROP FOREIGN KEY ..

IMPOSSIBLE_DE_SUPPRIMER_LA_TABLE_DE_BASE_REFERENCÉE_PAR_UNE_CLONE_SUPERFICIELLE

SQLSTATE : 42893

Impossible de supprimer la table <baseTable> , car elle est référencée par un ou plusieurs clones peu profonds : <cloneList>. DROP Supprimez tous les clones superficiels avant de supprimer la table de base. Si cela n’est pas possible, envisagez d’utiliser «DROP TABLE...FORCE » pour supprimer la table avec force. WARNING: Cela interrompt immédiatement toutes les références de clone superficiel existantes et les rend inutilisables.

CANNOT_ESTABLISH_CONNECTION

SQLSTATE : 08001

Impossible d’établir une connexion à une base de données distante <jdbcDialectName> . Vérifiez les informations de connexion et les informations d’identification, par exemple, l’hôte, le port, l’utilisateur, le mot de passe et les options de base de données. ** Si vous pensez que les informations sont correctes, vérifiez la configuration réseau de votre espace de travail et vérifiez qu’elle n’a pas de restrictions sortantes pour l’hôte. Vérifiez également que l’hôte ne bloque pas les connexions entrantes à partir du réseau où les clusters Spark de l’espace de travail sont déployés. ** Message d’erreur détaillé : <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE : 08001

Impossible d’établir une connexion à une base de données distante <jdbcDialectName> . Vérifiez les informations de connexion et les informations d’identification, par exemple, l’hôte, le port, l’utilisateur, le mot de passe et les options de base de données. Si vous pensez que les informations sont correctes, veuillez autoriser le trafic entrant depuis Internet vers votre hôte, car vous utilisez le calcul sans serveur. Si vos stratégies réseau n’autorisent pas le trafic Internet entrant, utilisez le calcul sans serveur ou contactez votre représentant Databricks pour en savoir plus sur la mise en réseau privée serverless. ** Message d’erreur détaillé : <causeErrorMessage>.

IMPOSSIBLE_ÉTABLIR_CONNEXION_À_L'HÔTE

SQLSTATE : 08001

Impossible d'établir une connexion <protocol> à <host>. Vérifiez la configuration réseau de votre espace de travail et vérifiez qu’elle n’a pas de restrictions sortantes pour l’hôte. Vérifiez également que l’hôte ne bloque pas les connexions entrantes à partir du réseau où les clusters de l’espace de travail sont déployés.

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE : 0A000

Les transformations et actions de jeu de données ne peuvent être appelées que par le pilote, et non à l’intérieur d’autres transformations de jeu de données ; par exemple, dataset1.map(x => dataset2.values.count() * x) n’est pas valide, car la transformation des valeurs et l’action de comptage ne peuvent pas être effectuées à l’intérieur de la transformation dataset1.map. Pour plus d’informations, consultez SPARK-28702.

IMPOSSIBLE_DE_CHARGER_GESTIONNAIRE_DE_FICHIERS_DU_POINT_DE_CONTRÔLE

SQLSTATE : 58030

Erreur lors du chargement du gestionnaire de fichiers de point de contrôle de streaming pour path=<path>.

Pour plus d’informations , consultez CANNOT_LOAD_CHECKPOINT_FILE_MANAGER

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE : 46103

Impossible de charger la classe <className> lors de l’inscription de la fonction <functionName>, vérifiez qu’elle se trouve sur le classpath.

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE : 42K03

Impossible de charger la classe Protobuf avec le nom <protobufClassName>. <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE : 58030

Une erreur s’est produite pendant l’état de chargement.

Pour plus d’informations , consultez CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE : 42825

Échec de la fusion des types de données incompatibles <left> et <right>. Vérifiez les types de données des colonnes fusionnées et vérifiez qu’elles sont compatibles. Si nécessaire, envisagez de convertir les colonnes en types de données compatibles avant de tenter la fusion.

CANNOT_MERGE_SCHEMAS

SQLSTATE : 42KD9

Échec de la fusion des schémas :

Schéma initial :

<left>

Schéma qui ne peut pas être fusionné avec le schéma initial :

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE : 46110

Impossible de modifier la valeur de la configuration Spark : <key>.

Voir aussi 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.

IMPOSSIBLE_DE_MODIFIER_LA_CONFIGURATION_STATIQUE

SQLSTATE : 46110

Impossible de modifier la valeur de la configuration Spark statique : <key>.

CANNOT_PARSE_DECIMAL

SQLSTATE : 22018

Impossible d’analyser la décimale. Vérifiez que l’entrée est un nombre valide avec des séparateurs décimaux ou virgule facultatifs.

CANNOT_PARSE_INTERVAL

SQLSTATE : 22006

Impossible d’analyser <intervalString>. Vérifiez que la valeur fournie est dans un format valide pour définir un intervalle. Vous pouvez référencer la documentation pour connaître le format approprié. Si le problème persiste, vérifiez deux fois que la valeur d’entrée n’est pas null ou vide et réessayez.

CANNOT_PARSE_JSON_FIELD

SQLSTATE : 2203G

Impossible d’analyser le nom <fieldName> du champ et la valeur <fieldValue> du type JSON de jeton pour cibler le type <jsonType>de <dataType> données Spark.

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE : 22018

Erreur lors de l’analyse des octets de descripteur dans Protobuf FileDescriptorSet.

CANNOT_PARSE_TIME

SQLSTATE : 22010

La chaîne <input> d’entrée ne peut pas être analysée en valeur TIME, car elle ne correspond pas au format <format>datetime .

CANNOT_PARSE_TIMESTAMP

SQLSTATE : 22007

<message>. Permet <func> de tolérer une chaîne d’entrée non valide et de retourner NULL à la place.

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE : 55019

Impossible d’interroger MV/ST pendant l’initialisation.

Pour plus de détails, consultez CANNOT_QUERY_TABLE_DURING_INITIALIZATION

CANNOT_READ_ARCHIVED_FILE

SQLSTATE : KD003

Impossible de lire le fichier au niveau du chemin <path> , car il a été archivé. Ajustez vos filtres de requête pour exclure les fichiers archivés.

CANNOT_READ_FILE

SQLSTATE : KD003

Impossible de lire le fichier <format> au niveau du chemin d’accès : <path>.

Pour plus d’informations , consultez CANNOT_READ_FILE

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE : 42501

Impossible de lire la clé sensible «<key> » à partir d’un fournisseur sécurisé.

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE : 429BB

Impossible de reconnaître la chaîne de type hive : <fieldType>, colonne : <fieldName>. Le type de données spécifié pour le champ ne peut pas être reconnu par Spark SQL. Vérifiez le type de données du champ spécifié et vérifiez qu’il s’agit d’un type de données Spark SQL valide. Reportez-vous à la documentation Spark SQL pour obtenir la liste des types de données valides et leur format. Si le type de données est correct, vérifiez que vous utilisez une version prise en charge de Spark SQL.

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE : 0AKD0

Impossible de référencer un catalogue <objType> Unity dans les objets metastore Hive.

CANNOT_REMOVE_RESERVED_PROPERTY

SQLSTATE : 42000

Impossible de supprimer la propriété réservée : <property>.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE : 0AKD0

Le changement de nom d’un <type> catalogue à l’autre n’est pas autorisé.

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE : 0AKD0

Le changement de nom d’un <type> schéma à l’autre n’est pas autorisé.

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE : 42704

Impossible de résoudre la colonne de dataframe <name>. C’est probablement en raison de références illégales comme df1.select(df2.col("a")).

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE : 42704

Impossible de résoudre <targetString>.* en fonction des colonnes d’entrée <columns>. Vérifiez que la table ou le struct spécifié existe et est accessible dans les colonnes d’entrée.

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE : 58030

Échec de la définition des autorisations sur le chemin d’accès <path> créé pour revenir à <permission>.

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE : 0AKD0

Impossible de cloner superficiellement des tables entre Unity Catalog et Hive Metastore.

CANNOT_SHALLOW_CLONE_AUTO_TTL (Impossible de cloner partiellement TTL automatique)

SQLSTATE : 0AKUC

Impossible d'effectuer un clonage superficiel d'une table <table> avec TTL automatique activé.

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE : 0AKUC

Il est impossible de faire un clonage superficiel d'une table <table> qui est déjà un clone superficiel.

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE : 0AKUC

Le clone superficiel est uniquement pris en charge pour un type de table MANAGED. La table <table> n’est pas une table MANAGED.

CANNOT_UPDATE_FIELD

SQLSTATE : 0A000

Impossible de mettre à jour le champ <table> de type <fieldName> :

Pour plus d’informations , consultez CANNOT_UPDATE_FIELD

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE : 42000

Le partitionnement déclaré <requestedPartitionColumns> est en conflit avec le partitionnement existant de la table <existingPartitionColumns>.

Supprimez la table ou modifiez le partitionnement déclaré pour qu’il corresponde à ses partitions.

CANNOT_UP_CAST_DATATYPE

SQLSTATE : 42846

Impossible de forcer <expression> d’un type <sourceType> à <targetType>.

<details>

CANNOT_USE_KRYO

SQLSTATE : 22KD3

Impossible de charger le codec de sérialisation Kryo. La sérialisation Kryo ne peut pas être utilisée dans le client Spark Connect. Utilisez la sérialisation Java, fournissez un codec personnalisé ou utilisez Spark Classic à la place.

IMPOSSIBLE_D'UTILISER_PLUSIEURS_ALIAS_DANS_LA_CLAUSE_DE_FILIGRANE

SQLSTATE : 42000

Plusieurs alias ne sont pas pris en charge dans la clause de filigrane.

NOM_DE_FOURNISSEUR_DE_STREAMING_RÉSERVÉ_NON_UTILISABLE

SQLSTATE : 42000

Impossible d’utiliser le nom du fournisseur de streaming réservé : <providerName>.

CANNOT_VALIDATE_CONNECTION

SQLSTATE : 08000

La validation d’une connexion <jdbcDialectName> n’est pas prise en charge. Contactez la prise en charge de Databricks pour d’autres solutions ou définissez « spark.databricks.testConnectionBeforeCreation » sur « false » pour ignorer les tests de connexion avant de créer un objet de connexion.

CANNOT_WRITE_STATE_STORE

SQLSTATE : 58030

Erreur lors de l’écriture des fichiers de magasin d’état pour le fournisseur <providerClass>.

Pour plus d’informations, consultez CANNOT_WRITE_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE : 22018

La valeur <expression> du type <sourceType> ne peut pas être convertie à <targetType> car elle est malformée. Corrigez la valeur en fonction de la syntaxe ou modifiez son type cible. Utilisez try_cast pour tolérer une entrée malformée et retourner NULL à la place.

Pour plus de détails, consultez CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE : 22003

La valeur <value> du type <sourceType> ne peut pas être convertie <targetType> en raison d’un dépassement de capacité. Utilisez try_cast pour tolérer un dépassement et retourner NULL à la place.

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE : 22003

Impossible d'affecter une valeur de type <sourceType> à la colonne de type <targetType> ou à la variable <columnName> en raison d'un débordement. Utilisez try_cast dans la valeur d’entrée pour tolérer un dépassement et retourner NULL à la place.

CONVERSION_DU_CATALOGUE_ENTITÉ_ÉTRANGÈRE_PRÉSENTE

SQLSTATE : 55019

Échec de la conversion du catalogue de UC Foreign vers UC Standard, car le catalogue contient des entités étrangères (jusqu’à 10 sont affichées ici) : <entityNames>. Pour afficher la liste complète des entités étrangères dans ce catalogue, reportez-vous aux scripts de la documentation de commande «ALTER CATALOG DROP CONNECTION ».

TYPE_DE_CATALOGUE_NON_PRIS_EN_CHARGE_CONVERSION_DE_CATALOGUE

SQLSTATE : 0AKUC

Le catalogue ne peut pas être converti d’UC Foreign to UC Standard. Seuls <convertableCatalogTypes> les catalogues UC étrangers peuvent être convertis en UC Standard.

CATALOG_NOT_FOUND

SQLSTATE : 42P08

Le catalogue <catalogName> est introuvable. Envisagez de définir la configuration <config> SQL sur un plug-in de catalogue.

CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED

SQLSTATE : 0A000

La création de tables Delta avec <feature> la fonctionnalité de table n’est pas autorisée. Contactez le support Databricks.

CHECKPOINT_DIR_NOT_SET

SQLSTATE : 42K0I

Le répertoire de point de contrôle n’a pas été défini dans SparkContext.

Veuillez le définir avec SparkContext.setCheckpointDir().

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE : 56000

Bloc de point de contrôle <rddBlockId> introuvable !

L’exécuteur qui a initialement contrôlé cette partition n’est plus actif, ou le RDD d’origine n’est pas persistent.

Si ce problème persiste, vous pouvez envisager d’utiliser rdd.checkpoint() à la place, ce qui est plus lent que le point de contrôle local, mais plus tolérant aux pannes.

Violation de contrainte de vérification (CHECK_CONSTRAINT_VIOLATION)

SQLSTATE : 23001

Contrainte CHECK<constraintName> <expression> enfreinte par la ligne contenant les valeurs :

<values>

CIRCULAR_CLASS_REFERENCE

SQLSTATE : 42602

Impossible d’avoir des références circulaires dans la classe, mais une référence circulaire a été trouvée pour la classe <t>.

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE : 38000

<className> doit remplacer soit <method1> soit <method2>.

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE : 0A000

MapObjects ne prend pas en charge la classe <cls> comme collection résultante.

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE : 0A000

Les commandes Clean Room ne sont pas prises en charge

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE : 42K05

Nom incorrect pour référencer un <type> à l’intérieur d’une salle blanche. Utilisez le nom d’un <type> à l’intérieur de la salle blanche en suivant le format [catalogue].[ schéma].[<type>].

Si vous ne savez pas quel nom utiliser, vous pouvez exécuter «SHOW ALL IN CLEANROOM [clean_room] » et utiliser la valeur dans la colonne « name ».

CLONING_WITH_HISTORY_INVALID_OPTION

SQLSTATE : 42613

Le clonage avec l’historique est spécifié avec une option non valide : <invalidOption>.

Syntaxe valide : CREATE (OR REPLACE) TABLE ... DEEP CLONE...WITH HISTORY.

CLONING_WITH_HISTORY_UNSUPPORTED

SQLSTATE : 0A000

Le clonage avec historique n’est pas pris en charge.

CLOUD_FILE_ALREADY_EXISTS

SQLSTATE : 42K04

Le fichier cloud existe déjà. Raison : <causedBy>.

FICHIER_CLOUD_NON_TROUVÉ

SQLSTATE : 42K03

Le fichier cloud est introuvable. Raison : <causedBy>.

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE : 42K03

Une notification de fichier a été reçue pour le fichier : <filePath> mais elle n’existe plus. Assurez-vous que les fichiers ne sont pas supprimés avant qu’ils ne soient traités. Pour continuer votre flux, vous pouvez définir la configuration <config> Spark SQL sur true.

CLOUD_PROVIDER_ERROR

SQLSTATE : 58000

Erreur du fournisseur de cloud : <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE : 42P10

Le clustering spécifié ne correspond pas à celui de la table <tableName>existante.

Colonnes de clustering spécifiées : [<specifiedClusteringString>].

Colonnes de clustering existantes : [<existingClusteringString>].

CLUSTERING_NOT_SUPPORTED

SQLSTATE : 42000

'<operation>' ne prend pas en charge le clustering.

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE : 0A000

Contactez votre représentant Databricks pour activer la fonctionnalité cluster-by-auto.

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE : 56038

Veuillez activer clusteringTable.enableClusteringTableFeature pour utiliser CLUSTER BY AUTO.

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE : 56038

CLUSTER BY AUTO nécessite l’activation de l’optimisation prédictive.

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE : 56038

CLUSTER BY AUTO est uniquement pris en charge sur les tables managées UC.

CODEC_NOT_AVAILABLE

SQLSTATE : 56038

Le codec <codecName> n’est pas disponible.

Pour plus d’informations , consultez CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE : 42704

Impossible de trouver un nom court pour le codec <codecName>.

COLLATION_INVALID_NAME

SQLSTATE : 42704

La valeur <collationName> ne représente pas un nom de classement correct. Noms de classement valides suggérés : [<proposals>].

COLLATION_INVALID_PROVIDER

SQLSTATE : 42704

La valeur <provider> ne représente pas un fournisseur de classement correct. Les fournisseurs pris en charge sont : [<supportedProviders>].

COLLATION_MISMATCH

SQLSTATE : 42P21

Impossible de déterminer le classement à utiliser pour les fonctions de chaîne et les opérateurs.

Pour plus d’informations , consultez COLLATION_MISMATCH

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE : 54000

Impossible de créer un tableau avec des <numberOfElements> éléments qui dépassent la limite <maxRoundedArrayLength>de taille du tableau ,

Pour plus d’informations , consultez COLLECTION_SIZE_LIMIT_EXCEEDED

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE : 42601

Les alias de colonne ne sont pas autorisés dans <op>.

COLUMN_ALREADY_EXISTS

SQLSTATE : 42711

La colonne <columnName> existe déjà. Choisissez un autre nom ou renommez la colonne existante.

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE : 0A000

Certaines valeurs du champ <pos> ne sont pas compatibles avec le type de tableau de colonnes. Type attendu <type>.

COLUMN_MASKS_ABAC_MISMATCH

SQLSTATE : 0A000

Les masques de colonne n’ont pas pu être résolus, car il y avait une incompatibilité entre les masques de colonne hérités <tableName> des stratégies et les masques de colonne définis explicitement. Pour continuer, désactivez le contrôle d’accès basé sur les attributs (ABAC) et contactez le support Databricks.

COLUMN_MASKS_CONTRAINTE_VÉRIFICATION_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

La création d’une contrainte CHECK sur une table <tableName> avec des stratégies de masque de colonne n’est pas prise en charge.

COLUMN_MASKS_DUPLIQUER_EN_UTILISANT_NOM_DE_COLONNE

SQLSTATE : 42734

Une <statementType> instruction a tenté d’affecter une stratégie de masque de colonne à une colonne qui incluait deux ou plusieurs autres colonnes référencées dans la USING COLUMNS liste portant le même nom <columnName>, ce qui n’est pas valide.

COLUMN_MASKS_FONCTIONNALITÉ_NON_SUPPORTÉE

SQLSTATE : 0A000

Les stratégies de masque de colonne pour <tableName> ne sont pas prises en charge :

Pour plus d’informations, consultez COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_CHANGEMENT_DE_SCHEMA_INCOMPATIBLE

SQLSTATE : 0A000

Impossible de <statementType> <columnName> de la table <tableName>, car elle est référencée dans une stratégie de masque de colonne pour la colonne <maskedColumn>. Le propriétaire de la table doit supprimer ou modifier cette stratégie avant de continuer.

COLUMN_MASKS_FUSION_SOURCE_NON_SUPPORTÉE

SQLSTATE : 0A000

MERGE INTO les opérations ne prennent pas en charge les stratégies de masque de colonne dans la table source <tableName>.

COLUMN_MASKS_TARGET_NON_PRIS_EN_CHARGE_PAR_MERGE

SQLSTATE : 0A000

Les opérations MERGE INTO ne prennent pas en charge l’écriture dans une table <tableName> avec des stratégies de masque de colonne.

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE : 42K05

Cette instruction a tenté d’affecter une stratégie de masque de colonne à une colonne <columnName> avec plusieurs parties de nom, ce qui n’est pas valide.

COLUMN_MASKS_PARTIE_MULTIPLE_UTILISANT_NOM_DE_COLONNE

SQLSTATE : 42K05

Cette instruction a tenté d’affecter une stratégie de masque de colonne à une colonne et la USING COLUMNS liste incluait le nom <columnName> avec plusieurs parties de nom, ce qui n’est pas valide.

COLUMN_MASKS_PAS_ACTIVÉ

SQLSTATE : 56038

La prise en charge de la définition de masques de colonne n’est pas activée

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE : 0A000

Les stratégies de masque de colonne sont uniquement prises en charge dans Unity Catalog.

COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE : 0A000

Impossible de créer un index ON TABLE <tableName> secondaire, car la table a des stratégies de masque de colonne définies.

COLUMN_MASKS_AFFICHAGE_DES_PARTITIONS_NON_SUPPORTÉ

SQLSTATE : 0A000

SHOW PARTITIONS la commande n’est pas prise en charge pour<format> les tables avec des masques de colonne.

COLUMN_MASKS_COPIE_TABLE_SOURCE_NON_SUPPORTÉ

SQLSTATE : 0A000

Le clonage <mode> à partir d’une table <tableName> avec des stratégies de masque de colonne n’est pas pris en charge.

COLUMN_MASKS_CLONAGE_DE_TABLE_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

Cloner <mode> dans une table <tableName> avec des stratégies de masque de colonne n’est pas pris en charge.

COLUMN_MASKS_CONSTANTE_NON_SUPPORTEE_COMME_PARAMETRE

SQLSTATE : 0AKD1

L’utilisation d’une constante en tant que paramètre dans une stratégie de masque de colonne n’est pas prise en charge. Mettez à jour votre commande SQL pour supprimer la constante de la définition du masque de colonne, puis réessayez la commande.

COLUMN_MASKS_TYPE_DE_DONNÉES_NON_PRIS_EN_CHARGE

SQLSTATE : 0AKDC

La fonction <functionName> utilisée comme stratégie de masque de colonne contient un paramètre avec un type <dataType>de données non pris en charge.

COLUMN_MASKS_FOURNISSEUR_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

Impossible d'exécuter la commande <statementType>, car l'affectation de stratégies de masque de colonne n'est pas prise en charge avec le fournisseur de tables de la source de données cible : «<provider>».

COLUMN_MASKS_UTILISER_NOM_DE_COLONNE_IDENTIQUE_AU_NOM_DE_LA_COLONNE_CIBLE

SQLSTATE : 42734

La colonne <columnName> porte le même nom que la colonne cible, qui n’est pas valide ; supprimez la colonne de la USING COLUMNS liste et réessayez la commande.

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE : 42703

<colType> la colonne <colName> n’est pas définie dans la table <tableName>, les colonnes de table définies sont les suivantes : <tableCols>.

COLUMN_NOT_FOUND

SQLSTATE : 42703

La colonne <colName> est introuvable. Vérifiez l'orthographe et l'exactitude du nom de colonne en fonction de la configuration SQL <caseSensitiveConfig>.

COLONNE_NON_TROUVÉE_DANS_LA_TABLE

SQLSTATE : 42703

Colonne <columnName> introuvable dans la table <tableFullName>.

COLUMN_ORDINAL_OUT_OF_BOUNDS

SQLSTATE : 22003

Ordinal de colonne hors limites. Le nombre de colonnes de la table est <attributesLength>, mais l’ordinal de colonne est <ordinal>.

Les attributs sont les suivants : <attributes>.

COMMANDE_NON_ACTIVÉE

SQLSTATE : 0A000

<command> la commande n’est pas activée.

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE : 42601

Une virgule inattendue avant la définition de contrainte(s). Vérifiez que la clause de contrainte ne commence pas par une virgule lorsque les colonnes (et les attentes) ne sont pas définies.

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE : 42000

La COMMENT ON CONNECTION commande n’est pas encore implémentée

COMPARATOR_RETURNS_NULL

SQLSTATE : 22004

Le comparateur a retourné un NULL pour une comparaison entre <firstValue> et <secondValue>.

Il doit retourner un entier positif pour « supérieur à », 0 pour « égal » et un entier négatif pour « inférieur à ».

Pour revenir au comportement déconseillé où NULL il est traité comme 0 (égal), vous devez définir « spark.sql.legacy.allowNullComparisonResultInArraySort » sur « true ».

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE : 42K09

Impossible de traiter les types de données d’entrée pour l’expression : <expression>.

Pour plus d’informations, consultez COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

CONCURRENT_QUERY

SQLSTATE : 0A000

Une autre instance de cette requête [id : <queryId>] vient d'être démarrée par une session simultanée [runId existant : <existingQueryRunId> nouveau runId : <newQueryRunId>].

CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT

SQLSTATE : 53000

Le nombre minimal d’emplacements gratuits requis dans le cluster est <numTasks>, cependant, le cluster n’a <numSlots> que des emplacements libres. La requête bloque ou échoue. Augmentez la taille du cluster pour continuer.

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE : 40000

Mise à jour simultanée du journal. Plusieurs tâches de streaming détectées pour <batchId>.

Assurez-vous qu'un seul travail de streaming s'exécute sur un emplacement de point de contrôle spécifique simultanément.

CONFIG_NOT_AVAILABLE

SQLSTATE : 42K0I

La configuration <config> n’est pas disponible.

CONFLICTING_CLUSTER_CONFIGURATION

SQLSTATE : 22023

La ou les configurations suivantes sont en conflit avec spark.databricks.streaming.realTimeMode.enabled : <confNames>. Supprimez ces configurations de la configuration de votre cluster et redémarrez votre cluster Spark.

CONFLICTING_DIRECTORY_STRUCTURES

SQLSTATE : KD009

Structures de répertoire en conflit détectées.

Chemins suspects :

<discoveredBasePaths>

Si les chemins fournis sont des répertoires de partition, définissez « basePath » dans les options de la source de données pour spécifier le répertoire racine de la table.

S’il existe plusieurs répertoires racines, chargez-les séparément, puis unionez-les.

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE : KD009

Détection de noms de colonnes de partition en conflit :

<distinctPartColLists>

Pour les répertoires de tables partitionnés, les fichiers de données doivent uniquement se trouver dans des répertoires feuilles.

Et les répertoires au même niveau doivent avoir le même nom de colonne de partition.

Vérifiez les répertoires suivants pour rechercher des fichiers inattendus ou des noms de colonnes de partition incohérents :

<suspiciousPaths>

CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED

SQLSTATE : KD009

Le nom de colonne de partition '<partitionColumnName>' est en conflit avec le nom de colonne réservé.

Le schéma de <tableName> est incompatible avec Hive, Spark génère automatiquement une colonne réservée «<partitionColumnName>» afin de stocker la table d’une manière spécifique.

Utilisez un autre nom pour la colonne de partition.

CONFLICTING_PROVIDER

SQLSTATE : 22023

Le fournisseur <provider> spécifié est incohérent avec le fournisseur <expectedProvider>de catalogue existant. Utilisez «USING <expectedProvider> » et réessayez la commande.

CONFLICTING_SQL_CONFIGURATION

SQLSTATE : 22023

La ou les configurations suivantes sont en conflit avec spark.databricks.streaming.realTimeMode.enabled : <confNames>. Supprimez ces configurations de votre configuration SparkSession.

CONNECT

SQLSTATE : 56 000

Erreur Spark Connect générique.

Pour plus d’informations, consultez CONNECT

CONNECTION_ALREADY_EXISTS

SQLSTATE : 42000

Impossible de créer une connexion <connectionName> , car elle existe déjà.

Choisissez un autre nom, supprimez ou remplacez la connexion existante, ou ajoutez la IF NOT EXISTS clause pour tolérer les connexions préexistantes.

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE : 42000

Impossible d’exécuter cette commande, car le nom de la connexion doit être non vide.

CONNECTION_NOT_FOUND

SQLSTATE : 42000

Impossible d’exécuter cette commande, car le nom <connectionName> de la connexion n’a pas été trouvé.

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE : 42000

Les connexions de type '<connectionType>' ne prennent pas en charge les options suivantes : <optionsNotSupported>. Options prises en charge : <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE : 42000

Impossible de créer la connexion de type '<connectionType>'. Types de connexion pris en charge : <allowedTypes>.

TYPE_DE_CONNEXION_NON_PRIS_EN_CHARGE_POUR_INJECTION_DES_OPTIONS

SQLSTATE : 42000

La connexion avec le nom <connectionName> et le type <connectionType> n’est pas prise en charge dans les options de trame de données.

CONNECTION_TYPE_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION

SQLSTATE : 42000

La connexion avec le nom '<connectionName>' de type '<connectionType>' n’est pas prise en charge pour l’exécution de la fonction de requête distante.

CONNECT_PLAN_INVALIDE

SQLSTATE : 56 000

Le plan Spark Connect n’est pas valide.

Pour plus d’informations , consultez CONNECT_INVALID_PLAN

CONNECT_SESSION_MIGRATION

SQLSTATE : 56 000

Erreur de migration de session générique (userId : <userId>, sessionId : <sessionId>, serverSessionId : <serverSessionId>).

Pour plus de détails, consultez CONNECT_SESSION_MIGRATION

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE : 0A000

Les contraintes de table ne sont prises en charge que dans le Catalogue Unity.

CONSTRAINT_ALREADY_EXISTS

SQLSTATE : 42710

La contrainte '<constraintName>' existe déjà. Supprimez d’abord la contrainte existante.

Contrainte existante :

<oldConstraint>

CONTRAINTE_EXISTE_DÉJÀ_DANS_LE_SCHÉMA

SQLSTATE : 42710

La contrainte <constraintName> existe déjà dans la base de données <schemaName>.

CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE

SQLSTATE : 42710

<serverMessage>

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE : 42704

Impossible de supprimer la contrainte <constraintName> inexistante de la table <tableName>.

CONVERSION_INVALID_INPUT

SQLSTATE : 22018

La valeur <str> (<fmt>) ne peut pas être convertie en <targetType> car elle est incorrecte. Corrigez la valeur en fonction de la syntaxe ou modifiez son format. Utilisez <suggestion> pour tolérer une entrée malformée et retourner NULL à la place.

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE : 21S01

Impossible d’écrire dans <tableName>, la raison est

Pour plus d’informations, consultez COPY_INTO_COLUMN_ARITY_MISMATCH

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE : 0A000

Schéma <scheme>non valide . COPY INTO Actuellement, les informations d’identification sources prennent uniquement en charge s3/s3n/s3a/wasbs/abfss.

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE : 42601

Les informations d’identification sources COPY INTO doivent spécifier <keyList>.

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE : 25000

Les fichiers dupliqués ont été validés dans une opération simultanée COPY INTO. Réessayez plus tard.

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE : 0A000

Schéma <scheme>non valide . COPY INTO Actuellement, le chiffrement source prend uniquement en charge les protocoles s3/s3n/s3a/abfss.

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE : 0A000

COPY INTO le chiffrement prend uniquement en charge ADLS Gen2 ou le format de fichier abfss://

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE : 42601

COPY INTO le chiffrement source doit spécifier «<key> ».

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE : 42601

Option <requiredKey>de chiffrement non valide . COPY INTO le chiffrement source doit spécifier '<requiredKey>' = '<keyValue>'.

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE : 42613

La COPY INTO fonctionnalité «<feature> » n’est pas compatible avec «<incompatibleSetting> ».

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE : 25000

COPY INTO Les transactions autres que l'ajout de données ne sont pas autorisées à être exécutées simultanément avec d'autres transactions. Réessayez plus tard.

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE : 25000

COPY INTO n’a pas pu charger son état, nombre maximal de nouvelles tentatives dépassé.

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE : 42KDG

Une incompatibilité de schéma a été détectée lors de la copie dans la table Delta (Table : <table>).

Cela peut indiquer un problème avec les données entrantes, ou le schéma de table Delta peut être évolué automatiquement en fonction des données entrantes en définissant :

COPY_OPTIONS (‘mergeSchema’ = ‘true’)

Différence de schéma :

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE : 0A000

Le format des fichiers sources doit être l’un des fichiers CSV, JSONAVRO, ORC, PARQUETTEXT ou BINARYFILE. L’utilisation de COPY INTO dans les tables Delta comme source n’est pas prise en charge, car les données en double peuvent être ingérées après les opérations OPTIMIZE. Cette vérification peut être désactivée en exécutant la commande set spark.databricks.delta.copyInto.formatCheck.enabled = falseSQL.

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE : 42KD9

Le répertoire source ne contenait aucun fichier parsable de type <format>. Vérifiez le contenu de «<source> ».

L’erreur peut être silencieuse en définissant «<config> » sur « false ».

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE : 55019

Une erreur interne s’est produite lors du traitement de l’état COPY INTO.

Pour plus d’informations, consultez COPY_INTO_STATE_INTERNAL_ERROR

COPY_INTO_SYNTAX_ERROR

SQLSTATE : 42601

Échec de l’analyse de la commande COPY INTO.

Pour plus d’informations, consultez COPY_INTO_SYNTAX_ERROR

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE : 0A000

La fonctionnalité COPY INTO « <feature> » n’est pas prise en charge.

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE : 42000

Impossible de décharger les données au format «<formatType> ». Les formats pris en charge pour <connectionType> sont les suivants : <allowedFormats>.

CORRUPTED_CATALOG_FUNCTION

SQLSTATE : 0A000

Impossible de convertir la fonction de catalogue '<identifier>' en fonction SQL en raison d’informations de fonction endommagées dans le catalogue. Si la fonction n’est pas une fonction SQL, assurez-vous que le nom de classe '<className>' est chargeable.

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE : 42000

La CREATE FOREIGN SCHEMA commande n’est pas encore implémentée

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE : 42000

La CREATE FOREIGN TABLE commande n’est pas encore implémentée

CREATE_OR_REFRESH_MV_NOT_SUPPORTED

SQLSTATE : 42601

CREATE OR REFRESH MATERIALIZED VIEW n’est pas pris en charge. Utilisez CREATE OR REPLACE MATERIALIZED VIEW à la place.

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE : 0A000

Impossible les vues matérialisées CREATE OU REFRESH les tables de diffusion en continu avec des ASYNC spécifiées. Veillez à supprimer ASYNC de l'instruction CREATE OU REFRESH ou utilisez REFRESH ASYNC pour actualiser de manière asynchrone les vues matérialisées existantes ou les tables de diffusion.

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE : 0A000

Non autorisé à créer la vue <name> permanente sans attribuer explicitement d’alias pour l’expression <attr>.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE : 42710

CREATE TABLE la colonne <columnName> spécifie le descripteur «<optionName> » plusieurs fois, qui n’est pas valide.

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE : 21S01

Impossible de créer une vue <viewName>, la raison est

Pour plus d’informations , consultez CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE : 42601

Indiquez les informations d’identification lors de la création ou de la mise à jour d’emplacements externes.

CREDENTIAL_PURPOSE_MISMATCH

SQLSTATE : 42809

Les informations d’identification <credentialName> ont un objectif <actualPurpose> , mais l’objectif donné dans la commande est <expectedPurpose>.

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE : 0A000

L’option enforceSchema CSV ne peut pas être définie lors de l’utilisation rescuedDataColumn ou failOnUnknownFields, car les colonnes sont lues par nom plutôt que par ordinal.

CYCLIC_FUNCTION_REFERENCE

SQLSTATE : 42887

Référence de fonction cyclique détectée : <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE : 56038

Databricks Delta n’est pas activé dans votre compte.<hints>

DATAFLOW_GRAPH_NOT_FOUND

SQLSTATE : KD012

Graphique de flux de données avec ID <graphId> introuvable

TYPE DE DONNÉE_NON ORDONNABLE

SQLSTATE : 0A000

Le type <dataType> ne prend pas en charge les opérations ordonnées.

DATATYPE_MISMATCH

SQLSTATE : 42K09

Impossible de résoudre <sqlExpr> en raison d’une incompatibilité du type de données :

Pour plus d’informations , consultez DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE : 42K01

DataType <type> nécessite un paramètre de longueur, par exemple <type>(10). Spécifiez la longueur.

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE : 25000

Échec de la traçabilité d’écriture : relation correspondante manquante avec les stratégies pour CLM/RLS.

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE : 42710

La source de données «<provider> » existe déjà. Choisissez un autre nom pour la nouvelle source de données.

CONNEXION_SOURCE_DE_DONNÉES_LISTE_AUTORISÉE_MANQUANTE

SQLSTATE : 42000

Connexion <connectionName> n’est pas prise en charge dans ce contexte, car elle n’a pas de liste d'autorisation d’options externes configurée. Veuillez mettre à jour la connexion pour inclure un <optionName> valide.

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE : KD010

Erreur rencontrée lors de l’enregistrement dans une source de données externe.

DATA_SOURCE_NOT_EXIST

SQLSTATE : 42704

Source de données «<provider> » introuvable. Vérifiez que la source de données est inscrite.

DATA_SOURCE_NOT_FOUND

SQLSTATE : 42K02

Échec de la recherche de la source de données : <provider>. Vérifiez que le nom du fournisseur est correct et que le package est correctement inscrit et compatible avec votre version Spark.

DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE : 42616

Échec de la <dataSource> validation des options de source de données.

Pour plus d’informations , consultez DATA_SOURCE_OPTIONS_VALIDATION_FAILED

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE : 42602

L’option <option> ne doit pas être vide et ne doit pas contenir de caractères non valides, de chaînes de requête ou de paramètres.

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE : 42601

L’option <option> est requise.

OPTION_DE_SOURCE_DE_DONNÉES_NON_AUTORISÉE_PAR_LA_CONNEXION

SQLSTATE : 42000

L’option <optionName> n’est pas autorisée par la connexion <connectionName> et ne peut pas être fournie en externe.

VALEUR_OPTION_SOURCE_DONNÉE_NON_VALIDE

SQLSTATE : 42602

L’option de source de données fournie '<option>' contient une valeur non valide (''<value>).

Pour plus d’informations , consultez DATA_SOURCE_OPTION_VALUE_NOT_VALID

ERREUR_SYNTAXE_SOURCE_DONNÉES_PENDANT_L'EXÉCUTION_DE_REQUÊTE

SQLSTATE : 42000

Le moteur <dataSourceEngine> de source de données externe a généré une erreur de syntaxe lors de l’exécution de la requête «<query> ». <externalEngineError>.

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE : 42K03

Le schéma de la table de source de données ne correspond pas au schéma attendu. Si vous utilisez l’API DataFrameReader.schema ou la création d’une table, évitez de spécifier le schéma.

Schéma de source de données : <dsSchema>

Schéma attendu : <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE : 42KDB

L’URL JDBC n’est pas autorisée dans les options de source de données, spécifiez plutôt les options « hôte », « port » et « base de données ».

DATETIME_FIELD_OUT_OF_BOUNDS

SQLSTATE : 22023

<rangeMessage>.

Pour plus d’informations, consultez DATETIME_FIELD_OUT_OF_BOUNDS

DATETIME_OVERFLOW

SQLSTATE : 22008

Dépassement de capacité de l’opération Datetime : <operation>.

DC_API_QUOTA_EXCEEDED

SQLSTATE : KD000

Vous avez dépassé le quota d’API pour la source de données <sourceName>.

Pour plus de détails, consultez DC_API_QUOTA_EXCEEDED

DC_CONNECTION_ERROR

SQLSTATE : KD000

Échec de la connexion à la <sourceName> source. Code d’erreur : <errorCode>.

Pour plus d’informations , consultez DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels d’API Dynamics, errorCode : <errorCode>.

Pour plus d’informations , consultez DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels JDBC Netsuite, errorCode : <errorCode>.

Pour plus d’informations , consultez DC_NETSUITE_ERROR

DC_SCHEMA_CHANGE_ERROR

SQLSTATE : non assigné

Une modification de schéma s’est produite dans la table <tableName> de la source <sourceName>.

Pour plus d’informations , consultez DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels d’API ServiceNow, errorCode : <errorCode>.

Pour plus d’informations , consultez DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE : KD000

L’ingestion de l’objet <objName> est incomplète, car le travail de requête de l’API Salesforce a pris trop de temps, a échoué ou a été annulé manuellement.

Pour réessayer, vous pouvez réexécuter l’intégralité du pipeline ou actualiser cette table de destination spécifique. Si l’erreur persiste, déposez un ticket. ID de tâche : <jobId>. État de la tâche : <jobStatus>.

DC_SHAREPOINT_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels d’API Sharepoint, errorCode : <errorCode>.

Pour plus d’informations , consultez DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans l’appel d’API <sourceName> . Type d’API source : <apiType>. Code d’erreur : <errorCode>.

Cela peut parfois se produire lorsque vous avez atteint une limite d’API <sourceName> . Si vous n’avez pas dépassé votre limite d’API, essayez de réexécuter le connecteur. Si le problème persiste, veuillez envoyer un ticket.

DC_UNSUPPORTED_ERROR

SQLSTATE : 0A000

Une erreur non prise en charge s’est produite dans la source de données <sourceName>.

Pour plus d’informations , consultez DC_UNSUPPORTED_ERROR

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels d’API RAAS Workday, errorCode : <errorCode>.

Pour plus d’informations , consultez DC_WORKDAY_RAAS_API_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE : 22003

La précision <precision> décimale dépasse la précision <maxPrecision>maximale .

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE : 42704

La base de données <defaultDatabase> par défaut n’existe pas, créez-la d’abord ou remplacez la base de données <defaultDatabase>par défaut par .

DEFAULT_FILE_NOT_FOUND

SQLSTATE : 42K03

Il est possible que les fichiers sous-jacents aient été mis à jour . Vous pouvez invalider explicitement le cache dans Spark en exécutant la commande «REFRESH TABLE tableName » dans SQL ou en recréant le jeu de données/DataFrame impliqué. Si le cache du disque est obsolète ou si les fichiers sous-jacents ont été supprimés, vous pouvez invalider le cache du disque manuellement en redémarrant le cluster.

DEFAULT_PLACEMENT_INVALID

SQLSTATE : 42608

Un DEFAULT mot-clé dans un MERGE, INSERT, UPDATE, ou une commande SET VARIABLE n’a pas pu être affecté directement à une colonne cible car il est inclus dans une expression.

Par exemple : UPDATE SET c1 = DEFAULT est autorisé, mais UPDATE T SET c1 = DEFAULT + 1 n’est pas autorisé.

DEFAULT_UNSUPPORTED

SQLSTATE : 42623

Échec de l'exécution de la commande <statementType> car les valeurs DEFAULT ne sont pas prises en charge pour la source de données cible avec le fournisseur de tables : « <dataSource> ».

DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED

SQLSTATE : 0A000

La définition d’un flux <flowName> unique avec l’option « une fois » n’est pas prise en charge.

DESCRIBE_JSON_NOT_EXTENDED

SQLSTATE : 0A000

DESCRIBE TABLE ... AS JSON uniquement pris en charge lorsque [EXTENDED|FORMATTED] est spécifié.

Par exemple : DESCRIBE EXTENDED <tableName> AS JSON est pris en charge, mais DESCRIBE <tableName> AS JSON pas.

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE : 55019

La requête de diffusion en continu lisait à partir d’une table Delta inattendue (id = '<newTableId>').

Elle était utilisée pour lire à partir d’une autre table Delta (id = '<oldTableId>') en fonction du point de contrôle.

Cela peut se produire lorsque vous avez modifié le code pour lire à partir d’une nouvelle table ou que vous avez supprimé et

recréé une table. Rétablissez votre modification ou supprimez votre point de contrôle de requête de streaming

pour redémarrer à partir de zéro.

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE : 0A000

Les fonctions de fenêtre distinctes ne sont pas prises en charge : <windowExpr>.

DIVIDE_BY_ZERO

SQLSTATE : 22012

Division par zéro. Utilisez try_divide pour tolérer que le diviseur soit égal à 0 et renvoyer NULL à la place. Si nécessaire, définissez <config> la valeur « false » pour contourner cette erreur.

Pour plus d’informations , consultez DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE : 56038

Les attentes ne sont prises en charge que dans un pipeline déclaratif Spark Lakeflow.

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE : 56038

MATERIALIZED Les VUES avec une CLUSTER BY clause sont prises en charge uniquement dans un pipeline Déclaratifs Spark Lakeflow.

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE : 56038

MATERIALIZED VIEW Les emplacements sont pris en charge uniquement dans un pipeline de Pipelines déclaratifs Spark Lakeflow.

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE : 56038

MATERIALIZED VIEW Les schémas avec un type spécifié sont pris en charge uniquement dans un pipeline de Lakeflow Spark Declarative Pipelines.

TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED

SQLSTATE : 56038

CONSTRAINT les clauses d'une vue ne sont prises en charge que dans un pipeline déclaratif Spark Lakeflow.

DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION

SQLSTATE : 0A000

La fonction de requête distante ne prend pas en charge les requêtes DML.

DROP_COMMAND_TYPE_MISMATCH

SQLSTATE : 42809

Impossible de supprimer un <metadataType> avec DROP <commandType>.

Utilisez DROP <metadataTypeUpper> à la place.

DROP_SCHEDULE_DOES_NOT_EXIST

SQLSTATE : 42000

Impossible de supprimer SCHEDULE sur une table sans planification ou déclencheur existant.

DUPLICATED_CTE_NAMES

SQLSTATE : 42602

La définition CTE ne peut pas avoir de noms en double : <duplicateNames>.

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE : 42713

Les noms de champs dupliqués dans Arrow Struct ne sont pas autorisés, obtenu <fieldNames>.

DUPLICATED_MAP_KEY

SQLSTATE : 23505

Un doublon de la clé de carte <key> a été trouvé. Veuillez vérifier les données d'entrée.

Si vous souhaitez supprimer les clés dupliquées, vous pouvez définir <mapKeyDedupPolicy> la valeur «LAST_WIN » pour que la clé insérée en dernier soit prioritaire.

DUPLICATED_METRICS_NAME

SQLSTATE : 42710

Le nom de la métrique n’est pas unique : <metricName>. Le même nom ne peut pas être utilisé pour les métriques avec des résultats différents.

Toutefois, plusieurs instances de métriques portant le même résultat et le même nom sont autorisées (par exemple, les self-joins).

DUPLICATE_ASSIGNMENTS

SQLSTATE : 42701

Les colonnes ou variables <nameList> apparaissent plusieurs fois en tant que cibles d’affectation.

DUPLICATE_CLAUSES

SQLSTATE : 42614

Clauses dupliquées trouvées : <clauseName>. Veuillez supprimer l’une d’entre elles.

DUPLICATE_CONDITION_IN_SCOPE

SQLSTATE : 42734

Condition <condition> dupliquée détectée dans l’étendue. Veuillez supprimer l’une d’entre elles.

DUPLICATE_EXCEPTION_HANDLER

SQLSTATE : 42734

Doublons de gestionnaires trouvés. Veuillez supprimer l’une d’entre elles.

Pour plus d’informations , consultez DUPLICATE_EXCEPTION_HANDLER

DUPLICATE_FLOW_SQL_CONF

SQLSTATE : 42710

Conf SQL en double trouvé pour le jeu de données '<datasetName>' : '<key>' est défini à la fois par '<flowName1>' et '<flowName2>'

DUPLICATE_KEY

SQLSTATE : 23505

Doublons de clés <keyColumn> trouvés.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE : 4274K

L’appel à la routine <routineName> n’est pas valide, car il inclut plusieurs affectations d’arguments au même nom <parameterName>de paramètre.

Pour plus de détails, consultez DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE : 42734

Nom(s) en double trouvé(s) dans la liste des paramètres de la routine <routineName>définie par l’utilisateur : <names>.

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE : 42711

Colonnes en double trouvées dans la liste des colonnes de la clause RETURNS de la routine définie par l’utilisateur <routineName> : <columns>.

NOM_VARIABLE_DUPLIQUÉ_DANS_DECLARE

SQLSTATE : 42734

Variable en double <variableName> trouvée dans la liste des variables declare. Veuillez supprimer l’une d’entre elles.

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE : 42815

Le nœud précédent a émis une ligne avec un eventTime = <emittedRowEventTime>, antérieur à la current_watermark_value = <currentWatermark>

Cela peut entraîner des problèmes de correction dans les opérateurs avec état en aval dans le pipeline d’exécution.

Corrigez la logique de l’opérateur pour émettre des lignes après la valeur globale actuelle du filigrane.

EMPTY_JSON_FIELD_VALUE

SQLSTATE : 42604

Échec de l’analyse d’une chaîne vide pour le type <dataType>de données .

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE : 22023

Fichier local vide dans la requête <operation> intermédiaire

EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

SQLSTATE : 0A000

La <format> source de données ne prend pas en charge l’écriture de schémas vides ou de schémas imbriqués vides. Vérifiez que le schéma de données comporte au moins une ou plusieurs colonnes.

ENCODER_NOT_FOUND

SQLSTATE : 42704

Désolé... Nous n’avons pas trouvé d’encodeur du type <typeName> dans la représentation interne Spark SQL.

Envisagez de remplacer le type d’entrée par l’un des types d’entrée pris en charge par «<docroot> /sql-ref-datatypes.html».

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE : 42K0L

L’étiquette <endLabel> de fin ne peut pas exister sans étiquette de début.

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE : KD000

Certaines partitions dans la ou les rubriques Kafka signalent un décalage disponible inférieur au décalage de fin pendant l’exécution de la requête avec Trigger.AvailableNow. L’erreur peut être temporaire : redémarrez votre requête et signalez si vous voyez toujours le même problème.

dernier décalage : <latestOffset>, fin de décalage : <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE : KD000

Pour la source de données Kafka avec Trigger.AvailableNow, le décalage de fin doit avoir un décalage inférieur ou égal à chaque partition de rubrique par rapport au décalage pré-extrait. L’erreur peut être temporaire : redémarrez votre requête et signalez si vous voyez toujours le même problème.

décalage pré-extrait : <prefetchedOffset>, décalage de fin : <endOffset>.

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE : KD00B

Erreur lors de la lecture des données avro : empreinte inconnue rencontrée : <fingerprint>, incertitude sur le schéma à utiliser.

Cela peut se produire si vous avez inscrit des schémas supplémentaires après avoir démarré votre contexte Spark.

EVENT_LOG_EMPTY

SQLSTATE : 55019

Le journal des événements pour <tableOrPipeline> n'a pas de schéma et ne contient aucun événement. Réessayez ultérieurement une fois les événements générés

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE : 42601

Il est impossible de consulter les journaux des événements depuis un cluster assigné ou un cluster partagé sans isolation, veuillez privilégier l'utilisation d'un cluster partagé ou d'un entrepôt SQL Databricks.

EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE

SQLSTATE : 0A000

La TVF EVENT_LOG n’est pas prise en charge pour les pipelines qui utilisent le champ « schéma » ou qui publient sur le stockage par défaut.

Pour interroger le journal des événements, publiez-le dans le metastore en spécifiant le champ event_log dans les paramètres du pipeline.

Pour plus d’informations, consultez la documentation monitor Lakeflow Spark Declarative Pipeliness pipelines : https://docs.databricks.com/aws/en/delta-live-tables/observability

EVENT_LOG_UNAVAILABLE

SQLSTATE : 55019

Aucun journal des événements n’est disponible pour <tableOrPipeline>. Réessayez ultérieurement une fois les événements générés

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE : 42832

Le type de table de <tableIdentifier> est <tableType>.

L’interrogation des journaux d’événements prend uniquement en charge les vues matérialisées, les tables de diffusion en continu ou les pipelines Lakeflow Spark déclaratifs.

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE : 42K09

L’heure de l’événement <eventName> est de type <eventType> non valide, mais «TIMESTAMP » était attendu.

EXCEED_LIMIT_LENGTH

SQLSTATE : 54006

Dépasse la limitation de longueur du type char/varchar : <limit>.

EXCEL_DATA_SOURCE_NOT_ENABLED

SQLSTATE : 56038

La source de données Excel n’est pas activée dans ce cluster.

EXCEL_FILE_ERROR

SQLSTATE : 58030

Erreur lors du traitement du fichier Excel «<filePath> ».

Pour plus d’informations , consultez EXCEL_FILE_ERROR

EXCEL_VALEUR_OPTION_LECTURE_INVALIDE

SQLSTATE : 42000

Valeur d’option de lecture non valide pour la source de données Excel.

Pour plus d’informations , consultez EXCEL_INVALID_READ_OPTION_VALUE

EXCEL_INVALID_WRITE_OPTION_VALUE

SQLSTATE : 0A000

La source de données Excel ne prend pas en charge la valeur «<value> » pour l’option d’écriture «<option> ».

Pour plus d’informations , consultez EXCEL_INVALID_WRITE_OPTION_VALUE

SCHEMA_D'ÉCRITURE_EXCEL_INVALIDE

SQLSTATE : 42000

La source de données Excel ne prend pas en charge le schéma «<schema> » pour les écritures.

<hint>

EXCEL_PARSING_ERROR

SQLSTATE : 22000

Erreur lors de l’analyse des données Excel.

Pour plus d’informations , consultez EXCEL_PARSING_ERROR

OPTION_D'ÉCRITURE_NON_PRIS_EN_CHARGE_EXCEL

SQLSTATE : 42616

La source de données Excel ne prend pas en charge l’option d’écriture «<option> ».

<hint>

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE : 428H2

EXCEPT la colonne <columnName> a été résolue et devrait être StructType, mais le type <dataType> a été trouvé.

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE : 42702

Les colonnes d’une liste EXCEPT doivent être distinctes et non superposées, mais obtenues (<columns>).

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE : 42703

Les colonnes EXCEPT [<exceptColumns>] ont été résolues, mais ne correspondent à aucune des colonnes [<expandedColumns>] de l’expansion en étoile.

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE : 42703

Le nom <objectName> de colonne/champ dans la EXCEPT clause ne peut pas être résolu. Avez-vous dit l’un des éléments suivants : [<objectList>] ?

Remarque : les colonnes imbriquées de la EXCEPT clause peuvent ne pas inclure de qualificateurs (nom de table, nom de colonne de struct parent, etc.) pendant une expansion de struct ; essayez de supprimer des qualificateurs s’ils sont utilisés avec des colonnes imbriquées.

EXECUTOR_DISK_OUT_OF_SPACE

SQLSTATE : 53100

Le disque d'exécution est à court d'espace. Augmentez la capacité du disque si disponible. Si vous utilisez Serverless, contactez notre équipe de support technique.

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE : 42701

La USING clause de cette EXECUTE IMMEDIATE commande contenait plusieurs arguments avec le même alias (<aliases>), qui n’est pas valide ; mettez à jour la commande pour spécifier des alias uniques, puis réessayez.

EXPECT_PERMANENT_TABLE_NOT_TEMP

SQLSTATE : 42809

'<operation>' attend une table permanente, mais <tableName> est une table temporaire. Spécifiez plutôt une table permanente.

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE : 42809

'<operation>' attend une vue permanente, mais <viewName> est une vue temporaire.

EXPECT_TABLE_NOT_VIEW

SQLSTATE : 42809

« <operation> » attend une table, mais <viewName> est une vue.

Pour plus d’informations , consultez EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE : 42809

La table <tableName> ne prend pas en charge <operation>.

Pour plus d’informations , consultez EXPECT_VIEW_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE : 42846

Échec du décodage d’une ligne en une valeur des expressions : <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE : 42846

Échec de l’encodage d’une valeur des expressions : <expressions> sur une ligne.

LA_TRADUCTION_DE_L’EXPRESSION_VERS_V2_N’EST_PAS_SUPPORTÉE

SQLSTATE : 0A000

L’expression <expr> ne peut pas être traduite en expression v2.

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE : 42822

L’expression <expr> de colonne ne peut pas être triée, car son type <exprType> n’est pas triable.

EXTERNAL_METASTORE_CLIENT_ERROR

SQLSTATE : 58000

Échec de l’opération du client :

Pour plus d’informations , consultez EXTERNAL_METASTORE_CLIENT_ERROR

EXTERNAL_SHALLOW_CLONE_STILL_EXISTS

SQLSTATE : 42893

Échec de l’exécution de l’opération sur la table <sourceTable> source, car le clone <targetTable> peu profond existe toujours et son état n’est pas valide. Si vous souhaitez en effet poursuivre cette opération, nettoyez le clone peu profond en exécutant explicitement la commande DROP.

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE : 0A000

Les tables externes ne prennent pas en charge le schéma <scheme>.

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE : 0A000

Erreur lors de l’exécution de «REFRESH FOREIGN <scope> <name> ». Impossible d’actualiser directement un tissu <scope>, utilisez «REFRESH FOREIGN CATALOG <catalogName>» pour actualiser le catalogue de tissus à la place.

FAILED_EXECUTE_UDF

SQLSTATE : 39000

Échec de la fonction définie par l’utilisateur ( : (<functionName><signature>) => <result>en raison de : <reason>.

FAILED_FUNCTION_CALL

SQLSTATE : 38000

Échec de la préparation de la fonction <funcName> pour l’appel. Veuillez vérifier les arguments de la fonction.

FAILED_JDBC

SQLSTATE : HV000

JDBC <url> a échoué lors de l'opération :

Pour plus d’informations , consultez FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE : 22018

Échec de l’analyse du struct : <raw>.

FAILED_READ_FILE

SQLSTATE : KD001

Erreur lors de la lecture du fichier <path>.

Pour plus d’informations , consultez FAILED_READ_FILE

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE : KD000

Échec de l’inscription des classes auprès de Kryo.

FAILED_RENAME_PATH

SQLSTATE : 42K04

Échec du renommage de <sourcePath> en <targetPath> car la destination existe déjà.

FAILED_RENAME_TEMP_FILE

SQLSTATE : 58030

Impossible de renommer le fichier temporaire <srcPath> en <dstPath> car FileSystem.rename a retourné false.

FAILED_ROW_TO_JSON

SQLSTATE : 2203G

Échec de la conversion de la valeur de ligne <value> de la classe <class> en type SQL <sqlType> cible au format JSON.

ÉCHEC_DE_CRÉATION_DU_PLAN_POUR_REQUÊTE_DIRECTE

SQLSTATE : 58030

Échec de la création d’un plan pour la requête directe sur les fichiers : <dataSourceType>

FAILED_TO_LOAD_ROUTINE

SQLSTATE : 38000

Échec du chargement de la routine <routineName>.

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE : 54001

L’instruction, y compris les fonctions SQL potentielles et les vues référencées, était trop complexe pour analyser.

Pour atténuer cette erreur, divisez l’instruction en plusieurs blocs moins complexes.

FEATURE_NOT_ENABLED

SQLSTATE : 56038

La fonctionnalité <featureName> n’est pas activée. Envisagez de configurer <configKey> à <configValue> afin d'activer cette fonctionnalité.

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE : 56038

<feature> n’est pas pris en charge sur les entrepôts SQL classiques. Pour utiliser cette fonctionnalité, utilisez un entrepôt SQL Pro ou Serverless.

FEATURE_REQUIRES_UC

SQLSTATE : 0AKUD

<feature> n’est pas prise en charge sans Unity Catalog. Pour utiliser cette fonctionnalité, activez le catalogue Unity.

FEATURE_UNAVAILABLE

SQLSTATE : 56038

<feature> n’est pas prise en charge dans votre environnement. Pour utiliser cette fonctionnalité, contactez le support Databricks.

ÉCHEC_DE_RÉCUPÉRATION

SQLSTATE : 58000

La tâche a échoué lors de l’extraction de données ou de métadonnées aléatoires : <errorString>.

FGAC_ON_DEDICATED_COMPUTE_FAILED

SQLSTATE : KD011

Le contrôle d’accès affiné (FGAC) sur le calcul dédié a échoué en raison de l’exception suivante : <message>

FIELD_ALREADY_EXISTS

SQLSTATE : 42710

Colonne <op> impossible, car <fieldNames> existe déjà dans <struct>.

FIELD_NOT_FOUND

SQLSTATE : 42704

Aucun champ de struct de ce type <fieldName> dans <fields>.

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE : 42K04

Le fichier dans le chemin d'accès intermédiaire <path> existe déjà, mais OVERWRITE n'est pas spécifié.

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE : 39000

Une erreur s’est produite dans la fonction fournie par l’utilisateur dans flatMapGroupsWithState. Raison: <reason>

FORBIDDEN_DATASOURCE_IN_SERVERLESS

SQLSTATE : 0A000

L’interrogation de la source <source> de données dans le calcul serverless n’est pas autorisée. Seules les sources de données <allowlist> sont prises en charge dans le calcul serverless.

FORBIDDEN_KEYWORD_IN_JDBC_QUERY

SQLSTATE : 42000

L’option <queryOption> de requête ne peut pas contenir de mots clés interdits. Supprimez les mots clés suivants de la requête : <keywords>

FORBIDDEN_OPERATION

SQLSTATE : 42809

L’opération <statement> n’est pas autorisée sur le <objectType>: <objectName>.

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE : 39000

Une erreur s’est produite dans la fonction fournie par l’utilisateur dans le récepteur de lots foreach. Raison: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE : 39000

Une erreur s’est produite dans la fonction fournie par l’utilisateur dans le récepteur foreach. Raison: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE : 42830

Les colonnes <parentColumns> parentes de la clé étrangère ne correspondent pas aux colonnes <childColumns> enfants de la clé primaire.

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE : 42000

Impossible d’exécuter cette commande, car le nom étranger <objectType> doit être non vide.

FOREIGN_TABLE_CONVERSION_UNSUPPORTED

SQLSTATE : 0AKUC

La table n’est pas éligible à la mise à niveau de l’UC Étrangère vers l’UC Externe. Reason:

Pour plus de détails, consultez FOREIGN_TABLE_CONVERSION_UNSUPPORTED

CONVERSION_DE_VUE_ÉTRANGÈRE_NON_PRIS_EN_CHARGE

SQLSTATE : 0AKUC

L’objet <objectName> n’est pas éligible pour la conversion en vue managée UC. Reason:

Pour plus d’informations , consultez FOREIGN_VIEW_CONVERSION_UNSUPPORTED

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE : 42601

L’inférence from_json a rencontré des mises à jour de schéma en conflit à l’adresse suivante : <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE : 42601

from_json a détecté la présence d’un columnNameOfCorruptRecord (<columnNameOfCorruptRecord>)

dans un JSON objet et ne peut plus continuer. Configurez une valeur différente pour

l’option « columnNameOfCorruptRecord ».

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE : 42601

from_json inférence n’a pas pu lire le schéma stocké à l’adresse suivante : <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE : 42601

from_json n’a pas pu déduire le schéma. Fournissez-en un à la place.

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE : 0A000

from_json inference n’est prise en charge que lors de la définition de tables en flux

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE : 42601

La configuration from_json n’est pas valide :

Pour plus d’informations , consultez FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE : 22KD3

from_json n’a pas pu évoluer de <old> à <new>

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE : 07001

La fonction <function> nécessite des paramètres nommés. Noms de paramètres manquants : <exprs>. Mettez à jour l’appel de fonction pour ajouter des noms pour tous les paramètres, par exemple <function>(param_name => ...).

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE : 42623

Une colonne ne peut pas avoir à la fois une valeur par défaut et une expression de génération, mais la colonne <colName> a la valeur par défaut : (<defaultValue>) et l’expression de génération : (<genExpr>).

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE : 56038

Hive 2.2 et versions antérieures ne prennent pas en charge getTablesByType. Utilisez Hive 2.3 ou version ultérieure.

GET_WARMUP_TRACING_FAILED

SQLSTATE : 42601

Échec de l’obtention du suivi de warmup. Cause :<cause>.

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE : 42601

Fonction get_warmup_tracing() non autorisée.

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE : KD000

Protocole Graphite non valide : <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE : KD000

Le récepteur Graphite nécessite la propriété « <property> ».

GROUPING_COLUMN_MISMATCH

SQLSTATE : 42803

La colonne de regroupement (<grouping>) est introuvable dans les colonnes <groupingColumns>de regroupement .

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE : 42803

Les colonnes de grouping_id (<groupingIdColumn>) ne correspondent pas aux colonnes de regroupement (<groupByColumns>).

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE : 54000

La taille des ensembles de regroupement ne peut pas être supérieure à <maxSize>.

GROUP_BY_AGGREGATE

SQLSTATE : 42903

Les fonctions d’agrégation ne sont pas autorisées dans GROUP BY, mais ont été trouvées dans <sqlExpr>.

Pour plus d’informations , consultez GROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE : 42903

GROUP BY <index> fait référence à une expression <aggExpr> qui contient une fonction d’agrégation. Les fonctions d’agrégation ne sont pas autorisées dans GROUP BY.

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE : 42805

GROUP BY la position <index> n’est pas dans la liste de sélection (plage valide est [1, <size>]).

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE : 42822

L’expression <sqlExpr> ne peut pas être utilisée comme expression de regroupement, car son type <dataType> de données n’est pas un type de données triable.

HDFS_HTTP_ERROR

SQLSTATE : KD00F

Lors de la tentative de lecture à partir de HDFS, la requête HTTP a échoué.

Pour plus d’informations , consultez HDFS_HTTP_ERROR

HINT_UNSUPPORTED_FOR_JDBC_DIALECT

SQLSTATE : 42822

L’option hint n’est pas prise en charge dans <jdbcDialect> la source de données JDBC. Les dialectes pris en charge sont MySQLDialect, OracleDialect et DatabricksDialect.

HIVE_METASTORE_INVALID_PLACEHOLDER_PATH

SQLSTATE : 42K06

La requête ou la commande n’a pas pu s’exécuter, car la configuration « spark.databricks.hive.metastore.tablePlaceholderPath » a fourni un chemin d’espace réservé de table Hive Metastore non valide. Mettez à jour cette configuration avec une nouvelle valeur pour fournir un chemin d’accès valide, puis réexécutez la requête ou la commande.

HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET

SQLSTATE : 42000

La requête ou la commande a échoué, car le chemin d’espace réservé de la table Metastore Hive n’est pas défini, ce qui est requis lorsque l’emplacement du schéma se trouve sur DBFS et que l’emplacement de la table est un objet/fichier. Définissez spark.databricks.hive.metastore.tablePlaceholderPath sur un chemin auquel vous avez accès, puis réexécutez la requête ou la commande.

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE : 22546

Appel non valide à <function>; seules les mémoires tampons de croquis HLL valides sont prises en charge en tant qu’entrées (telles que celles produites par la hll_sketch_agg fonction).

HLL_INVALID_LG_K

SQLSTATE : 22546

Appel non valide à <function>; la lgConfigK valeur doit être comprise entre <min> et <max>, inclusive : <value>.

HLL_K_MUST_BE_CONSTANT

SQLSTATE : 42K0E

Appel non valide à <function>; la K valeur doit être une valeur constante, mais a obtenu une expression non constante.

HLL_UNION_DIFFERENT_LG_K

SQLSTATE : 22000

Les croquis ont des valeurs différentes lgConfigK : <left> et <right>. Définissez le allowDifferentLgConfigK paramètre sur true pour appeler <function> avec différentes lgConfigK valeurs.

HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC

SQLSTATE : 22KD1

Impossible de résoudre le chemin de clone peu profond «<path> » dans une table du catalogue Unity. Vérifiez que la table existe et qu’elle est fédérée au catalogue Unity.

HYBRID_ANALYZER_EXCEPTION

SQLSTATE : 0A000

Une défaillance s’est produite lors de la tentative de résolution d’une requête ou d’une commande avec l’analyseur de point fixe hérité ainsi que le programme de résolution à passe unique.

Pour plus d’informations , consultez HYBRID_ANALYZER_EXCEPTION

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE : 42601

<identifier> n’est pas un identificateur valide, car il comporte plus de <limit> parties de nom.

IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

SQLSTATE : 42601

Option dupliquée de générateur de séquence de colonnes IDENTITY : <sequenceGeneratorOption>.

IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE : 42611

L’étape de colonne IDENTITY ne peut pas être 0.

IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE : 428H2

DataType <dataType> n’est pas pris en charge pour les IDENTITY colonnes.

ILLEGAL_DAY_OF_WEEK

SQLSTATE : 22009

Entrée illégale pour le jour de la semaine : <string>.

ILLEGAL_STATE_STORE_VALUE

SQLSTATE : 42601

Valeur illégale fournie au magasin d’état

Pour plus de détails, consultez ILLEGAL_STATE_STORE_VALUE

INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION

SQLSTATE : 42616

La connexion ne peut pas être créée en raison d’un schéma inapproprié d’URI <uri> fourni pour l’option de connexion «<option> ».

Schémas autorisés : <allowedSchemes>.

Ajoutez un schéma s’il n’est pas présent dans l’URI ou spécifiez un schéma à partir des valeurs autorisées.

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE : 42818

Colonne de pivot <columnName> non valide. Les colonnes d’un tableau croisé dynamique doivent être comparables.

L'ERREUR_INCOMPATIBLE_BATCH_VIEW_READ

SQLSTATE : 42000

La vue <datasetIdentifier> est une vue par lots et doit être référencée à l’aide de SparkSession#read. Cette vérification peut être désactivée en définissant Spark conf pipelines.incompatibleViewCheck.enabled = false.

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE : 42825

<operator> ne peut être effectué que sur des tables avec des types de colonnes compatibles. La colonne <columnOrdinalNumber> de la table <tableOrdinalNumber> est de type <dataType1>, ce qui n'est pas compatible avec celle de la même colonne de la première table.<dataType2>

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE : 56038

Détection d’un DataSourceRegister incompatible. Supprimez la bibliothèque incompatible de classpath ou mettez-la à niveau. Erreur : <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE : KD000

Impossible d’écrire des données incompatibles pour la table <tableName> :

Pour plus de détails, consultez INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE : 42613

Les types de jointure <joinType1> et <joinType2> sont incompatibles.

INCOMPATIBLE_STREAMING_VIEW_READ

SQLSTATE : 42000

La vue <datasetIdentifier> est une vue de streaming et doit être référencée à l’aide de SparkSession#readStream. Cette vérification peut être désactivée en définissant Spark conf pipelines.incompatibleViewCheck.enabled = false.

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE : 51024

La requête SQL d’affichage <viewName> a une modification de schéma incompatible et la colonne <colName> ne peut pas être résolue. Colonnes <expectedNum> nommées <colName> attendues, mais <actualCols> reçues.

Essayez de recréer la vue en exécutant : <suggestion>.

INCOMPLETE_TYPE_DEFINITION

SQLSTATE : 42K01

Type complexe incomplet :

Pour plus d’informations , consultez INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE : 42K0B

Vous pouvez obtenir un résultat différent en raison de la mise à niveau vers

Pour plus d’informations, consultez INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE : 42605

<failure>, <functionName> nécessite au moins <minArgs> des arguments et au maximum <maxArgs> des arguments.

INCORRECT_RAMP_UP_RATE

SQLSTATE : 22003

Le décalage maximal avec <rowsPerSecond> rowsPerSecond est <maxSeconds>, mais « rampUpTimeSeconds » est <rampUpTimeSeconds>.

INDETERMINATE_COLLATION

SQLSTATE : 42P22

Impossible de déterminer le classement à utiliser pour l’opération de chaîne. Utilisez la clause COLLATE pour définir le classement explicitement.

INDETERMINATE_COLLATION_IN_EXPRESSION

SQLSTATE : 42P22

Le type de données de <expr> a une collation indéterminée. Utilisez la clause COLLATE pour définir le classement explicitement.

INDETERMINATE_COLLATION_IN_SCHEMA

SQLSTATE : 42P22

Le schéma contient un tri indéterminé au niveau de [<columnPaths>]. Utilisez la clause COLLATE pour définir le classement explicitement.

INDEX_ALREADY_EXISTS

SQLSTATE : 42710

Impossible de créer l’index <indexName> sur la table <tableName> , car il existe déjà.

INDEX_NOT_FOUND

SQLSTATE : 42704

Impossible de trouver l’index <indexName> sur la table <tableName>.

INET_FUNCTIONS_NOT_ENABLED

SQLSTATE : 0A000

<functionName> est désactivé ou non pris en charge. Les fonctions INET ne sont pas encore disponibles publiquement.

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE : 0A000

Le type <trigger> de déclencheur n’est pas pris en charge pour ce type de cluster.

Utilisez un autre type de déclencheur, par exemple, AvailableNow, Once.

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE : 21S01

Impossible d’écrire dans <tableName>, la raison est

Pour plus de détails, consultez INSERT_COLUMN_ARITY_MISMATCH

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE : 21S01

Impossible d’écrire dans '<tableName>', <reason>:

Colonnes de table : <tableColumns>.

Partitionner des colonnes avec des valeurs statiques : <staticPartCols>.

Colonnes de données : <dataColumns>.

INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS

SQLSTATE : 42000

Toutes les colonnes de la USING clause doivent apparaître dans la même position dans les schémas cible et source. USING la clause contenant des colonnes mal alignées n’est pas prise en charge.

Les colonnes suivantes sont mal alignées : <misalignedReplaceUsingCols>

INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS

SQLSTATE : 42000

La table doit être partitionnée et toutes les colonnes spécifiées doivent représenter l’ensemble complet des colonnes de partition de la table.

Les colonnes suivantes ne sont pas des colonnes de partition : <nonPartitionColumns>

Les colonnes de partitions suivantes sont manquantes : <missingPartitionsColumns>

INSERT_REPLACE_USING_NOT_ENABLED

SQLSTATE : 0A000

Contactez votre représentant Databricks pour activer la INSERT INTO...REPLACE USING fonctionnalité (...) .

INSUFFICIENT_PERMISSIONS

SQLSTATE : 42501

Privilèges insuffisants :

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE : 42501

L’utilisateur <user> dispose de privilèges insuffisants pour l’emplacement <location>externe.

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE : 42501

Il n’y a pas de propriétaire pour <securableName>. Demandez à votre administrateur de définir un propriétaire.

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE : 42501

L’utilisateur ne possède pas <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE : 42501

L’utilisateur n’a pas l’autorisation <action> sur <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE : 42501

Le propriétaire de <securableName> est différent du propriétaire de <parentSecurableName>.

INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT

SQLSTATE : 42501

Le client n’a pas l’autorisation de définir un délai d’expiration de rétention personnalisé pour les résultats cloudFetch.

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE : 42501

Les données d'accès au stockage <credentialName> ont des privilèges insuffisants.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE : 42501

L’utilisateur ne peut pas activer <action> sur <securableName> en raison des autorisations sur les éléments sous-jacents.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE : 42501

L’utilisateur ne peut pas activer <action> sur <securableName> en raison des autorisations sur les éléments sous-jacents :

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE : 22015

Dépassement d’entier pendant le fonctionnement avec des intervalles.

Pour plus d’informations , consultez INTERVAL_ARITHMETIC_OVERFLOW

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE : 22012

Division par zéro. Utilisez try_divide pour tolérer que le diviseur soit égal à 0 et renvoyer NULL à la place.

INVALID_AGGREGATE_FILTER

SQLSTATE : 42903

L’expression FILTER<filterExpr> d’une fonction d’agrégation n’est pas valide.

Pour plus d’informations , consultez INVALID_AGGREGATE_FILTER

INVALID_AGNOSTIC_ENCODER

SQLSTATE : 42001

Trouvé un encodeur indépendant non valide. Attend une instance d’AgnosticEncoder mais a reçu <encoderType>. Pour plus d’informations, consultez «<docroot> /api/java/index.html?org/apache/spark/sql/Encoder.html».

INVALID_ARRAY_INDEX

SQLSTATE : 22003

L’index <indexValue> est hors limites. Le tableau comporte des <arraySize> éléments. Utilisez la fonction SQL get() pour tolérer l’accès à un élément à un index non valide et retourner NULL à la place.

Pour plus d’informations , consultez INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE : 22003

L’index <indexValue> est hors limites. Le tableau comporte des <arraySize> éléments. Utilisez try_element_at pour tolérer l’accès à un élément à un index invalide et retourner NULL à la place.

Pour plus de détails, consultez INVALID_ARRAY_INDEX_IN_ELEMENT_AT

CHEMIN_D'ARTÉFACT_INVALIDE

SQLSTATE : 22023

L’artefact portant le nom <name> n’est pas valide. Le nom doit être un chemin relatif et ne peut pas référencer les répertoires parent/frère/neveu.

INVALID_ATTRIBUTE_NAME_SYNTAX

SQLSTATE : 42601

Erreur de syntaxe dans le nom de l’attribut : <name>. Vérifiez que les backticks apparaissent en paires, une chaîne entre guillemets est une partie de nom complète et utilisez un backtick uniquement à l’intérieur des parties de noms entre guillemets.

DÉLAI_D'EXPIRATION_AUTO_TTL_INVALIDE_EN_JOURS

SQLSTATE : 22003

Le nombre de jours spécifié pour la durée de vie automatique doit être non négatif.

INVALID_AWS_AUTHENTICATION

SQLSTATE : 42000

Choisissez exactement l’une des méthodes d’authentification suivantes :

  • Indiquez le nom de votre information d’identification de service Databricks, <serviceCredential> (en tant qu’option de flux Spark ou comme variable d’environnement de cluster).

  • Fournissez à la fois AWS AccessKey (<awsAccessKey>) et SecretAccessKey (<awsSecretKey>) pour utiliser des clés AWS.

  • Ne fournissez ni les clés AWS ni les informations d'identification d'un service Databricks pour utiliser la chaîne de fournisseur d'informations d'identification par défaut d'AWS pour l'authentification Kinesis.

INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS

SQLSTATE : 42000

Veuillez fournir soit le nom de votre identifiant de service Databricks (<serviceCredential>)

OU à la fois <awsAccessKey> et <awsSecretKey>

INVALID_BITMAP_POSITION

SQLSTATE : 22003

La position <bitPosition> bitmap indexée à 0 est hors limites. L’image bitmap a <bitmapNumBits> bits (<bitmapNumBytes> octets).

INVALID_BOOLEAN_STATEMENT

SQLSTATE : 22546

L’instruction booléenne est attendue dans la condition, mais <invalidStatement> a été trouvée.

INVALID_BOUNDARY

SQLSTATE : 22003

La limite <boundary> n’est pas valide : <invalidValue>.

Pour plus d’informations , consultez INVALID_BOUNDARY

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE : 42601

Impossible d’utiliser <type> pour la colonne de compartiment. Les types de données collationnés ne sont pas pris en charge pour le compartimentage.

INVALID_BUCKET_COUNT

SQLSTATE : 22003

Le nombre de compartiments doit être supérieur à 0, mais inférieur ou égal à bucketing.maxBuckets (<bucketingMaxBuckets>). J'ai reçu <numBuckets>.

INVALID_BUCKET_FILE

SQLSTATE : 58030

Fichier d'échange invalide : <path>.

INVALID_BYTE_STRING

SQLSTATE : 22P03

Le format attendu est ByteString, mais était <unsupported> (<class>).

INVALID_CIDR_RANGE

SQLSTATE : 22023

La fonction <functionName> a reçu une plage CIDR non valide : <value>.

DEMANDE_SESSION_CLONE_NON_VALIDE

SQLSTATE : 42K04

Demande de clone de session non valide.

Pour plus d’informations, consultez INVALID_CLONE_SESSION_REQUEST

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE : 46121

La source <datasource> de données ne peut pas enregistrer la colonne <columnName> , car son nom contient certains caractères qui ne sont pas autorisés dans les chemins d’accès aux fichiers. Utilisez un alias pour le renommer.

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE : 42000

La colonne ou le champ <name> est de type <type> alors qu’il est nécessaire d’être <expectedType>.

INVALID_CONF_VALUE

SQLSTATE : 22022

La valeur '<confValue>' dans la configuration « <confName> » n’est pas valide.

Pour plus d’informations , consultez INVALID_CONF_VALUE

INVALIDE_CARACTÉRISTIQUES_DE_CONTRAINTE

SQLSTATE : 42613

Les caractéristiques de contrainte [<characteristics>] sont dupliquées ou en conflit les unes avec les autres.

INVALID_CORRUPT_RECORD_TYPE

SQLSTATE : 42804

La colonne <columnName> des enregistrements endommagés doit avoir le type STRING pouvant accepter la valeur Null, mais a reçu <actualType>.

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE : 42887

current_recipient la fonction ne peut être utilisée que dans l’instruction CREATE VIEW ou l’instruction ALTER VIEW pour définir une vue de partage uniquement dans le catalogue Unity.

INVALID_CURSOR

SQLSTATE : HY109

Le curseur n’est pas valide.

Pour plus d’informations , consultez INVALID_CURSOR

FORMAT_DE_SOURCE_DE_DONNÉES_INVALIDE_POUR_L'INJECTION_DES_OPTIONS_DE_CONNEXION

SQLSTATE : 42000

La connexion avec le nom <connectionName> et le type <connectionType> ne prend pas en charge le format <actualFormat>. Format pris en charge : <expectedFormat>.

TENTATIVE_NON_AUTORISÉE_DE_SUBSTITUTION_D'OPTION_DE_SOURCE_DE_DONNÉES_INVALIDE

SQLSTATE : 42000

L’option <optionName> existe déjà sur la connexion <connectionName> et ne peut pas être remplacée.

INVALID_DATETIME_PATTERN

SQLSTATE : 22007

Modèle datetime non reconnu : <pattern>.

Pour plus d’informations , consultez INVALID_DATETIME_PATTERN

INVALID_DBFS_MOUNT

SQLSTATE : 42KDL

Le montage DBFS n’est pas accessible.

Pour plus d’informations , consultez INVALID_DBFS_MOUNT

INVALID_DBSQL_CONFIG

SQLSTATE : 42616

<confValue> n’est pas pris en charge pour la clé de configuration SQL <confKey>

INVALID_DEFAULT_VALUE

SQLSTATE : 42623

Impossible d’exécuter <statement> commande, car la colonne de destination ou la variable <colName> a une valeur DEFAULT<defaultValue>,

Pour plus d’informations , consultez INVALID_DEFAULT_VALUE

INVALID_DELIMITER_VALUE

SQLSTATE : 42602

Valeur non valide pour le délimiteur.

Pour plus d’informations , consultez INVALID_DELIMITER_VALUE

INVALID_DEST_CATALOG

SQLSTATE : 42809

Le catalogue de destination de la SYNC commande doit se trouver dans le catalogue Unity. Trouvé <catalog>.

INVALID_DRIVER_MEMORY

SQLSTATE : F0000

La mémoire de système <systemMemory> doit être d'au moins <minSystemMemory>.

Augmentez la taille du segment de mémoire à l’aide de l’option --driver-memory ou de « <config> » dans la configuration Spark.

OPTIONS_DE_SUPPRESSION_DE_TABLE_INVALIDES

SQLSTATE : 42601

Impossible de spécifier à la fois les options PURGE et FORCE dans la commande DROP TABLE. Utilisez l’une ou l’autre PURGE ou FORCE, mais pas les deux.

INVALID_DYNAMIC_OPTIONS

SQLSTATE : 42K10

Les options <option_list> passées sont interdites pour la table source <table_name> contenant une clé étrangère.

INVALID_EMPTY_LOCATION

SQLSTATE : 42K05

Le nom de l’emplacement ne peut pas être une chaîne vide ; cependant, <location> a été fourni.

DÉPENDANCES_PARAMÈTRES_ENVIRONNEMENT_INVALIDES

SQLSTATE : 42000

Le paramètre de dépendances des paramètres d’environnement est manquant ou il n’a pas pu être analysé dans une liste de chaînes. Format attendu : ["dep1 », « dep2"]

PARAMÈTRES_D'ENVIRONNEMENT_INVALIDES_VERSION_D'ENVIRONNEMENT

SQLSTATE : 42000

Cette version du runtime ne prend pas en charge une version d’environnement pour les sources de données. Valeur : <environmentVersion>.

INVALID_ERROR_CONDITION_DECLARATION

SQLSTATE : 42K0R

Déclaration de condition non valide.

Pour plus d’informations , consultez INVALID_ERROR_CONDITION_DECLARATION

INVALID_ESC

SQLSTATE : 42604

Une chaîne d’échappement non valide a été trouvée : <invalidEscape>. La chaîne d’échappement ne doit contenir qu’un seul caractère.

INVALID_ESCAPE_CHAR

SQLSTATE : 42604

EscapeChar doit être un littéral de chaîne de longueur 1, mais a obtenu <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE : F0000

La mémoire <executorMemory> de l’exécuteur doit être au moins <minSystemMemory>.

Augmentez la mémoire de l’exécuteur à l’aide de l’option --executor-memory ou «<config> » dans la configuration Spark.

INVALID_EXPRESSION_ENCODER

SQLSTATE : 42001

Un encodeur d’expression non valide a été trouvé. Attend une instance d’ExpressionEncoder mais a obtenu <encoderType>. Pour plus d’informations, consultez «<docroot> /api/java/index.html?org/apache/spark/sql/Encoder.html».

INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE : 42K09

Le type d’expression doit être de type chaîne, mais a obtenu <exprType>.

INVALID_EXTERNAL_TYPE

SQLSTATE : 42K0N

Le type <externalType> externe n’est pas valide pour le type <type> à l’expression <expr>.

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE : 42000

Impossible d’extraire une valeur de <base>. Un type complexe [STRUCT, ARRAY, MAP] est nécessaire, mais <other> a été obtenu.

INVALID_EXTRACT_FIELD

SQLSTATE : 42601

Impossible d’extraire <field> de <expr>.

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE : 42000

Le nom du champ doit être un littéral de chaîne non nul, mais c’est <extraction>.

INVALID_FIELD_NAME

SQLSTATE : 42000

Le nom <fieldName> du champ n’est pas valide : <path> n’est pas un struct.

INVALID_FLOW_QUERY_TYPE - Type de requête de flux invalide

SQLSTATE : 42000

Flow <flowIdentifier> retourne un type de relation non valide.

Pour plus d’informations , consultez INVALID_FLOW_QUERY_TYPE

INVALID_FORMAT

SQLSTATE : 42601

Le format n’est pas valide : <format>.

Pour plus d’informations , consultez INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE : 22023

La plage valide pour les secondes est [0, 60] (inclusive), mais la valeur fournie est <secAndMicros>. Pour éviter cette erreur, utilisez try_make_timestamp, qui retourne NULL en cas d'erreur.

Si vous ne souhaitez pas utiliser la version d’horodatage par défaut de session de cette fonction, utilisez try_make_timestamp_ntz ou try_make_timestamp_ltz.

INVALID_GET_DIAGNOSTICS_USAGE

SQLSTATE : 42612

Utilisation non valide de l’instruction GETDIAGNOSTICS .

Pour plus de détails, consultez INVALID_GET_DIAGNOSTICS_USAGE

INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE

SQLSTATE : 35000

Utilisation non valide de l’instruction GETDIAGNOSTICS . La seule valeur prise en charge pour un numéro de condition dans l’instruction GETDIAGNOSTICS est 1.

INVALID_HANDLE

SQLSTATE : HY000

Le handle <handle> n’est pas valide.

Pour plus d’informations , consultez INVALID_HANDLE

INVALID_HANDLER_DECLARATION

SQLSTATE : 42K0Q

Déclaration de gestionnaire non valide.

Pour plus de détails, consultez INVALID_HANDLER_DECLARATION

INVALID_HTTP_REQUEST_METHOD

SQLSTATE : 22023

Paramètre d’entrée : méthode, valeur : <paramValue> n’est pas un paramètre valide pour http_request, car il n’est pas une méthode HTTP valide.

INVALID_HTTP_REQUEST_PATH

SQLSTATE : 22023

Paramètre d’entrée : chemin d’accès, valeur : <paramValue> n’est pas un paramètre valide pour http_request, car le chemin d’accès n’est pas autorisé.

INVALID_IDENTIFIER

SQLSTATE : 42602

L’identificateur <ident> non cité n’est pas valide et doit être de retour entre guillemets comme suit : <ident>.

Les identificateurs non cités ne peuvent contenir ASCII que des lettres ('a' - 'z', 'A' - 'Z'), des chiffres ('0' - '9') et un tiret bas ('_').

Les identificateurs non cités ne doivent pas non plus commencer par un chiffre.

Différentes sources de données et magasins de métadonnées peuvent imposer des restrictions supplémentaires sur les identificateurs valides.

INVALID_INDEX_OF_ZERO

SQLSTATE : 22003

L’index 0 n’est pas valide. Un index doit être soit < 0 or > 0 (le premier élément a l’index 1).

INVALID_INLINE_TABLE

SQLSTATE : 42000

Table inline non valide.

Pour plus d’informations , consultez INVALID_INLINE_TABLE

INVALID_INTERVAL_FORMAT

SQLSTATE : 22006

Erreur d’analyse de « <input> » sur l’intervalle. Vérifiez que la valeur fournie est dans un format valide pour définir un intervalle. Vous pouvez référencer la documentation pour connaître le format approprié.

Pour plus d’informations , consultez INVALID_INTERVAL_FORMAT

INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

SQLSTATE : 22006

Impossible d’ajouter un intervalle à une date, car sa partie microsecondes n’est pas 0. Pour résoudre ce problème, convertissez la date d’entrée en horodatage, qui prend en charge l’ajout d’intervalles avec des microsecondes non nulles.

ADRESSE_IP_INVALIDE

SQLSTATE : 22023

La fonction <functionName> a reçu une adresse IP non valide : <value>.

ADRESSE_IP_OU_PLAGE_CIDR_INVALIDE

SQLSTATE : 22023

La fonction <functionName> a reçu une adresse IP ou une plage CIDR non valide : <value>.

INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

SQLSTATE : 46121

<fieldName> n’est pas un identificateur valide de Java et ne peut pas être utilisé comme nom de champ

<walkedTypePath>.

INVALID_JDBC_CONNECTION_OPTION

SQLSTATE : 42616

L’option <optionKey> n’est pas un paramètre valide pour cette connexion jdbc.

INVALID_JDBC_CONNECTION_OPTION_VALUE

SQLSTATE : 42616

L’option <optionKey> avec une valeur <optionValue> n’est pas une option valide pour cette connexion jdbc.

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE : 42613

Type de jointure non valide dans joinWith : <joinType>.

INVALID_JSON_DATA_TYPE

SQLSTATE : 2203G

Échec de la conversion de la JSON chaîne '<invalidType>' en type de données. Entrez un type de données valide.

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE : 2203G

Les classements ne peuvent être appliqués qu’aux types de chaînes, mais le JSON type de données est <jsonType>.

INVALID_JSON_RECORD_TYPE

SQLSTATE : 22023

Un type d’enregistrement JSON non valide a été détecté lors de l’inférence d’un schéma commun en mode <failFastMode>. Type STRUCT attendu, mais <invalidType> trouvé.

INVALID_JSON_ROOT_FIELD

SQLSTATE : 22032

Impossible de convertir JSON le champ racine en type Spark cible.

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE : 22032

Le schéma d’entrée <jsonSchema> ne peut contenir que STRING en tant que type de clé pour un MAP.

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE : F0000

La valeur de la configuration «<bufferSizeConfKey> » doit être inférieure à 2048 Mio, mais a reçu <bufferSizeConfValue> Mio.

INVALID_KRYO_SERIALIZER_NO_DATA

SQLSTATE : 22002

L’objet '<obj>' n’est pas valide ou est mal formé pour être utilisé avec <serdeOp> et <serdeClass>.

INVALID_LABEL_USAGE

SQLSTATE : 42K0L

L’utilisation de l’étiquette <labelName> n’est pas valide.

Pour plus d’informations, consultez INVALID_LABEL_USAGE

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE : 42K0D

Appel de fonction lambda non valide.

Pour plus de détails, consultez INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE : 42613

Le <joinType>JOIN avec une corrélation LATERAL n’est pas autorisée, car une sous-requête OUTER ne peut pas être corrélée à son partenaire de jointure. Supprimez plutôt la corrélation LATERAL ou utilisez un INNERJOIN, ou un OUTERJOIN LEFT.

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE : 42K0E

La limite telle que l’expression <expr> n’est pas valide.

Pour plus de détails, consultez INVALID_LIMIT_LIKE_EXPRESSION

INVALID_LOG_VERSION

SQLSTATE : KD002

UnsupportedLogVersion.

Pour plus d’informations , consultez INVALID_LOG_VERSION

INVALID_NAME_IN_USE_COMMAND

SQLSTATE : 42000

Nom non valide '<name>' dans la <command> commande. Raison: <reason>

INVALID_NON_ABSOLUTE_PATH

SQLSTATE : 22KD1

Le chemin d’accès <path> non absolu fourni ne peut pas être qualifié. Mettez à jour le chemin pour qu’il s'agisse d’un emplacement de montage dbfs valide.

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE : 42K0E

L’opérateur attend une expression déterministe, mais l’expression réelle est <sqlExprs>.

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE : 22003

Le littéral numérique <rawStrippedQualifier> est en dehors de la plage valide pour <typeName>, définie par une valeur minimale de <minValue> et une valeur maximale de <maxValue>. Ajustez la valeur en conséquence.

INVALID_OBSERVED_METRICS

SQLSTATE : 42K0E

Métriques observées non valides.

Pour plus d’informations, consultez INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE : 42K06

Options non valides :

Pour plus d’informations , consultez INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE : 0A000

L'UDF pandas d'agrégation de groupe <functionList> ne peut pas être invoquée en même temps que d'autres fonctions d'agrégation non pandas.

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE : 22023

Un mappage de paramètres non valide a été fourni :

Pour plus d’informations , consultez INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE : 22023

La valeur du ou des paramètres <parameter> dans <functionName> n'est pas valide :

Pour plus d’informations , consultez INVALID_PARAMETER_VALUE

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE : 0A000

Impossible d’utiliser <type> pour la colonne de partition.

INVALID_PARTITION_OPERATION

SQLSTATE : 42601

La commande de partition n’est pas valide.

Pour plus d’informations, consultez INVALID_PARTITION_OPERATION

INVALID_PARTITION_VALUE

SQLSTATE : 42846

Impossible de convertir la valeur <value> en type <dataType> de données pour la colonne <columnName>de partition. Vérifiez que la valeur correspond au type de données attendu pour cette colonne de partition.

INVALID_PIPELINE_ID

SQLSTATE : 42604

L’ID <pipelineId> de pipeline n’est pas valide.

Un ID de pipeline doit être un UUID au format « xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx »

INVALID_PRIVILEGE

SQLSTATE : 42852

Le privilège <privilege> n’est pas valide pour <securable>.

INVALID_PROPERTY_KEY

SQLSTATE : 42602

<key> est une clé de propriété non valide, utilisez des guillemets, par exemple SET <key>=<value>.

INVALID_PROPERTY_VALUE

SQLSTATE : 42602

<value> est une valeur de propriété non valide, utilisez des guillemets, par exemple, SET <key>=<value>

INVALID_QUALIFIED_COLUMN_NAME

SQLSTATE : 42000

Le nom <columnName> de colonne n’est pas valide, car il n’est pas qualifié avec un nom de table ou se compose de plus de 4 parties de nom.

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE : 42613

La requête paramétrable doit utiliser des paramètres positionnels ou nommés, mais pas les deux.

INVALID_RECURSIVE_CTE

SQLSTATE : 42836

Définition récursive non valide trouvée. Les requêtes récursives doivent contenir une déclaration UNION ou une déclaration UNION ALL avec 2 enfants. Le premier enfant doit être le terme d’ancrage sans références récursives. Tout CTE interne de niveau supérieur ne doit pas contenir de références à soi-même.

INVALID_RECURSIVE_REFERENCE

SQLSTATE : 42836

Référence récursive non valide trouvée dans la WITH RECURSIVE clause.

Pour plus d’informations, consultez INVALID_RECURSIVE_REFERENCE

INVALID_REGEXP_REPLACE

SQLSTATE : 22023

Impossible d’effectuer regexp_replace pour la source = « <source> », pattern = « <pattern> », replacement = « <replacement> » et position = <position>.

DÉPENDANCE_RÉINITIALISABLE_INVALIDE

SQLSTATE : 42000

Les tables <upstreamResettableTables> sont réinitialisables, mais ont une dépendance en aval non réinitialisable «<downstreamTable> ». reset échoue, car Spark Streaming ne prend pas en charge les données sources supprimées. Vous pouvez supprimer la propriété <resetAllowedKey> =false de '<downstreamTable>' ou l’ajouter dans les dépendances en amont.

INVALID_RESET_COMMAND_FORMAT

SQLSTATE : 42000

Le format attendu est «RESET » ou «RESET key ». Si vous souhaitez inclure des caractères spéciaux dans la clé, utilisez des guillemets, par exemple RESET key.

INVALID_RESIGNAL_USAGE

SQLSTATE : 0K000

RESIGNAL quand le gestionnaire n’est pas actif. L’instruction RESIGNAL ne peut être utilisée qu’à l’intérieur du corps du gestionnaire d’exceptions.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE : 42501

COPY INTO les informations d’identification doivent inclure AWS_ACCESS_KEY, AWS_SECRET_KEY, et AWS_SESSION_TOKEN.

INVALID_SAVE_MODE

SQLSTATE : 42000

Le mode <mode> d’enregistrement spécifié n’est pas valide. Les modes d’enregistrement valides incluent « append », « overwrite », « ignore », « error », « errorifexists » et « default ».

INVALID_SCHEMA

SQLSTATE : 42K07

Le schéma <inputSchema> d’entrée n’est pas une chaîne de schéma valide.

Pour plus d’informations, consultez INVALID_SCHEMA

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE : 42602

<name> n’est pas un nom valide pour les tables/schémas. Les noms valides ne contiennent que des caractères alphabétiques, des nombres et _.

TYPE_DE_SCHÉMA_NON_VALIDE_NON_STRUCTURÉ

SQLSTATE : 42K09

Type de schéma non valide. Un type struct était attendu, mais <dataType> a été reçu.

INVALID_SCHEME

SQLSTATE : 0AKUC

Le catalogue Unity ne prend pas en charge <name> en tant que schéma de fichiers par défaut.

INVALID_SECRET_LOOKUP

SQLSTATE : 22531

Recherche de secret non valide :

Pour plus d’informations , consultez INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE : 42000

Le format attendu est «SET », «SET key » ou «SET key=value ». Si vous souhaitez inclure des caractères spéciaux dans la clé ou inclure des points-virgules dans la valeur, utilisez des guillemets précédents, par exemple SET key=value.

INVALID_SHARED_ALIAS_NAME

SQLSTATE : 42601

Le nom de l’alias <sharedObjectType> doit être de la forme « schema.name ».

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE : 42613

Le schéma <schema> spécifié par l’utilisateur n’est pas valide lorsque l’option singleVariantColumn est activée. Le schéma doit être un champ variant, ou un champ variant plus un champ de colonne corrompu.

INVALID_SOURCE_CATALOG

SQLSTATE : 42809

Le catalogue source ne doit pas se trouver dans le catalogue Unity pour la SYNC commande. Trouvé <catalog>.

INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND

SQLSTATE : 42KDH

La source de l’opération de service MERGE de filtrage ne peut contenir que des projections et des filtres.

Ajustez l'instruction MERGE ou utilisez une table intermédiaire en tant que source.

<stmt>

INVALID_SPARK_CONFIG

SQLSTATE : 42616

Configuration Spark non valide :

Pour plus d’informations , consultez INVALID_SPARK_CONFIG

INVALID_SQLSTATE

SQLSTATE : 428B3

Valeur non valide SQLSTATE : '<sqlState>'. SQLSTATE doit contenir exactement 5 caractères et contenir uniquement A-Z et 0-9. SQLSTATE ne doit pas commencer par « 00 », « 01 » ou « XX ».

INVALID_SQL_ARG

SQLSTATE : 42K08

L’argument <name> de sql() est non valide. Envisagez de le remplacer par un littéral SQL ou par des fonctions de constructeur de collection telles que map(), array(), struct().

INVALID_SQL_FUNCTION_DATA_ACCESS

SQLSTATE : 42K0E

Impossible de créer une fonction SQL avec CONTAINS SQL qui accède à une table/vue ou à une fonction SQL qui lit les données SQL. READS Utilisez plutôt SQL DATA.

INVALID_SQL_SYNTAX

SQLSTATE : 42000

Syntaxe SQL non valide :

Pour plus d’informations , consultez INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE : 42604

Chemin d'accès invalide dans la requête <operation> de transfert : <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE : 07501

La INTO clause de EXECUTE IMMEDIATE n’est valide que pour les requêtes, mais l’instruction donnée n’est pas une requête : <sqlString>.

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE : 42601

Énoncé ou clause : <operation> n’est pas valide.

TAUX_DE_STREAMING_NON_VALIDE_VERSION_SOURCE

SQLSTATE : 22023

Version non valide pour la source de taux : <version>. La version doit être 1 ou 2.

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL

SQLSTATE : 22023

L’intervalle de déclencheur en temps réel est défini sur <interval> ms. Cela est inférieur au minimum de <minBatchDuration> millisecondes spécifié par spark.databricks.streaming.realTimeMode.minBatchDuration.

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL

SQLSTATE : 22023

L’intervalle de point de contrôle du déclencheur en temps réel de <interval> n’a pas pu être analysé. Vérifiez que vous avez passé un entier positif.

INVALID_SUBQUERY_EXPRESSION

SQLSTATE : 42823

Sous-requête non valide :

Pour plus d’informations , consultez INVALID_SUBQUERY_EXPRESSION

INVALID_TARGET_FOR_ALTER_COMMAND

SQLSTATE : 42809

ALTER <commandTableType> ... <command> ne prend pas en charge <tableName>. ALTER <targetTableType> ... <command> Utilisez à la place.

INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND

SQLSTATE : 42809

ALTER <commandTableType> ... SET TBLPROPERTIES ne prend pas en charge <tableName>. ALTER <targetTableType> ... SET TBLPROPERTIES Utilisez à la place.

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE : 42K0F

Impossible de créer l’objet <objName> persistant du type <obj> , car il fait référence à l’objet <tempObjName> temporaire du type <tempObj>. Veuillez rendre l’objet <tempObjName> temporaire persistant ou rendre l’objet <objName> persistant temporaire.

INVALID_TIMESTAMP_FORMAT

SQLSTATE : 22000

L’horodatage <timestamp> fourni ne correspond pas à la syntaxe <format>attendue.

INVALID_TIMEZONE

SQLSTATE : 22009

Fuseau horaire : <timeZone> n’est pas valide. La zone horaire doit être un ID de zone basé sur une région ou un décalage horaire de zone. Les ID de région doivent avoir la forme « zone/ville », par exemple « Amérique/Los_Angeles ». Les décalages de zone doivent être au format '(+|-)HH', '(+|-)HH :mm' ou '(+--)HH :mm :ss', par exemple '-08', '+01:00' ou '-13:33:33', et doivent se trouver dans la plage comprise entre -18:00 et +18:00. 'Z' et 'UTC' sont acceptés comme synonymes pour '+00:00'.

INVALID_TIME_TRAVEL_SPEC

SQLSTATE : 42K0E

Impossible de spécifier à la fois la version et l’horodatage lors du voyage dans le temps de la table.

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE : 42K0E

L’expression d'horodatage de voyage dans le temps <expr> n’est pas valide.

Pour plus de détails, consultez INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

INVALID_TYPED_LITERAL

SQLSTATE : 42604

La valeur du littéral <valueType> typé n’est pas valide : <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE : 38000

La fonction <funcName> n'implémente pas une ScalarFunction ni une AggregateFunction.

INVALID_UPGRADE_SYNTAX

SQLSTATE : 42809

<command> <supportedOrNot> la table source se trouve dans le metastore Hive et la table de destination se trouve dans le catalogue Unity.

INVALID_URL

SQLSTATE : 22P02

L’URL n’est pas valide : <url>. Utiliser try_parse_url pour tolérer l’URL non valide et retourner NULL à la place.

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE : 42000

Utilisation non valide de <elem> in <prettyName>.

INVALID_UTF8_STRING

SQLSTATE : 22029

Séquence d’octets UTF8 non valide trouvée dans la chaîne : <str>.

INVALID_UUID

SQLSTATE : 42604

L’entrée <uuidInput> n’est pas un UUID valide.

L’UUID doit être au format « xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx »

Vérifiez le format de l’UUID.

INVALID_VARIABLE_DECLARATION

SQLSTATE : 42K0M

Déclaration de variable non valide.

Pour plus d’informations, consultez INVALID_VARIABLE_DECLARATION

INVALID_VARIANT_CAST

SQLSTATE : 22023

La valeur <value> de variante ne peut pas être convertie en <dataType>. Utilisez plutôt try_variant_get.

INVALID_VARIANT_FROM_PARQUET

SQLSTATE : 22023

Variante non valide.

Pour plus d’informations, consultez INVALID_VARIANT_FROM_PARQUET

INVALID_VARIANT_GET_PATH

SQLSTATE : 22023

Le chemin d’accès <path> n’est pas un chemin d’extraction de variante valide dans <functionName>.

Un chemin d’accès valide doit commencer $ et est suivi de zéro ou plusieurs segments comme [123], .name, ['name'], ou ["name"].

INVALID_VARIANT_SHREDDING_SCHEMA

SQLSTATE : 22023

Le schéma <schema> n’est pas un schéma de déchiquetage de variante valide.

INVALID_WHERE_CONDITION

SQLSTATE : 42903

La WHERE condition <condition> contient des expressions non valides : <expressionList>.

Réécrire la requête pour éviter les fonctions de fenêtre, les fonctions d’agrégation et les fonctions de générateur dans la WHERE clause.

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE : 42601

Impossible de spécifier ORDER BY ou un cadre de fenêtre pour <aggFunc>.

INVALID_WITHIN_GROUP_EXPRESSION

SQLSTATE : 42K0K

Fonction <funcName> non valide avec WITHIN GROUP.

Pour plus de détails, consultez INVALID_WITHIN_GROUP_EXPRESSION

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE : 42KDE

L’enregistreur de source de données a généré un nombre non valide de messages de validation. Un seul message de validation d’enregistreur attendu de chaque tâche, mais a reçu <detail>.

INVALID_WRITE_DISTRIBUTION

SQLSTATE : 42000

La distribution d’écriture demandée n’est pas valide.

Pour plus d’informations, consultez INVALID_WRITE_DISTRIBUTION

IRC_CREDENTIAL_VENDING_ERROR

SQLSTATE : 08006

Une erreur s’est produite lors de la connexion à l’hôte IRC, impossible de vendre les informations d’identification pour la table <tableIdentifier>.

Pour plus d’informations , consultez IRC_CREDENTIAL_VENDING_ERROR

ISOLATED_COMMAND_FAILURE

SQLSTATE : 39000

Échec de l’exécution <command>. Sortie de commande :

<output>

ISOLATED_COMMAND_UNKNOWN_FAILURE

SQLSTATE : 39000

Échec de l’exécution <command>.

Erreur_d'environnement_d'isolement

SQLSTATE : 39000

Échec de l’installation des dépendances d’environnement en <name> raison d’une erreur système.

Pour plus d’informations , consultez ISOLATION_ENVIRONMENT_ERROR

ISOLATION_ENVIRONMENT_USER_ERROR

SQLSTATE : 39000

Échec de l’installation des dépendances d’environnement pour <name>.

Pour plus d’informations , consultez ISOLATION_ENVIRONMENT_USER_ERROR

JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

SQLSTATE : 42000

Erreur de syntaxe du moteur externe JDBC. L’erreur a été provoquée par la requête <jdbcQuery>. <externalEngineError>.

Pour plus d’informations , consultez JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE : 42K0E

La condition de jointure <joinCondition> a le type <conditionType>non valide , « BOOLEAN » attendu.

KAFKA_DATA_LOSS

SQLSTATE : 22000

Certaines données ont peut-être été perdues, car elles ne sont plus disponibles dans Kafka ;

soit les données ont été anciennes par Kafka, soit la rubrique a peut-être été supprimée avant que toutes les données de la

le sujet a été traité.

Si vous ne souhaitez pas que votre requête de diffusion en continu échoue dans de tels cas, définissez l’option source failOnDataLoss sur false.

Reason:

Pour plus d’informations , consultez KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE : 22000

Impossible de lire jusqu’à ce que le numéro de séquence souhaité <endSeqNum> pour la partition <shardId> dans

le flux Kinesis <stream> avec le mode consommateur <consumerMode>. La requête échoue en raison de

perte de données potentielle. Le dernier enregistrement de lecture était au numéro de séquence <lastSeqNum>.

Cela peut se produire si les données avec endSeqNum sont déjà obsolètes, ou si le flux Kinesis a été

supprimé et reconstruit avec le même nom. Le comportement d’échec peut être remplacé

en définissant spark.databricks.kinesis.failOnDataLoss sur false dans la configuration Spark.

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE : 51000

Pour les flux kinesis <streamId>, le consommateur EFO <consumerId> précédemment enregistré du flux a été supprimé.

Redémarrez la requête afin qu’un nouveau consommateur soit inscrit.

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED

SQLSTATE : 51000

Pour le fragment <shard>, l’appel précédent de l’API subscribeToShard s’est produit dans un délai de 5 secondes avant ou après l’appel suivant.

Redémarrez la requête après 5 secondes ou plus.

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE : 42K04

Le ShardId au minimum extrait à partir de Kinésis (<fetchedShardId>)

est inférieur au shardId suivi minimal (<trackedShardId>).

Ceci est inattendu et se produit lorsqu'un flux Kinesis est supprimé et recréé avec le même nom.

et une requête de diffusion en continu utilisant ce flux Kinesis est redémarrée à l’aide d’un emplacement de point de contrôle existant.

Redémarrez la requête de streaming avec un nouvel emplacement de point de contrôle ou créez un flux avec un nouveau nom.

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE : 0A000

Mode interrogation Kinesis non pris en charge.

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE : 22000

Pour le shard <shard>, le dernier enregistrement lu à partir de Kinesis dans les extractions précédentes a un numéro de séquence <lastSeqNum>,

qui est supérieur à l’enregistrement lu dans la récupération actuelle avec le numéro de séquence <recordSeqNum>.

Cela est inattendu et peut se produire lorsque la position de début de la nouvelle tentative ou de la récupération suivante est incorrectement initialisée et peut entraîner des enregistrements en aval dupliqués.

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE : 42KDF

Pour consulter Kinesis Streams avec des configurations de consommateur (consumerName, consumerNamePrefix ou registeredConsumerId), consumerMode doit être efo.

KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE

SQLSTATE : 42KDF

Pour lire à partir de flux Kinesis avec des consommateurs inscrits, vous devez spécifier les options registeredConsumerId et registeredConsumerIdType.

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS

SQLSTATE : 42KDF

Pour lire à partir des flux Kinesis, vous devez configurer l'une ou l'autre des options streamName ou streamARN, mais pas les deux, en tant que liste de noms de flux/ARN séparée par des virgules.

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE : 42KDF

Pour lire à partir de Kinesis Streams avec des consommateurs inscrits, ne configurez pas les options consumerName ou consumerNamePrefix, car elles ne prendront pas effet.

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE : 22023

Le nombre d’ID de consommateur enregistrés doit être égal au nombre de flux d’Ebits, mais il a obtenu des id de consommateur <numConsumerIds> et des flux <numStreams>.

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND

SQLSTATE : 22023

Le consommateur <consumerId> inscrit fourni est introuvable pour streamARN <streamARN>. Vérifiez que vous avez inscrit le consommateur ou que vous ne fournissez pas l’option registeredConsumerId .

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE : 22023

Le type <consumerType> de consommateur inscrit n’est pas valide. Il doit être name ou ARN.

KLL_SKETCH_INCOMPATIBLE_MERGE

SQLSTATE : 22000

Pour la fonction <functionName>, ne peut pas fusionner les croquis KLL : <reason>

KLL_SKETCH_INVALID_INPUT

SQLSTATE : 22000

Pour la fonction <functionName>, données binaires de croquis KLL non valides : <reason>

KLL_SKETCH_PLAGE_DE_QUANTILES_INVALIDE

SQLSTATE : 22003

Pour la fonction <functionName>, la valeur quantile doit être comprise entre 0,0 et 1.0 (inclusive), mais a obtenu <quantile>.

KLL_SKETCH_K_MUST_BE_CONSTANT

SQLSTATE : 42K0E

Pour la fonction <functionName>, le paramètre k doit être une valeur constante, mais a obtenu une expression non constante.

KLL_SKETCH_K_OUT_OF_RANGE

SQLSTATE : 22003

Pour la fonction <functionName>, le paramètre k doit être compris entre 8 et 65535 (inclus), mais obtenu <k>.

KRYO_BUFFER_OVERFLOW

SQLSTATE : 54006

Échec de sérialisation de Kryo :<exceptionMsg>. Pour éviter cela, augmentez la valeur «<bufferSizeConfKey> ».

LABELS_MISMATCH

SQLSTATE : 42K0L

L’étiquette <beginLabel> de début ne correspond pas à l’étiquette de <endLabel>fin .

L'ÉTIQUETTE_OU_LA_VARIABLE_EXISTE_DÉJÀ

SQLSTATE : 42K0L

L’étiquette FOR ou la variable <label> existe déjà. Choisissez un autre nom ou renommez l’existant.

LIBELLÉ_OU_POUR_NOM_DE_VARIABLE_INTERDIT

SQLSTATE : 42K0L

L’étiquette ou le nom de la variable FOR<label> est interdit.

LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

SQLSTATE : 0A000

La source de données de fédération Lakehouse «<provider> » nécessite une version plus récente de Databricks Runtime.

Pour plus de détails, consultez LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED

SQLSTATE : 0A000

LATERAL JOIN avec les fonctions de table définies par l’utilisateur optimisées par Arrow (UDTF) n’est pas prise en charge. Les UDTF Arrow ne peuvent pas être utilisées à droite d'une jointure latérale.

Utilisez plutôt une UDTF standard ou restructurez votre requête pour éviter la jointure latérale.

LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED

SQLSTATE : 0A000

CREATE TEMPORARY TABLE sans fournisseur n’est pas autorisé.

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE : 42K03

LOAD DATA le chemin d’accès d’entrée n’existe pas : <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE : 42601

LOCAL doit être utilisé avec le schéma de file, mais a obtenu : <actualSchema>.

LOCATION_ALREADY_EXISTS

SQLSTATE : 42710

Impossible de nommer la table managée, <identifier>car son emplacement <location> associé existe déjà. Choisissez d’abord un autre nom de table ou supprimez l’emplacement existant.

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE : KD000

Certaines partitions dans les rubriques Kafka ont été perdues pendant l’exécution de la requête avec Trigger.AvailableNow. L’erreur peut être temporaire : redémarrez votre requête et signalez si vous voyez toujours le même problème.

partitions de rubrique pour le dernier décalage : <tpsForLatestOffset>, partitions de rubrique pour le décalage de fin : <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE : KD000

Les messages Avro mal formés sont détectés dans la désérialisation des messages. Mode d’analyse : <mode>. Pour traiter le message Avro mal formé comme résultat null, essayez de définir l’option « mode » sur «PERMISSIVE ».

MALFORMED_CHARACTER_CODING

SQLSTATE : 22000

Valeur non valide trouvée lors de l’exécution <function> avec <charset>

MALFORMED_CSV_RECORD

SQLSTATE : KD000

Enregistrement CSV mal formé : <badRecord>

MALFORMED_LOG_FILE

SQLSTATE : KD002

Le fichier journal a été mal formé : échec de lecture de la version correcte du journal à partir de <text>.

MALFORMED_PROTOBUF_MESSAGE

SQLSTATE : 42K0G

Les messages Protobuf mal formés sont détectés dans la désérialisation des messages. Mode d’analyse : <failFastMode>. Pour traiter le message protobuf mal formé en tant que résultat null, essayez de définir l’option « mode » sur «PERMISSIVE ».

MALFORMED_RECORD_IN_PARSING

SQLSTATE : 22023

Les enregistrements mal formés sont détectés dans l’analyse des enregistrements : <badRecord>.

Mode d’analyse : <failFastMode>. Pour traiter les enregistrements mal formés comme résultat null, essayez de définir l’option « mode » sur «PERMISSIVE ».

Pour plus de détails, consultez MALFORMED_RECORD_IN_PARSING

MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

SQLSTATE : 22000

État malformé dans la source RatePerMicroBatch.

Pour plus de détails, consultez MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

MALFORMED_VARIANT

SQLSTATE : 22023

Binaire variant mal formé. Vérifiez que la source de données est valide.

MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING

SQLSTATE : 0A000

Tentative d’activation du clustering Liquid sur une table Apache Iceberg managée sans désactiver les vecteurs de suppression et le suivi des lignes. Les vecteurs de suppression et le suivi des lignes ne sont pas pris en charge pour les tables Apache Iceberg gérées, mais sont requis pour la concurrence au niveau des lignes avec les tables Liquid. Pour activer le clustering Liquid sur une table Apache Iceberg managée avec un contrôle d’accès concurrentiel réduit, les vecteurs de suppression et le suivi des lignes doivent être désactivés pour cette table.

MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED

SQLSTATE : 0A000

Les tables Apache Iceberg gérées ne prennent pas en charge <operation>.

MANAGED_TABLE_WITH_CRED

SQLSTATE : 42613

La création d’une table managée avec des informations d’identification de stockage n’est pas prise en charge.

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE : 55019

<refreshType> Impossible de créer la vue matérialisée car elle est antérieure à l'existence d'un pipelineId. Pour activer <refreshType>, annulez et recréez la vue matérialisée.

VUE_MATÉRIALISÉE_NON_INCREMENTABLE

SQLSTATE : 42601

Impossible de créer la vue matérialisée avec <refreshPolicy> la stratégie d’actualisation, car elle n’est pas prise en charge pour l’actualisation incrémentielle. Reason:

Pour en savoir plus, consultez MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE : 56038

L'opération de vue matérialisée <operation> n'est pas autorisée :

Pour plus de détails, consultez MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE : 0A000

L’expression <expression> de sortie dans une vue matérialisée doit être explicitement aliasée.

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE : 42000

La vue <name> matérialisée n’a pas pu être créée à l'aide d'une requête de diffusion en continu. CREATE Utilisez [OU REFRESH] STREAMING TABLE ou supprimez le mot clé de la clause STREAM de votre condition FROM pour transformer cette relation en une requête en lot.

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE : 0A000

L’opération <operation> n’est actuellement pas prise en charge sur les vues matérialisées.

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE : 54KD1

Impossible de créer la nouvelle variable <variableName> , car le nombre de variables dans la session dépasse le nombre maximal autorisé (<maxNumVariables>).

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE : 22023

maxRecordsPerFetch doit être un entier positif inférieur ou égal à <kinesisRecordLimit>

MCV_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE : 22546

Appel non valide à <function>; seules les mémoires tampons de croquis MCV valides sont prises en charge en tant qu’entrées (telles que celles produites par la mcv_collect_internal fonction).

MERGE_CARDINALITY_VIOLATION

SQLSTATE : 23K01

La condition de recherche ON de l’instruction MERGE a mis en correspondance une seule ligne de la table cible avec plusieurs lignes de la table source.

Cela peut entraîner l'application d'une opération de mise à jour ou de suppression sur la ligne cible plus d'une fois, ce qui n'est pas autorisé.

MERGE_WITHOUT_WHEN

SQLSTATE : 42601

Il doit y avoir au moins une WHEN clause dans une MERGE instruction.

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE : 0A000

METRIC CONSTRAINT n’est pas activé.

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE : 22023

La valeur fournie «<argValue> » n’est pas prise en charge par l’argument «<argName> » pour la METRIC_STORE fonction table.

Pour plus d’informations , consultez METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE : 56038

La routine <routineName> metric Store est actuellement désactivée dans cet environnement.

METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA

SQLSTATE : 42K0E

La définition de la vue de métrique contient une jointure avec des critères ambigus : <expr>. [Utilisez les critères de using jointure ou qualifiez explicitement les colonnes avec l’alias <sourceAlias> .]

METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED

SQLSTATE : 42K0E

La vue métrique ne peut pas utiliser des tables de cache.

METRIC_VIEW_FEATURE_DISABLED

SQLSTATE : 42K0E

La fonctionnalité d’affichage des métriques est désactivée. Vérifiez que « spark.databricks.sql.metricView.enabled » a la valeur true.

METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT

SQLSTATE : 42K0E

La MEASUREfonction () prend uniquement un attribut comme entrée, mais a obtenu <expr>

METRIC_VIEW_INVALID_VIEW_DEFINITION

SQLSTATE : 42K0E

Définition de la vue de métrique non valide. Raison : <reason>.

METRIC_VIEW_IN_CTE_NOT_SUPPORTED

SQLSTATE : 42K0E

La vue métrique n’est pas autorisée dans les définitions CTE. Planifier : <plan>

METRIC_VIEW_JOIN_NOT_SUPPORTED

SQLSTATE : 42K0E

La vue des métriques ne peut pas utiliser de jointures. Planifier : <plan>

METRIC_VIEW_MATERIALIZATIONS_DISABLED

SQLSTATE : 42K0E

Les matérialisations de l’affichage des métriques sont désactivées. Vérifiez que « spark.databricks.sql.metricView.materializations.enabled » a la valeur true.

METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW

SQLSTATE : 42K0E

La matérialisation non agrégée n’est pas prise en charge lorsque l’affichage des métriques fait référence à d’autres vues de métriques.

MATÉRIALISATION_DE_VISION_DE_MESURE_SUR_VISION_TEMPORAIRE_NON_SUPPORTÉE

SQLSTATE : 42K0E

La matérialisation n’est pas prise en charge sur les vues de métriques temporaires.

MATERIALISATION_DE_VUE_METRIQUE_AVEC_EXPRESSIONS_DEPENDANTES_D'INVOKEUR_NON_SUPPORTÉES

SQLSTATE : 42K0E

La matérialisation n’est pas prise en charge pour les vues de métriques contenant des expressions dépendantes de l’appelant. Ces expressions empêchent la réutilisation des matérialisations.

METRIC_VIEW_MEASURE_IN_GROUP_BY

SQLSTATE : 42K0E

<measureColumns> les colonnes de mesure ne peuvent pas être utilisées dans GROUP BY la clause ou comme valeurs catégorielles. Nous vous recommandons de les encapsuler avec une fonction d’agrégation telle que SUM() pour le comportement attendu.

METRIC_VIEW_MISSING_MEASURE_FUNCTION

SQLSTATE : 42K0E

L’utilisation de la colonne <column> de mesure d’une vue de métrique nécessite une MEASUREfonction () pour produire des résultats.

METRIC_VIEW_NOT_MATERIALIZED

SQLSTATE : 42K0E

Appelée commande de vue matérialisée sur la vue métrique sans matérialisation définie

Pour plus d’informations , consultez METRIC_VIEW_NOT_MATERIALIZED

"VUE_METRIQUE_NON_PRIS_EN_CHARGE_DANS_HMS"

SQLSTATE : 42K0E

Les vues métriques ne sont pas prises en charge dans HMS.

METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA

SQLSTATE : 42602

L'affichage des métriques <oldName> ne peut pas être renommé dans un autre catalogue ou schéma : <newName>.

METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED

SQLSTATE : 42K0E

La fonctionnalité de jointure en flocon pour la vue métrique est désactivée. Vérifiez que « spark.databricks.sql.metricView.snowflake.join.enable » a la valeur true.

METRIC_VIEW_UNSUPPORTED_USAGE

SQLSTATE : 42K0E

L’utilisation de l’affichage des métriques n’est pas prise en charge. Planifier : <plan>

METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED

SQLSTATE : 42K0E

La vue métrique n’est pas autorisée à utiliser la fonction fenêtre <expr>.

METRIC_VIEW_YAML_V11_DISABLED (Vue métrique YAML V11 désactivée)

SQLSTATE : 42K0E

La vue de métrique YAML v1.1 est désactivée. Vérifiez que « spark.databricks.sql.metricView.yaml.v11.enabled » a la valeur true.

MIGRATION_NOT_SUPPORTED

SQLSTATE : 42601

<table> n’est pas pris en charge pour la migration vers une table managée UC, car il ne s’agit pas d’une <tableKind> table.

Assurez-vous que la table en cours de migration est une table delta externe UC et

elle est référencée par son nom au lieu du chemin d’accès.

MIGRATION_ROLLBACK_NOT_SUPPORTED

SQLSTATE : 42809

<table> n’est pas pris en charge pour la restauration d'une table managée en table externe, car ce n’est pas une table <tableKind>.

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE : KD000

La source de données Kafka dans Trigger.AvailableNow doit fournir les mêmes partitions de rubriques dans le décalage pré-extrait jusqu’au décalage de fin pour chaque microlot. L’erreur peut être temporaire : redémarrez votre requête et signalez si vous voyez toujours le même problème.

partitions de rubrique pour le décalage pré-extrait : <tpsForPrefetched>, partitions de rubrique pour le décalage de fin : <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE : 42803

L’expression non-agrégation <expression> est basée sur des colonnes qui ne participent pas à la clause GROUP BY.

Ajoutez les colonnes ou l'expression à l'GROUP BY, agrégez l'expression, ou utilisez <expressionAnyValue> si vous ne vous souciez pas de laquelle des valeurs d'un groupe est retournée.

Pour plus d’informations , consultez MISSING_AGGREGATION

MISSING_CATALOG_ABILITY

SQLSTATE : 0A000

Le catalogue <plugin> ne prend pas en charge

Pour plus d’informations , consultez MISSING_CATALOG_ABILITY

MISSING_CLAUSES_FOR_OPERATION

SQLSTATE : 42601

Clause <clauses> manquante pour l’opération <operation>. Ajoutez les clauses requises.

MISSING_CONNECTION_OPTION

SQLSTATE : 42000

Les connexions de type '<connectionType>' doivent inclure les options suivantes : <requiredOptions>.

MISSING_DATABASE_FOR_V1_SESSION_CATALOG

SQLSTATE : 3F000

Le nom de la base de données n’est pas spécifié dans le catalogue de sessions v1. Veillez à fournir un nom de base de données valide lors de l’interaction avec le catalogue v1.

MISSING_GROUP_BY

SQLSTATE : 42803

La requête n’inclut pas de GROUP BY clause. Ajoutez GROUP BY ou transformez-la en fonctions de fenêtre à l’aide de clauses OVER.

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE : 42000

CHECK la contrainte doit avoir un nom.

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE : 42KDF

Le paramètre <parameterName> est requis pour Kafka, mais n’est pas spécifié dans <functionName>.

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE : 42KDF

Le paramètre <parameterName> est obligatoire, mais n’est pas spécifié dans <functionName>.

MISSING_SCHEDULE_DEFINITION

SQLSTATE : 42000

Une définition de planification doit être fournie ci-dessous SCHEDULE.

MISSING_TIMEOUT_CONFIGURATION

SQLSTATE : HY000

L’opération a expiré, mais aucune durée de délai d’expiration n’est configurée. Pour définir un délai d’expiration basé sur le temps de traitement, utilisez « GroupState.setTimeoutDuration() » dans votre opération « mapGroupsWithState » ou « flatMapGroupsWithState ». Pour un délai d’expiration en fonction du temps de l'événement, utilisez « GroupState.setTimeoutTimestamp() » et définissez un watermark à l’aide de « Dataset.withWatermark() ».

MISSING_WINDOW_SPECIFICATION

SQLSTATE : 42P20

La spécification de fenêtre n’est pas définie dans la WINDOW clause pour <windowName>. Pour plus d'informations sur les clauses WINDOW, reportez-vous à «<docroot> /sql-ref-syntax-qry-select-window.html».

MODIFY_BUILTIN_CATALOG

SQLSTATE : 42832

La modification du catalogue <catalogName> intégré n’est pas prise en charge.

MULTIPART_FLOW_NAME_NOT_SUPPORTED

SQLSTATE : 0A000

Le flux avec le nom multipartite '<flowName>' n'est pas pris en charge.

Source de données Excel multiple

SQLSTATE : 42710

Détection de plusieurs sources de données Excel avec le nom <provider> (<sourceNames>). Spécifiez le nom de classe complet ou supprimez-le <externalSource> du classpath.

MULTIPLE_LOAD_PATH

SQLSTATE : 42000

Databricks Delta ne prend pas en charge plusieurs chemins d’accès d’entrée dans l’API load().

chemins d’accès : <pathList>. Pour générer un DataFrame unique en chargeant

plusieurs chemins à partir de la même table Delta, chargez le chemin racine de

table Delta avec les filtres de partition correspondants. Si plusieurs chemins

proviennent de tables Delta différentes, utilisez les API union()/unionByName() de Dataset

pour combiner les DataFrames générés par des appels d’API load() distincts.

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE : 42891

Vous avez trouvé au moins deux contraintes correspondantes avec la condition donnée.

MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

SQLSTATE : 42000

<clause1> et <clause2> ne peuvent pas coexister dans le même opérateur de pipe SQL à l’aide de « |> ». Séparez les clauses de résultat multiples en opérateurs de tube distincts, puis réessayez la requête.

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE : 42K0E

Impossible de spécifier le voyage temporel dans la clause de voyage temporel et les options.

MULTIPLE_XML_DATA_SOURCE

SQLSTATE : 42710

Détection de plusieurs sources de données avec le nom <provider> (<sourceNames>). Spécifiez le nom de classe complet ou supprimez-le <externalSource> du classpath.

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE : 42K0E

L’alias en plusieurs parties (<names>) n’est pas pris en charge avec <expr> car il ne s'agit pas d'une fonction génératrice.

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE : 42K0E

L’expression <expr> ne prend pas en charge plusieurs sources.

VUE_METRIQUE_MULTISOURCE_MESURE_REFERENCEMENT_DIMENSION

SQLSTATE : 42K0E

La colonne <measureColumn> de mesure en mode métrique ne peut pas référencer les colonnes de dimension (<dimensionColumn>).

MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF

SQLSTATE : 42K0E

La référence colonne de mesure non qualifiée <measureColumn> dans une vue métrique multi-sources n’est pas autorisée. Qualifiez la colonne de mesure avec l’alias source.

MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION

SQLSTATE : 42K0E

L’expression d’agrégation au-dessus de plusieurs sources dans la vue métrique n’est pas prise en charge : <expr>.

MULTI_UDF_INTERFACE_ERROR

SQLSTATE : 0A000

Il n'est pas permis d'implémenter l'interface UDF plusieurs fois, pour la classe <className> UDF.

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE : 42613

Clauses ou options <clauses>mutuellement exclusives . Supprimez l’une de ces clauses.

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE : 42601

La requête d’entrée attend un <expectedType>, mais la table sous-jacente est un <givenType>.

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE : 4274K

Les paramètres nommés ne sont pas pris en charge pour la fonction <functionName>; réessayez la requête avec des arguments positionnels à la place de l’appel de fonction.

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE : 0A000

Impossible d’appeler la fonction <functionName> , car les références d’arguments nommés ne sont pas prises en charge. Dans ce cas, la référence d’argument nommé était <argument>.

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE : 0A000

Impossible d’appeler la fonction <functionName> , car les références d’arguments nommés ne sont pas activées ici.

Dans ce cas, la référence d’argument nommé était <argument>.

Définissez « spark.sql.allowNamedFunctionArguments » sur « true » pour activer la fonctionnalité.

NAMESPACE_ALREADY_EXISTS

SQLSTATE : 42000

Impossible de créer un espace de noms <nameSpaceName> , car il existe déjà.

Choisissez un autre nom, supprimez l’espace de noms existant ou ajoutez la clause pour tolérer l’espace IF NOT EXISTS de noms préexistant.

NAMESPACE_NOT_EMPTY

SQLSTATE : 42000

Impossible de supprimer un espace de noms <nameSpaceNameName> , car il contient des objets.

Permet DROP NAMESPACE...CASCADE de supprimer l’espace de noms et tous ses objets.

NAMESPACE_NOT_FOUND

SQLSTATE : 42000

L’espace de noms <nameSpaceName> est introuvable. Vérifiez l’orthographe et l’exactitude de l’espace de noms.

Si vous n’avez pas qualifié le nom avec, vérifiez la sortie current_schema() ou qualifiez le nom avec le correctement.

Pour tolérer l’erreur en cas d’annulation, utilisez DROP NAMESPACE IF EXISTS.

NATIVE_IO_ERROR

SQLSTATE : KD00F

Échec de la requête native. requestId : <requestId>, cloud : <cloud>, opération : <operation>

request: [https : <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>]

erreur: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE : 56038

La source de données XML native n’est pas activée dans ce cluster.

NEGATIVE_SCALE_DISALLOWED

SQLSTATE : 0A000

L’échelle négative n’est pas autorisée : '<scale>'. Définissez la configuration <sqlConf> sur « true » pour l’autoriser.

NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION

SQLSTATE : 22003

A trouvé la valeur négative dans <frequencyExpression>: <negativeValue>, mais attendait une valeur intégrale positive.

NESTED_AGGREGATE_FUNCTION

SQLSTATE : 42607

Il n’est pas autorisé à utiliser une fonction d’agrégation dans l’argument d’une autre fonction d’agrégation. Utilisez la fonction d’agrégation interne dans une sous-requête.

NESTED_EXECUTE_IMMEDIATE

SQLSTATE : 07501

Les commandes imbriquées EXECUTE IMMEDIATE ne sont pas autorisées. Vérifiez que la requête SQL fournie (<sqlString>) ne contient pas une autre EXECUTE IMMEDIATE commande.

RÉFÉRENCES_IMBRIQUÉES_DANS_LA_SOUS-REQUÊTE_LATÉRALE_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

Des références d’étendue externe <expression> ont été détectées dans la sous-requête latérale, ce qui n’est pas pris en charge. Assurez-vous que la sous-requête latérale ne contient pas de sous-requêtes qui référencent des attributs provenant d’étendues externes imbriquées.

NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED (Les références imbriquées dans la sous-requête ne sont pas prises en charge)

SQLSTATE : 0A000

Des références <expression> d’étendue externe ont été détectées dans la sous-requête, ce qui n’est pas pris en charge.

VIOLATION_NOUVELLE_CONTRAINTE_DE_VÉRIFICATION

SQLSTATE : 23512

La nouvelle contrainte de vérification (<expression>) ne peut pas être ajoutée, car elle serait violée par les données existantes dans la table <tableName>. Vérifiez que toutes les lignes existantes répondent à la contrainte avant de l’ajouter.

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE : HV091

<nonExistFields> Les champs n’existent pas. Champs disponibles : <fieldNames>

CONTRAINTE_DE_VÉRIFICATION_NON_DÉTERMINISTIQUE

SQLSTATE : 42621

La contrainte <checkCondition> de vérification n’est pas déterministe. Les contraintes de vérification doivent contenir uniquement des expressions déterministes.

NON_FOLDABLE_ARGUMENT

SQLSTATE : 42K08

La fonction <funcName> nécessite que le paramètre <paramName> soit une expression pliable du type <paramType>, mais l’argument réel est non pliable.

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE : 42613

Lorsqu’il y a plus d'une MATCHED clause dans une MERGE déclaration, seule la dernière MATCHED clause peut omettre la condition.

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE : 42613

Lorsqu’il y a plus d'une NOT MATCHED BY SOURCE clause dans une MERGE déclaration, seule la dernière NOT MATCHED BY SOURCE clause peut omettre la condition.

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE : 42613

Lorsqu’il y a plus d'une NOT MATCHED [BY TARGET] clause dans une MERGE déclaration, seule la dernière NOT MATCHED [BY TARGET] clause peut omettre la condition.

NON_LITERAL_PIVOT_VALUES

SQLSTATE : 42K08

Expressions littérales nécessaires pour les valeurs de tableau croisé dynamique, <expression> trouvé.

NON_PARTITION_COLUMN

SQLSTATE : 42000

PARTITION la clause ne peut pas contenir la colonne non partitionnée : <columnName>.

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE : 42KDE

La fonction Window n’est pas prise en charge dans <windowFunc> (en tant que colonne <columnName>) sur les DataFrames/Datasets de streaming.

Structured Streaming prend uniquement en charge l’agrégation de fenêtres de temps à l’aide de la WINDOW fonction. (spécification de fenêtre : <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE : 42601

Non autorisé dans la FROM clause :

Pour plus d’informations, consultez NOT_ALLOWED_IN_FROM

NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE : 42601

Non autorisé dans la clause de canal WHERE :

Pour plus de détails, consultez NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

NOT_A_CONSTANT_STRING

SQLSTATE : 42601

L’expression <expr> utilisée pour la routine ou la clause <name> doit être une constante STRING qui est NOT NULL.

Pour plus d’informations , consultez NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE : 42809

L’opération <operation> n’est pas autorisée pour <tableIdentWithDB> car ce n’est pas une table partitionnée.

NOT_A_SCALAR_FUNCTION

SQLSTATE : 42887

<functionName> apparaît comme une expression scalaire ici, mais la fonction a été définie comme une fonction de table. Veuillez mettre à jour la requête pour déplacer l’appel de fonction dans la clause FROM, ou redéfinir <functionName> en tant que fonction scalaire.

NOT_A_TABLE_FUNCTION

SQLSTATE : 42887

<functionName> apparaît sous la forme d’une fonction de table ici, mais la fonction a été définie comme une fonction scalaire. Mettez à jour la requête pour déplacer l’appel de fonction en dehors de la clause FROM, ou redéfinissez <functionName> en tant que fonction de table.

NOMBRE_D'ARGUMENTS_INSUFFISANTS

SQLSTATE : 42605

La fonction <functionName> attend au moins <minNum> paramètres, mais a reçu <actualNum> (<actualArgs>).

NOT_NULL_ASSERT_VIOLATION

SQLSTATE : 42000

NULL valeur apparue dans un champ non nullable : <walkedTypePath>si le schéma est déduit à partir d’une classe de tuple/casse Scala ou d’un bean Java, essayez d’utiliser scala. Option[_] ou d’autres types nullables (tels que java.lang.Integer au lieu d’int/scala. Int).

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE : 42000

L’affectation d’un NULL n’est pas autorisée ici.

Pour plus d’informations, consultez NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE : 0A000

ALTER TABLE ALTER / CHANGE COLUMN ne sont pas pris en charge pour modifier dans la <table> la colonne <originName> avec le type <originType> par <newName> avec le type <newType>.

NOT_SUPPORTED_CHANGE_SAME_COLUMN

SQLSTATE : 0A000

ALTER TABLE ALTER / CHANGE COLUMN ne sont pas pris en charge pour modifier dans la <table> la colonne <fieldName>, notamment ses champs imbriqués plusieurs fois dans la même commande.

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE : 0A000

<cmd> n’est pas pris en charge pour les tables v2.

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE : 0A000

<cmd> n’est pas pris en charge, si vous souhaitez l’activer, définissez « spark.sql.catalogImplementation » sur « hive ».

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE : 0A000

Commande non prise en charge dans le catalogue JDBC :

Pour plus d’informations , consultez NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE : 0A000

<operation> n’est pas pris en charge sur un sql <endpoint>.

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE : 0A000

<operation> n’est pas pris en charge sur le calcul serverless.

NOT_UNRESOLVED_ENCODER

SQLSTATE : 42601

Un encodeur non résolu était attendu, mais <attr> a été trouvé.

PAS_DE_TRANSACTION_ACTIVE

SQLSTATE : 25000

Il n’existe aucune transaction active à <action>.

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE : 42608

Impossible de déterminer la valeur par défaut car <colName> elle n’est pas nullable et n’a pas de valeur par défaut.

NO_HANDLER_FOR_UDAF

SQLSTATE : 42000

Aucun gestionnaire pour l’UDAF « <functionName> ». Utilisez sparkSession.udf.register(...) à la place.

NO_MERGE_ACTION_SPECIFIED

SQLSTATE : 42K0E

df.mergeInto doit être suivi d’au moins un whenMatched/whenNotMatched/whenNotMatchedBySource.

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE : 22KD1

Aucun emplacement externe parent trouvé pour le chemin « <path> ». Créez un emplacement externe sur l’un des chemins parent, puis réessayez la requête ou la commande.

NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION

SQLSTATE : 42704

TABLE <table> n’a pas de contrainte de clé primaire.

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE : 42S22

Impossible de trouver <catalystFieldPath> dans le schéma Protobuf.

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE : non assigné

Aucun emplacement de stockage n’a été trouvé pour la table «<tableId> » lors de la génération d’informations d’identification de table. Vérifiez le type de table et l’URL de l’emplacement de la table, puis réessayez la requête ou la commande.

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE : 42704

Le catalogue '<catalog>' est introuvable. Vérifiez le nom du catalogue, puis réessayez la requête ou la commande.

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE : non assigné

La salle propre '<cleanroom>' n’existe pas. Vérifiez que le nom de la salle propre est correctement orthographié et correspond au nom d’une salle propre valide, puis réessayez la requête ou la commande.

NO_SUCH_CONSTRAINT_EXCEPTION

SQLSTATE : 42704

Contrainte <constraint> introuvable dans <identifier>.

NO_SUCH_CREDENTIAL_EXCEPTION

SQLSTATE : KD000

Les informations d’identification « <credential> » n’existent pas. Vérifiez que le nom des informations d’identification est correctement orthographié et correspond au nom d’une information d’identification existante valide, puis réessayez la requête ou la commande.

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE : non assigné

L’emplacement externe '<externalLocation>' n’existe pas. Vérifiez que le nom de l’emplacement externe est correct, puis réessayez la requête ou la commande.

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE : non assigné

Le metastore est introuvable. Demandez à votre administrateur de compte d’affecter un metastore à l’espace de travail actuel, puis réessayez la requête ou la commande.

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE : non assigné

Le fournisseur de partage '<providerName>' n’existe pas. Vérifiez que le nom du fournisseur de partage est correctement orthographié et correspond au nom d’un nom de fournisseur existant valide, puis réessayez la requête ou la commande.

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE : non assigné

Le destinataire '<recipient>' n’existe pas. Vérifiez que le nom du destinataire est correctement orthographié et correspond au nom d’un destinataire existant valide, puis réessayez la requête ou la commande.

NO_SUCH_SHARE_EXCEPTION

SQLSTATE : non assigné

Le partage '<share>' n’existe pas. Vérifiez que le nom du partage est orthographié correctement et correspond au nom d’un partage existant valide, puis réessayez la requête ou la commande.

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE : non assigné

Les informations d’identification de stockage '<storageCredential>' n’existent pas. Vérifiez que le nom des informations d’identification de stockage est correctement orthographié et correspond au nom d’informations d’identification de stockage existantes valides, puis réessayez la requête ou la commande.

NO_SUCH_USER_EXCEPTION

SQLSTATE : non assigné

L’utilisateur '<userName>' n’existe pas. Vérifiez que l’utilisateur auquel vous accordez l’autorisation ou la modification de propriété est correctement orthographié et correspond au nom d’un utilisateur existant valide, puis réessayez la requête ou la commande.

NO_UDF_INTERFACE

SQLSTATE : 38000

La classe <className> UDF n’implémente aucune interface UDF.

NULLABLE_COLUMN_OR_FIELD

SQLSTATE : 42000

La colonne ou le champ <name> peuvent accepter la valeur Null alors qu’il est obligatoire qu’ils ne puissent pas accepter la valeur Null.

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE : 42000

Les attributs d’ID de ligne ne peuvent pas être nullables : <nullableRowIdAttrs>.

NULL_DATA_SOURCE_OPTION

SQLSTATE : 22024

L’option <option> de lecture/écriture de la source de données ne peut pas avoir de valeur Null.

NULL_MAP_KEY

SQLSTATE : 2200E

Impossible d’utiliser null comme clé de carte.

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE : 22004

L’exécution immédiate nécessite une variable non null comme chaîne de requête, mais la variable <varName> fournie est null.

NULL_VALUE_SIGNAL_STATEMENT

SQLSTATE : 22004

Les arguments d’instruction signal nécessitent des valeurs non null, mais <argument> ont reçu une valeur Null.

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE : 22003

La valeur <value> ne peut pas être interprétée comme numérique, car elle a plus de 38 chiffres.

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE : 22003

Pour plus d’informations , consultez NUMERIC_VALUE_OUT_OF_RANGE

NUM_COLUMNS_MISMATCH

SQLSTATE : 42826

<operator> ne peut être effectué que sur les entrées avec le même nombre de colonnes, mais la première entrée comporte <firstNumColumns> des colonnes et l’entrée <invalidOrdinalNum> comporte <invalidNumColumns> des colonnes.

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE : 42826

Le nombre d’alias donnés ne correspond pas au nombre de colonnes de sortie.

Nom de la fonction : <funcName>; nombre d’alias : <aliasesNum>; nombre de colonnes de sortie : <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE : 22KD2

Aucune déclaration d’identité personnalisée n’a été fournie.

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE : 42K0E

La fonction d’appel <functionName> n’est pas prise en charge dans ce <location> ; <supportedFunctions> prise en charge ici.

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE : 0A000

L’opération SQL <operation> n’est prise en charge que sur les connecteurs Databricks SQL avec support de Unity Catalog.

OPERATION_CANCELED

SQLSTATE : HY008

L’opération a été annulée.

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE : 0AKUD

L’opération <operation> nécessite l’activation du catalogue Unity.

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE : 42KD1

<plan> n’est pas pris en charge en mode session en lecture seule.

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE : 42805

ORDER BY la position <index> n’est pas dans la liste de sélection (plage valide est [1, <size>]).

PARQUET_CONVERSION_FAILURE

SQLSTATE : 42846

Impossible de créer un convertisseur Parquet pour le type <dataType> de données dont le type Parquet est <parquetType>.

Pour plus d’informations , consultez PARQUET_CONVERSION_FAILURE

PARQUET_TYPE_ILLEGAL

SQLSTATE : 42846

Type Parquet illégal : <parquetType>.

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE : 42846

Type Parquet non reconnu : <field>.

PARQUET_TYPE_NOT_SUPPORTED

SQLSTATE : 42846

Type Parquet non encore pris en charge : <parquetType>.

PARSE_EMPTY_STATEMENT

SQLSTATE : 42617

Erreur de syntaxe, instruction vide inattendue.

PARSE_MODE_UNSUPPORTED

SQLSTATE : 42601

La fonction <funcName> ne prend pas en charge le <mode> mode. Les modes acceptables sont PERMISSIVE et FAILFAST.

PARSE_SYNTAX_ERROR

SQLSTATE : 42601

Erreur de syntaxe à ou à proximité <error> <hint>.

PARTITIONS_ALREADY_EXIST

SQLSTATE : 428FT

Impossible d'ajouter ou d'assigner RENAME aux partitions <partitionList> dans la table <tableName>, car elles existent déjà.

Choisissez un autre nom, supprimez la partition existante ou ajoutez la IF NOT EXISTS clause pour tolérer une partition préexistante.

PARTITIONS_NOT_FOUND

SQLSTATE : 428FT

La ou les <partitionList> partitions sont introuvables dans la table <tableName>.

Vérifiez la spécification de partition et le nom de la table.

Pour tolérer l’erreur en cas d’annulation, utilisez ALTER TABLE ... DROP IF EXISTS PARTITION.

PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE : 42000

<column> Colonne de partition introuvable dans le schéma <schema>. Indiquez la colonne existante pour le partitionnement.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE : 42K04

L’emplacement <locationPath> de partition existe déjà dans la table <tableName>.

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE : 42KD5

Échec de l’exécution de l’instruction ALTER TABLE SET PARTITION LOCATION, car la

l’emplacement de la partition <location> n’est pas sous le répertoire de table <table>.

Pour résoudre ce problème, définissez l’emplacement de la partition sur un sous-répertoire de <table>.

PARTITION_METADATA

SQLSTATE : 0AKUC

<action> n’est pas autorisé sur la table <tableName> , car le stockage des métadonnées de partition n’est pas pris en charge dans le catalogue Unity.

PARTITION_NUMBER_MISMATCH

SQLSTATE : KD009

Nombre de valeurs (<partitionNumber>) ne correspond pas à la taille du schéma (<partitionSchemaSize>) : les valeurs sont <partitionValues>, le schéma est <partitionSchema>, le chemin d’accès au fichier est <urlEncodedPath>.

Veuillez recréer la table ou contacter le propriétaire.

PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

SQLSTATE : 42S23

L’expression <expression> doit se trouver à l’intérieur de « partitionedBy ».

PATH_ALREADY_EXISTS

SQLSTATE : 42K04

Le chemin <outputPath> existe déjà. Définissez le mode comme « remplacer » pour remplacer le chemin existant.

PATH_NOT_FOUND

SQLSTATE : 42K03

Le chemin d’accès n’existe pas : <path>.

ERREUR_DE_RÉSOLUTION_DE_CHEMIN

SQLSTATE : KD013

Impossible de résoudre le chemin <path>. Provoqué par : <causedBy>

PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE : 54000

La désérialisation du plan protobuf Photon nécessite au moins des octets <size>, ce qui dépasse le

limite d’octets <limit>. Cela pourrait être dû à un très grand plan ou à la présence d’un

schéma étendu Essayez de simplifier la requête, de supprimer les colonnes inutiles ou de désactiver Photon.

PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE : 54000

Le plan protobuf photon sérialisé a une taille de <size> octets, qui dépasse la limite de

<limit> octets. La taille sérialisée des types de données dans le plan est de <dataTypeSize> octets.

Cela peut être dû à un plan très volumineux ou à la présence d’un schéma très large.

Envisagez de réécrire la requête pour supprimer les opérations et colonnes indésirables ou désactiver Photon.

PIPELINE_DATASET_SANS_FLUX

SQLSTATE : 0A000

Le jeu de données de <identifier> pipeline n’a pas de flux définis. Joignez une requête à la définition du jeu de données ou définissez explicitement au moins un flux qui écrit dans le jeu de données.

PIPELINE_DOES_NOT_EXIST

SQLSTATE : 42K03

Le pipeline '<pipelineId>' n’existe pas

Pour plus d’informations , consultez PIPELINE_DOES_NOT_EXIST

PIPELINE_DUPLICATE_IDENTIFIERS

SQLSTATE : 42710

Un identificateur en double a été trouvé pour les éléments inscrits dans le graphique de flux de données du pipeline.

Pour plus d’informations , consultez PIPELINE_DUPLICATE_IDENTIFIERS

PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR

SQLSTATE : 42000

<message>

<offendingQuery>

<codeLocation>

RACINE_DU_STOCKAGE_PIPELINE_INVALIDE

SQLSTATE : 42K03

La racine de stockage de pipeline doit être un chemin absolu avec un schéma d’URI (par exemple, file://, s3a ://, hdfs://). Got : <storage_root>.

PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

SQLSTATE : 0A000

L’expression <expr> non groupante est fournie en tant qu’argument de l’opérateur |>AGGREGATE canal, mais ne contient aucune fonction d’agrégation. Mettez-la à jour pour inclure une fonction d’agrégation, puis réessayez la requête.

PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE : 0A000

La fonction <expr> d’agrégation n’est pas autorisée lors de l’utilisation de l’opérateur de canal |><clause> clause ; utilisez plutôt l’opérateur de canal |>AGGREGATE clause.

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE : 42K09

Valeur de pivot «<value>» non valide : le type de données de la valeur <valueType> ne correspond pas au type de données de la colonne de pivot <pivotType>.

POLICY_ALREADY_EXISTS

SQLSTATE : 42000

Impossible de créer une stratégie <policyName> , car elle existe déjà.

Choisissez un autre nom ou supprimez la stratégie existante pour tolérer les connexions préexistantes.

POLICY_NOT_FOUND

SQLSTATE : 22023

Impossible d'exécuter la commande <commandType> parce que la stratégie <policyName> sur <securableFullname> est introuvable.

Vérifiez l’orthographe et la correction.

POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED

SQLSTATE : 42000

Impossible de créer une stratégie pour le type sécurisable <securableType>. Types sécurisables pris en charge : <allowedTypes>.

FONCTIONNALITÉ_APERÇU_NON_ACTIVÉE

SQLSTATE : 56038

La fonctionnalité <featureName> d’aperçu n’est pas activée. Contactez l’administrateur de votre espace de travail pour activer cette fonctionnalité via le portail en préversion.

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE : 42605

La procédure <procedureName> prévoit des arguments <expected>, mais <actual> ont été fournis.

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE : 0A000

CREATE PROCEDURE avec une définition de routine vide n’est pas autorisée.

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE : 42601

Le paramètre <parameterName> est défini avec le mode paramètre <parameterMode>. OUT et le paramètre INOUT ne peuvent pas être omis lors de l’appel d’une routine et ne prennent donc pas en charge une expression DEFAULT. Pour continuer, supprimez la DEFAULT clause ou remplacez le mode INde paramètre par .

PROCEDURE_NOT_SUPPORTED

SQLSTATE : 0A000

Le procédure stockée n’est pas prise en charge

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE : 0A000

La procédure stockée n’est pas prise en charge avec le metastore Hive. Utilisez plutôt le catalogue Unity.

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE : 42K0G

Impossible de trouver la dépendance : <dependencyName>.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE : 42K0G

Erreur lors de la lecture du fichier descripteur Protobuf au chemin : <filePath>.

PROTOBUF_FIELD_MISSING

SQLSTATE : 42K0G

La recherche de <field> dans le schéma Protobuf à <protobufSchema> a donné des correspondances <matchSize>. Candidats : <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE : 42K0G

Trouvé <field> dans le schéma Protobuf, mais il n’existe aucune correspondance dans le schéma SQL.

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE : 42K0G

Incompatibilité de type rencontrée pour le champ : <field>.

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE : 0A000

Les classes Java ne sont pas prises en charge pour <protobufFunction>. Contactez le support Databricks sur d’autres options.

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE : 42K0G

Impossible de localiser le message <messageName> dans descripteur.

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE : 22KD3

Impossible d’appeler la <functionName> fonction SQL, car la source de données Protobuf n’est pas chargée.

Redémarrez votre travail ou session avec le package « spark-protobuf » chargé, par exemple en utilisant l’argument --packages sur la ligne de commande, puis réessayez votre requête ou commande.

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE : 42K0G

Type Protobuf non encore pris en charge : <protobufType>.

PS_FETCH_RETRY_EXCEPTION

SQLSTATE : 22000

Impossible de réessayer la tâche de l’étape d’extraction pubsub. Partition <partitionInfo> dans l’étape <stageInfo>, TID <taskId>.

PS_INVALID_EMPTY_OPTION

SQLSTATE : 42000

<key> ne peut pas être une chaîne vide.

PS_INVALID_KEY_TYPE

SQLSTATE : 22000

Type de clé non valide pour PubSub dedup : <key>.

PS_INVALID_OPTION

SQLSTATE : 42000

L’option <key> n’est pas prise en charge par PubSub. Il ne peut être utilisé que dans les tests.

PS_INVALID_OPTION_TYPE

SQLSTATE : 42000

Type non valide pour <key>. Type attendu pour <key> : type <type>.

PS_INVALID_READ_LIMIT

SQLSTATE : 42000

Limite de lecture non valide sur le flux PubSub : <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE : 22000

Non valide UnsafeRow à décoder en PubSubMessageMetadata, le schéma proto souhaité est : <protoSchema>. L’entrée UnsafeRow peut être endommagée : <unsafeRow>.

PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION

SQLSTATE : 42000

La requête ou la commande a échoué en raison d’une option de lecture non valide : dans spark.readStream.format(« pubsub »).option(« workloadIdentityFederation.audience », <audience>). Mise à jour <audience> pour correspondre au format suivant : //iam.googleapis.com/projects/{}PROJECT_NUMBER/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID}, puis réessayez la requête ou la commande.

PS_MISSING_AUTH_INFO

SQLSTATE : 42000

Échec de la recherche des informations d’authentification PubSub complètes.

PS_MISSING_REQUIRED_OPTION

SQLSTATE : 42000

Impossible de trouver l’option requise : <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE : 22000

Impossible de déplacer les fichiers de point de contrôle de données brutes à partir de <src> vers le répertoire de destination : <dest>.

PS_MULTIPLE_AUTH_OPTIONS

SQLSTATE : 42000

Indiquez vos informations d’identification de service Databricks ou vos informations d’identification de compte de service GCP.

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE : 22000

Le flux PubSub ne peut pas être démarré car il existe plusieurs échecs de récupération : <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE : 22000

<key> doit se trouver dans les limites suivantes (<min>, <max>) exclusives des deux limites.

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE : 42000

Les clusters partagés ne prennent pas en charge l’authentification avec les profils d’instance. Fournissez des informations d’identification au flux directement à l’aide de .option().

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE : 0A000

Le connecteur source PubSub est disponible uniquement dans le cluster avec spark.speculation désactivé.

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE : 42000

Une erreur s’est produite lors de la tentative de création d’un abonnement <subId> sur la rubrique <topicId>. Vérifiez qu’il existe suffisamment d’autorisations pour créer un abonnement et réessayez.

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE : 22000

Impossible d’analyser les octets sérialisés pour générer le proto.

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE : 0A000

getOffset ne peut pas être utilisé sans spécifier une limite.

PYTHON_DATA_SOURCE_ERROR

SQLSTATE : 38000

Échec de l’<action> sur la source de données Python <type> : <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE : 38000

Échec de la source de données de streaming Python lors de l'exécution <action> : <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE : 428HD

Impossible d’accéder à la table référencée, car un masque de colonne précédemment affecté n’est pas compatible avec le schéma de la table ; pour continuer, contactez le propriétaire de la table pour mettre à jour la stratégie :

Pour plus d’informations, consultez QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE : 428HD

Impossible d’accéder à la table référencée, car une stratégie de sécurité au niveau des lignes précédemment affectée n’est pas compatible avec le schéma de table ; pour continuer, contactez le propriétaire de la table pour mettre à jour la stratégie :

Pour plus d’informations, consultez QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

QUERY_EXECUTION_TIMEOUT_EXCEEDED

SQLSTATE : 57KD0

L’exécution de la requête a été annulée en raison du dépassement du délai d’expiration (<timeoutSec>s). Vous pouvez augmenter la limite en secondes en définissant <config>.

QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY

SQLSTATE : 0AKUC

Consultez go/rowcolumncontrols-allowlist. LogicalPlan <unknownLogicalPlan> n’est pas compatible avec la stratégie RLS/CM.

QUERY_REJECTED

SQLSTATE : 08004

L’exécution de la requête a été rejetée.

QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR

SQLSTATE : 42501

La configuration du stockage interne de l’espace de travail empêche Databricks d’accéder au magasin cloud.

ERREUR_QUERY_TAGS_NON_IMPLÉMENTÉES

SQLSTATE : 0A000

Les balises de requête ne sont pas encore prises en charge dans SQL.

SYNTAXE INVALIDE DES BALISES DE REQUÊTE

SQLSTATE : 42000

Format non valide pour la commande SET QUERY_TAGS.

CLÉ_DE_BALISE_DE_REQUÊTE_INVALIDE

SQLSTATE : 42000

Échec de la validation de la clé de balise de requête '<key>' .

LA_CLÉ_DU_TAG_INTERROGÉ_NE_DOIT_PAS_ÊTRE_VIDE

SQLSTATE : 2200E

La clé d’étiquette de requête ne doit pas être nulle ou vide. L’espacement vide au début et à la fin est supprimé sur les clés et les valeurs.

NOMBRE_MAXIMAL_DE_BALISES_DANS_LA_REQUÊTE_DÉPASSÉ

SQLSTATE : 54KD1

Nombre d’étiquettes de requête dépasse la limite maximale par session de balises <tagLimit>.

VALEUR_D'ÉTIQUETTE_DE_REQUÊTE_INVALIDE

SQLSTATE : 42000

Échec de la validation de la valeur de balise de requête '<value>' .

QUERY_WATCHDOG_CHECK_FAILED

SQLSTATE : 42000

Échec de la vérification de l’agent de surveillance des requêtes.

Pour plus d’informations , consultez QUERY_WATCHDOG_CHECK_FAILED

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE : 42K03

<message>

Il est possible que les fichiers sous-jacents aient été mis à jour . Vous pouvez invalider explicitement le cache dans Spark en exécutant la commande «REFRESH TABLE tableName » dans SQL ou en recréant le jeu de données/DataFrame impliqué.

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE : 4274K

L’appel de la fonction <functionName> a <parameterName> et <alternativeName> définis, qui sont des alias l'un de l'autre. Veuillez ne définir qu’un seul d’entre eux.

READ_FILES_CREDENTIALS_PARSE_ERROR

SQLSTATE : 42000

Une erreur s’est produite lors de l’analyse des informations d’identification temporaires de la fonction read_files().

Pour plus d’informations , consultez READ_FILES_CREDENTIALS_PARSE_ERROR

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE : 4274K

Le paramètre <functionName> requis de la fonction <parameterName> doit être attribué à la position <expectedPos> sans le nom.

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE : 0A000

Seuls TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ les types sont pris en charge pour l’horodatage d’expiration du destinataire.

RECURSION_LEVEL_LIMIT_EXCEEDED

SQLSTATE : 42836

La limite <levelLimit> de niveau de récursivité atteinte, mais la requête n’a pas été épuisée, essayez de l’augmenter comme 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200'.

RECURSION_ROW_LIMIT_EXCEEDED

SQLSTATE : 42836

La limite <rowLimit> de ligne de récursivité atteinte, mais la requête n’a pas été épuisée, essayez de définir une valeur plus grande LIMIT lors de l’interrogation de la relation CTE.

RECURSIVE_CTE_IN_LEGACY_MODE

SQLSTATE : 42836

Les définitions récursives ne peuvent pas être utilisées en mode de précédence CTE hérité (spark.sql.legacy.ctePrecedencePolicy=LEGACY).

RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG

SQLSTATE : 42836

Les définitions récursives ne peuvent pas être utilisées lorsque l’indicateur inline hérité est défini sur true (spark.sql.legacy.inlineCTEInCommands=true).

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE : 42K0G

Référence récursive trouvée dans le schéma Protobuf, qui ne peut pas être traitée par Spark par défaut : <fieldDescriptor>. essayez de définir l’option recursive.fields.max.depth 1 à 10. Aller au-delà de 10 niveaux de récursivité n’est pas autorisé.

RECURSIVE_VIEW

SQLSTATE : 42K0H

Vue récursive <viewIdent> détectée (cycle : <newPath>).

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE : 42601

Les références aux valeurs de DEFAULT colonne ne sont pas autorisées dans la PARTITION clause.

RELATION_LARGER_THAN_8G

SQLSTATE : 54000

Impossible de construire une <relationName> de taille supérieure à 8 Go.

RESTE_PAR_ZÉRO

SQLSTATE : 22012

Reste de la division par zéro. Utilisez try_mod pour tolérer que le diviseur soit égal à 0 et renvoyer NULL à la place. Si nécessaire, définissez <config> la valeur « false » pour contourner cette erreur.

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE : 57012

Échec de la requête HTTP distante avec le code <errorCode>et message d’erreur <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE : 22032

Échec de l’évaluation de la <functionName> fonction SQL en raison de l’incapacité d’analyser le résultat de la JSON réponse HTTP distante ; le message d’erreur est <errorMessage>. Consultez la documentation de l’API : <docUrl>. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE : 57012

Échec de l’évaluation de la <functionName> fonction SQL en raison de l’incapacité de traiter la réponse HTTP distante inattendue ; le message d’erreur est <errorMessage>. Consultez la documentation de l’API : <docUrl>. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE : 57012

La requête distante a échoué après les nouvelles tentatives <N> ; le dernier code d’erreur HTTP a échoué <errorCode> et le message a été <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE : 57012

L'évaluation de la fonction SQL <functionName> a échoué, car <errorMessage>. Vérifiez les conditions requises dans <docUrl>. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.

FONCTION_DE_REQUÊTE_DISTANTE_PARAMÈTRES_CONNECTEUR_NON_PRIS_EN_CHARGE

SQLSTATE : 4274K

Les paramètres <parameterNames> ne sont pas pris en charge pour la fonction remote_query, qui interroge une connexion «<connectionName> » de type «<connectionType> ».

Pour plus d’informations , consultez REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE : 42K03

Impossible de renommer car <sourcePath> n'a pas été trouvé.

REPEATED_CLAUSE

SQLSTATE : 42614

La <clause> clause peut être utilisée au plus une fois par <operation> opération.

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE : 4274K

Le paramètre obligatoire <routineName> de la routine <parameterName> a été attribué à la position <positionalIndex> sans le nom spécifié.

Mettez à jour l’appel de fonction pour soit supprimer l’argument nommé avec <parameterName> pour ce paramètre, soit supprimer l’argument positionnel.

argument à <positionalIndex>, puis réessayez la requête.

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE : 4274K

Impossible d’appeler la routine <routineName> , car le paramètre nommé <parameterName> est requis, mais l’appel de routine n’a pas fourni de valeur. Mettez à jour l’appel de routine pour fournir une valeur d’argument (par position à l’index <index> ou par nom) et réessayez la requête.

REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE

SQLSTATE : 42000

La clause de filigrane requiert un nom explicite si l’expression est spécifiée, mais a reçu <sqlExpr>.

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE : 42K05

<sessionCatalog> nécessite un espace de nom à partie unique, mais a obtenu <namespace>.

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE : 4274K

L’option lecteur de l’API DataFrame « rescuedDataColumn » s’exclue mutuellement avec l’option de l’API DataFrame « singleVariantColumn ».

Supprimez l’une d’entre elles, puis réessayez l’opération DataFrame.

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE : 42939

L’écriture contient des colonnes réservées <columnList> qui sont utilisées

en interne comme métadonnées du flux de modification des données. Pour écrire dans la table, renommez/supprimez

ces colonnes ou désactivez le flux des changements de données sur la table en attribuant à

<config> est faux.

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE : 0A000

L’option <option> a des valeurs restreintes sur les clusters partagés pour la source <source>.

Pour plus de détails, consultez RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

ROUTINE_ALREADY_EXISTS

SQLSTATE : 42723

Impossible de créer le <newRoutineType> <routineName> car un <existingRoutineType> du même nom existe déjà.

Choisissez un autre nom, supprimez ou remplacez l’existant <existingRoutineType>, ou ajoutez la IF NOT EXISTS clause pour tolérer un nom préexistant <newRoutineType>.

ROUTINE_NOT_FOUND

SQLSTATE : 42883

La routine <routineName> est introuvable. Vérifiez l’orthographe et la correction du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un schéma et un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.

Pour tolérer l’erreur de suppression, utilisez DROP...IF EXISTS.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE : 42000

La routine <routineName> ne prend pas en charge le paramètre <parameterName> spécifié à la position <pos>.<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE : 42939

Impossible de créer la fonction <routineName> , car le nom de classe spécifié '<className>' est réservé pour une utilisation système. Renommez la classe et réessayez.

ROW_LEVEL_SECURITY_ABAC_MISMATCH

SQLSTATE : 0A000

Impossible de résoudre les filtres de lignes sur <tableName> car il y avait une incompatibilité entre les filtres de lignes hérités des politiques et les filtres de lignes explicitement définis. Pour continuer, désactivez le contrôle d’accès basé sur les attributs (ABAC) et contactez le support Databricks.

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE : 0A000

La création d’une contrainte CHECK sur une table <tableName> avec des stratégies de sécurité au niveau des lignes n’est pas prise en charge.

MASQUE_COLONNE_SECURITÉ_NIVEAU_LIGNE_RÉFÉRENCE_NON_RÉSOLUE

SQLSTATE : 42703

Impossible de résoudre une colonne dont le nom <objectName> est référencé dans un paramètre de fonction de filtre de ligne ou de masque de colonne.

Cela peut se produire si le schéma de table sous-jacent a changé et que la colonne référencée n’existe plus.

Par exemple, cela peut se produire si la colonne a été supprimée dans un système externe (par exemple, une table fédérée) ou si une REPLACE opération sur la table a supprimé la colonne.

Pour résoudre ce problème, les utilisateurs disposant de privilèges de gestion sur la table peuvent inspecter les filtres de lignes actuels et les masques de colonne en utilisant DESCRIBE TABLE EXTENDED et supprimer ou recréer ceux qui référencent des colonnes inexistantes en utilisant ALTER TABLE...SET/DROP ROW FILTER ou MASK.

Remarque : Databricks a introduit une amélioration pour la sécurité visant à préserver les masques de colonne lors des opérations REPLACE quand le nouveau schéma inclut la même colonne, même si le masque n'est pas spécifié. Cela empêche une perte de stratégie involontaire sur les tables.

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE : 42734

Une <statementType> instruction a tenté d’affecter une stratégie de sécurité au niveau des lignes à une table, mais deux colonnes référencées ou plus avaient le même nom <columnName>, ce qui n’est pas valide.

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE : 0A000

Les stratégies de sécurité au niveau des lignes pour <tableName> ne sont pas prises en charge :

Pour plus de détails, consultez ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE : 0A000

Impossible de <statementType> <columnName> à partir de la table <tableName>, car elle est référencée dans une politique de sécurité au niveau des lignes. Le propriétaire de la table doit supprimer ou modifier cette stratégie avant de continuer.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE : 0A000

Les opérations MERGE INTO ne prennent pas en charge les stratégies de sécurité au niveau des lignes dans la table source <tableName>.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE : 0A000

Les opérations MERGE INTO ne prennent pas en charge l’écriture dans la table <tableName> avec des stratégies de sécurité au niveau des lignes.

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE : 42K05

Cette instruction a tenté d’affecter une stratégie de sécurité au niveau des lignes à une table, mais la colonne <columnName> référencée avait plusieurs parties de nom, ce qui n’est pas valide.

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE : 0A000

Les stratégies de sécurité au niveau des lignes sont uniquement prises en charge dans le catalogue Unity.

SÉCURITÉ_NIVEAU_LIGNE_CRÉATION_INDEX_SECONDAIRE_NON_SUPPORTÉE

SQLSTATE : 0A000

Impossible de créer un index ON TABLE <tableName> secondaire, car la table a une stratégie de sécurité au niveau des lignes définie.

ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE : 0A000

SHOW PARTITIONS la commande n’est pas supportée pour<format> les tables ayant une politique de sécurité au niveau des lignes.

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE : 0A000

Le clonage <mode> à partir d’une table <tableName> avec une stratégie de sécurité au niveau des lignes n’est pas pris en charge.

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE : 0A000

Le clonage <mode> vers une table <tableName> avec une stratégie de sécurité au niveau des lignes n’est pas pris en charge.

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE : 0AKD1

L’utilisation d’une constante en tant que paramètre dans une stratégie de sécurité au niveau des lignes n’est pas prise en charge. Mettez à jour votre commande SQL pour supprimer la constante de la définition du filtre de ligne, puis réessayez la commande.

ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE

SQLSTATE : 0AKDC

La fonction utilisée pour la stratégie <functionName> de sécurité au niveau des lignes a un paramètre avec un type <dataType>de données non pris en charge.

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE : 0A000

Impossible d’exécuter <statementType> la commande, car l’affectation d’une stratégie de sécurité au niveau des lignes n’est pas prise en charge pour la source de données cible avec le fournisseur de tables : «<provider> ».

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE : 21000

Plus d'une ligne renvoyée par une sous-requête utilisée comme une ligne.

ROW_VALUE_IS_NULL

SQLSTATE : 22023

Trouvé NULL dans une ligne à l’index <index>, attendu une valeur non-NULL.

RULE_ID_NOT_FOUND

SQLSTATE : 22023

Un ID est introuvable pour le nom de la règle «<ruleName> ». Modifiez RuleIdCollection.scala si vous ajoutez une nouvelle règle.

RUN_EMPTY_PIPELINE

SQLSTATE : 42617

Les pipelines sont censés avoir au moins un jeu de données non temporaire défini (tables, vues persistantes), mais aucun jeu de données non temporaire n’a été trouvé dans votre pipeline.

Vérifiez que vous avez inclus les fichiers sources attendus et que votre code source inclut des définitions de table (par exemple, CREATE MATERIALIZED VIEW dans le code SQL, @dp.table dans le code Python).

SALESFORCE_DATA_SHARE_API_UNAUTHORIZED

SQLSTATE : 42505

L’autorisation à l’API Salesforce Data Share a échoué. Vérifiez que les détails de connexion Databricks sont fournis à la cible de partage de données Salesforce appropriée.

SAMPLE_TABLE_PERMISSIONS

SQLSTATE : 42832

Autorisations non prises en charge sur les exemples de bases de données ou de tables.

SCALAR_FUNCTION_NOT_COMPATIBLE

SQLSTATE : 42K0O

ScalarFunction <scalarFunc> ne remplace pas la méthode « produceResult(InternalRow) » par une implémentation personnalisée.

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE : 42K0P

ScalarFunction <scalarFunc> n’implémente ni remplace la méthode « produceResult(InternalRow) ».

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE : 0A000

La sous-requête scalaire corrélée '<sqlExpr>' n’est présente ni dans GROUP BY, ni dans une fonction d’agrégation.

Ajoutez-le en utilisant la position ordinale dans GROUP BY ou enveloppez-le dans first() (ou first_value) si vous ne vous souciez pas de la valeur que vous obtenez.

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE : 21000

Plusieurs lignes retournées par une sous-requête utilisée comme expression.

SCDS_COMMIT_LOG_UNAVAILABLE

SQLSTATE : KD006

Le journal de validation n’existe pas avec l’emplacement de point de contrôle=<checkpointLocation>.

SCDS_INVALID_OPTION_VALUE

SQLSTATE : 42616

Valeur non valide pour l’option source=<optionName> avec errorMsg=<message>.

SCDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE : KD006

Le journal d'offset n'existe pas à l'emplacement du point de contrôle=<checkpointLocation>.

SCDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE : 42601

Impossible de spécifier l’option requise=<optionName>.

SCHEDULE_ALREADY_EXISTS

SQLSTATE : 42710

Impossible d’ajouter <scheduleType> à une table qui a <existingScheduleType>déjà . Veuillez supprimer le calendrier existant ou utiliser ALTER TABLE...ALTER <scheduleType> pour le modifier.

SCHEDULE_PERIOD_INVALID

SQLSTATE : 22003

La période de <timeUnit> doit être une valeur entière comprise entre 1 et <upperBound> (inclus). Reçu : <actual>.

SCHEMA_ALREADY_EXISTS

SQLSTATE : 42P06

Impossible de créer un schéma <schemaName> , car il existe déjà.

Choisissez un autre nom, supprimez le schéma existant ou ajoutez la clause pour tolérer le IF NOT EXISTS schéma préexistant.

SCHEMA_NOT_EMPTY

SQLSTATE : 2BP01

Impossible de supprimer un schéma <schemaName> , car il contient des objets.

Permet DROP SCHEMA...CASCADE de supprimer le schéma et tous ses objets.

SCHEMA_NOT_FOUND

SQLSTATE : 42704

Le schéma <schemaName> est introuvable. Vérifiez l’orthographe et la correction du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le catalogue approprié.

Pour tolérer l’erreur en cas d’annulation, utilisez DROP SCHEMA IF EXISTS.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE : 42K0G

Impossible d’initialiser le schéma à partir du registre de schémas. <reason>.

SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH

SQLSTATE : 42000

Impossible de créer un index <indexName> de recherche dans le catalogue <indexCatalog> et le schéma <indexSchema>. L’index doit être créé dans le même catalogue et le même schéma que la table <tableName> (<tableCatalog>de base .<tableSchema>).

PARAMÈTRES_NON_VALABLES_DE_L'INDEX_DE_RECHERCHE

SQLSTATE : 42K06

Impossible de créer un index de recherche, un paramètre non valide est donné :

Pour plus d’informations , consultez SEARCH_INDEX_INVALID_PARAMETERS

CONFLIT_NOM_INDEX_RECHERCHE_AVEC_TABLE

SQLSTATE : 42P07

La table portant le nom <indexName> d’index existe déjà. Indiquez un nom d’index personnalisé qui n’est pas en conflit avec les tables existantes.

SEARCH_INDEX_OUTDATED_SCHEMA

SQLSTATE : KD007

L’index <indexName> de recherche a un schéma obsolète. Recréez l’index à l’aide de :

DROP SEARCH INDEX <indexName>;

CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);

SEARCH_REQUIRES_SEARCHABLE_COLUMNS

SQLSTATE : 42809

<context> nécessite des colonnes avec des types pouvant faire l’objet d’une recherche (STRING COLLATE UTF8_BINARY, VARIANTou ARRAY).

Pour plus d’informations , consultez SEARCH_REQUIRES_SEARCHABLE_COLUMNS

RECHERCHE_NÉCESSITE_DES_LITERAL_STRINGS_ARGUMENTS

SQLSTATE : 42804

SEARCH exige que <argument> soient des littéraux de chaîne, mais <actualExpr> a été donné. <possibleOptionsMessage>

SECONDARY_INDEX_REQUIRES_MANAGED_TABLE

SQLSTATE : 42809

Ne peut pas <operation> ON TABLE <tableName>. L’opération ne peut être effectuée que sur des tables gérées.

Pour convertir une table en table managée, utilisez la ALTER TABLE <tableName> SET MANAGED commande.

Pour plus d’informations, consultez https://docs.databricks.com/aws/en/tables/convert-external-managed

FORMAT_DE_TABLE_NON_PRIS_EN_CHARGE_AVEC_INDEX_SECONDAIRE

SQLSTATE : 42809

Ne <operation> ON TABLE <tableName>

L’opération ne peut être effectuée que sur des tables avec les formats suivants : <supportedFormats>.

Vérifiez le format du tableau avec DESCRIBE DETAIL <tableName>.

Si le format actuel est Parquet ou Apache Iceberg, vous pouvez le convertir définitivement directement avec CONVERT TO DELTA <tableName>; voir https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta

Sinon, recréez la table dans l’un des formats pris en charge.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE : 22023

Le deuxième argument de <functionName> fonction doit être un entier.

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE : 42K0E

Impossible d’exécuter <commandType> la commande avec une ou plusieurs références non chiffrées à la SECRET fonction ; chiffrez le résultat de chaque appel de fonction avec AES_ENCRYPT et réessayez la commande.

L'OBJET SÉCURISABLE N'EXISTE PAS

SQLSTATE : 42P01

<securable> n’existe pas.

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE : 42K08

L’expression <seedExpr> initiale de l’expression <exprWithSeed> doit être pliable.

SERVER_IS_BUSY

SQLSTATE : 08KD1

Le serveur est occupé et n’a pas pu gérer la requête. Patientez quelques minutes, puis réessayez.

SET_QUERY_TAGS_SYNTAX_INVALID

SQLSTATE : 42000

Échec de l’exécution de la SET commande, car la syntaxe n’était pas valide. La syntaxe attendue de cette commande est SET QUERY_TAGS ou SET QUERY_TAGS['key'] = 'value'. Corrigez la commande pour qu’elle soit conforme à cette syntaxe, puis réexécutez-la.

SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM

SQLSTATE : 08006

Le serveur <host>SFTP :<port> utilise l’algorithme SSH RSA déconseillé pour l’échange de clés.

Envisagez de mettre à niveau le serveur SFTP pour utiliser un algorithme plus sécurisé tel que ECDSA ou ED25519.

Vous pouvez également contourner cette erreur en définissant la valeur <escapeHatchConf> true

SFTP_UNABLE_TO_CONNECT

SQLSTATE : 08006

Échec de la connexion au serveur <host> SFTP sur le port <port> avec le nom d’utilisateur <user>.

<error>

SFTP_UNKNOWN_HOST_KEY

SQLSTATE : 08006

La clé hôte du serveur <host> SFTP est inconnue ou a changé.

Vérifiez le message d’erreur ci-dessous, puis indiquez l’empreinte digitale de la clé dans le Key fingerprint champ.

Par exemple, si le message indique «ECDSA empreinte digitale de clé est SHA256 :XXX/AAAA », envoyez « SHA256 :XXX/AAAA » comme empreinte digitale de la clé.

Message d’erreur de connexion :

<error>

SFTP_USER_DOES_NOT_MATCH

SQLSTATE : 08006

L’utilisateur récupéré à partir des informations d’identification <credentialUser> ne correspond pas à celui spécifié dans le chemin <path>SFTP.

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE : 42K05

SHOW COLUMNS avec des espaces de noms en conflit : <namespaceA> != <namespaceB>.

SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE : 42616

Échec de la validation de la ou des options de source de données Snowflake.

Pour plus d’informations , consultez SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SORT_BY_WITHOUT_BUCKETING

SQLSTATE : 42601

sortBy doit être utilisé avec bucketBy.

SPARK_JOB_CANCELLED

SQLSTATE : HY008

Travail <jobId> annulé <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE : 42601

Un CREATE TABLE sans liste de colonnes explicite ne peut pas spécifier d'informations de compartimentage.

Utilisez le formulaire avec une liste de colonnes explicite et spécifiez les informations de compartimentage.

Une autre option consiste à permettre l'inférence des informations de compartimentage en omettant la clause.

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE : 42908

Impossible de spécifier les deux CLUSTER BY et CLUSTERED BY INTO BUCKETS.

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE : 42908

Impossible de spécifier les deux CLUSTER BY et PARTITIONED BY.

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE : 42601

Une CREATE TABLE sans liste de colonnes explicite ne peut pas spécifier PARTITIONED BY.

Utilisez le formulaire avec une liste de colonnes explicite et spécifiez PARTITIONED BY.

Vous pouvez également permettre au partitionnement d'être déduit en omettant PARTITION BY la clause.

SQL_CONF_NOT_FOUND

SQLSTATE : 42K0I

La configuration <sqlConf> SQL est introuvable. Vérifiez que la configuration existe.

SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

SQLSTATE : 07501

Les scripts SQL dans EXECUTE IMMEDIATE les commandes ne sont pas autorisés. Vérifiez que la requête SQL fournie (<sqlString>) n’est pas un script SQL. Vérifiez que le sql_string est une instruction SQL bien formée et ne contient pas les termes BEGIN et END.

SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED

SQLSTATE : 54000

Le nombre maximal de caractères d’un script SQL (ID : <scriptId>) a été dépassé. Le nombre maximal de caractères autorisé est <maxChars>, et le script a des <chars> caractères.

SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED

SQLSTATE : 54000

Le nombre maximal de lignes d’un script SQL (ID : <scriptId>) a été dépassé. Le nombre maximal de lignes autorisées est <maxLines>, et le script a des <lines> lignes.

SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED

SQLSTATE : 54KD1

Le nombre maximal de déclarations de variables locales dans un script SQL (ID : <scriptId>) a été dépassé. Le nombre maximal de déclarations autorisées est <maxDeclarations>, et le script a eu <declarations>.

SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED

SQLSTATE : 54000

Le nombre maximal d’appels de procédure imbriquée a été dépassé avec la procédure (nom : <procedureName>, callId : <procedureCallId>). Le nombre maximal autorisé d’appels de procédure imbriquée est <limit>.

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE : 22000

Erreur temporaire lors de l'accès au chemin de mise en scène cible <path>, réessayez dans quelques minutes

STAR_GROUP_BY_POS

SQLSTATE : 0A000

L’étoile (*) n’est pas autorisée dans une liste de sélection lorsqu’une GROUP BY position ordinale est utilisée.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE : 42802

Échec de l’exécution d’une opération de processeur avec état=<operationType> avec état descripteur=<handleState> incorrect.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE : 42802

Échec de l’exécution d’une opération de processeur avec état=<operationType> avec timeMode=<timeMode> non valide

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE : 42802

La variable d’état portant le nom <stateVarName> a déjà été définie dans StatefulProcessor.

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE : 42802

Impossible d’utiliser la durée de vie pour état=<stateName> dans timeMode=<timeMode>, utilisez TimeMode.ProcessingTime() à la place.

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE : 42802

La durée TTL doit être supérieure à zéro pour l'opération de stockage d'état=<operationType> sur état=<stateName>.

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE : 42802

Mode de temps inconnu <timeMode>. Les modes timeMode acceptés sont « none », « processingTime », « eventTime »

STATE_REPARTITION_INVALID_CHECKPOINT

SQLSTATE : 55019

L’emplacement de point de contrôle fourni «<checkpointLocation> » est dans un état non valide.

Pour plus d’informations , consultez STATE_REPARTITION_INVALID_CHECKPOINT

STATE_REPARTITION_INVALID_PARAMETER

SQLSTATE : 42616

Le paramètre <parameter> de repartition n’est pas valide :

Pour plus d’informations, consultez STATE_REPARTITION_INVALID_PARAMETER

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE : 42802

Impossible de créer une famille de colonnes avec un caractère de départ et un nom=<colFamilyName> non pris en charge.

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE : 42802

Échec de l’exécution de l’opération de famille de colonnes=<operationName> avec nom=<colFamilyName> incorrect. Le nom de la famille de colonnes ne peut pas être vide, inclure des espaces en début ou en fin, ou utiliser le mot clé réservé "default".

LES_IDENTIFIANTS_DE_POINT_DE_CONTRÔLE_DU_MAGASIN_D'ÉTAT_NE_SONT_PAS_PRIS_EN_CHARGE

SQLSTATE : KD002

<msg>

L'EMPLACEMENT DU POINT DE CONTRÔLE DU MAGASIN D'ÉTAT N'EST PAS VIDE

SQLSTATE : 42K03

L’emplacement <checkpointLocation> du point de contrôle doit être vide sur le lot 0

Utilisez un nouvel emplacement de point de contrôle ou supprimez les données existantes à l’emplacement du point de contrôle.

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE : 42802

Transformation de schéma incompatible avec column family=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.

STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR

SQLSTATE : 42K06

StateStore <inputClass> ne prend pas en charge l’itérateur réutilisable.

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE : 42802

Le descripteur n’a pas été initialisé pour ce StatefulProcessor.

Utilisez uniquement statefulProcessor dans l’opérateur transformWithState.

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE : 42802

Nombre incorrect d’ordinaux de classement=<numOrderingCols> pour l’encodeur d’analyse de plage. Le nombre d’ordinaux de classement ne peut pas être égal à zéro ou supérieur au nombre de colonnes de schéma.

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE : 42802

Nombre incorrect de colonnes de préfixe=<numPrefixCols> pour l’encodeur d’analyse de préfixe. Les colonnes de préfixe ne peuvent pas être zéro ou plus grandes ou égales au nombre de colonnes de schéma.

STATE_STORE_INVALID_AVRO_SCHEMA

SQLSTATE : 3F000

Détection d’un schéma non valide pour l’encodage Avro.

Pour plus d’informations, consultez STATE_STORE_INVALID_AVRO_SCHEMA

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE : 42K06

Impossible de modifier <configName> de <oldConfig> à <newConfig> entre les redémarrages. Veuillez définir <configName> sur <oldConfig>, ou redémarrer avec un nouveau répertoire de point de contrôle.

STATE_STORE_INVALID_PROVIDER

SQLSTATE : 42K06

Le fournisseur de State Store <inputClass> donné n’étend pas org.apache.spark.sql.execution.streaming.state.StateStoreProvider.

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE : 42K06

Impossible de changer <stateVarName> en <newType> entre les redémarrages de la requête. Veuillez définir <stateVarName> sur <oldType>, ou redémarrer avec un nouveau répertoire de point de contrôle.

STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE

SQLSTATE : 42000

Le schéma de clé fourni ne correspond pas au schéma existant dans l’état de l’opérateur.

Schéma existant=<storedKeySchema> ; schéma fourni=<newKeySchema>.

Pour exécuter la requête sans validation de schéma, définissez spark.sql.streaming.stateStore.stateSchemaCheck sur false.

Notez que l’exécution sans validation de schéma peut avoir un comportement non déterministe.

STATE_STORE_NATIVE_ROCKSDB_TIMEOUT

SQLSTATE : 58030

Lors de l’accès au magasin d’états RocksDB pour l’opération de diffusion en continu avec état, l’appel à la fonction native RocksDB <funcName> a expiré après un délai d’attente = <timeoutMs> ms. Réessayez et redémarrez le cluster si l’erreur persiste.

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE : 42802

La colonne de classement de type Null avec nom=<fieldName> à l’index=<index> n’est pas prise en charge pour l’encodeur d’analyse de plage.

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE : 42K06

Le fournisseur de magasin d’états donné <inputClass> n’étend pas org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.

Par conséquent, elle ne prend pas en charge l’option snapshotStartBatchId ou readChangeFeed dans la source de données d’état.

STATE_STORE_ROCKSDB_ZIP_EXISTE_DEJA

SQLSTATE : 42K04

Le fichier <zipFilePath> zip d’instantané RocksDB existe déjà. Cela signifie que l’instantané a déjà été chargé dans DFS.

(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)

STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

SQLSTATE : 42K06

Le nombre de fichiers de schéma d’état <numStateSchemaFiles> dépasse le nombre maximal de fichiers de schéma d’état pour cette requête : <maxStateSchemaFiles>.

Ajout : <addedColumnFamilies>, supprimé : <removedColumnFamilies>

Définissez « spark.sql.streaming.stateStore.stateSchemaFilesThreshold » sur un nombre supérieur ou rétablissez les modifications de schéma d’état

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE : 42802

Opération de magasin d’état =<operationType> non prise en charge sur la famille de colonnes manquante=<colFamilyName>.

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

SQLSTATE : 42K06

Le nombre d’évolutions de schéma d’état <numSchemaEvolutions> dépasse le nombre maximal d’évolutions de schéma d’état, <maxSchemaEvolutions>autorisé pour cette famille de colonnes.

Famille de colonnes incriminant : <colFamilyName>

Définissez « spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold » sur un nombre supérieur ou rétablissez les modifications de schéma d’état

LE SCHÉMA DE VALEUR DE STOCKAGE D'ÉTAT N'EST PAS COMPATIBLE

SQLSTATE : 42000

Le schéma de valeur fourni ne correspond pas au schéma existant dans l’état de l’opérateur.

Schéma existant=<storedValueSchema> ; schéma fourni=<newValueSchema>.

Pour exécuter la requête sans validation de schéma, définissez spark.sql.streaming.stateStore.stateSchemaCheck sur false.

Notez que l’exécution sans validation de schéma peut avoir un comportement non déterministe.

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE : 42802

La colonne de classement de taille variable dont le nom est <fieldName> à l’index <index> n’est pas prise en charge pour l’encodeur d’analyse de plage.

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE : 42713

La colonne <staticName> de partition statique est également spécifiée dans la liste des colonnes.

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE : KD006

Aucun lot validé trouvé, emplacement de point de contrôle : <checkpointLocation>. Vérifiez que la requête a été exécutée et a validé un micro-lot avant de s’arrêter.

STDS_CONFLICT_OPTIONS

SQLSTATE : 42613

Les options <options> ne peuvent pas être spécifiées ensemble. Spécifiez celui-ci.

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE : 42K03

Échec de lecture des métadonnées de l’opérateur pour checkpointLocation=<checkpointLocation> et batchId=<batchId>.

Le fichier n’existe pas ou le fichier est endommagé.

Réexécutez la requête de diffusion en continu pour construire les métadonnées de l’opérateur et signalez aux communautés ou fournisseurs correspondants si l’erreur persiste.

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE : 42K03

Échec de la lecture du schéma d’état. Le fichier n’existe pas ou le fichier est endommagé. Options : <sourceOptions>.

Réexécutez la requête de diffusion en continu pour construire le schéma d’état et signalez aux communautés ou fournisseurs correspondants si l’erreur persiste.

STDS_INVALID_OPTION_VALUE

SQLSTATE : 42616

Valeur non valide pour l’option source '<optionName>' :

Pour plus d’informations, consultez STDS_INVALID_OPTION_VALUE

LES_VERSIONS_MÉLANGÉES_DE_FORMAT_DE_POINT_DE_CONTRÔLE_NE_SONT_PAS_SUPPORTÉES

SQLSTATE : KD002

La lecture de l'état à travers différentes versions du format de point de contrôle n'est pas prise en charge.

startBatchId=<startBatchId>, endBatchId=<endBatchId>.

startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE : KD006

L’état n’a aucune partition. Vérifiez que la requête pointe vers l’état valide. Options : <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE : KD006

Le journal de décalage pour <batchId> n’existe pas, emplacement de point de contrôle : <checkpointLocation>.

Spécifiez l’ID de lot disponible pour l’interrogation. Vous pouvez interroger les ID de lot disponibles à l’aide de la source de données de métadonnées d’état.

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE : KD006

Les métadonnées ne sont pas disponibles pour le journal de décalage associé à <batchId>, emplacement de point de contrôle : <checkpointLocation>.

Le point de contrôle semble être exécuté uniquement avec les anciennes versions de Spark. Exécutez la requête de diffusion en continu avec la version spark récente, afin que Spark construise les métadonnées d’état.

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE : 42601

'<optionName>' doit être spécifié.

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE : 0A000

L’exécution de requête adaptative n’est pas prise en charge pour les opérateurs avec état dans Structured Streaming.

STREAMING_CHECKPOINT_METADATA_ERROR

SQLSTATE : 42616

Erreur avec les métadonnées de point de contrôle de streaming.

Pour plus d’informations , consultez STREAMING_CHECKPOINT_METADATA_ERROR

STREAMING_CHECKPOINT_PIN_BATCH_ERROR

SQLSTATE : 42000

Échec de l’opération d’épingle pour la requête de diffusion en continu avec l’emplacement de point de contrôle=<checkpointLocation> à batchId=<batchId>.

Pour plus d’informations , consultez STREAMING_CHECKPOINT_PIN_BATCH_ERROR

STREAMING_CHECKPOINT_REWIND_ERROR

SQLSTATE : 42000

Impossible d’effectuer une opération de rembobinage pour la requête de diffusion en continu avec l’emplacement de point de contrôle=<checkpointLocation>.

Pour plus d’informations , consultez STREAMING_CHECKPOINT_REWIND_ERROR

STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

SQLSTATE : 42616

Erreur lors de l’opération de rembobinage du point de contrôle de streaming.

Pour plus d’informations , consultez STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE : 0A000

Streaming impossible à partir de la vue matérialisée <viewName>. Le streaming à partir de la vue matérialisée n’est pas pris en charge.

STREAMING_OUTPUT_MODE

SQLSTATE : 42KDE

Mode de sortie de streaming non valide : <outputMode>.

Pour plus d’informations , consultez STREAMING_OUTPUT_MODE

STREAMING_QUERY_EVOLUTION_ERROR

SQLSTATE : 42000

Erreur d’évolution des requêtes de streaming :

Pour plus d’informations , consultez STREAMING_QUERY_EVOLUTION_ERROR

STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH

SQLSTATE : KD002

Attendu la version de décalage de taux source <expectedVersion>, mais la version obtenue est <actualVersion>. Pour continuer, définissez l’option « version » <expectedVersion> sur les options de source de taux. Par exemple, spark.readStream.format(« rate »).option(« version », « <expectedVersion> »).

SOURCE_TAUX_DIFFUSION_V2_CHGT_NB_PARTITION_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

Le nombre de partitions (<prevNum>) utilisées dans le microbatch précédent est différent du nombre actuel de partitions (<currNum>). Il peut y avoir deux raisons possibles :

  1. L’option « numPartitions » de la source de débit est modifiée lors du redémarrage de la requête.

  2. La taille du cluster peut changer pendant le redémarrage de la requête.

Définissez explicitement l’option « numPartitions » de la source de taux pour résoudre ce problème à <prevNum>.

SOURCE_VITESSE_STREAMING_V2_RAMPUP_TIME_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

L’option « rampUpTime » n’est pas prise en charge par la version 2 du tarif. Pour utiliser cette option, définissez l’option « version » sur 1. Par exemple, spark.readStream.format(« rate »).option(« version », « 1 »).

STREAMING_REAL_TIME_MODE

SQLSTATE : 0A000

Le mode en temps réel de streaming présente la limitation suivante :

Pour plus d’informations , consultez STREAMING_REAL_TIME_MODE

PROPAGATION_DES_HORODATAGES_EN_TEMPS_RÉEL_EN_CONTINU

SQLSTATE : 0A000

La propagation de filigrane en temps réel en continu présente la limitation suivante :

Pour plus d’informations , consultez STREAMING_REAL_TIME_WATERMARK_PROPAGATION

STREAMING_SINK_DELIVERY_MODE

SQLSTATE : 42KDE

Mode de remise du récepteur de streaming non valide : <deliveryMode>.

Pour plus d’informations , consultez STREAMING_SINK_DELIVERY_MODE

STREAMING_SKIP_OFFSETS_INVALID_RANGE

SQLSTATE : 42616

Plage de décalage invalide : le décalage de fin <endOffset> est inférieur au décalage de début <startOffset>. Corrigez cette plage de décalage et réessayez.

OPÉRATEUR_ÉTATFUL_DE_STREAMING_RÉPERTOIRE_D'ÉTAT_MANQUANT

SQLSTATE : 42K03

Impossible de redémarrer la requête de diffusion en continu avec des opérateurs avec état, car le répertoire d’état est vide ou manquant.

Cela se produit généralement lorsque des fichiers d’état ont été supprimés ou que la requête de diffusion en continu a été exécutée précédemment sans opérateurs avec état, mais redémarrée avec des opérateurs avec état.

Supprimez les opérateurs avec état, utilisez un nouvel emplacement de point de contrôle ou restaurez les fichiers d’état manquants.

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE : 42K03

Le nom de l’opérateur avec état de streaming ne correspond pas à l’opérateur dans les métadonnées d’état. Cela se produit probablement lorsque l’utilisateur ajoute/supprime/modifie l’opérateur avec état de la requête de diffusion en continu existante.

Opérateurs avec état dans les métadonnées : [<OpsInMetadataSeq>] ; Opérateurs avec état dans le lot actuel : [<OpsInCurBatchSeq>].

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE : 55019

La table en streaming <tableName> doit être actualisée pour exécuter <operation>.

Si la table est créée à partir de DBSQL, exécutez REFRESH STREAMING TABLE.

Si la table est créée par un pipeline dans Lakeflow Spark Declarative Pipelines, effectuez une mise à jour du pipeline.

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE : 56038

Les tables de streaming peuvent être créées et actualisées uniquement dans le pipeline déclaratif Spark Lakeflow et les entrepôts SQL Databricks.

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE : 42601

L’opération <operation> n’est pas autorisée:

Pour plus d’informations, consultez STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAMING_TABLE_QUERY_INVALID

SQLSTATE : 42000

La table <tableName> de diffusion en continu ne peut être créée qu’à partir d’une requête de streaming. Ajoutez le STREAM mot clé à votre FROM clause pour transformer cette relation en requête de diffusion en continu.

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE : 42K02

Flux Kinesis <streamName> dans <region> introuvable.

Démarrez une nouvelle requête pointant vers le nom de flux correct.

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE : 2201E

La ligne d’entrée n’a pas le nombre attendu de valeurs requises par le schéma. Les champs <expected> sont obligatoires alors que les valeurs <actual> sont fournies.

ST_INVALID_ALGORITHM_VALUE

SQLSTATE : 22023

Valeur de l’algorithme d’interpolation de bord non prise en charge ou invalide : «<alg> ».

ST_INVALID_CRS_VALUE

SQLSTATE : 22023

Valeur CRS (système de référence de coordonnées) non valide ou non prise en charge : «<crs> ».

ST_INVALID_SRID_VALUE

SQLSTATE : 22023

Valeur SRID (identificateur de référence spatiale) non valide ou non prise en charge : <srid>.

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE : 22003

La somme de la clause LIMIT et de la clause OFFSET ne doit pas être supérieure à la valeur entière maximale de 32 bits (2 147 483 647), mais limite trouvée = <limit>, décalage = <offset>.

SYNC_METADATA_DELTA_ONLY

SQLSTATE : 0AKDD

La commande de métadonnées de synchronisation de table est prise en charge uniquement pour les tables delta.

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE : 42KD2

Le nom <srcTable> de la table source doit être identique au nom <destTable>de la table de destination.

SYNTAX_DISCONTINUED

SQLSTATE : 42601

Prise en charge de la clause ou du mot clé : <clause> n’est plus disponible dans ce contexte.

Pour plus d’informations , consultez SYNTAX_DISCONTINUED

TABLE_ARGUMENTS_NON_AUTORISÉS

SQLSTATE : 42601

Les paramètres TABLE ne sont pas pris en charge dans <routineType>.

TABLE_NON_VALIDE_INDEX_SECONDAIRE

SQLSTATE : 42809

Échec de l’exécution de la commande DESCRIBE SEARCH INDEX parce que la table <tableName> n’est pas un index <indexType> valide. Mettez à jour la commande pour utiliser un index valide et réessayez.

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE : 42P07

Impossible de créer une table ou une vue <relationName> , car elle existe déjà.

Choisissez un autre nom, supprimez l’objet existant, ajoutez la IF NOT EXISTS clause pour tolérer des objets préexistants, ajoutez la clause OR REPLACE pour remplacer la vue matérialisée existante ou ajoutez la clause OR REFRESH pour actualiser la table de diffusion en continu existante.

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE : 42P01

Impossible de trouver la table ou la vue <relationName>. Vérifiez l’orthographe et la correction du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un schéma, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.

Pour tolérer l’erreur en cas d’annulation, utilisez DROP VIEW IF EXISTS ou DROP TABLE IF EXISTS.

Pour plus de détails, consultez TABLE_OR_VIEW_NOT_FOUND

TYPE_DE_TABLE_INCOMPATIBLE_AVEC_LA_POLITIQUE_ABAC

SQLSTATE : 0AKUC

Le type de table de <tableName>, <tableType> ne prend pas en charge les stratégies ABAC.

Supprimez les stratégies et réessayez.

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE : 0A000

Impossible d'utiliser la fonction SQL définie par l'utilisateur <action> avec des arguments <functionName>, car cette fonctionnalité n'est pas encore implémentée.

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE : 38000

Échec de l’analyse de la fonction table définie par l’utilisateur Python : <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE : 22023

Nous n’avons pas pu évaluer la fonction de table <functionName> en raison de sa métadonnée de table <requestedMetadata>, mais nous avons évalué l’appel de fonction <invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE : 22023

Échec de l’évaluation de la fonction <functionName> de table, car ses métadonnées de table n’étaient pas valides ; <reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE : 54023

Il existe trop d’arguments de table pour une fonction table.

Il autorise un argument de table, mais obtient : <num>.

Si vous souhaitez l’autoriser, définissez « spark.sql.allowMultipleTableArguments.enabled » sur « true »

TABLE_WITH_ID_NOT_FOUND

SQLSTATE : 42P01

Impossible de trouver la table avec l’ID <tableId> . Vérifiez la justesse de l’UUID.

TASK_WRITE_FAILED

SQLSTATE : 58030

La tâche a échoué lors de l’écriture de lignes dans <path>.

TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED

SQLSTATE : 0A000

Les emplacements de point de contrôle d’une diffusion en continu temporaire implicite ne sont pas pris en charge dans l’espace de travail à jour, spécifiez explicitement un emplacement de point de contrôle.

Pour display(), définissez l’emplacement du point de contrôle à l’aide de :

display(df, checkpointLocation = « your_path »)

Pour toutes les autres requêtes de streaming, utilisez :

.option(« checkpointLocation », « your_path »).

TEMP_TABLE_CREATION_LEGACY_WITH_QUERY

SQLSTATE : 0A000

CREATE TEMPORARY TABLE ... AS ... n’est pas pris en charge ici, utilisez CREATE TEMPORARY VIEW plutôt

TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE : 0A000

CREATE TEMPORARY TABLE ne prend pas en charge la spécification <unsupportedSpec>.

Pour plus d’informations, consultez TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

TEMP_TABLE_CREATION_NAME_RÉSERVÉ

SQLSTATE : 42K05

Impossible de créer une table <tableName> temporaire, car elle commence par un préfixe <reservedPrefix>de nom réservé. Choisissez un autre nom et réessayez.

La création de table temporaire n'est pas prise en charge dans le calcul

SQLSTATE : 0A000

CREATE TEMPORARY TABLE [AS ... ] n’est pas pris en charge avec le type de calcul actuel. Utilisez Databricks SQL (DBSQL) pour créer des tables temporaires locales de session à la place.

TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME

SQLSTATE : 42K05

La création d'une table temporaire locale de session nécessite un nom de table simple, mais a reçu <tableName>. Mettez à jour la commande pour utiliser un nom de table de parties unique et réessayez.

CRÉATION_TABLE_TEMP_NONSOUTENUE_SYNTAXE_HÉRITÉE_AVEC_INDICATIONS

SQLSTATE : 0A000

CREATE TEMPORARY TABLE ... USING ... AS ... n’est pas pris en charge. Pour créer une table temporaire, supprimez la USING clause et réessayez.

TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE : 0A000

DROP TEMPORARY TABLE ne prend pas en charge la spécification <unsupportedSpec>, supprimez cette spécification ou supprimez une table permanente à la place à l’aide DROP TABLE de la commande.

TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME

SQLSTATE : 42K05

La suppression d'une table temporaire locale de session nécessite un nom de table à une seule partie, mais a obtenu <tableName>. Mettez à jour la commande DROP TEMPORARY TABLE pour utiliser un nom de table simple afin de supprimer une table temporaire, ou utilisez plutôt la commande DROP TABLE pour supprimer une table permanente.

TEMP_TABLE_NOT_FOUND

SQLSTATE : 42P01

Impossible de trouver la table <tableName> temporaire dans la session active. Vérifiez l’orthographe et la correction du nom de la table, puis réessayez la requête ou la commande.

Pour tolérer l’erreur lors de la suppression, utilisez DROP TEMP TABLE IF EXISTS.

TEMP_TABLE_NOT_SUPPORTED_WITH_DATABRICKS_JOBS

SQLSTATE : 0A000

La table temporaire n’est pas encore prise en charge dans Databricks Jobs. Utilisez plutôt les notebooks Databricks et contactez le support Databricks pour plus d’informations.

TEMP_TABLE_NOT_SUPPORTED_WITH_HMS

SQLSTATE : 0A000

L’opération <operation> de table temporaire n’est pas prise en charge dans le Metastore Hive.

TEMP_TABLE_OPERATION_NOT_SUPPORTED

SQLSTATE : 0A000

Les opérations sur la table <tableName> temporaire locale de session ne sont pas prises en charge :

Pour plus d’informations , consultez TEMP_TABLE_OPERATION_NOT_SUPPORTED

OPÉRATION_TABLE_TEMPORAIRE_NON_PRIS_EN_CHARGE_DANS_COMMANDE_V1

SQLSTATE : 0A000

<operation> sur les tables temporaires n'est pas supporté avec les commandes V1. Définissez « spark.sql.legacy.useV1Command » sur false et réessayez.

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE : 42P07

Impossible de créer la table ou la vue <relationName> temporaire, car elle existe déjà.

Choisissez un autre nom, déposez ou remplacez l’objet existant.

REMPLACEMENT_TABLE_TEMP_NON_SUPPORTÉ

SQLSTATE : 0A000

[CREATE OR] REPLACE TEMPORARY TABLE n’est pas pris en charge. Pour remplacer une table temporaire existante, supprimez-la à l’aide de DROP TEMPORARY TABLE ... [IF EXISTS] et recréez-la à l’aide de CREATE TEMPORARY TABLE ... .

TEMP_TABLE_REQUIRES_DATABRICKS_ENV

SQLSTATE : 0AKDD

Les opérations sur des tables temporaires locales de session nécessitent l’environnement Databricks.

TEMP_TABLE_REQUIRES_DELTA

SQLSTATE : 0AKDD

Les opérations sur les tables temporaires locales de session nécessitent l’activation du catalogue Delta. Activez le catalogue Delta et réessayez.

TEMP_TABLE_REQUIRES_UC

SQLSTATE : 0AKUD

Les opérations sur les tables temporaires locales de session nécessitent le catalogue Unity. Activez le catalogue Unity dans votre environnement en cours d’exécution et réessayez.

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE : 428EK

CREATE TEMPORARY VIEW ou les API de jeu de données correspondantes acceptent uniquement les noms de vue en une seule partie, mais ont reçu : <actualName>.

THETA_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE : 22546

Appel non valide à <function>; seules les mémoires tampons de croquis Theta valides sont prises en charge en tant qu’entrées (telles que celles produites par la theta_sketch_agg fonction).

THETA_INVALID_LG_NOM_ENTRIES

SQLSTATE : 22546

Appel non valide à <function>; la lgNomEntries valeur doit être comprise entre <min> et <max>, inclusive : <value>.

THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT

SQLSTATE : 42K0E

Appel non valide à <function>; la lgNomEntries valeur doit être une valeur constante, mais a obtenu une expression non constante.

TRAILING_COMMA_IN_SELECT

SQLSTATE : 42601

Virgule de fin détectée dans la clause SELECT. Supprimez la virgule de fin avant la FROM clause.

TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME

SQLSTATE : 42939

Le flux de données modifiées ne peut pas être activé dans une transaction, car une table contient un nom de colonne réservé (<column_name>).

Pour continuer, assurez-vous que la table utilise uniquement des noms de colonnes non réservés.

PARAMÈTRAGE CDF DE TRANSACTION : LIMITE SUPÉRIEURE NON AUTORISÉE

SQLSTATE : 25000

Définition manuelle de la limite supérieure des identités CDC non autorisée.

TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

SQLSTATE : 40000

Une modification simultanée des métadonnées a été détectée sur l’objet <table>. Exécutez ROLLBACK puis réessayez cette transaction. Details:

Pour plus d’informations , consultez TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

TRANSACTION_CONTEXT_MISMATCH

SQLSTATE : 25000

L’incohérence du contexte de transaction a été détectée entre le thread actuel et la session Spark. Cela se produit généralement lorsqu’une session Spark est partagée entre plusieurs threads. Utilisez une session et un thread dédiés pour chaque transaction, puis validez/restaurez la transaction dans son thread avant de réutiliser la session et le thread pour une nouvelle transaction. Details:

Pour plus d’informations , consultez TRANSACTION_CONTEXT_MISMATCH

TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED

SQLSTATE : 25000

La transaction ne peut pas être validée en tant qu’horodatage maximal de validation est dépassé. maxCommitTimestamp :<maxCommitTimestampMs> commitTimestamp :<commitTimestampMs>

TRANSACTION_NOT_SUPPORTED

SQLSTATE : 0A000

Échec de l’exécution de l’instruction

Pour plus d’informations , consultez TRANSACTION_NOT_SUPPORTED

TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

SQLSTATE : 40000

La transaction actuelle a été abandonnée. Exécutez ROLLBACK TRANSACTION avant de continuer. Raison d’abandon :

Pour plus d’informations , consultez TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR

SQLSTATE : 39000

Une erreur s’est produite dans la fonction <function> définie par l’utilisateur du StatefulProcessor. Raison : <reason>.

TRANSPOSE_EXCEED_ROW_LIMIT

SQLSTATE : 54006

Le nombre de lignes dépasse la limite autorisée pour <maxValues>TRANSPOSE. Si cela était prévu, définissez <config> pour qu'il soit au moins égal au nombre de lignes actuel.

TRANSPOSE_INVALID_INDEX_COLUMN

SQLSTATE : 42804

Colonne d'index invalide pour TRANSPOSE car : <reason>

TRANSPOSE_NO_LEAST_COMMON_TYPE

SQLSTATE : 42K09

La transposition nécessite que les colonnes autres que l'index partagent un type commun minimal, mais <dt1> et <dt2> ne le font pas.

TRIGGER_INTERVAL_INVALID

SQLSTATE : 22003

L’intervalle de déclencheur doit être une durée positive qui peut être convertie en secondes entières. Reçu : <actual> secondes.

TUPLE_IS_EMPTY

SQLSTATE : 22004

En raison de la prise en charge limitée des tuples par Scala, les tuples vides ne sont pas pris en charge.

TUPLE_SIZE_EXCEEDS_LIMIT

SQLSTATE : 54011

En raison de la prise en charge limitée des tuples dans Scala, les tuples avec un nombre d'éléments supérieur à 22 ne sont pas pris en compte.

UC_BUCKETED_TABLES

SQLSTATE : 0AKUC

Les tables compartimentées ne sont pas prises en charge dans le catalogue Unity.

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE : 3D000

Pour le catalogue Unity, spécifiez explicitement le nom du catalogue. Par exemple, SHOW GRANT your.address@email.com ON CATALOG principal.

UC_COMMAND_NOT_SUPPORTED

SQLSTATE : 0AKUC

Les commandes : <commandName> ne sont pas prises en charge dans le catalogue Unity.

Pour plus d’informations , consultez UC_COMMAND_NOT_SUPPORTED

UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS

SQLSTATE : 0AKUC

Les commandes <commandName> ne sont pas prises en charge pour les clusters Unity Catalog sans serveur. Utilisez plutôt des clusters uniques ou partagés.

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE : 0AKUC

Les commandes : <commandName> ne sont pas prises en charge pour les clusters catalogue Unity en mode d’accès partagé. Utilisez plutôt le mode d’accès utilisateur unique.

UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS

SQLSTATE : 42704

Impossible de trouver une connexion UC valide pour l’accès <path> après l’évaluation <connectionNames>.

Vérifiez qu’au moins une connexion UC valide est disponible pour accéder au chemin cible.

Erreurs détaillées pour les connexions évaluées :

<connectionErrors>

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE : 0AKUC

Le type d’informations d’identification spécifié n’est pas pris en charge.

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE : 0AKUC

Le format <dataSourceFormatName> de source de données n’est pas pris en charge dans le catalogue Unity.

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE : 0AKUC

Les options de source de données ne sont pas prises en charge dans le catalogue Unity.

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE : 42P01

La dépendance n’existe pas dans le catalogue Unity :

<errorMessage>

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE : 42601

La clause LOCATION doit être présente pour le volume externe. Vérifiez la syntaxe 'CREATE EXTERNAL VOLUME...LOCATION ...' pour la création d’un volume externe.

UC_FAILED_PROVISIONING_STATE

SQLSTATE : 0AKUC

La requête a échoué car elle a tenté de faire référence à la table <tableName> , mais elle n’a pas pu le faire : <failureReason>. Mettez à jour la table <tableName> pour vous assurer qu’elle est dans un état d’approvisionnement actif, puis réessayez la requête.

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE : 0AKUC

La création d’une table dans le catalogue Unity avec le schéma <schemeName> de fichiers n’est pas prise en charge.

Au lieu de cela, créez une connexion de source de données fédérée à l’aide de la CREATE CONNECTION commande du même fournisseur de tables, puis créez un catalogue en fonction de la connexion avec une CREATE FOREIGN CATALOG commande pour référencer les tables qui y figurent.

UC_HIVE_METASTORE_DISABLED_EXCEPTION

SQLSTATE : 0A000

L'opération a tenté d'utiliser Hive Metastore<identifier>, qui est désactivé en raison de la désactivation de l'accès hérité dans votre compte ou espace de travail. Vérifiez deux fois le catalogue par défaut dans la session active et le paramètre d’espace de noms par défaut. Si vous avez besoin d’accéder au metastore Hive, demandez à votre administrateur de configurer la fédération hive Metastore via le catalogue Unity.

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE : 56038

La vue de fédération du Metastore Hive ne prend pas en charge les dépendances entre plusieurs catalogues. L’affichage <view> dans le catalogue de la fédération Metastore Hive doit utiliser la dépendance du catalogue hive_metastore ou spark_catalog, mais sa dépendance <dependency> se trouve dans un autre catalogue <referencedCatalog>. Mettez à jour les dépendances pour satisfaire cette contrainte, puis réessayez votre requête ou commande.

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE : 0A000

La fédération du metastore Hive n’est pas activée sur ce cluster.

L’accès au catalogue <catalogName> n’est pas pris en charge sur ce cluster

UC_INVALID_DEPENDENCIES

SQLSTATE : 56098

Les dépendances de <securable> sont enregistrées sous la forme de <storedDeps> tout en étant analysées comme <parsedDeps>. Cela s’est probablement produit par le biais d’une utilisation incorrecte d’une API non-SQL.

Pour plus d’informations , consultez UC_INVALID_DEPENDENCIES

UC_INVALID_NAMESPACE

SQLSTATE : 0AKUC

Les espaces de noms imbriqués ou vides ne sont pas pris en charge dans le catalogue Unity.

UC_INVALID_REFERENCE

SQLSTATE : 0AKUC

L’objet <name> nonUnity-Catalog ne peut pas être référencé dans les objets Catalogue Unity.

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE : 56038

La prise en charge de l’écriture de la fédération Unity Catalog Lakehouse n’est pas activée pour le fournisseur <provider> sur ce cluster.

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE : 42601

Le volume géré n’accepte pas la clause LOCATION. Vérifiez la syntaxe 'CREATE VOLUME ...' pour la création d’un volume managé.

UC_NOT_ENABLED

SQLSTATE : 56038

Le catalogue Unity n’est pas activé sur ce cluster.

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE : 56038

La fédération des requêtes de catalogue Unity n’est pas activée sur ce cluster.

UC_RESOLVED_DBFS_PATH_MISMATCH

SQLSTATE : 0AKUC

La requête a échoué car elle a tenté de faire référence à <objectType> <name> mais n’a pas pu le faire : le chemin DBFS résolu <resolvedHmsPath> ne correspond pas à l’emplacement de stockage du catalogue Unity <ucStorageLocation>.

UC_SECRETS_NON_ACTIVÉES

SQLSTATE : 56038

Le support pour les secrets du catalogue Unity n'est pas activé.

LE_SECRET_UC_EXISTE_DÉJÀ

SQLSTATE : 42713

Impossible de créer un secret <name> , car il existe déjà.

Choisissez un autre nom, supprimez ou remplacez l’objet existant, ou ajoutez la IF NOT EXISTS clause pour tolérer les objets préexistants.

UC_SECRET_NOT_FOUND

SQLSTATE : 42704

Le secret <name> n’existe pas. Utilisez «SHOW SECRETS » pour répertorier les secrets disponibles.

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE : 56038

Les credentials de service ne sont pas activés sur ce cluster.

UC_TABLE_METADATA_OUT_OF_SYNC

SQLSTATE : 55019

Impossible d’interroger la table <tableName> , car les métadonnées de table ne sont pas synchronisées dans le catalogue. Réparez la table en exécutant « MSK REPAIR TABLE <tableName> SYNC METADATA» pour synchroniser les métadonnées en premier.

UC_UNCAUGHT_CLIENT_EXCEPTION (Exception d'un client non interceptée)

SQLSTATE : KCUC4

Une erreur HTTP inattendue s’est produite lors de la communication avec le serveur principal du catalogue Databricks Unity. Code d’erreur : <errCode>. Message : <message>

UC_VOLUMES_NOT_ENABLED

SQLSTATE : 56038

La prise en charge des volumes de catalogue Unity n’est pas activée sur cette instance.

Volumes UC non pris en charge

SQLSTATE : 0A000

Les volumes ne sont pas pris en charge pour cette opération. Le chemin d’accès spécifié était «<path> ».

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE : 56038

La prise en charge du partage de volume n’est pas activée sur cette instance.

UC_VOLUME_NOT_FOUND

SQLSTATE : 42704

Le volume <name> n’existe pas. Utilisez «SHOW VOLUMES » pour répertorier les volumes disponibles.

UDF_ENVIRONMENT_ERROR

SQLSTATE : 39000

Échec de l’installation des dépendances UDF pour <udfName> en raison d’une erreur système.

Pour plus d’informations , consultez UDF_ENVIRONMENT_ERROR

UDF_ENVIRONMENT_USER_ERROR

SQLSTATE : 39000

Échec de l’installation des dépendances UDF pour <udfName>.

Pour plus d’informations , consultez UDF_ENVIRONMENT_USER_ERROR

UDF_ERROR

SQLSTATE : non assigné

Échec de l’exécution de la fonction <fn>

Pour plus d’informations , consultez UDF_ERROR

UDF_LIMITS

SQLSTATE : 54KD0

Une ou plusieurs limites UDF ont été violées.

Pour plus d’informations , consultez UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE : 54KD0

Dépassement de la limite de fonctions définies par UDF des UDF <maxNumUdfs> (limitée pendant la préversion publique). Trouvé <numUdfs>. Les UDF étaient : <udfNames>.

UDF_PYSPARK_ERROR

SQLSTATE : 39000

Le Worker Python s’est terminé de façon inattendue

Pour plus d’informations , consultez UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE : 0A000

PySpark UDF <udf> (<eval-type>) n’est pas pris en charge sur les clusters en mode d’accès partagé.

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE : 39000

Échec de l’exécution.

Pour plus d’informations , consultez UDF_PYSPARK_USER_CODE_ERROR

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE : 0A000

La valeur par défaut du paramètre n’est pas prise en charge pour la fonction définie par <functionType> l’utilisateur.

UDF_USER_CODE_ERROR

SQLSTATE : 39000

Échec de l’exécution de la fonction <fn> .

Pour plus d’informations , consultez UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE : 42802

Le nombre d’alias fournis dans la clause AS ne correspond pas au nombre de colonnes produites par l’UDTF.

Alias <aliasesSize> attendus, mais <aliasesNames> reçus.

Vérifiez que le nombre d’alias fournis correspond au nombre de colonnes produites par l’UDTF.

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE : 42802

Échec de l’évaluation de la fonction de table définie par l’utilisateur, car sa méthode « analyser » a renvoyé un OrderingColumn demandé dont l’expression de nom de colonne contenait un alias <aliasName>inutile ; supprimez cet alias, puis réessayez la requête.

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE : 42802

Échec de l’évaluation de la fonction de table définie par l’utilisateur, car sa méthode « analyser » a retourné une expression « select » demandée (<expression>) qui n’inclut pas d’alias correspondant ; mettez à jour l’UDTF pour spécifier un alias là-bas, puis réessayez la requête.

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE : 42K0G

Impossible de convertir le type <toType> SQL en type <protobufType>Protobuf.

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE : 58030

Impossible d’extraire des tables de la base de données Hive : <dbName>. Nom de la classe d’erreur : <className>.

INCAPABLE_D'INFÉRER_SCHEMA_DE_TABLE_PIPELINE

SQLSTATE : 42KD9

Impossible de déduire le schéma de la table <tableName> à partir de ses flux en amont.

Modifiez les flux qui écrivent dans cette table pour rendre leurs schémas compatibles.

Schéma déduit jusqu’à présent :

<inferredDataSchema>

Schéma incompatible :

<incompatibleDataSchema>

UNABLE_TO_INFER_SCHEMA

SQLSTATE : 42KD9

Impossible de déduire le schéma pour <format>. Elle doit être spécifiée manuellement.

NON AUTHENTIFIÉ

SQLSTATE : 08000

La demande n’a pas des informations d’identification valides pour l’opération.

UNAUTHORIZED_ACCESS

SQLSTATE : 42501

Accès non autorisé :

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE : 42P02

Le paramètre non lié a été trouvé : <name>. args Corrigez et fournissez un mappage du paramètre à un littéral SQL ou à des fonctions de constructeur de collection telles que map(), array(), struct().

UNCLOSED_BRACKETED_COMMENT

SQLSTATE : 42601

Un commentaire entre crochets non fermé a été trouvé. Ajoutez */ à la fin du commentaire.

UNEXPECTED_INPUT_TYPE

SQLSTATE : 42K09

Le paramètre <paramIndex> de fonction <functionName> nécessite le <requiredType> type, mais <inputSql> a le type <inputType>.

UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER

SQLSTATE : 42K09

Le <namedParamKey> paramètre de fonction <functionName> requiert le <requiredType> type, mais <inputSql> a le type <inputType>.<hint>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE : 42KDD

Opérateur <op> inattendu dans l’instruction CREATE VIEW en tant que source de diffusion en continu.

Une requête de vue de diffusion en continu doit être constituée uniquement d’opérations SELECT, WHERE et UNION ALL.

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE : 4274K

Impossible d’appeler la routine <routineName> , car elle contient des arguments positionnels qui suivent l’argument nommé affecté à <parameterName>; réorganisez-les afin que les arguments positionnels viennent en premier, puis réessayez la requête.

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE : 42846

La classe <className> a un sérialiseur d’expression inattendu. Attend « STRUCT » ou « IF » qui retourne « STRUCT » mais trouvé <expr>.

UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE

SQLSTATE : 42836

L’opérateur UNION n’est pas encore pris en charge dans les expressions de table courantes récursives (WITH clauses qui font référence à eux-mêmes, directement ou indirectement). Utilisez plutôt UNION ALL.

CONTRAINTE_UNIQUE_DÉSACTIVÉE

SQLSTATE : 0A000

La fonctionnalité de contrainte unique est désactivée. Pour l’activer, définissez « spark.databricks.sql.dsv2.unique.enabled » comme true.

UNKNOWN_FIELD_EXCEPTION

SQLSTATE : KD003

Champs inconnus rencontrés <changeType> lors de l’analyse : <unknownFieldBlob>. Ceci peut être résolu par une nouvelle tentative automatique : <isRetryable>

Pour plus d’informations , consultez UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE : 4274K

L’appel de routine <routineName> contient un argument <sqlExpr> positionnel inconnu à la position <pos>. Cela n’est pas valide.

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE : 22023

Un type primitif inconnu avec l’ID <id> a été trouvé dans une valeur variant.

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE : 42K0G

Tentative de traitement <descriptorName> comme un message, mais c’était <containingType>.

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE : 42K0A

UNPIVOT nécessite que toutes les expressions données <given> soient des colonnes lorsqu’aucune expression n’est <empty> donnée. Ce ne sont pas des colonnes : [<expressions>].

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE : 42K0A

Au moins une colonne de valeur doit être spécifiée pour UNPIVOT, toutes les colonnes spécifiées en tant qu’ID.

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE : 42K09

Les colonnes de valeur unpivot doivent partager un type commun minimal, certains types ne le sont pas : [<types>].

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE : 428C4

Toutes les colonnes sans valeur pivot doivent avoir la même taille qu’il existe des noms de colonnes de valeur (<names>).

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE : 4274K

Impossible d’appeler la routine <routineName> , car l’appel de routine incluait une référence d’argument nommé pour l’argument nommé <argumentName>, mais cette routine n’inclut aucune signature contenant un argument portant ce nom. Avez-vous dit l’un des éléments suivants ? [<proposal>].

UNRECOGNIZED_SQL_TYPE

SQLSTATE : 42704

Type SQL non reconnu - nom : <typeName>, id : <jdbcType>.

UNRECOGNIZED_STATISTIC

SQLSTATE : 42704

La statistique <stats> n’est pas reconnue. Les statistiques valides incluent count, count_distinct, approx_count_distinct, mean, stddev, min, max et les valeurs centiles. Le centile doit être une valeur numérique suivie de '%', dans la plage de 0% à 100%.

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE : 42883

Impossible de résoudre <name> en une fonction table.

Assurez-vous que <name> est défini comme une fonction table-valorisée et que tous les paramètres requis sont fournis correctement.

Si <name> n’est pas défini, créez la fonction valeur de table avant de l’utiliser.

Pour plus d’informations sur la définition des fonctions valorisées par table, reportez-vous à la documentation Apache Spark.

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE : 42803

Impossible de déduire les colonnes de regroupement pour GROUP BY ALL d'après la clause de sélection. Spécifiez explicitement les colonnes de regroupement.

UNRESOLVED_COLUMN

SQLSTATE : 42703

Impossible de résoudre un paramètre de colonne, de variable ou de fonction portant le nom <objectName> .

Pour plus d’informations , consultez UNRESOLVED_COLUMN

NOM_DE_COLONNE_NON_RESOLU_PARMI_LES_NOMS_DE_CHAMPS

SQLSTATE : 42703

Impossible de résoudre le nom de colonne «<colName> » entre (<fieldNames>).

UNRESOLVED_FIELD

SQLSTATE : 42703

Un champ portant le nom <fieldName> ne peut pas être résolu avec la colonne de type struct <columnPath>.

Pour plus d’informations , consultez UNRESOLVED_FIELD

UNRESOLVED_INSERT_REPLACE_USING_COLUMN

SQLSTATE : 42703

REPLACE USING la colonne <colName> ne peut pas être résolue dans le <relationType>.

Avez-vous dit l’une des colonnes suivantes ? [<suggestion>].

UNRESOLVED_MAP_KEY

SQLSTATE : 42703

Impossible de résoudre la colonne <objectName> en tant que clé de mappage. Si la clé est un littéral de chaîne, entourez-la de guillemets simples.

Pour plus d’informations , consultez UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

SQLSTATE : 42883

Impossible de résoudre la routine <routineName> sur le chemin <searchPath>de recherche.

Vérifiez l’orthographe de <routineName>, vérifiez que la routine existe et vérifiez que vous disposez du privilège USE sur le catalogue et le schéma, et du privilège EXECUTE sur la routine.

Pour plus d’informations , consultez UNRESOLVED_ROUTINE

UNRESOLVED_TABLE_PATH

SQLSTATE : 22KD1

Impossible de résoudre le chemin de stockage de la table <identifier> .

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE : 42703

USING la colonne <colName> ne peut pas être résolue du côté <side> de la jointure. Colonnes <side>latérales : [<suggestion>].

UNRESOLVED_VARIABLE

SQLSTATE : 42883

Impossible de résoudre la variable <variableName> sur le chemin <searchPath>de recherche.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT

SQLSTATE : 0A000

Le format <format> de fichier non structuré n’est pas pris en charge. Les formats de fichiers pris en charge sont <supportedFormats>.

Mettez à jour le format de votre expression <expr> vers un format pris en charge, puis réessayez la requête.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION

SQLSTATE : 0A000

L’option de modèle non structurée ('<option>' -> '<value>') n’est pas prise en charge. Les valeurs prises en charge sont : <supportedValues>.

Basculez vers l’une des valeurs prises en charge, puis réessayez la requête.

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE : 42000

Le paramètre de fonction 'ocrText' doit être NULL ou omis lorsque l’option 'metadataModel' est spécifiée. Une option « metadataModel » spécifiée déclenche l’extraction des métadonnées, où un « ocrText » fourni est interdit.

UNSUPPORTED_ADD_FILE

SQLSTATE : 0A000

Ne permet pas l'ajout de fichier.

Pour plus d’informations , consultez UNSUPPORTED_ADD_FILE

UNSUPPORTED_ALTER_COLUMN_PARAMETER

SQLSTATE : 0A000

La combinaison de <parameter> avec ALTER <commandTableType> n'est pas prise en charge.

UNSUPPORTED_ARROWTYPE

SQLSTATE : 0A000

Type de flèche non pris en charge <typeName>.

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE : 42000

La fonction <funcName> ne prend pas en charge les requêtes par lots.

UNSUPPORTED_CALL

SQLSTATE : 0A000

Impossible d’appeler la méthode «<methodName> » de la classe «<className> ».

Pour plus d’informations , consultez UNSUPPORTED_CALL

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE : 0A000

Le type char/varchar ne peut pas être utilisé dans le schéma de table.

Si vous souhaitez que Spark les traite comme un type de chaîne identique à Spark 3.0 et versions antérieures, définissez « spark.sql.legacy.charVarcharAsString » sur « true ».

UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION

SQLSTATE : 0A000

Le type <type> char/varchar ne peut pas avoir de classement spécifié.

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE : 0A000

La <clause> n’est pas prise en charge pour <operation>.

UNSUPPORTED_COLLATION

SQLSTATE : 0A000

Le classement <collationName> n’est pas pris en charge pour :

Pour plus d’informations , consultez UNSUPPORTED_COLLATION

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE : 42616

L’ancêtre commun du chemin source et de sourceArchiveDir doit être inscrit auprès de l’UC.

Si vous voyez ce message d’erreur, il est probable que vous configurez le chemin d’accès source et "sourceArchiveDir" dans différents emplacements externes.

Placez-les dans un emplacement externe unique.

UNSUPPORTED_CONNECT_FEATURE

SQLSTATE : 0A000

La fonctionnalité n’est pas prise en charge dans Spark Connect :

Pour plus d’informations , consultez UNSUPPORTED_CONNECT_FEATURE

CARACTÉRISTIQUE_DE_CONTRAINTE_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

La caractéristique de contrainte '<characteristic>' n’est pas prise en charge pour le type de contrainte '<constraintType>'.

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE : 0A000

Les clauses de contrainte <clauses> ne sont pas prises en charge.

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE : 42000

Type de contrainte non pris en charge. Seuls <supportedConstraintTypes> sont pris en charge

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE : 0A000

Type de source de données non pris en charge pour la requête directe sur les fichiers : <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE : 0A000

Type de données <typeName> non pris en charge.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE : 0A000

La source de données «<source> » ne peut pas être écrite en <createMode> mode. Utilisez plutôt le mode « Append » ou « Overwrite ».

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE : 0A000

La <format> source de données ne prend pas en charge la colonne <columnName> du type <columnType>.

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE : 0A000

Impossible de créer l’encodeur pour <dataType>. Utilisez un autre type de données de sortie pour votre UDF ou DataFrame.

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE : 0A000

Les valeurs de colonne DEFAULT ne sont pas prises en charge.

Pour plus d’informations , consultez UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE : 0A000

Le désérialiseur n’est pas pris en charge :

Pour plus d’informations , consultez UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE : 42621

Impossible de créer une colonne <fieldName> générée avec une expression <expressionStr> de génération, car <reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE : 42K0E

Un opérateur de requête contient une ou plusieurs expressions non prises en charge.

Envisagez de le réécrire pour éviter les fonctions de fenêtre, les fonctions d’agrégation et les fonctions de générateur dans la WHERE clause.

Expressions non valides : [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE : 42K0E

Un paramètre de requête contient une expression non prise en charge.

Les paramètres peuvent être des variables ou des littéraux.

Expression non valide : [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE : 42P20

Expression <sqlExpr> non prise en charge dans une fonction de fenêtre.

UNSUPPORTED_FEATURE

SQLSTATE : 0A000

La fonctionnalité n’est pas prise en charge :

Pour plus d’informations , consultez UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE : 0A000

Type de fonction défini par l’utilisateur non pris en charge : <language>

UNSUPPORTED_GENERATOR

SQLSTATE : 42K0E

Le générateur n’est pas pris en charge :

Pour plus d’informations , consultez UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE : 42K0E

grouping()/grouping_id() ne peut être utilisé qu’avec GroupingSets/Cube/Rollup.

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE : 42616

<trigger> avec la position initiale <initialPosition> n’est pas pris en charge avec la source Kinesis

UNSUPPORTED_INSERT

SQLSTATE : 42809

Impossible d’insérer dans la cible.

Pour plus d’informations , consultez UNSUPPORTED_INSERT

UNSUPPORTED_JOIN_TYPE

SQLSTATE : 0A000

Type de jointure « <typ> » non pris en charge. Les types de jointure pris en charge sont les suivants : <supported>.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE : 0AKDD

La création d’une table <tableName> managée à l’aide de la source <dataSource> de données n’est pas prise en charge. Vous devez utiliser la source DELTA de données ou créer une table externe à l’aide CREATE EXTERNAL TABLE <tableName>...USING <dataSource> de ...

UNSUPPORTED_MERGE_CONDITION

SQLSTATE : 42K0E

MERGE l’opération contient une <condName> condition non prise en charge.

Pour plus de détails, consultez UNSUPPORTED_MERGE_CONDITION

CLÉ_MÉTADONNÉES_NON_PRIS_EN_CHARGE

SQLSTATE : 42K0E

Clé de métadonnées non prise en charge : <key>. Clés prises en charge : <supportedKeys>.

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE : 0A000

La table <tableName> a une stratégie de sécurité au niveau des lignes ou un masque de colonne qui fait indirectement référence à une autre table avec une stratégie de sécurité au niveau des lignes ou un masque de colonne ; cela n’est pas pris en charge. Séquence d’appels : <callSequence>

OPÉRATION_NON_SUPPORTÉE_POUR_SPUISSOIR_DE_MÉMOIRE_CONTINUE

SQLSTATE : 0A000

L’opération <operation> n’est pas prise en charge pour le puits de mémoire continu. Si vous écrivez un test pour le streaming en mode Temps réel, envisagez d’utiliser CheckAnswerWithTimeout plutôt que d’autres vérifications.

UNSUPPORTED_OVERWRITE

SQLSTATE : 42902

Impossible de remplacer la cible qui est également en cours de lecture.

Pour plus de détails, consultez UNSUPPORTED_OVERWRITE

UNSUPPORTED_PARTITION_TRANSFORM

SQLSTATE : 0A000

Transformation de partition non prise en charge : <transform>. Les transformations prises en charge sont identity, bucket, et clusterBy. Vérifiez que votre expression de transformation utilise l’une d’elles.

Commande SQL Spark non supportée par le pipeline

SQLSTATE : 0A000

'<command>' n’est pas pris en charge dans l’API spark.sql(« ... ») dans le pipeline déclaratif Spark.

REGROUPEMENT_DE_PROCÉDURE_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

La procédure <procedureName> doit spécifier ou hériter de DEFAULT COLLATION UTF8_BINARY. Utiliser CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....

UNSUPPORTED_SAVE_MODE

SQLSTATE : 0A000

Le mode <saveMode> d’enregistrement n’est pas pris en charge pour :

Pour plus d’informations , consultez UNSUPPORTED_SAVE_MODE

UNSUPPORTED_SHOW_CREATE_TABLE

SQLSTATE : 0A000

Commande non prise en charge SHOW CREATE TABLE.

Pour plus de détails, consultez UNSUPPORTED_SHOW_CREATE_TABLE

UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

SQLSTATE : 0A000

L’analyseur à passe unique ne peut pas traiter cette requête ou cette commande, car il ne prend pas encore en charge <feature>.

UNSUPPORTED_SQL_UDF_USAGE

SQLSTATE : 0A000

L'utilisation de la fonction SQL <functionName> dans <nodeName> n'est pas prise en charge.

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE : 0A000

Le mode de sortie <outputMode> non pris en charge pour <statefulOperator> dans le streaming DataFrames/DataSets sans filigrane.

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE : 0A000

La diffusion en continu d'une vue n'est pas prise en charge. Reason:

Si vous souhaitez obtenir d’autres informations, consultez UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE : 0A000

Les options <options> de streaming ne sont pas prises en charge pour la source <source> de données sur un cluster partagé. Vérifiez que les options sont spécifiées et orthographiées correctement<prefixHint> et vérifiez les https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode limitations.

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE : 0A000

La source <sink> de données n’est pas prise en charge en tant que récepteur de streaming sur un cluster partagé.

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE : 0A000

La source <source> de données n’est pas prise en charge en tant que source de diffusion en continu sur un cluster partagé.

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE : 42000

La fonction <funcName> ne prend pas en charge la diffusion en continu. Supprimez le STREAM mot clé

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE : 0A000

<streamReadLimit> n’est pas pris en charge avec la source Kinesis

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE : 0A000

Expression de sous-requête non prise en charge :

Pour plus de détails, consultez UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

CHANGEMENT_DE_TABLE_NON_PRIS_EN_CHARGE_DANS_L'ÉVOLUTION_AUTOMATIQUE_DU_SCHEMA

SQLSTATE : 42000

Les modifications de la table <changes> ne sont pas prises en charge par le catalogue sur la table <tableName>.

UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG

SQLSTATE : 42000

La modification <change> de la table n’est pas prise en charge pour le catalogue JDBC sur la table <tableName>. Les modifications prises en charge sont les suivantes : AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE : 56038

La création d’une clé primaire avec des colonnes de séries chronologiques n’est pas prise en charge

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE : 0A000

La création d’une clé primaire avec plusieurs colonnes de série chronologique <colSeq> n’est pas prise en charge

UNSUPPORTED_TIME_PRECISION

SQLSTATE : 0A001

La précision <precision> des secondes du type de données TIME est hors de la plage prise en charge [0, 6].

UNSUPPORTED_TIME_TYPE

SQLSTATE : 0A000

Le type de données TIME n’est pas pris en charge.

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE : 0A000

<trigger> n’est pas pris en charge avec la source Kinesis

UNSUPPORTED_TYPED_LITERAL

SQLSTATE : 0A000

Les littéraux de type <unsupportedType> ne sont pas supportés. Les types pris en charge sont <supportedTypes> .

UNSUPPORTED_UDF_FEATURE

SQLSTATE : 0A000

La fonction <function> utilise les fonctionnalités suivantes qui nécessitent une version plus récente du runtime Databricks : <features>. Veuillez consulter <docLink> pour plus de détails.

UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE

SQLSTATE : 0A000

Les types UDF ne peuvent pas être utilisés ensemble : <types>

UNTYPED_SCALA_UDF

SQLSTATE : 42K0E

Vous utilisez un UDF Scala non typé, qui n’a pas les informations de type d’entrée.

Spark peut passer aveuglément la valeur Null à la closure Scala avec un argument de type primitif, et la closure verra la valeur par défaut du type Java pour l’argument Null, par exemple, udf((x: Int) => x, IntegerType) le résultat est 0 pour une entrée Null. Pour vous débarrasser de cette erreur, vous pouvez :

  1. utilisez des API Scala UDF typées (sans paramètre de type de retour), par exemple udf((x: Int) => x).

  2. utilisez des API UDF Java, par exemple, udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)si les types d’entrée sont tous non primitifs.

  3. définissez « spark.sql.legacy.allowUntypedScalaUDF » sur « true » et utilisez cette API avec prudence.

UPGRADE_NOT_SUPPORTED

SQLSTATE : 0AKUC

La table n’est pas éligible à une mise à niveau du metastore Hive vers Unity Catalog. Reason:

Pour plus d’informations , consultez UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE : 42601

La fonction définie par l’utilisateur n’est pas valide :

Pour plus d’informations , consultez USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE : P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE : P0001

La raise_error() fonction a été utilisée pour déclencher la classe d’erreur : <errorClass> qui attend des paramètres : <expectedParms>.

Les paramètres <providedParms> fournis ne correspondent pas aux paramètres attendus.

Veillez à fournir tous les paramètres attendus.

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE : P0001

La raise_error() fonction a été utilisée pour déclencher une classe d’erreur inconnue : <errorClass>

INCOMPATIBILITÉ_ENTRE_LE_SCHEMA_SPÉCIFIÉ_ET_ACTUEL

SQLSTATE : 42K03

Le schéma spécifié par l’utilisateur ne correspond pas au schéma réel :

utilisateur spécifié : <schema>, réel : <actualSchema>. Si vous utilisez

L’API DataFrameReader.schema ou la création d’une table ne spécifient pas le schéma.

Ou, si vous analysez une table existante, supprimez-la puis recréez-la.

SCHÉMA_SPÉCIFIÉ_PAR_UTILISATEUR_ET_INFERÉ_NON_COMPATIBLE

SQLSTATE : 42000

La table '<tableName>' a un schéma spécifié par l’utilisateur qui n’est pas compatible avec le schéma

déduit de sa requête.

<streamingTableHint>

Schéma déclaré :

<specifiedSchema>

Schéma déduit :

<inferredDataSchema>

UTILISATION_DU_SCHÉMA_DU_CATALOGUE_DANS_PROCÉDURE_STOCKÉE_DÉFINIEUR_NON_SUPPORTÉE

SQLSTATE : 0A000

La définition d’un catalogue ou d’un schéma dans la procédure stockée SQL SECURITY DEFINER n’est pas prise en charge.

VARIABLE_ALREADY_EXISTS

SQLSTATE : 42723

Impossible de créer la variable <variableName> , car elle existe déjà.

Choisissez un autre nom, ou supprimez ou remplacez la variable existante.

VARIABLE_NOT_FOUND

SQLSTATE : 42883

La variable <variableName> est introuvable. Vérifiez l’orthographe et la correction du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un schéma et un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.

Pour tolérer l’erreur en cas d’annulation, utilisez DROP VARIABLE IF EXISTS.

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE : 22023

Impossible de construire une Variante supérieure à 16 Mio. La taille maximale autorisée d’une valeur Variante est de 16 Mio.

VARIANT_DUPLICATE_KEY

SQLSTATE : 22023

Impossible de compiler une variante en raison d’une clé d’objet en double <key>.

VARIANT_SIZE_LIMIT

SQLSTATE : 22023

Impossible de générer une variante plus grande que <sizeLimit> dans <functionName>.

Évitez les chaînes d’entrée volumineuses dans cette expression (par exemple, ajouter des appels de fonction pour vérifier la taille de l’expression et la convertir en NULL premier si elle est trop volumineuse).

VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE

SQLSTATE : 56038

L’historique des tables source contient des fonctionnalités de table non prises en charge par le clone versionné dans cette version DBR : <unsupportedFeatureNames>.

Effectuez une mise à niveau vers une version DBR plus récente.

VIEW_ALREADY_EXISTS

SQLSTATE : 42P07

Impossible de créer une vue <relationName> , car elle existe déjà.

Choisissez un autre nom, supprimez ou remplacez l’objet existant, ou ajoutez la IF NOT EXISTS clause pour tolérer les objets préexistants.

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE : 54 000

La profondeur de la vue <viewName> dépasse la profondeur de résolution maximale de la vue (<maxNestedDepth>).

L’analyse est abandonnée pour éviter les erreurs. Si vous souhaitez contourner ce problème, essayez d’augmenter la valeur de « spark.sql.view.maxNestedViewDepth ».

VIEW_NOT_FOUND

SQLSTATE : 42P01

Impossible de trouver la vue <relationName> . Vérifiez l’orthographe et la correction du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un schéma, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.

Pour tolérer l’erreur en cas d’annulation, utilisez DROP VIEW IF EXISTS.

VOLUME_ALREADY_EXISTS

SQLSTATE : 42000

Impossible de créer un volume <relationName> , car il existe déjà.

Choisissez un autre nom, supprimez ou remplacez l’objet existant, ou ajoutez la IF NOT EXISTS clause pour tolérer les objets préexistants.

WATERMARK_ADVANCEMENT_STRATEGY

SQLSTATE : 0A000

La stratégie de progression des filigranes de streaming présente la limitation suivante :

Pour plus d’informations , consultez WATERMARK_ADVANCEMENT_STRATEGY

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE : 42K0E

<funcName> La fonction ne peut être évaluée que dans une trame de fenêtre ordonnée basée sur des lignes avec un décalage unique : <windowExpr>.

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE : 42601

La fonction de fenêtre <funcName> nécessite une clause OVER.

WITH_CREDENTIAL

SQLSTATE : 42601

Syntaxe WITH CREDENTIAL non pas prise en charge pour <type>.

WRITE_STREAM_NOT_ALLOWED

SQLSTATE : 42601

writeStream ne peut être appelé que sur un Dataset/DataFrame en streaming.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE : 0AKDC

Impossible d'exécuter la commande, car les valeurs DEFAULT ne sont pas prises en charge lors de l'ajout de nouvelles données

Ajoutez des colonnes aux tables Delta existantes ; ajoutez la colonne sans définir de valeur par défaut.

Commencez par la valeur, puis exécutez une commande ALTER TABLE ALTER COLUMN SET DEFAULT supplémentaire pour appliquer.

aux lignes insérées ultérieurement à la place.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE : 0AKDE

Échec de l’exécution de la commande <commandType>, parce qu'elle a attribué une valeur de colonne DEFAULT.

mais la fonctionnalité de table correspondante n’a pas été activée. Réessayez la commande

après l’exécution de ALTER TABLE du tableName SET

TBLPROPERTIES ('delta.feature.allowColumnDefaults' = 'supported').

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE : 42809

L’opération <operation> nécessite un <requiredType>. Mais <objectName> c’est un <foundType>. Utilisez <alternative> à la place.

WRONG_NUM_ARGS

SQLSTATE : 42605

<functionName> nécessite <expectedNum> paramètres, mais le nombre réel est <actualNum>.

Pour plus d’informations , consultez WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE : 42KDF

<rowTag> l’option est requise pour lire/écrire des fichiers au format XML.

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE : 0N000

XML ne prend pas en charge le type <innerDataType> comme un type interne de <dataType>. Veuillez encapsuler le <innerDataType> dans un champ StructType lorsqu'il est utilisé à l'intérieur de <dataType>.

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE : 22023

Les données sauvées et la colonne générique ne peuvent pas être activées simultanément. Supprimez l’option wildcardColumnName.

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE : 42703

La colonne <columnName> ZOrderBy n’existe pas.

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE : 08003

Impossible de trouver sparkSession actif.

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE : 0B000

Impossible de définir un nouveau txn comme actif lorsqu’il est déjà actif.

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE : 42000

Impossible d’ajouter une colonne <colName> , car le nom est réservé.

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE : 0A000

L’opération actuelle a tenté d’ajouter un vecteur de suppression à une table qui n’autorise pas la création de nouveaux vecteurs de suppression. Créez un rapport de bogue.

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE : 42000

Toutes les opérations qui ajoutent des vecteurs de suppression doivent définir la colonne tightBounds dans les statistiques sur false. Créez un rapport de bogue.

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE : 42KD3

L’index <columnIndex> pour ajouter une colonne <columnName> est inférieur à 0.

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE : 42KD3

Impossible d’ajouter <columnName> , car son parent n’est pas un StructType. Trouvé <other>.

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE : 42KD3

Struct introuvable à la position <position>.

DELTA_ADD_CONSTRAINTS

SQLSTATE : 0A000

Utilisez ALTER TABLE ADD CONSTRAINT pour ajouter des contraintes CHECK.

DELTA_AGRÉGAT_DANS_CONTRAINTE_DE_VÉRIFICATION

SQLSTATE : 42621

Trouvé <sqlExpr> dans une CHECK contrainte. Les expressions d’agrégation ne sont pas autorisées dans CHECK contraintes.

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE : 42621

Trouvé <sqlExpr>. Une colonne générée ne peut pas utiliser une expression d’agrégation.

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE : 42903

Les fonctions d’agrégation ne sont pas prises en charge dans le <operation> <predicate>.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE : 428FR

Impossible de modifier le classement de la colonne <column>, car il a un index de filtre de floraison. Conservez le classement existant ou supprimez l’index de filtre bloom, puis réessayez la commande pour modifier le classement.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE : 428FR

Impossible de modifier le classement de la colonne <column> , car il s’agit d’une colonne de clustering. Conservez le classement existant ou remplacez la colonne par une colonne qui n’est pas en cluster avec une ALTER TABLE commande, puis réessayez la commande pour modifier le classement.

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE : 42837

ALTER TABLE CHANGE COLUMN n’est pas pris en charge pour la modification de la colonne <currentType> en <newType>.

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE : 42000

ALTER TABLE CLUSTER BY est pris en charge uniquement pour la table Delta avec le clustering Liquid.

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE : 42000

ALTER TABLE CLUSTER BY ne peut pas être appliqué à une table partitionnée.

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE : 42000

Opération non autorisée : ALTER TABLE RENAME TO n’est pas autorisé pour les tables Delta gérées sur S3, car la cohérence éventuelle sur S3 peut endommager le journal des transactions Delta. Si vous insistez pour cela et êtes sûr qu’il n’y a jamais eu de table Delta avec le nouveau nom <newName> avant, vous pouvez activer cela en définissant <key> la valeur true.

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE : 42000

Impossible d’activer la fonctionnalité de table <tableFeature> à l’aide de ALTER TABLE SET TBLPROPERTIES. Veuillez utiliser CREATE OU REPLACE TABLE CLUSTER BY pour créer une table Delta avec clustering.

DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED

SQLSTATE : 42809

ALTER TABLE ... SET MANAGED nécessite que COPY ou MOVE soit spécifié pour la table étrangère <table>.

DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG

SQLSTATE : 0A000

ALTER TABLE ... SET MANAGED ne prend pas en charge la table Uniform Apache Iceberg. Désactiver Uniform ou utiliser SET MANAGED TRUNCATE UNIFORM HISTORY.

DELTA_ALTER_TABLE_SET_MANAGED_FAILED

SQLSTATE : 42809

ALTER TABLE <table> SET MANAGED raté.

Pour plus d’informations , consultez DELTA_ALTER_TABLE_SET_MANAGED_FAILED

DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED

SQLSTATE : 0AKDC

ALTER TABLE ... SET MANAGED la commande n’est pas activée. Contactez votre équipe du support technique Databricks pour obtenir de l’aide.

DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

SQLSTATE : 55019

ALTER TABLE <table> SET MANAGED ne peut pas migrer la table donnée.

Vérifiez que la table est dans un état valide et réessayez la commande. Si le problème persiste, contactez le support Databricks.

Pour plus d’informations , consultez DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX

SQLSTATE : 42809

ALTER TABLE ... SET MANAGED [COPY | MOVE] la syntaxe n'est pas supportée pour la table <table>. Utilisez ALTER TABLE ... SET MANAGED à la place.

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE

SQLSTATE : 42809

La table <table> étrangère n’est pas prise en charge pour la migration vers la table gérée UC : <errorMessage>.

DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE

SQLSTATE : 0AKDC

ALTER TABLE ... UNSET MANAGED ne prend pas en charge une table lorsque le mode de compatibilité est activé.

Désactivez le mode de compatibilité sur la table avant d’exécuter cette commande.

DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM

SQLSTATE : 0AKDC

ALTER TABLE ... UNSET MANAGED ne prend pas en charge Uniform. Désactiver Uniform ou utiliser UNSET MANAGED TRUNCATE UNIFORM HISTORY.

DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

SQLSTATE : 42809

<table> ne peut pas être restauré d’une table managée vers une table externe.

Pour plus de détails , consultez DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED

SQLSTATE : 0AKDC

ALTER TABLE ... UNSET MANAGED la commande n’est pas activée. Contactez votre équipe du support technique Databricks pour obtenir de l’aide.

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE : 429BQ

Impossible de modifier le type de données de <column><from> vers <to>. Cette modification contient des suppressions de colonnes et des ajouts, par conséquent, ils sont ambigus. Apportez ces modifications individuellement en utilisant ALTER TABLE [ADD | DROP | RENAME] COLUMN.

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE : 42702

La colonne <column> de partition ambiguë peut être <colMatches>.

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE : 42613

CREATE TABLE contient deux emplacements différents : <identifier> et <location>.

Vous pouvez supprimer la LOCATION clause de l’instruction CREATE TABLE ou définir

<config> sur Vrai pour ignorer cette vérification.

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE : 42KDC

La table <table> ne contient pas suffisamment d’enregistrements dans des fichiers non archivés pour satisfaire les enregistrements spécifiés LIMIT<limit> .

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE : 42KDC

Fichiers <numArchivedFiles> potentiellement archivés dans la table <table> qui doivent être analysés pour cette requête.

Impossible d’accéder aux fichiers archivés. Le délai actuel avant l’archivage est configuré sur <archivalTime>.

Ajustez vos filtres de requête pour exclure les fichiers archivés.

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE : 42KD4

L’opération «<opName> » n’est pas autorisée lorsque la table a activé le flux de données de modification (CDF) et a subi des modifications de schéma à l’aide DROP COLUMN ou RENAME COLUMN.

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE : 42703

Impossible de supprimer les index de filtre de floraison pour les colonnes non existantes suivantes : <unknownColumns>.

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE : 82100

Une erreur OutOfMemory s'est produite lors de l'écriture des indices de filtres Bloom pour les colonnes suivantes: <columnsWithBloomFilterIndices>.

Vous pouvez réduire l’empreinte mémoire des index de filtre de floraison en choisissant une valeur plus petite pour l’option « numItems », une valeur plus grande pour l’option « fpp » ou en indexant moins de colonnes.

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE : 429BQ

Impossible de modifier le type de données : <dataType>.

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE : 42601

Impossible de modifier l'« emplacement » de la table Delta à l’aide SET TBLPROPERTIESde . Utilisez plutôt ALTER TABLE SET LOCATION.

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE : 42939

'provider' est une propriété de table réservée et ne peut pas être modifiée.

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE : 42703

Impossible de créer des index de filtre bloom pour les colonnes non existantes suivantes : <unknownCols>.

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE : 42KD5

Impossible de créer <path>.

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE : 42809

Impossible de décrire l’historique d’une vue.

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE : 42703

Impossible de supprimer l’index de filtre bloom sur une colonne non indexée : <columnName>.

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE : 0AKDE

Impossible de supprimer la CHECK fonctionnalité de table de contraintes.

Les contraintes suivantes doivent d’abord être supprimées : <constraints>.

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE : 0AKDE

Impossible de supprimer la fonctionnalité de table de classements.

Les colonnes avec des classements non par défaut doivent être modifiées en utilisant UTF8_BINARY comme première étape : <colNames>.

DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE

SQLSTATE : 0AKDE

Impossible de supprimer la fonctionnalité de table domainMetadata. La table <name> est une table Apache Iceberg managée. DomainMetadata ne peut pas être supprimé des tables Apache Iceberg managées.

IMPOSSIBLE DE SUPPRIMER LA FONCTIONNALITÉ GÉOSPATIALE

SQLSTATE : 0AKDE

Impossible de supprimer la fonctionnalité de table géospatiale. Recréez la table ou supprimez des colonnes avec des types geometry/geography : <colNames> puis réessayez.

IMPOSSIBLE_DE_SUPPRIMER_VARIANTE_FEATURE_DELTA

SQLSTATE : 55000

DROP FEATURE <feature> a échoué. Impossible de supprimer la fonctionnalité de table de variantes. Les colonnes variant doivent d’abord être supprimées : <colNames>.

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE : 0AKDC

Impossible d’évaluer l’expression : <expression>.

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE : 22000

Attendez-vous à une table Delta de compartimentage, mais ne trouvez pas la spécification de compartiment dans la table.

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE : 0AKDC

Impossible de générer du code pour l’expression : <expression>.

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE : 42809

Cette table est configurée pour autoriser uniquement les ajouts. Si vous souhaitez autoriser les mises à jour ou les suppressions, utilisez 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'.

DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES

SQLSTATE : 42616

Impossible de remplacer ou d’annuler les propriétés d’horodatage de la table lors de la validation, car cette table appartient au catalogue. Supprimez « delta.enableInCommitTimestamps », « delta.inCommitTimestampEnablementVersion » et « delta.inCommitTimestampEnablementTimestamp » de la TBLPROPERTIES clause, puis réessayez la commande.

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE : 42616

<Command> ne peut pas remplacer ou annuler les propriétés de la table d’horodatage dans la validation, car les validations coordonnées sont activées dans cette table et dépendent de celles-ci. Supprimez-les (« delta.enableInCommitTimestamps », « delta.inCommitTimestampEnablementVersion », « delta.inCommitTimestampEnablementTimestamp ») de la TBLPROPERTIES clause, puis réessayez la commande.

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE : 42939

La configuration <prop> de la table Delta ne peut pas être spécifiée par l’utilisateur.

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE : 42616

<Command> ne peut pas remplacer les configurations de validation coordonnées pour une table cible existante. Supprimez-les (« delta.coordinatedCommits.commitCoordinator-preview », « delta.coordinatedCommits.commitCoordinatorConf-preview », « delta.coordinatedCommits.tableConf-preview ») de la TBLPROPERTIES clause, puis réessayez la commande.

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE : 22KD1

Un URI (<uri>) qui ne peut pas être transformé en chemin relatif a été trouvé dans le journal des transactions.

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE : 42000

Chemin (<path>) qui ne peut pas être relativisé avec l’entrée à jour trouvé dans le

journal des transactions. Réexécutez-le comme suit :

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(« <userPath> », true)

puis exécutez aussi :

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(« <path> »)

DELTA_CANNOT_RENAME_PATH

SQLSTATE : 22KD1

Impossible de renommer <currentPath> en <newPath>.

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE : 42P01

La table <tableName> ne peut pas être remplacée, car elle n’existe pas. Utilisez CREATE OR REPLACE TABLE pour créer la table.

DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN

SQLSTATE : 42703

Impossible de résoudre la colonne de clustering <columnName> dans <schema> en raison d'une erreur inattendue. Exécuter ALTER TABLE...CLUSTER BY ... pour réparer les métadonnées de clustering Delta.

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE : 42703

Impossible de résoudre la colonne <columnName> dans <schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE : 22003

Impossible de restaurer la table vers la version <version>. Versions disponibles : [<startVersion>, <endVersion>].

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE : 22003

Impossible de restaurer la table dans l’horodatage (<requestedTimestamp>) car elle est antérieure à la version la plus ancienne disponible. Utilisez un horodatage postérieur à (<earliestTimestamp>).

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE : 22003

Impossible de restaurer la table au timestamp (<requestedTimestamp>), car il est postérieur à la dernière version disponible. Utilisez un horodatage avant (<latestTimestamp>).

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE : 42616

<Command> ne peut pas définir les propriétés de la table timestamp in-commit avec des validations coordonnées, car celle-ci dépend de l’ancien et définit l’ancien en interne. Supprimez-les (« delta.enableInCommitTimestamps », « delta.inCommitTimestampEnablementVersion », « delta.inCommitTimestampEnablementTimestamp ») de la TBLPROPERTIES clause, puis réessayez la commande.

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE : 42613

Impossible de modifier l’emplacement d’une table basée sur le chemin d’accès.

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE : 42616

Impossible de définir delta.managedDataSkippingStatsColumns sur la table non-Lakeflow des pipelines Spark déclaratifs.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND

SQLSTATE : 42616

Lors de l’activation de « unity-catalog » comme coordinateur de validation, la configuration «<configuration> » ne peut pas être définie à partir de la commande. Supprimez-la de la TBLPROPERTIES clause, puis réessayez la commande.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE : 42616

Lors de l’activation de « unity-catalog » comme coordinateur de validation, la configuration «<configuration> » ne peut pas être définie à partir des configurations SparkSession. Annulez-la en exécutant spark.conf.unset("<configuration>") , puis réessayez la commande.

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE : 42616

ALTER ne peut pas annuler les configurations des validations coordonnées. Pour abaisser une table à partir des validations coordonnées, réessayez à l’aide de ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE : 429BQ

Impossible de mettre à jour le type de champ <tableName> : mettez à jour <fieldName> l’élément en mettant à jour <fieldName>.element.

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE : 429BQ

Impossible de mettre à jour le type de champ <tableName> : mettez à jour <fieldName> une carte en mettant à jour <fieldName>.key ou <fieldName>.value.

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE : 429BQ

Impossible de mettre à jour le champ <tableName> de type <typeName>.

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE : 429BQ

Impossible de mettre à jour le champ <tableName> de type <fieldName> : mettre à jour la structure en ajoutant, supprimant ou modifiant ses champs.

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE : 428FT

Impossible d’utiliser toutes les colonnes des colonnes de partition.

DELTA_CANNOT_VACUUM_LITE

SQLSTATE : 55000

LITE VACUUM ne peut pas supprimer tous les fichiers éligibles, car certains ne sont pas référencés par le journal Delta. Veuillez exécuter VACUUM FULL.

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE : 0A000

<table> est une vue. Les écritures dans une vue ne sont pas prises en charge.

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE : 22003

Échec de l’écriture d’une valeur de type <sourceType> dans la colonne de type <targetType><columnName> en raison d’un débordement.

Utilisez try_cast dans la valeur d’entrée pour tolérer un dépassement et retourner NULL à la place.

Si nécessaire, définissez <storeAssignmentPolicyFlag> sur « LEGACY » pour contourner cette erreur ou <updateAndMergeCastingFollowsAnsiEnabledFlag> sur vrai pour revenir à l’ancien comportement et suivre <ansiEnabledFlag> dans UPDATE et MERGE.

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE : 0A000

La mise à niveau ou la rétrogradation d’une table gérée par catalogue n’est pas prise en charge. Créez une table avec les fonctionnalités de table souhaitées à la place.

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES

SQLSTATE : 429BQ

Impossible de combiner la mise à niveau d’une table <tableName> gérée par le catalogue avec d’autres modifications de propriété.

Propriétés fournies : <properties>.

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE : 0AKDC

La configuration delta.enableChangeDataFeed ne peut pas être définie. Le flux de données modifiées de Delta n’est pas encore disponible.

DELTA_CDC_READ_NULL_RANGE_BOUNDARY

SQLSTATE : 22004

Les paramètres de début/fin de lecture CDC ne peuvent pas être nuls. Indiquez une version ou un horodatage valide.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE : 0AKDC

La récupération des modifications de table entre la version <start> et <end> a échoué en raison d'un schéma de données incompatible.

Votre schéma de lecture est <readSchema> à la version <readVersion>, mais nous avons trouvé un schéma de données incompatible à la version <incompatibleVersion>.

Si possible, récupérez les modifications apportées à la table à l’aide du schéma de la version finale en définissant <config> sur endVersion, ou contactez le support technique.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE : 0AKDC

La récupération des modifications de table entre la version <start> et la version <end> a échoué en raison d’une modification de schéma incompatible.

Votre schéma de lecture est <readSchema> à la version <readVersion>, mais nous avons trouvé une modification de schéma incompatible à la version <incompatibleVersion>.

Si possible, interrogez la table des modifications séparément de la version <start> vers <incompatibleVersion> - 1 et de la version <incompatibleVersion> vers <end>.

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE : 42K03

Le fichier <filePath> référencé dans le journal des transactions est introuvable. Cela peut se produire lorsque les données ont été supprimées manuellement du système de fichiers plutôt que d’utiliser l’instruction table DELETE . Cette demande semble cibler le flux de données modifiées, si c’est le cas, cette erreur peut se produire lorsque le fichier de données modifiées est hors de la période de rétention et a été supprimé par l’instruction VACUUM . Pour plus d’informations, consultez <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE : 42807

Impossible d’écrire dans la table lorsque delta.enableChangeDataFeed est activé. Le flux de changements de données de Delta n’est pas disponible.

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE : 42K03

Impossible de contrôler une table <path> non existante. Avez-vous supprimé manuellement les fichiers dans le répertoire _delta_log ?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE : 42613

Deux chemins ont été fournis comme cible CLONE, il est donc ambigu de savoir lequel utiliser. Un périphérique externe

emplacement pour CLONE lequel le chemin a été fourni en <externalLocation> même temps que le chemin d’accès

<targetIdentifier>.

DELTA_CLONE_INCOMPATIBLE_SOURCE

SQLSTATE : 0AKDC

La source clone a un format valide, mais elle n’a pas de fonctionnalité prise en charge avec Delta.

Pour plus d’informations , consultez DELTA_CLONE_INCOMPATIBLE_SOURCE

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE : 42000

Fichier (<fileName>) non copié complètement. Taille de fichier attendue : <expectedSize>, trouvé : <actualSize>. Pour continuer avec l’opération en ignorant la vérification de la taille du fichier définie <config> sur false.

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE : 0AKDC

Source « <mode> » de clone <name> non prise en charge, dont le format est <format>.

Les formats pris en charge sont « delta », « Apache Iceberg » et « parquet ».

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

SQLSTATE : 0AKDC

Table source non prise en charge :

Pour plus de détails , consultez DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

SQLSTATE : 0AKDC

Table cible non prise en charge :

Pour plus de détails , consultez DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

CLONE_DELTA_AVEC_SUIVI_DES_LIGNES_SANS_STATISTIQUES

SQLSTATE : 22000

Impossible de réaliser un clonage superficiel d'une table sans statistiques et avec le suivi des lignes activé.

Si vous souhaitez activer le suivi des lignes, vous devez d’abord collecter des statistiques sur la table source en exécutant :

ANALYZE TABLE nom_de_table COMPUTE DELTA STATISTICS

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE : 0A000

CLONE n’est pas pris en charge pour la table Delta avec le clustering liquide pour la version < 14.0 de DBR.

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE : 0A000

CLUSTER BY n’est pas pris en charge, car la ou les colonnes suivantes : <columnsWithDataTypes> ne prennent pas en charge les données ignorées.

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE : 42P10

Les colonnes de clustering fournies ne correspondent pas à celles de la table existante.

  • fourni : <providedClusteringColumns>

  • existant : <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE : 22000

Le clustering liquide nécessite que les colonnes de clustering aient des statistiques. Impossible de trouver les colonnes de clustering '<columns>' dans le schéma des statistiques :

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE : 22000

La création d’une table externe sans clustering liquide à partir d’un répertoire de table avec clustering liquide n’est pas autorisée ; chemin d’accès : <path>.

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE : 42000

'<operation>' ne prend pas en charge le clustering.

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE : 0AKDE

Impossible de terminer le <phaseOutType> de la table avec la fonctionnalité de table <tableFeatureToAdd> (raison : <reason>). Réessayez la OPTIMIZE commande.

== Erreur ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE : 42000

REPLACE une table Delta par Liquid clustering par une table partitionnée n’est pas autorisé.

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE : 0A000

SHOW CREATE TABLE n’est pas pris en charge pour la table Delta avec Liquid clustering sans colonnes clustering.

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE : 42000

La transition d’une table Delta avec le clustering Liquid vers une table partitionnée n’est pas autorisée pour l’opération : <operation>, lorsque la table existante a des colonnes de clustering non vides.

Exécutez ALTER TABLE CLUSTER BY NONE pour supprimer d’abord les colonnes de clustering.

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE : 42000

Le mode de remplacement de partition dynamique n’est pas autorisé pour la table Delta avec des clustering liquides.

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE : 0A000

La commande OPTIMIZE de la table Delta avec un clustering Liquid ne prend pas en charge les prédicats de partition. Supprimez les prédicats : <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE : 42613

La commande OPTIMIZE de la table Delta avec un clustering Liquid ne peut pas spécifier ZORDER BY. Veuillez supprimer ZORDER BY (<zOrderBy>).

DELTA_CLUSTER_BY_AUTO_MISMATCH

SQLSTATE : 42000

La valeur clusterByAuto fournie ne correspond pas à celle de la table existante.

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE : 54000

CLUSTER BY pour Liquid clustering prend en charge jusqu’à <numColumnsLimit> des colonnes de clustering, mais la table comporte <actualNumColumns> des colonnes de clustering. Supprimez les colonnes de clustering supplémentaires.

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE : 42908

Il n’est pas autorisé à spécifier CLUSTER BY quand le schéma n’est pas défini. Définissez le schéma pour la table <tableName>.

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE : 42613

Le clustering et le compartimentage ne peuvent pas être spécifiés. Supprimez CLUSTERED BY INTO BUCKETS /bucketBy si vous souhaitez créer une table Delta avec clustering.

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE : 42613

Le clustering et le partitionnement ne peuvent pas être spécifiés. Supprimez PARTITIONED BY / partitionBy / partitionedBy si vous souhaitez créer une table Delta avec clustering.

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE : 0AKDC

Les classements ne sont pas pris en charge dans Delta Lake.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE : 0AKDC

Le saut de données n’est pas pris en charge pour la colonne de partition « <column> ».

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE : 0AKDC

Le saut de données n’est pas pris en charge pour la colonne « <column> » de type <type>.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE : 42703

La propriété max column id (<prop>) n’est pas définie sur une table de mappage de colonnes activée.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE : 42703

La propriété d'ID de colonne maximale (<prop>) dans une table avec mappage de colonnes est <tableMax>, ce qui ne peut pas être inférieur à l'ID de colonne maximale pour l'ensemble des champs (<fieldMax>).

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE : 42601

Le type de données de la colonne <colName> n’a pas été fourni.

DELTA_COLUMN_NOT_FOUND

SQLSTATE : 42703

Impossible de trouver la colonne <columnName> donnée [<columnList>].

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE : 42703

Impossible de trouver la colonne '<targetCol>' de la table cible à partir des INSERT colonnes : <colNames>. INSERT la clause doit spécifier la valeur de toutes les colonnes de la table cible.

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE : 42703

Impossible de trouver la colonne <columnName> dans :

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE : 42704

Il était attendu que <columnPath> soit un type de données imbriqué, mais <other> a été trouvé. Recherchait l’

index de <column> dans un champ imbriqué.

Schema:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE : 2200G

Il est impossible d’insérer une colonne de type struct <source> dans un champ <targetType><targetField> dans <targetTable>.

DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE

SQLSTATE : 42P01

Impossible de gérer la validation d’une table dans l’état de la table de redirection « <state> ».

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE : 22000

La validation du compactage du chemin d’accès <compactedPath> à <newPath> a échoué : déposez un rapport de bogue.

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE : 22005

Valeur NullType imbriquée trouvée dans la colonne <columName> qui est de type <dataType>. Delta ne prend pas en charge l’écriture de NullType dans des types complexes.

DELTA_CONCURRENT_APPEND

SQLSTATE : 2D521

ConcurrentAppendException : les fichiers ont été ajoutés à <partition> par une mise à jour simultanée. <retryMsg> <conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE : 2D521

ConcurrentDeleteDeleteException : cette transaction a tenté de supprimer un ou plusieurs fichiers supprimés (par exemple <file>) par une mise à jour simultanée. Réessayez l’opération.<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONCURRENT_DELETE_READ

SQLSTATE : 2D521

ConcurrentDeleteReadException : cette transaction a tenté de lire un ou plusieurs fichiers supprimés (par exemple <file>) par une mise à jour simultanée. Réessayez l’opération.<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONCURRENT_TRANSACTION

SQLSTATE : 2D521

ConcurrentTransactionException : cette erreur se produit lorsque plusieurs requêtes de streaming utilisent le même point de contrôle pour écrire dans cette table. Avez-vous exécuté plusieurs instances de la même requête de streaming en même temps ?<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONCURRENT_WRITE

SQLSTATE : 2D521

ConcurrentWriteException : une transaction simultanée a écrit de nouvelles données depuis que la transaction actuelle lit la table. Réessayez l’opération.<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONFLICT_SET_COLUMN

SQLSTATE : 42701

Il y a un conflit dans ces SET colonnes : <columnList>.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE : 42616

Pendant <command>, la configuration «<configuration> » ne peut pas être définie à partir de la commande. Supprimez-la de la TBLPROPERTIES clause, puis réessayez la commande.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE : 42616

Pendant <command>, la configuration «<configuration> » ne peut pas être définie à partir des configurations SparkSession. Annulez-la en exécutant spark.conf.unset("<configuration>") , puis réessayez la commande.

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE : 42710

La contrainte '<constraintName>' existe déjà. Supprimez d’abord l’ancienne contrainte.

Ancienne contrainte :

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE : 42K09

La <columnName> colonne a un type <columnType> de données et ne peut pas être modifiée en type <dataType> de données, car cette colonne est référencée par la ou les contraintes de vérification suivantes :

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE : 42K09

Impossible de modifier la colonne <columnName> , car cette colonne est référencée par les contraintes de vérification suivantes :

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE : 42704

Impossible de supprimer la contrainte <constraintName> inexistante de la table <tableName>. Pour éviter de générer une erreur, complétez le paramètre IF EXISTS ou définissez la configuration de session SQL <config> sur <confValue>.

DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED

SQLSTATE : 0AKDC

La conversion de la table Merge-On-Read <format> n’est pas prise en charge : <path>, <hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE : 42KD6

Aucune information de partition n’a été trouvée dans le catalogue pour la table <tableName>. Avez-vous exécuté « MSCK REPAIR TABLE» sur votre table pour découvrir les partitions ?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE : 0AKDC

Impossible de convertir une table Parquet avec une colonne <colName> de partition compilée en delta.

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE : 0AKDC

La configuration '<config>' ne peut pas être définie à <mode> lors de l’utilisation de CONVERT à DELTA.

DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE

SQLSTATE : 0AKDC

Modifications de schéma non prises en charge trouvées pour la table <format> : <path>, <hint>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE : 0AKDC

CONVERT TO DELTA prend uniquement en charge les tables Parquet, mais vous essayez de convertir une source <sourceName> : <tableId>.

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE : 22000

Impossible d’activer le suivi des lignes sans collecter de statistiques.

Si vous souhaitez activer le suivi des lignes, procédez comme suit :

  1. Activer la collecte de statistiques en exécutant la commande

SET <statisticsCollectionPropertyKey> = vrai

  1. Exécutez CONVERT TO DELTA sans l’option NO STATISTICS .

Si vous ne souhaitez pas collecter de statistiques, désactivez le suivi des lignes :

  1. Désactivez l’activation de la fonctionnalité de table par défaut en exécutant la commande :

RESET <rowTrackingTableFeatureDefaultKey>

  1. Désactivez la propriété de table par défaut en exécutant :

SET <rowTrackingDefaultPropertyKey> = faux

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE : 0AKDD

COPY INTO la cible doit être une table Delta.

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE : 42601

Vous essayez de créer une table externe <tableName>

à partir de <path> en utilisant Delta, mais le schéma n’est pas spécifié quand le

le chemin d'entrée est vide.

Pour en savoir plus sur Delta, consultez <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE : 42K03

Vous essayez de créer une table <tableName> externe à partir de l’utilisation de <path> Delta, mais il n’existe aucun journal des transactions présent à <logPath>. Vérifiez la tâche en amont pour vous assurer qu'elle utilise le format("delta") et que le chemin est la racine de la table.

Pour en savoir plus sur Delta, consultez <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE : 0AKDC

La création d’une table Delta basée sur le chemin avec un autre emplacement n’est pas prise en charge. Identificateur : <identifier>, Emplacement : <location>.

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE : 42601

Le nom ou l’emplacement de la table doit être spécifié.

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE : 42KD7

Le schéma spécifié ne correspond pas au schéma existant à l’adresse <path>.

== Spécifié ==

<specifiedSchema>

== Actuel ==

<existingSchema>

== Différences ==

<schemaDifferences>

Si votre intention est de conserver le schéma existant, vous pouvez omettre le

schéma à partir de la commande create table. Sinon, assurez-vous que

le schéma correspond.

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE : 42000

Impossible d’activer la fonctionnalité de table <tableFeature> à l’aide de TBLPROPERTIES. Veuillez utiliser CREATE OU REPLACE TABLE CLUSTER BY pour créer une table Delta avec clustering.

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE : 42KD7

Les colonnes de clustering spécifiées ne correspondent pas aux colonnes de clustering existantes à <path>.

== Spécifié ==

<specifiedColumns>

== Actuel ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE : 42KD7

Le partitionnement spécifié ne correspond pas au partitionnement existant à <path>.

== Spécifié ==

<specifiedColumns>

== Actuel ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE : 42KD7

Les propriétés spécifiées ne correspondent pas aux propriétés existantes à <path>.

== Spécifié ==

<specifiedProperties>

== Actuel ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE : 42601

Impossible de créer une table (''<tableId>). L’emplacement associé ('<tableLocation>') n’est pas vide et n’est pas non plus une table Delta.

DELTA_DATA_CHANGE_FALSE

SQLSTATE : 0AKDE

Impossible de modifier les métadonnées de table, car l’option « dataChange » a la valeur false. Opération tentée : « <op> ».

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE : 42K03

Le fichier <filePath> référencé dans le journal des transactions est introuvable. Ce fichier Parquet peut être supprimé sous la politique de rétention des données de Delta.

Durée de rétention des données Delta par défaut : <logRetentionPeriod>. Heure de modification du fichier Parquet : <modificationTime>. Heure de suppression du fichier Parquet : <deletionTime>. Supprimé sur la version Delta : <deletionVersion>.

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE : 2D521

Il n’est pas valide de valider des fichiers avec des vecteurs de suppression qui manquent la statistique numRecords.

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED

SQLSTATE : 0AKDC

La désactivation de la matérialisation source en INSERT REPLACE ON/USING définissant « spark.databricks.delta.insertReplaceOnOrUsing.materializeSource » sur « none » n’est pas autorisée.

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED

SQLSTATE : 0AKDC

La désactivation de la matérialisation source en MERGE définissant « spark.databricks.delta.merge.materializeSource » sur « none » n’est pas autorisée.

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE : 0A000

Détection des actions DomainMetadata pour les domaines <domainNames>, mais DomainMetadataTableFeature n’est pas activée.

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE : 42KD8

L'index <columnIndex> pour supprimer une colonne est inférieur à 0.

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE : 0AKDC

Impossible de supprimer une colonne d’un schéma avec une seule colonne. Schema:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE : 2D521

L’opération de fichier '<actionType>' pour le chemin d’accès <path> a été spécifiée plusieurs fois.

Il est en conflit avec <conflictingPath>.

Il n'est pas possible d'avoir plusieurs opérations de fichier avec le même chemin d'accès dans une seule soumission.

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE : 42711

Colonnes en double trouvées <coltype> : <duplicateCols>.

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE : 42701

Noms de colonnes en double dans la clause INSERT.

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE : 42701

<message>

Supprimez les colonnes dupliquées avant de mettre à jour votre table.

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE : 42701

Données dupliquées qui ignorent les colonnes trouvées : <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE : 42601

Erreur interne : deux actions DomainMetadata au sein de la même transaction ont le même domaine <domainName>.

DELTA_DUPLICATE_LOG_ENTRIES_FOUND (entrées de journal dupliquées détectées)

SQLSTATE : 55019

Le journal Delta est dans un état non valide : <numDuplicates> les cheminements ont des entrées en double dans la version <version>. RESTORE vers une version avant la validation qui a introduit la duplication ou contactez le support technique pour obtenir de l’aide.

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE : 22000

Impossible de désérialiser l’histogramme du nombre d’enregistrements supprimés pendant la vérification de l’intégrité de la table.

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE : 0A000

Le mode de remplacement de partition dynamique est spécifié par les options de configuration de session ou d’écriture, mais il est désactivé par spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.

DELTA_EMPTY_DATA

SQLSTATE : 428GU

Les données utilisées dans la création de la table Delta n’ont pas de colonnes.

DELTA_EMPTY_DIRECTORY

SQLSTATE : 42K03

Aucun fichier trouvé dans le répertoire : <directory>.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE : 22001

La valeur «<value> » dépasse la limitation de longueur du type char/varchar. Échec de la vérification : <expr>.

DELTA_METADATA_EXTERNE_PROJECTION_NON_RÉSOLUE

SQLSTATE : 42703

Impossible de résoudre la requête<query> de projection sur le schéma : <schemaTreeString>

DELTA_EXTERNAL_METADATA_SOURCE_NON_SUPPORTÉE

SQLSTATE : 0AKDC

Les métadonnées externes ne prennent pas en charge la source :

Pour plus d’informations , consultez DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE : 22018

Échec de la conversion de la valeur de partition <value> en <dataType>.

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE : 42703

Impossible de trouver <newAttributeName> parmi la sortie <targetOutputColumns>cible existante.

DELTA_FAILED_INFER_SCHEMA

SQLSTATE : 42KD9

Impossible de déduire le schéma à partir de la liste donnée de fichiers.

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE : 42KDA

Échec de la fusion du schéma du fichier <file>:

<schema>

DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE

SQLSTATE : 42893

Échec de l’exécution de l’opération sur la table <sourceTable> source, car le clone peu profond existe toujours et l’erreur suivante s’est produite dans le clone <targetTable> peu profond : <message>

SQLSTATE : KD001

Impossible de lire le pied de page du fichier : <currentFile>.

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE : 42601

Impossible de reconnaître le prédicat '<predicate>'.

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE : KD002

On s'attend à une analyse complète de la dernière version de la source Delta, mais une analyse historique de la version <historicalVersion> a été trouvée.

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE : 22005

Échec de la fusion des champs «<currentField> » et «<updateField> ».

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE : KD004

Impossible d’opérer sur ce tableau, car les fonctionnalités de tableau suivantes sont activées dans les métadonnées, mais pas répertoriées dans le protocole : <features>.

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE : 42000

Votre schéma de table nécessite l’activation manuelle des fonctionnalités de table suivantes : <unsupportedFeatures>.

Pour ce faire, exécutez la commande suivante pour chacune des fonctionnalités répertoriées ci-dessus :

ALTER TABLE SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'supported')

Remplacez « table_name » et « feature_name » par des valeurs réelles.

Fonctionnalités prises en charge actuelles : <supportedFeatures>.

DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION

SQLSTATE : 55000

Impossible de supprimer la fonctionnalité Protection de point de contrôle.

Cette fonctionnalité ne peut être supprimée qu’en tronquant l’historique.

Réessayez avec l’option TRUNCATE HISTORY :

ALTER TABLE DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY

DELTA_FEATURE_DROP_CHECKPOINT_FAILED

SQLSTATE : 22KD0

Échec de la suppression <featureName> en raison d’un échec lors de la création du point de contrôle.

Réessayez plus tard. Le problème persiste, contactez le support Databricks.

DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD

SQLSTATE : 22KD0

L’opération n’a pas réussi, car il existe toujours des traces de fonctionnalités supprimées

dans l’historique de la table. CheckpointProtection ne peut pas être supprimé jusqu’à ce que ces événements historiques soient achevés.

versions ont expiré.

Pour supprimer CheckpointProtection, attendez que les versions historiques soient disponibles

expirez, puis répétez cette commande. La période de rétention des versions historiques est

actuellement configuré sur <truncateHistoryLogRetentionPeriod>.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE : 40000

Impossible de supprimer la fonctionnalité, car une transaction simultanée a modifié la table.

Réessayez l’opération.

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE : 55000

Impossible de supprimer la fonctionnalité de la table <feature>, car certaines autres fonctionnalités (<dependentFeatures>) de cette table dépendent de <feature>.

Envisagez de les supprimer d’abord avant de supprimer cette fonctionnalité.

DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY

SQLSTATE : 42000

Impossible de supprimer <property> de cette table, car il s’agit d’une propriété de table delta et non d’une fonctionnalité de table.

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE : 55000

Impossible de supprimer <feature> de cette table, car elle n’est pas présente actuellement dans le protocole de la table.

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE : 22KD0

Impossible de supprimer <feature> , car le journal Delta contient des versions historiques qui utilisent la fonctionnalité.

Attendez que la période de rétention de l’historique (<logRetentionPeriodKey>=<logRetentionPeriod>)

il s'est écoulé depuis la dernière fois que la fonctionnalité a été active.

Vous pouvez également attendre l’expiration de la TRUNCATE HISTORY période de rétention (<truncateHistoryLogRetentionPeriod>)

Ensuite, exécutez :

ALTER TABLE DROP FEATURE table_name feature_nameTRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE : 42000

La fonctionnalité particulière ne nécessite pas de troncation d’historique.

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE : 0AKDC

Impossible de supprimer <feature> car la suppression de cette fonctionnalité n’est pas prise en charge.

Contactez le support Databricks.

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE : 0AKDC

Impossible de supprimer <feature> , car elle n’est pas prise en charge par cette version de Databricks.

Envisagez d’utiliser Databricks avec une version ultérieure.

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE : 22KD0

La suppression <feature> a été partiellement réussie.

La fonctionnalité n’est plus utilisée dans la version actuelle de la table. Toutefois, la fonctionnalité

est toujours présent dans les versions historiques de la table. Impossible de supprimer la fonctionnalité de table

du protocole de table tant que ces versions historiques n’ont pas expiré.

Pour supprimer la fonctionnalité de table du protocole, attendez que les versions historiques soient disponibles.

expirez, puis répétez cette commande. La période de rétention des versions historiques est

actuellement configuré en tant que <logRetentionPeriodKey>=<logRetentionPeriod>.

Vous pouvez également attendre l’expiration de la TRUNCATE HISTORY période de rétention (<truncateHistoryLogRetentionPeriod>)

Ensuite, exécutez :

ALTER TABLE DROP FEATURE table_name feature_nameTRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE : 55000

Impossible d’activer la fonctionnalité <feature> de table, car elle nécessite une version supérieure du protocole lecteur (actuelle <current>). Envisagez de mettre à niveau la version du protocole de lecture de la table à <required>, ou à une version qui prend en charge les fonctionnalités de lecture de la table. Pour plus d'informations sur les versions de protocole de table, référez-vous à <docLink>.

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE : 55000

Impossible d’activer la fonctionnalité <feature> de table, car elle nécessite une version supérieure du protocole writer (actuelle <current>). Envisagez de mettre à niveau la version du protocole enregistreur de la table vers <required>ou vers une version qui prend en charge les fonctionnalités de la table d’enregistreur. Pour plus d'informations sur les versions de protocole de table, référez-vous à <docLink>.

DELTA_FILE_ALREADY_EXISTS

SQLSTATE : 42K04

Chemin d'accès du fichier existant <path>.

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE : 42613

Impossible de spécifier à la fois la liste de fichiers et la chaîne de modèle.

DELTA_FILE_NOT_FOUND

SQLSTATE : 42K03

Chemin d’accès du fichier <path>.

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE : 42K03

Le fichier <filePath> référencé dans le journal des transactions est introuvable. Cela se produit lorsque les données ont été supprimées manuellement du système de fichiers plutôt que d’utiliser l’instruction table DELETE . Pour plus d’informations, consultez <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE : 42K03

Aucun fichier ou répertoire de ce type : <path>.

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE : 42K03

Fichier (<path>) à réécrire non trouvé parmi les fichiers candidats :

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE : KD003

Un MapType a été trouvé. Pour accéder à la clé ou à la valeur d’un MapType, spécifiez-en une

of:

<key> ou

<value>

suivi du nom de la colonne (uniquement si cette colonne est un type de struct).

par exemple, mymap.key.mykey

Si la colonne est un type de base, mymap.key ou mymap.value suffit.

Schema:

<schema>

DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG

SQLSTATE : 55000

FSCK n’est pas en mesure de réparer la table. La table n’a pas de point de contrôle valide pour démarrer la relecture du journal et il n’y a pas suffisamment d’historique des journaux à relire à partir de la première version.

DELTA_FSCK_CONCURRENT_MODIFICATION

SQLSTATE : 2D521

Modification simultanée de la table détectée lors de l’exécution de FSCK. Réessayez la commande FSCK et assurez-vous qu’aucune autre opération n’est écrite dans la table pendant le processus de réparation.

DELTA_VÉRIFICATION_PARALLELE_SÉCHE_PEUT_PAS_CONTINUER_AVECDES_POINTSD'ÉTAPES_INVALIDE

SQLSTATE : 55000

L’EXÉCUTION SÈCHE DE FSCK ne peut pas continuer, car des points de contrôle non valides ont été détectés. Veuillez d'abord exécuter 'FSCK REPAIR TABLE table METADATA ONLY' pour réparer les points de contrôle.

DELTA_FSCK_DRY_RUN_NE_PEUT_PAS_PROGRESSER_AVEC_DES_FICHIERS_DE_PARTITION_MANQUANTS_OU_INVALIDES

SQLSTATE : 55000

L’EXÉCUTION SÈCHE DE FSCK ne peut pas continuer, car des fichiers manquants ou des fichiers avec des valeurs de partition non valides ont été détectés. Veuillez d'abord exécuter 'FSCK REPAIR TABLE table' pour réparer la table.

DELTA_FSCK_INVALID_BARRIER_CHECKPOINT

SQLSTATE : 55000

FSCK n’est pas en mesure de réparer la table. Certains points de contrôle non valides sont protégés et ne peuvent pas être supprimés. Contactez le support Databricks.

DELTA_FSCK_NO_VALID_CHECKPOINT

SQLSTATE : 55000

FSCK n’est pas en mesure de réparer la table. Tous les points de contrôle de cette table ne sont pas valides. Contactez le support Databricks.

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE : 42K09

La <columnName> colonne a un type <columnType> de données et ne peut pas être modifiée en type <dataType> de données, car cette colonne est référencée par la ou les colonnes générées suivantes :

<generatedColumns>.

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE : 42K09

Impossible de modifier la colonne <columnName> , car cette colonne est référencée par la ou les colonnes générées suivantes :

<generatedColumns>.

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE : 42K09

Le type d’expression de la colonne <columnName> générée est <expressionType>, mais le type de colonne est <columnType>.

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE : 42K09

La <currentName> colonne est une colonne générée ou une colonne utilisée par une colonne générée. Le type de données est <currentDataType> et ne peut pas être converti en type de <updateDataType>données.

DELTA_GEOSPATIAL_NOT_SUPPORTED

SQLSTATE : 0AKDC

Les types géospatiaux ne sont pas pris en charge dans cette version de Delta Lake.

DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED

SQLSTATE : 0AKDC

Le type géospatial a un srid non pris en charge : <srid>. Les tables Delta prennent uniquement en charge les valeurs srid non négatives.

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE : KD00E

La validation d’IcebergCompatV<version> a échoué.

Pour plus d’informations , consultez DELTA_ICEBERG_COMPAT_VIOLATION

DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

SQLSTATE : KD00E

La validation de IcebergWriterCompatV<version> a échoué.

Pour plus de détails, consultez DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE : 429BQ

ALTER TABLE ALTER COLUMN n’est pas pris en charge pour les IDENTITY colonnes.

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE : 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY est uniquement pris en charge par Delta.

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE : 429BQ

ALTER TABLE ALTER COLUMN SYNC IDENTITY ne peut pas être appelé sur des colonnes qui ne sont pas IDENTITY.

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE : 42808

La fourniture de valeurs pour GENERATED ALWAYS AS IDENTITY la colonne <colName> n’est pas prise en charge.

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE : 42611

L’étape de colonne IDENTITY ne peut pas être 0.

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE : 0AKDD

Les colonnes IDENTITY sont uniquement prises en charge par Delta.

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE : 42601

PARTITIONED BY IDENTITY la colonne <colName> n’est pas prise en charge.

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE : 429BQ

ALTER TABLE REPLACE COLUMNS n’est pas pris en charge pour la table avec des colonnes IDENTITY.

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE : 428H2

DataType <dataType> n’est pas pris en charge pour les IDENTITY colonnes.

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE : 42808

UPDATE sur la colonne IDENTITY de <colName> n’est pas prise en charge.

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE : 42613

IDENTITY la colonne ne peut pas être spécifiée avec une expression de colonne générée.

DELTA_ILLEGAL_OPTION

SQLSTATE : 42616

Valeur non valide '<input>' pour l’option ''<name>, <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE : 42601

L'utilisation de <option> n'est pas autorisée dans le cas de <operation> une table Delta.

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE : 42000

BucketSpec sur la table compartimentée Delta ne correspond pas à BucketSpec d'après les métadonnées. Attendu : <expected>. Actuel: <actual>.

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE : F0000

(<setKeys>) ne peut pas être défini sur des valeurs différentes. Définissez l’un d’entre eux uniquement ou définissez-les sur la même valeur.

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE : KD003

Accès incorrect à un ArrayType. Utilisez la position de arrayname.element.elementname à

ajouter à un tableau.

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE : KD003

Un ArrayType a été trouvé. Pour accéder aux éléments d’un ArrayType, spécifiez

<rightName> plutôt que <wrongName>.

Schema:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE : 42000

Utilisez getConf() au lieu de conf.getConf().

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE : 0AKDC

L’erreur se produit généralement quand l’implémentation de LogStore par défaut,

est, HDFSLogStore, est utilisé pour écrire dans une table Delta sur un système de stockage non HDFS.

Pour obtenir les garanties ACID transactionnelles sur les mises à jour de table, vous devez utiliser

implémentation correcte de LogStore appropriée pour votre système de stockage.

Pour plus d’informations, consultez <docLink>.

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE : 42KD8

Index <index> pour supprimer une colonne égale ou supérieure à la longueur du struct : <length>.

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE : 42KD8

L’index <index> pour ajouter une colonne <columnName> est supérieur à la longueur du struct : <length>.

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE : 42802

Impossible d’écrire dans '<tableName>', <columnName> ; la table cible contient <numColumns> colonne(s) mais les données insérées contiennent <insertColumns> colonne(s).

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE : 42802

La colonne <columnName> n’est pas spécifiée dans INSERT.

DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION

SQLSTATE : 42702

<columnNames> Les colonnes sont ambiguës dans la condition de INSERT REPLACE ON. Envisagez de spécifier un alias pour ces colonnes.

DELTA_INSÉRER_REMPLACER_NON_ACTIVÉ

SQLSTATE : 0A000

Contactez votre représentant Databricks pour activer les INSERT INTO...REPLACE ON ... API SQL et DataFrame.

DELTA_INSÉRER_REMPLACER_SUR_COLONNES_NON_RÉSOLUES_DANS_CONDITION

SQLSTATE : 42703

La ou les <columnNames> colonnes ne peuvent pas être résolues dans la condition de INSERT REPLACE ON.

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE : 22023

Type compact automatique non valide : <value>. Les valeurs autorisées sont les suivantes : <allowed>.

DELTA_INVALID_BUCKET_COUNT

SQLSTATE : 22023

Nombre de compartiments non valide : <invalidBucketCount>. Le nombre de compartiments doit être un nombre positif qui est une puissance de 2 et est égal au moins à 8. Vous pouvez utiliser <validBucketCount> à la place.

DELTA_INVALID_BUCKET_INDEX

SQLSTATE : 22023

Impossible de trouver la colonne de bucket dans les colonnes de partition.

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE : 2200P

L’intervalle ne peut pas être null ou vide.

DELTA_INVALID_CDC_RANGE

SQLSTATE : 22003

La plage CDC de début <start> à fin <end> était invalide. La fin ne peut pas être avant le début.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE : 42K05

Le nom de l’attribut «<columnName> » contient des caractères non valides parmi « , ;{}()\n\t=". Utilisez un alias pour le renommer.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE : 42K05

Caractère(s) non valide(s) trouvé(s) parmi ' , ;{}()\n\t=' dans les noms de colonnes de votre schéma.

Noms de colonnes non valides : <invalidColumnNames>.

Utilisez d’autres caractères et réessayez.

Vous pouvez également activer le mappage de colonnes pour continuer à utiliser ces caractères.

DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES

SQLSTATE : 42621

Trouvé <colName> dans la contrainte CHECK. Une contrainte de vérification ne peut pas utiliser une colonne inexistante.

DELTA_INVALID_CLONE_PATH

SQLSTATE : 22KD1

L’emplacement cible CLONE doit être un chemin d’accès absolu ou un nom de table. Utiliser un

chemin absolu au lieu de <path>.

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE : 42K05

Caractère(s) non valide(s) trouvé(s) parmi ' , ;{}()\n\t=' dans les noms de colonnes de votre schéma.

Noms de colonnes non valides : <invalidColumnNames>.

Le mappage de colonnes ne peut pas être supprimé lorsqu’il existe des caractères non valides dans les noms de colonnes.

Renommez les colonnes pour supprimer les caractères non valides et réexécutez cette commande.

DELTA_INVALID_FORMAT

SQLSTATE : 22000

Format incompatible détecté.

Un journal des transactions pour Delta a été trouvé à l’adresse <deltaRootPath>/_delta_log,

mais vous essayez de <operation> <path> à l’aide d’un format (« <format> »). Vous devez utiliser

un « format(« delta ») » quand vous lisez et écrivez dans une table delta.

Pour en savoir plus sur Delta, consultez <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE : 42621

Une colonne générée ne peut pas utiliser une colonne non existante ou une autre colonne générée.

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE : 42616

Options non valides pour les écritures de dataframe idempotentes : <reason>

DELTA_INVALID_INTERVAL

SQLSTATE : 22006

<interval> n’est pas valide INTERVAL.

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE : 42000

Le schéma pour le spécifié INVENTORY ne contient pas tous les champs requis. Les champs obligatoires sont les suivants : <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE : 25000

niveau d’isolation non valide «<isolationLevel> ».

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE : F0000

(<classConfig>) et (<schemeConfig>) ne peuvent pas être définis en même temps. Définissez un seul groupe d’entre eux.

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE : 42000

Vous essayez de créer une table managée <tableName>

à l’aide de Delta, mais le schéma n’est pas spécifié.

Pour en savoir plus sur Delta, consultez <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE : 42996

<columnName> n’est pas une colonne de partition valide dans la table <tableName>.

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE : 42996

Des colonnes de partition ont été trouvées avec des caractères non valides parmi « , ;{}()\n\t=". Remplacez le nom par vos colonnes de partition. Cette vérification peut être désactivée en définissant spark.conf.set(« spark.databricks.delta.partitionColumnValidity.enabled », false), mais cela n’est pas recommandé, car d’autres fonctionnalités de Delta peuvent ne pas fonctionner correctement.

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE : 42996

L’utilisation d’une colonne <name> de type <dataType> comme colonne de partition n’est pas prise en charge.

DELTA_INVALID_PARTITION_PATH

SQLSTATE : 22KD1

Un fragment de chemin de partition doit être sous la forme de part1=foo/part2=bar. Chemin d’accès de la partition : <path>.

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE : KD004

La version du protocole ne peut pas être rétrogradée de (<oldProtocol>) à (<newProtocol>).

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE : KD004

Version de protocole Delta non prise en charge : la table «<tableNameOrPath>» nécessite la version de lecteur <readerRequired> et la version d’écriture <writerRequired>, mais cette version de Databricks prend en charge les versions de lecteur <supportedReaders> et de version d’écriture <supportedWriters>. Effectuez une mise à niveau vers une version plus récente.

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE : 22000

La fonction <function> est une fonction table non prise en charge pour les lectures CDC.

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE : 22007

L’horodatage <timestamp> fourni ne correspond pas à la syntaxe <format>attendue.

DELTA_LOG_ALREADY_EXISTS

SQLSTATE : 42K04

Un journal Delta existe déjà à <path>.

DELTA_LOG_FILE_NOT_FOUND

SQLSTATE : 42K03

Impossible de récupérer les fichiers de logs Delta pour construire la version de table <version> à partir de la version de point de contrôle <checkpointVersion> à l'emplacement <logPath>.

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE : 42K03

Si vous ne l’avez jamais supprimé, il est probable que votre requête soit en retard. Supprimez son point de contrôle pour redémarrer à partir de zéro. Pour éviter cela, vous pouvez mettre à jour votre politique de rétention pour votre table Delta.

FICHIER_JSON_DU_JOURNAL_DELTA_ACCÈS_REFUSÉ

SQLSTATE : 58000

Accès refusé lors de la lecture du fichier journal JSON Delta : <filePath>. Vérifiez que vous disposez d’autorisations de lecture pour l’emplacement de la table Delta.

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE : 22000

Nom de colonne matérialisée <rowTrackingColumn> manquant pour <tableName>.

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE : 42000

Utilisez une limite inférieure à Int.MaxValue - 8.

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE : 40000

Cette validation a échoué, car elle a été essayée <numAttempts> fois mais n’a pas réussi.

Cela peut être dû au fait que la table Delta est validée en permanence par de nombreux commits

commits.

Validation démarrée à la version : <startVersion>

Échec de la validation à la version : <failVersion>

Nombre d’actions tentées de réaliser : <numActions>

Temps total passé à tenter cette validation : <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE : 42000

La liste de fichiers doit avoir au maximum <maxFileListSize> entrées, et en avait <numFiles>.

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE : 42K09

Impossible d’ajouter une colonne <newColumn> avec le type VOID. Spécifiez explicitement un type non nul.

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE : 42K09

Échec de la fusion des types de données incompatibles <currentDataType> et <updateDataType>.

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE : 42806

Échec de la fusion des types décimaux incompatibles <decimalRanges>.

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE : 25000

La conservation de la source de l’instruction matérialisée MERGE a échoué à plusieurs reprises.

DELTA_MERGE_MISSING_WHEN

SQLSTATE : 42601

Il doit y avoir au moins une WHEN clause dans une MERGE instruction.

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE : 42601

Attribut(s) <missingAttributes> résolu(s) manquant(s) de <input> dans l'opérateur <merge>.

DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION

SQLSTATE : 25000

L’opération MERGE a échoué, car (partie du plan source) a été mise en cache pendant l’exécution de l’opération MERGE .

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE : 22005

Clé d’affectation inattendue : <unexpectedKeyClass> - <unexpectedKeyObject>.

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE : 42601

Impossible de résoudre <sqlExpr> dans les <clause> colonnes <cols>données .

DELTA_METADATA_CHANGED

SQLSTATE : 2D521

MetadataChangedException : les métadonnées de la table Delta ont été modifiées par une mise à jour simultanée. Réessayez l’opération.<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_MISSING_CHANGE_DATA

SQLSTATE : KD002

Erreur lors de l’obtention des données modifiées pour la plage [<startVersion> , <endVersion>], car les données de modification n'étaient pas disponibles.

enregistré pour la version [<version>]. Si vous avez activé le flux de données modifiées sur cette table,

utilisez DESCRIBE HISTORY pour voir quand il a été activé pour la première fois.

Sinon, pour commencer à enregistrer des données modifiées, utilisez ALTER TABLE table_name SET TBLPROPERTIES

(<key>=true).

DELTA_MISSING_COLUMN

SQLSTATE : 42703

Impossible de trouver <columnName> dans les colonnes de table : <columnList>.

DELTA_MISSING_COMMIT_INFO

SQLSTATE : KD004

Cette table a la fonctionnalité <featureName> activée, ce qui nécessite la présence de l’action CommitInfo dans chaque validation. Toutefois, l’action CommitInfo est manquante dans la version <version>de validation.

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE : KD004

Cette table a la fonctionnalité <featureName> activée qui nécessite la présence de commitTimestamp dans l’action CommitInfo. Toutefois, ce champ n’a pas été défini dans la version de validation <version>.

DELTA_MISSING_DELTA_TABLE

SQLSTATE : 42P01

<tableName> n’est pas une table Delta.

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE : 42P01

La table n’existe pas. Créez d'abord une table Delta vide à l'aide de CREATE TABLE <tableName>.

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE : 56038

La classe Apache Iceberg n’a pas été trouvée. Veuillez vous assurer que le support de Delta Apache Iceberg est installé.

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE : 23502

La colonne <columnName>, qui a une NOT NULL contrainte, est manquante dans les données écrites dans la table.

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE : 42KD6

<columnName> Colonne de partition introuvable dans le schéma <columnList>.

DELTA_MISSING_PART_FILES

SQLSTATE : 42KD6

Impossible de trouver tous les fichiers de partie de la version du point de contrôle : <version>.

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE : 0AKDC

CONVERT TO DELTA prend uniquement en charge les tables Parquet. Réécrivez votre cible au format parquet. <path> s’il s’agit d’un répertoire parquet.

DELTA_MISSING_ROW_TRACKING_FOR_CDC

SQLSTATE : 0AKDE

Erreur lors de l'obtention des données de modification pour <tableName> car le suivi des lignes n'était pas activé. Pour activer le suivi des lignes, utilisez ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).

DELTA_MISSING_SET_COLUMN

SQLSTATE : 42703

La colonne SET de <columnName> est introuvable en fonction des colonnes : <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE : 42000

Format incompatible détecté.

Vous essayez d’utiliser <operation> <path> avec Delta, mais aucun

journal des transactions présent. Vérifiez le travail en amont pour vous assurer qu’il écrit

à l’aide d’un format(« delta »), et que vous essayez bien de %1$s le chemin de base de la table.

Pour en savoir plus sur Delta, consultez <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE : 0AKDC

Le mode spécifié '<mode>' n’est pas pris en charge. Les modes pris en charge sont les suivants : <supportedModes>.

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE : 42614

Plusieurs arguments <startingOrEnding> fournis pour la lecture CDC. Indiquez l’un des <startingOrEnding>horodatages ou <startingOrEnding> la version.

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE : 42614

Configurations d’index de filtre bloom multiples passées à la commande pour la colonne : <columnName>.

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE : 21506

Impossible d’effectuer la fusion car plusieurs lignes sources ont été mises en correspondance et ont tenté de modifier les mêmes.

ligne cible dans la table Delta d'une manière potentiellement conflictuelle. Selon la sémantique SQL de la fusion,

lorsque plusieurs lignes sources correspondent à la même ligne cible, le résultat peut être ambigu

comme il n’est pas clair quelle ligne source doit être utilisée pour mettre à jour ou supprimer la ligne correspondante

ligne cible. Vous pouvez prétraiter la table source pour éliminer la possibilité de

correspondances multiples. Consultez la section

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE : 42616

Pendant <command>, soit les deux configurations de validations coordonnées (« delta.coordinatedCommits.commitCoordinator-preview », « delta.coordinatedCommits.commitCoordinatorConf-preview ») sont spécifiées dans la commande, soit aucune d'entre elles ne l'est. Valeur manquante : « <configuration> ». Spécifiez cette configuration dans la TBLPROPERTIES clause ou supprimez l’autre configuration, puis réessayez la commande.

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE : 42616

Pendant la <command>, soit les deux configurations de validations coordonnées (« coordinatedCommits.commitCoordinator-preview », « coordinatedCommits.commitCoordinatorConf-preview ») sont définies dans les configurations SparkSession soit aucune. Valeur manquante : « <configuration> ». Définissez cette configuration dans SparkSession ou annulez la configuration de l’autre configuration, puis réessayez la commande.

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE : 42000

Les noms de colonne suivants sont réservés uniquement à l’utilisation interne de la table compartimentée Delta : <names>.

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE : 42K05

Le schéma d’entrée contient des champs imbriqués qui sont capitalisés différemment de la table cible.

Ils doivent être renommés pour éviter la perte de données dans ces champs lors de l’écriture dans Delta.

Fields:

<fields>.

Schéma d’origine :

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE : 0AKDC

Le <nestType> type du champ <parent> contient une NOT NULL contrainte. Delta ne prend pas en charge les contraintes NOT NULL imbriquées dans des tableaux ou des cartes. Pour supprimer cette erreur et ignorer silencieusement les contraintes spécifiées, définissez <configKey> = true.

Type <nestType> analysé :

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE : 0A000

La sous-requête imbriquée n’est pas prise en charge dans la <operation> condition.

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE : 23512

<numRows> lignes dans <tableName> enfreignent la nouvelle contrainte CHECK (<checkConstraint>).

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE : 23512

<numRows> lignes dans <tableName> sont en violation de la nouvelle contrainte NOT NULL sur <colName>.

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE : 42621

CHECK contrainte '<name>' (<expr>) doit être une expression booléenne.

EXPRESSION_NON_DÉTERMINISTIQUE_DANS_CONTRAINTE_DE_VÉRIFICATION_DELTA

SQLSTATE : 42621

Trouvé <expr> dans une CHECK contrainte. Une CHECK contrainte ne peut pas utiliser une expression non déterministe.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE : 42621

Trouvé <expr>. Une colonne générée ne peut pas utiliser une expression non déterministe.

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE : 0AKDC

Les fonctions non déterministes ne sont pas prises en charge dans le <operation> <expression>.

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE : 42601

Lorsqu’il y a plus d'une MATCHED clause dans une MERGE déclaration, seule la dernière MATCHED clause peut omettre la condition.

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE : 42601

Lorsqu’il y a plus d'une NOT MATCHED BY SOURCE clause dans une MERGE déclaration, seule la dernière NOT MATCHED BY SOURCE clause peut omettre la condition.

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE : 42601

Lorsqu’il y a plus d'une NOT MATCHED clause dans une MERGE déclaration, seule la dernière NOT MATCHED clause peut omettre la condition.

DELTA_NON_PARSABLE_TAG

SQLSTATE : 42601

Impossible d’analyser la balise <tag>.

Les balises de fichier sont les suivantes : <tagList>.

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE : KD005

Les données écrites dans Delta doivent contenir au moins une colonne non partitionnée.<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE : 42P10

Le prédicat fait référence à la colonne qui n'est pas partitionnée '<columnName>'. Seules les colonnes de partition peuvent être référencées : [<columnList>].

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE : 42P10

Les colonnes <columnList> non partitionnantes sont spécifiées où seules les colonnes de partitionnement sont attendues : <fragment>.

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE : 42K05

Le catalogue Delta nécessite un espace de noms en une seule partie, mais <identifier> est en plusieurs parties.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE : 42616

La définition du coordinateur de validation sur «<nonUcCoordinatorName> » à partir de la commande n’est pas prise en charge, car les tables gérées par l’UC peuvent uniquement avoir « unity-catalog » comme coordinateur de validation. Veuillez soit le changer en « unity-catalog », soit supprimer toutes les propriétés de table des Commits coordonnés de la section TBLPROPERTIES, puis réessayer la commande.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE : 42616

La définition du coordinateur de validation sur «<nonUcCoordinatorName> » à partir des configurations SparkSession n’est pas prise en charge, car les tables gérées par l’UC peuvent uniquement avoir « unity-catalog » comme coordinateur de validation. Remplacez-le par « unity-catalog » en exécutant spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")ou supprimez toutes les propriétés de la table Commits coordonnés des configurations SparkSession en exécutant spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>"), puis réessayez la commande.

DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE : 0A000

La table <tableName> n’est pas gérée par l’UC. Seules les tables gérées par l’UC peuvent être mises à niveau ou rétrogradées vers des tables gérées par catalogue.

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE : 42000

<table> n’est pas une table Delta. Supprimez d’abord cette table si vous souhaitez la créer avec Databricks Delta.

DELTA_NOT_A_DELTA_TABLE

SQLSTATE : 0AKDD

<tableName> n’est pas une table Delta. Supprimez d’abord ce tableau si vous souhaitez le recréer avec Delta Lake.

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE : 42K09

Colonne non nullable introuvable dans la structure : <struct>.

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE : 23502

NOT NULL contrainte violée pour la colonne : <columnName>.

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE : 0A000

Un champ imbriqué non nullable ne peut pas être ajouté à un parent nullable. Définissez la nullabilité de la colonne parente en conséquence.

DELTA_NO_COMMITS_FOUND

SQLSTATE : KD006

Aucun commit trouvé à l'adresse <logPath>.

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE : KD006

Aucune validation recrétable trouvée à l’adresse <logPath>.

DELTA_NO_REDIRECT_RULES_VIOLATED

SQLSTATE : 42P01

Opération non autorisée : <operation> ne peut pas être effectuée sur une table avec une fonctionnalité de redirection.

Aucune règle de redirection n’est satisfaite <noRedirectRules>.

DELTA_NO_RELATION_TABLE

SQLSTATE : 42P01

Table <tableIdent> introuvable.

DELTA_NO_START_FOR_CDC_READ

SQLSTATE : 42601

Aucun startingVersion ni startingTimestamp n’a été fourni pour la lecture CDC.

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE : 42P18

Delta n’accepte pas les NullTypes dans le schéma pour les écritures en streaming.

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE : 42601

Indiquez « timestampAsOf » ou « versionAsOf » pour les voyages temporels.

DELTA_ONLY_OPERATION

SQLSTATE : 0AKDD

<operation> est uniquement pris en charge pour les tables Delta.

DELTA_OPERATION_MISSING_PATH

SQLSTATE : 42601

Indiquez le chemin d’accès ou l’identificateur de table pour <operation>.

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE : 0AKDC

Opération non autorisée : <operation> n’est pas prise en charge pour les tables Delta.

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE : 0AKDC

Opération non autorisée : <operation> n’est pas prise en charge pour les tables Delta : <tableName>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE : 0AKDC

<operation> n’est pas pris en charge pour la colonne <colName> avec un classement <collation>non défini par défaut.

DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES

SQLSTATE : 0AKDC

<operation> n’est pas pris en charge pour les types de données : <dataTypeList>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE : 0AKDC

<operation> n’est pas pris en charge pour l’expression <exprText> , car il utilise un classement non par défaut.

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE : 0A000

La commande <operation> d’une vue temporaire faisant référence à une table Delta qui contient des colonnes générées n’est pas prise en charge. Exécutez directement la <operation> commande sur la table Delta.

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE : 0AKDC

Opération non autorisée : <operation> ne peut pas être effectuée sur une vue.

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE : 42601

OPTIMIZE FULL est uniquement pris en charge pour les tables en cluster avec des colonnes de clustering non vides.

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE : 42000

L’option de copie overwriteSchema ne peut pas être spécifiée sans définir OVERWRITE sur vrai.

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE : 42613

'overwriteSchema' ne peut pas être utilisé en mode de remplacement de partition dynamique.

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE : 22525

Échec de la conversion de la valeur <value> en <dataType> pour la colonne de partition <columnName>.

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE : 42703

<columnName> Colonne de partition introuvable dans le schéma [<schemaMap>].

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE : 42613

Impossible de spécifier le schéma de partition lors de la conversion de tables Apache Iceberg. Elle est déduite automatiquement.

ACCÈS BASÉ SUR LE CHEMIN AUX TABLES GÉRÉES PAR LE CATALOGUE DELTA BLOQUÉ

SQLSTATE : KD00G

L’accès basé sur le chemin n’est pas autorisé pour Catalog-Managed table : <path>. Accédez à la table via son nom et réessayez.

DELTA_PATH_BASED_ACCÈS_AU_TABLEAU_REFUSÉ

SQLSTATE : 42P01

La table à l'emplacement <path> a été migrée vers une table gérée du Unity Catalog et ne peut plus être accessible par chemin d’accès. Mettez à jour le client pour accéder à la table par nom.

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE : 42K03

<path> n’existe pas ou n’est pas une table Delta.

DELTA_PATH_EXISTS

SQLSTATE : 42K04

Impossible d’écrire dans le chemin <path> existant sans définir OVERWRITE = 'true'.

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE : 2DKD0

La validation de la version <version> de la table Delta a réussi, mais une erreur s'est produite lors de l'exécution du hook post-commit <name> <message>

DELTA_PROTOCOL_CHANGED

SQLSTATE : 2D521

ProtocolChangedException : la version du protocole de la table Delta a été modifiée par une mise à jour simultanée. <additionalInfo> <conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE : 42K06

La propriété <key> de protocole doit être un entier. Trouvé <value>.

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE : KD004

Impossible de mettre à niveau uniquement la version du protocole lecteur pour utiliser les fonctionnalités de table. La version du protocole Writer doit être au moins <writerVersion> pour continuer. Pour plus d'informations sur les versions de protocole de table, référez-vous à <docLink>.

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE : 428GU

Vous essayez de lire une table <tableName> Delta qui n’a aucune colonne.

Écrivez de nouvelles données avec l’option mergeSchema = true permettant de lire la table.

LE TEMPS DE LECTURE DELTA N'EST PAS PRIS EN CHARGE POUR LES TABLES AVEC DES POLITIQUES D'ACCÈS

SQLSTATE : 56038

Vous tentez de calculer le flux de modifications de données sur <tableName>, où des stratégies d'accès sont en place. Le flux de données de changement en temps réel est actuellement en version préliminaire et ne prend pas en charge le flux de données de modification (CDF) sur les tables avec des stratégies d'accès. Activez le CDF optimisé en lecture en définissant la propriété de table «<cdfTableProperty> » sur « true » sur votre table.

CIBLE DE REDIRECTION DE DELTA MASQUE DE COLONNE DE FILTRE DE LIGNE NON SUPPORTEE

SQLSTATE : 0AKDC

La redirection vers une table avec un filtre de ligne ou un masque de colonne n’est pas prise en charge. Mettez à jour votre code pour référencer directement la table <tableIdent> cible.

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE : 2201B

Veuillez revérifier votre syntaxe pour «<regExpOption> ».

DELTA_RELATION_PATH_MISMATCH

SQLSTATE : 2201B

Le chemin de relation '<relation>' ne correspond pas au chemin de '<targetType>' '<targetPath>'.

MATÉRIALISATION_DE_RÉORGANISATION_DELTA_NON_SUPPORTÉE_SUR_TABLE_NON_PARTITIONNÉE

SQLSTATE : 22000

La conversion liquide à l’aide de la commande reorg n’est pas prise en charge sur une table nonpartitionnée.

DELTA_REORG_CONFLIT_DE_MATÉRIALISATION_DE_PARTITION

SQLSTATE : 22000

Impossible de <action> partitionner des colonnes. <instruction> matérialisation de colonne de partition en définissant la propriété de table '<tableProperty>' sur <value> ou la configuration SQL '<sqlConfig>' sur <value>.

DELTA_REORG_UNKNOWN_MODE

SQLSTATE : 0AKDC

Mode inconnu REORG TABLE : <mode>.

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE : 42613

Vous ne pouvez pas utiliser replaceWhere conjointement avec un remplacement par filtre.

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE : 44000

Les données écrites ne respectent pas la condition de réécriture partielle de la table ou la contrainte '<replaceWhere>'.

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE : 42613

Une expression 'replaceWhere' et 'partitionOverwriteMode'='dynamic' ne peuvent pas être définies dans les options DataFrameWriter.

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE : 42613

'replaceWhere' ne peut pas être utilisé avec des filtres de données lorsque 'dataChange' a la valeur false. Filtres : <dataFilters>.

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE : 22000

Impossible d’attribuer des ID de ligne sans statistiques de nombre de lignes.

Collectez des statistiques pour la table en exécutant la ANALYZE TABLE commande :

ANALYZE TABLE nomDeTable COMPUTE DELTA STATISTICS

Suivi des lignes delta en cours de remplissage simultanément avec non-remplissage

SQLSTATE : 22KD0

Une opération d’activation de suivi des lignes a été détectée en cours d’exécution simultanément avec une désactivation de suivi des lignes. Abandon de l’opération de désactivation. Réessayez l’opération de désactivation si nécessaire lorsque l’opération d’activation est terminée.

DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION

SQLSTATE : 55000

L’état de la table non conforme a été détecté. Les propriétés <property1> de table et <property2> sont toutes les deux définies sur true. Le problème peut être résolu en désactivant l’une des deux propriétés de table.

Contactez le support Databricks pour obtenir de l’aide supplémentaire.

DELTA_SCHEMA_CHANGED

SQLSTATE : KD007

Changement de schéma détecté :

Schéma source de diffusion en continu : <readSchema>

schéma de fichier de données : <dataSchema>

Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans

en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre

interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle.

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE : KD007

Détection d’un changement de schéma dans la version <version>:

Schéma source de diffusion en continu : <readSchema>

schéma de fichier de données : <dataSchema>

Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans

en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre

interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle. Si le problème persiste après

passer à un nouveau répertoire de point de contrôle, vous devrez peut-être modifier l’existant

Option 'startingVersion' ou 'startingTimestamp' pour commencer à partir d’une version plus récente que

<version> avec un nouveau répertoire de point de contrôle.

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE : KD007

Détection d’un changement de schéma dans la version <version>:

Schéma source de diffusion en continu : <readSchema>

schéma de fichier de données : <dataSchema>

Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans

en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre

interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle.

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE : KD007

Le schéma de votre table Delta a changé de manière incompatible depuis votre DataFrame

ou l’objet DeltaTable a été créé. Redéfinissez votre objet DataFrame ou DeltaTable.

Changes:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE : 42908

Le schéma de table n’est pas fourni. Indiquez le schéma (définition de colonne) de la table lors de l’utilisation de REPLACE, et lorsque la AS SELECT requête n’est pas fournie.

DELTA_SCHEMA_NOT_SET

SQLSTATE : KD008

Le schéma de table n’est pas défini. Écrivez des données dans celle-ci ou utilisez-la CREATE TABLE pour définir le schéma.

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE : 42KD7

Le schéma du nouvel emplacement Delta est différent du schéma de table actuel.

schéma d’origine :

<original>

schéma de destination :

<destination>

S’il s’agit d’une modification prévue, vous pouvez désactiver cette vérification en exécutant :

%%sql set <config> = vrai

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE : 42K03

Le fichier <filePath> référencé dans le journal des transactions est introuvable. Cela peut se produire lorsque les données ont été supprimées manuellement du système de fichiers plutôt que d’utiliser l’instruction table DELETE . Cette table semble être un clone peu profond, si c’est le cas, cette erreur peut se produire lorsque la table d’origine à partir de laquelle cette table a été cloné a supprimé un fichier que le clone utilise toujours. Si vous souhaitez que les clones soient indépendants de la table d’origine, utilisez plutôt un clone DEEP.

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE : 42939

Les propriétés prédéfinies qui commencent par <prefix> ne peuvent pas être modifiées.

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE : 42704

Les données sont limitées par la propriété <property> du destinataire qui ne s’applique pas au destinataire actuel dans la session.

Pour plus d’informations, consultez DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE : 42887

<operation> ne peut pas être utilisé dans les vues de partage Delta qui sont partagées entre comptes.

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE : 28000

Type <authenticationType> d’authentification illégal pour le fournisseur <provider>.

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE : 28000

Type <authenticationType> d’authentification illégal pour le destinataire <recipient>.

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE : 42K05

Nom incorrect pour référencer un <type> à l’intérieur d’un partage. Vous pouvez soit utiliser le nom de <type> à l’intérieur du partage suivant le format [schéma].[<type>], soit utiliser le nom complet d’origine de la table en suivant le format [catalog].[schéma].[>type>].

Si vous ne savez pas quel nom utiliser, vous pouvez exécuter « SHOW ALL IN SHARE [share] » et trouver le nom du <type> à supprimer : la colonne « name » est le nom du <type> dans le partage et de la colonne « shared_object » est le nom complet d’origine du <type>.

RECIPIENT_TOKENSDELTA_SHARING_MAXIMUM_DÉPASSÉ

SQLSTATE : 54000

Il existe plus de deux jetons pour le destinataire <recipient>.

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE : 42704

La propriété Recipient <property> n’existe pas.

DELTA_SHARING_RECIPIENT_TOKENS_NON_TROUVÉ

SQLSTATE : 42704

Les jetons de destinataire sont manquants pour le destinataire <recipient>.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE : 42P10

Les colonnes <badCols> non partitionnantes sont spécifiées pour SHOW PARTITIONS.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE : 42809

SHOW PARTITIONS n’est pas autorisé sur une table qui n’est pas partitionnée : <tableName>.

DELTA_SHREDDED_WRITES_DISABLED

SQLSTATE : 55000

Impossible d’exécuter l’opération REORG APPLY(SHRED) , car les écritures déchiquetées sont désactivées.

PROPRIÉTÉ_TABLE_DÉCHIQUETAGE_DELTA_DÉSACTIVÉE

SQLSTATE : 0A000

Tentative d’écriture de variantes fragmentées, mais la table ne supporte pas les écritures fragmentées. Envisagez de définir la propriété table enableVariantShredding sur true.

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE : 0A000

Détection de données supprimées (par exemple <removedFile>) de la source de streaming à la version <version>. Non pris en charge actuellement. Si vous souhaitez ignorer les suppressions, définissez l’option « ignorerDeletes » sur « true ». La table source se trouve au chemin d’accès <dataPath>.

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE : 0A000

Détection d’une mise à jour des données (par exemple <file>) dans la table source à la version <version>. Non pris en charge actuellement. Si cela se produit régulièrement et que vous pouvez ignorer les modifications, définissez l’option « skipChangeCommits » sur « true ». Si vous souhaitez que la mise à jour des données soit reflétée, redémarrez cette requête avec un répertoire de point de contrôle nouveau ou effectuez une actualisation complète si vous utilisez des pipelines déclaratifs Spark Lakeflow. Si vous avez besoin de gérer ces modifications, basculez vers les MVS. La table source se trouve au chemin d’accès <dataPath>.

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE : 42613

Indiquez «<version> » ou «<timestamp> ».

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE : 42000

Des statistiques <statsType> introuvables pour la colonne dans les métadonnées Parquet : <columnPath>.

DELTA_STATS_NOT_FOUND_IN_FILE

SQLSTATE : 22000

Statistiques introuvables dans le fichier : <filePath>. Exécutez «ANALYZE TABLE [tableName] » COMPUTE DELTA STATISTICSpour calculer les statistiques.

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE : KD002

Nous avons détecté une ou plusieurs modifications de schéma non additives (<opType>) entre la version Delta <previousSchemaChangeVersion> et <currentSchemaChangeVersion> dans la source de streaming Delta.

Changes:

<columnChangeDetails>

Vérifiez si vous souhaitez propager manuellement les modifications de schéma dans la table récepteur avant de poursuivre le traitement de flux à l’aide du schéma finalisé à la version <currentSchemaChangeVersion>.

Une fois que vous avez corrigé le schéma de la table récepteur ou que vous avez décidé qu’il n’est pas nécessaire de corriger, vous pouvez définir la ou les configurations SQL suivantes pour débloquer la ou les modifications de schéma non additives et poursuivre le traitement du flux.

Utilisation des options de lecteur de trame de données :

Pour débloquer ce flux particulier uniquement pour cette série de modifications de schémas :

<unblockChangeOptions>

Pour débloquer ce flux particulier :

<unblockStreamOptions>

Utilisation de la ou des configurations SQL :

Pour débloquer ce flux particulier uniquement pour cette série de modifications de schémas :

<unblockChangeConfs>

Pour débloquer ce flux particulier :

<unblockStreamConfs>

Pour débloquer tous les flux :

<unblockAllConfs>

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE : KD002

Impossible d’obtenir l’instantané du journal Delta pour la version de démarrage lors de la vérification des modifications du schéma de mappage de colonnes. Choisissez une autre version de démarrage ou forcez l’activation de la lecture en streaming à votre propre risque en définissant «<config> true » sur « true ».

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE : 42KD4

La lecture en continu n’est pas prise en charge sur les tables avec des modifications de schéma incompatibles en lecture (par exemple, renommer, supprimer ou modifier des types de données).

Pour plus d’informations et les étapes suivantes possibles pour résoudre ce problème, consultez la documentation à l’adresse <docLink>

Schéma de lecture : <readSchema>. Schéma de données incompatible : <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE : 42KD4

La lecture en continu n’est pas prise en charge sur les tables avec des modifications de schéma incompatibles en lecture (par exemple, renommer, supprimer ou modifier des types de données).

Fournissez un « schemaTrackingLocation » pour activer l'évolution non additive des schémas pour le traitement de flux de Delta.

Pour plus d’informations, consultez l’article <docLink>.

Schéma de lecture : <readSchema>. Schéma de données incompatible : <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE : 22000

Le schéma, la configuration de table ou le protocole de votre table Delta a changé pendant la diffusion en continu.

Le schéma ou le journal de suivi des métadonnées a été mis à jour.

Redémarrez le flux pour continuer le traitement à l’aide des métadonnées mises à jour.

Schéma mis à jour : <schema>.

Configurations de table mises à jour : <config>.

Protocole de table mis à jour : <protocol>

SCHÉMA D'ÉVOLUTION EN STREAMING DELTA FILTRE DE LIGNE NON SUPPORTÉ_COLUMN_MASKS

SQLSTATE : 22000

Le streaming à partir d’une table <tableId> source avec le suivi des schémas ne prend pas en charge les filtres de lignes ou les masques de colonne.

Supprimez les filtres de lignes ou les masques de colonne, ou désactivez le suivi des schémas.

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE : 22000

Détection d’un emplacement de schéma en conflit « <loc> » lors de la diffusion en continu à partir d’une table ou d’une table située à l’emplacement « <table> ».

Un autre flux peut réutiliser le même emplacement de schéma, ce qui n’est pas autorisé.

Fournissez un nouveau chemin unique schemaTrackingLocation ou streamingSourceTrackingId en tant qu’option lecteur pour l’un des flux de ce tableau.

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE : 22000

L’emplacement du schéma '<schemaTrackingLocation>' doit être placé sous l’emplacement du point de contrôle '<checkpointLocation>'.

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE : 22000

Fichier journal incomplet dans le journal du schéma source de diffusion en continu Delta à l’emplacement « <location> ».

Le journal des schémas a peut-être été endommagé. Choisissez un nouvel emplacement de schéma.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE : 22000

Détection d’un ID de table Delta incompatible lors de la tentative de lecture du flux Delta.

ID de table persistant : <persistedId>, ID de table : <tableId>

Le journal de schéma a peut-être été réutilisé. Choisissez un nouvel emplacement de schéma.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE : 22000

Lors de la tentative de lecture du flux Delta, un schéma de partition incompatible a été détecté.

Schéma persistant : <persistedSchema>, schéma de partition delta : <partitionSchema>

Choisissez un nouvel emplacement de schéma pour réinitialiser le journal des schémas si vous avez modifié manuellement le schéma de partition de la table récemment.

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE : 22000

Nous n'avons pas pu initialiser le journal des schémas de la source de streaming Delta car

nous avons détecté une modification de schéma ou de protocole incompatible lors du traitement d’un lot de streaming allant de la version de table <a> à la <b>.

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE : 22000

Échec de l’analyse du schéma à partir du journal du schéma source de diffusion en continu Delta.

Le journal des schémas a peut-être été endommagé. Choisissez un nouvel emplacement de schéma.

DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND

SQLSTATE : 56000

Aucune transaction trouvée pour le traitement par lots <batchId> dans le récepteur Delta de streaming dans les dernières <versionLimit> versions.

DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

SQLSTATE : 42616

Plage de décalage ignorée non valide pour la plage source Delta=[<startOffset>, <endOffset>). Corrigez cette plage de décalage et réessayez.

Pour plus d’informations , consultez DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE : 42711

Impossible d’activer la capture des changements de données sur la table. La table contient déjà

des colonnes <columnList> réservées qui seront

utilisées en interne comme métadonnées pour le flux des changements de données de la table. Pour activer

Modifier le flux de données sur la table renommer/supprimer ces colonnes.

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE : 42P07

La table <tableName> existe déjà.

LA_TABLE_DELTA_CONTIENT_DES_COLONNES_RÉSERVÉES_POUR_CDC

SQLSTATE : 42939

Impossible de calculer le flux de changements de données sur la table. La table contient des noms de colonnes réservés <columnList> qui sont utilisés comme colonnes de sortie pour le flux de données modifiées de la table. Pour calculer le flux de données modifiées sur la table, renommez/supprimez ces colonnes.

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE : 0AKDC

Actuellement, DeltaTable.forPath prend uniquement en charge les clés de configuration Hadoop commençant par <allowedPrefixes>, mais a reçu <unsupportedOptions>.

DELTA_TABLE_ID_MISMATCH

SQLSTATE : KD007

La table Delta à <tableLocation> a été remplacée pendant que cette commande utilisait la table.

L’ID de table était <oldId> mais est maintenant <newId>.

Réessayez la commande actuelle pour vous assurer qu’elle lit une vue cohérente de la table.

DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION

SQLSTATE : 22023

Impossible de mettre à jour l’état de redirection de table : tentative de transition d’état non valide.

La table Delta '<table>' ne peut pas passer de '<oldState>' à '<newState>''.

DELTA_TABLE_INVALID_SET_UNSET_REDIRECT

SQLSTATE : 22023

Impossible de SET ou de UNSET la propriété de redirection sur <table> : la propriété à jour « <currentProperty> » ne correspond pas à la nouvelle propriété « <newProperty> ».

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE : 42613

L’emplacement de la table <tableName> existante est <existingTableLocation>. Elle ne correspond pas à l’emplacement <tableLocation>spécifié.

DELTA_TABLE_NOT_FOUND

SQLSTATE : 42P01

La table <tableName> Delta n’existe pas.

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE : 42809

La table n’est pas prise en charge dans <operation>. Utilisez un chemin à la place.

DELTA_TABLE_ONLY_OPERATION

SQLSTATE : 0AKDD

<tableName> n’est pas une table Delta. <operation> est uniquement pris en charge pour les tables Delta.

DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC

SQLSTATE : 42704

Le journal Delta contient une spécification de redirection de table non reconnue « <spec> ».

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE : 428GU

Le schéma final de la table cible est vide.

HORODATAGE_DELTA_ANTÉRIEUR_À_LA_RÉTENTION_DES_VALIDATIONS

SQLSTATE : 42816

L’horodatage fourni (<userTimestamp>) précède la version la plus ancienne disponible pour

ce tableau (<commitTs>). Utilisez un horodatage après <timestampString>.

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE : 42816

L’horodatage fourni (<providedTimestamp>) se trouve après la dernière version disponible pour cette

table (<tableName>). Utilisez un horodatage antérieur ou équivalent à <maximumTimestamp>.

DELTA_TIMESTAMP_INVALID

SQLSTATE : 42816

L’horodatage fourni (<expr>) ne peut pas être converti en horodatage valide.

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE : 42604

<timeTravelKey> doit être une valeur de début valide.

DELTA_TOO_MUCH_LISTING_MEMORY

SQLSTATE : 53000

Échec de la liste des fichiers (<numFiles>) dans la table Delta en raison d’une mémoire insuffisante. Mémoire requise : <estimatedMemory>, mémoire disponible : <maxMemory>.

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE : 42K03

<path>: Impossible de reconstruire l’état à la version <version> , car le journal des transactions a été tronqué en raison d’une suppression manuelle ou d’une stratégie de rétention du journal (<logRetentionKey>=<logRetention>) et d’une stratégie de rétention de point de contrôle (<checkpointRetentionKey>=<checkpointRetention>).

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE : 0AKDC

Opération non autorisée : TRUNCATE TABLE sur les tables Delta ne prend pas en charge les prédicats de partition ; utilisez cette option DELETE pour supprimer des partitions ou des lignes spécifiques.

DELTA_UDF_DANS_CONTRAINTE_DE_VÉRIFICATION

SQLSTATE : 42621

Trouvé <expr> dans une CHECK contrainte. Une CHECK contrainte ne peut pas utiliser une fonction définie par l’utilisateur.

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE : 42621

Trouvé <udfExpr>. Une colonne générée ne peut pas utiliser une fonction définie par l’utilisateur.

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE : 42601

Expression d’action inattendue <expression>.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE : KD009

Colonnes de partition attendues <expectedColsSize> : <expectedCols>, mais trouvé <parsedColsSize> colonnes de partition : <parsedCols> dans le nom de fichier : <path>.

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE : KD00A

On s'attend à une analyse complète des sources Delta, mais nous avons constaté une analyse partielle. Chemin : <path>.

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE : KD009

Colonne de partition attendue <expectedCol>, mais colonne de partition <parsedCol> trouvée dans le nom de fichier : <path>.

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE : KD009

CONVERT TO DELTA a été appelé avec un schéma de partition différent du schéma de partition déduit du catalogue, évitez de fournir le schéma afin que le schéma de partition puisse être choisi à partir du catalogue.

schéma de partition de catalogue :

<catalogPartitionSchema>

schéma de partition fourni :

<userPartitionSchema>

DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED

SQLSTATE : 0AKDC

delta.universalFormat.compatibility.location ne peut pas être modifié.

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE : 42K0I

delta.universalFormat.compatibility.location n’est pas inscrit dans le catalogue.

DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE : 42601

Emplacement manquant ou non valide pour le format de compatibilité uniforme. Définissez un répertoire vide pour delta.universalFormat.compatibility.location.

Raison de l’échec :

Pour plus d’informations, consultez DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE : KD00E

La lecture Apache Iceberg avec Delta Uniform a échoué.

Pour plus d’informations , consultez DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT

SQLSTATE : KD00E

Plusieurs formats d'entrée Delta Uniform (<formats>) sont trouvés, un seul peut être défini.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE : 0A000

La table d’entrée Create ou Refresh Uniform n’est pas prise en charge.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE : 0AKDC

Le format <fileFormat> n’est pas pris en charge. Seul Apache Iceberg et hudi comme format de fichier d’origine sont pris en charge.

DELTA_UNIFORM_INGRESS_VIOLATION

SQLSTATE : KD00E

Échec de la lecture Delta Uniform :

Pour plus de détails, consultez DELTA_UNIFORM_INGRESS_VIOLATION

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE : 0AKDC

Le format universel est pris en charge uniquement dans les tables Unity Catalog.

DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

SQLSTATE : 42616

REFRESH TABLE avec argument non valide :

Pour plus d’informations , consultez DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

SQLSTATE : 0AKDC

REFRESH l’identificateur SYNC UNIFORM n’est pas pris en charge pour une raison :

Pour plus de détails, consultez DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH

SQLSTATE : 0AKDC

REFRESH TABLE avec METADATA_PATH n’est pas pris en charge pour les tables Apache Iceberg managées.

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE : KD00E

Échec de la conversion de la version <version> du tableau au format <format>universel. <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE : KD00E

La validation du format universel (<format>) a échoué : <violation>.

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE : F0000

La configuration inconnue a été spécifiée : <config>.

Pour désactiver cette vérification, définissez <disableCheckConfig>=true dans la configuration de session Spark.

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE : 42601

Privilège inconnu : <privilege>.

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE : 42601

Limite de lecture inconnue : <limit>.

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE : 42601

Modification de colonne <otherClass> non reconnue. Vous exécutez peut-être une version de Delta Lake obsolète.

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE : 56038

Invariant non reconnu. Mettez à niveau votre version Spark.

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE : KD00B

Fichier de log non reconnu <filename>.

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE : 42616

Tentative de désaffectation de la propriété inexistante '<property>' dans la table <tableName>.

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE : 0AKDC

<path> ne prend pas en charge l’ajout de fichiers avec un chemin absolu.

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE : 0AKDC

ALTER TABLE CHANGE COLUMN n'est pas pris en charge pour changer la colonne <fieldPath> de <oldField> à <newField>.

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE : 0AKDC

Opération ALTER TABLE REPLACE COLUMNS non prise en charge. Raison: <details>

Échec de la modification du schéma à partir de :

<oldSchema>

to:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE : 0AKDC

Vous avez essayé d’utiliser une table existante REPLACE (<tableName>) avec CLONE. Cette opération est

unsupported. Essayez une autre cible pour CLONE ou supprimez la table sur la cible actuelle.

DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

SQLSTATE : 0A000

OPTIMIZE ... FULL WHERE la commande pour les tables Liquid ne prend pas en charge les prédicats fournis :

Pour plus d’informations , consultez DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE : 0AKDC

La modification du mode de mappage de colonne de «<oldMode> » à «<newMode> » n’est pas prise en charge.

DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE : 0AKDC

Échec de l’exécution de l’opération <opName> de mappage de colonnes sur les colonnes <quotedColumnNames>

parce que ces colonnes ont des index de filtre Bloom.

Si vous souhaitez effectuer une opération de mappage sur des colonnes

avec l’index ou les index de filtre Bloom,

Supprimez d’abord l’index de filtre Bloom :

DROP BLOOMFILTER INDEX ON TABLE nomDeTable FOR COLUMNS(<columnNames>)

Si vous souhaitez supprimer tous les index de filtre Bloom sur la table, utilisez :

tableName DROP BLOOMFILTER INDEX ON TABLE

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE : KD004

Votre version actuelle du protocole table ne prend pas en charge la modification des modes de mappage de colonnes

utilisant <config>.

Version de protocole Delta requise pour le mappage de colonnes :

<requiredVersion>

Version actuelle du protocole Delta de votre table :

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE : 0AKDC

La modification du schéma est détectée :

ancien schéma :

<oldTableSchema>

nouveau schéma :

<newTableSchema>

Les modifications de schéma ne sont pas autorisées pendant la modification du mode de mappage de colonne.

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE : 0AKDC

L’écriture de données avec le mode de mappage de colonne n’est pas prise en charge.

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE : 0AKDC

La création d'un index de filtre bloom sur une colonne de type <dataType> n'est pas prise en charge : <columnName>.

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE : 0AKDC

Impossible d’ajouter un commentaire à <fieldPath>. L’ajout d’un commentaire à une clé/valeur de carte ou à un élément de tableau n’est pas pris en charge.

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE : 0AKDC

Colonnes trouvées utilisant des types de données non pris en charge : <dataTypeList>. Vous pouvez définir «<config> » sur « false » pour désactiver la vérification du type. La désactivation de cette vérification de type peut permettre aux utilisateurs de créer des tables Delta non prises en charge et ne doivent être utilisées que lorsque vous essayez de lire/écrire des tables héritées.

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE : 42621

<dataType> ne peut pas être le résultat d’une colonne générée.

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE : 0A000

Le clone profond n’est pas pris en charge par cette version Delta.

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE : 42809

<view> est une vue. DESCRIBE DETAIL est pris en charge uniquement pour les tables.

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE : 0AKDC

La suppression de colonnes de clustering (<columnList>) n’est pas autorisée.

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE : 0AKDC

DROP COLUMN n’est pas pris en charge pour votre table Delta. <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE : 0AKDC

Peut uniquement supprimer des colonnes imbriquées à partir de StructType. Trouvé <struct>.

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE : 0AKDC

La suppression de colonnes de partition (<columnList>) n’est pas autorisée.

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE : 0A000

Type d’expression non pris en charge (<expType>) pour <causedBy>. Les types pris en charge sont [<supportedTypes>].

DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT

SQLSTATE : 42621

Trouvé <expression> dans une CHECK contrainte. <expression> ne peut pas être utilisé dans une CHECK contrainte.

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE : 42621

<expression> ne peut pas être utilisé dans une colonne générée.

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE : 56038

Fonctionnalité de lecture Delta non prise en charge : la table «<tableNameOrPath> » nécessite des fonctionnalités de table de lecture qui ne sont pas prises en charge par cette version de Databricks : <unsupported>. Pour plus d’informations sur la compatibilité des fonctionnalités Delta Lake, consultez cette section <link> .

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE : 56038

Fonctionnalité d’écriture Delta non prise en charge : la table «<tableNameOrPath> » nécessite des fonctionnalités de table d’enregistreur qui ne sont pas prises en charge par cette version de Databricks : <unsupported>. Pour plus d’informations sur la compatibilité des fonctionnalités Delta Lake, consultez cette section <link> .

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE : 56038

Les fonctionnalités de table configurées dans les configurations Spark suivantes ou les propriétés de table Delta ne sont pas reconnues par cette version de Databricks : <configs>.

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE : 0AKDE

Statut de la fonctionnalité de table <feature> « pris en charge » attendu, mais «<status> » reçu.

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE : 0AKDC

La mise à jour des champs imbriqués n'est prise en charge que pour StructType, mais vous essayez de mettre à jour un champ de <columnName>, qui est de type : <dataType>.

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE : 0A000

La commande « FSCK REPAIR TABLE» n’est pas prise en charge sur les versions de table avec des fichiers vectoriels de suppression manquants.

Contactez le support technique.

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE : 0A000

La commande «GENERATE symlink_format_manifest » n’est pas prise en charge sur les versions de table avec des vecteurs de suppression.

Pour produire une version de la table sans vecteurs de suppression, exécutez «REORG TABLE table APPLY (PURGE)». Réexécutez ensuite la commande «GENERATE ».

Assurez-vous qu’aucune transaction simultanée n’ajoute à nouveau des vecteurs de suppression entre REORG et GENERATE.

Si vous devez générer régulièrement des manifestes ou que vous ne pouvez pas empêcher les transactions simultanées, envisagez de désactiver les vecteurs de suppression sur cette table à l’aide de laALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE : 0AKDC

Les invariants sur les champs imbriqués autres que les StructTypes ne sont pas pris en charge.

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE : 0AKDC

La sous-requête imbriquée n’est pas prise en charge dans la condition <operation>.

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE : 0A000

listKeywithPrefix non disponible.

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE : 0AKDC

La génération de manifeste n’est pas prise en charge pour les tables qui tirent parti du mappage de colonnes, car les lecteurs externes ne peuvent pas lire ces tables Delta. Pour plus d’informations, consultez la documentation Delta.

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE : 0A000

Les opérations MERGE INTO avec l’évolution du schéma ne prennent actuellement pas en charge l’écriture de sortie cdc.

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE : 0AKDC

Les prédicats multi-colonnes ne sont pas pris en charge dans la condition <operation>.

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE : 0AKDC

La création d’un index de filer bloom sur une colonne imbriquée n’est actuellement pas prise en charge : <columnName>.

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE : 0AKDC

Le champ imbriqué n’est pas pris en charge dans <operation> (champ = <fieldName> ).

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE : 0AKDC

La table de destination de clone n’est pas vide. S’il vous plaît TRUNCATE ou DELETE FROM la table avant d’exécuter CLONE.

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE : 0AKDC

La source <dataSource> de données ne prend pas en charge le <mode> mode de sortie.

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE : 0AKDC

La création d’un index de filtre Bloom sur une colonne de partitionnement n’est pas prise en charge : <columnName>.

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE : 0AKDC

Le changement de nom de colonne n’est pas pris en charge pour votre table Delta. <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE : 0AKDC

Delta ne prend pas en charge la spécification du schéma au moment de la lecture.

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE : 0A000

SORTED BY n’est pas pris en charge pour les tables compartimentées Delta.

DELTA_UNSUPPORTED_SOURCE

SQLSTATE : 0AKDD

La destination <operation> prend uniquement en charge les sources Delta.

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE : 0AKDD

La spécification de partitions statiques dans la spécification de partition n’est actuellement pas prise en charge pendant les insertions.

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE : 22023

Nom de la stratégie non prise en charge : <strategy>.

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE : 0AKDC

Les sous-requêtes ne sont pas prises en charge dans la <operation> (condition = <cond>).

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE : 0AKDC

La sous-requête n’est pas prise en charge dans les prédicats de partition.

DELTA_VOYAGE_TEMPORAL_NON_SUPPORTÉ_AU-DELÀ_DU_DURÉE_DE_RÉTENTION_DES_FICHIERS_SUPPRIMÉS

SQLSTATE : 0AKDC

Impossible de voyager dans le temps au-delà de delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) défini sur la table.

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE : 42613

Il est impossible de spécifier le voyage dans le temps dans plusieurs formats.

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE : 0AKDC

Impossible de faire des vues de voyage dans le temps, des sous-requêtes, des flux ou des requêtes de flux de données de modification.

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE : 0A000

Les exemples de tables tronquées ne sont pas pris en charge.

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE : 0AKDC

Impossible d’opérer sur cette table, car une modification d’un type non pris en charge a été appliquée. Le champ <fieldName> a été remplacé de <fromType> à <toType>.

DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE : 0AKDC

Échec de la modification du ou des types de données des colonnes <quotedColumnNames>

car ces colonnes ont un ou des index de filtre Bloom.

Si vous souhaitez modifier le type de données des colonnes avec bloom Filter Index(es),

Supprimez d’abord l’index de filtre Bloom :

DROP BLOOMFILTER INDEX ON TABLE nomDeTable FOR COLUMNS(<columnNames>)

Si vous souhaitez supprimer tous les index de filtre Bloom sur la table, utilisez :

tableName DROP BLOOMFILTER INDEX ON TABLE

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE : 0AKDC

Indiquez le chemin de base (<baseDeltaPath>) lors du nettoyage des tables Delta. Le nettoyage de partitions spécifiques n’est actuellement pas pris en charge.

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE : 42807

L’implémentation de table ne prend pas en charge les écritures : <tableName>.

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE : 0AKDC

Vous essayez d’effectuer des écritures sur une table qui a été inscrite auprès du coordinateur de validation <coordinatorName>. Toutefois, aucune implémentation de ce coordinateur n’est disponible dans l’environnement actuel et les écritures sans coordinateurs ne sont pas autorisées.

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE : 0A000

L’écriture dans les tables d'échantillon n’est pas prise en charge.

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE : 42846

Impossible de convertir <fromCatalog> en <toCatalog>. Toutes les colonnes imbriquées doivent correspondre.

DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION

SQLSTATE : 55019

CHECKPOINT l’opération nécessite que les points de contrôle V2 soient activés sur la table.

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE : 22000

VACUUM sur les fichiers de données réussis, mais l’état de GC COPY INTO a échoué.

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE : KD00C

Les versions (<versionList>) ne sont pas contiguës.

Un écart dans le journal delta entre les versions <startVersion> et <endVersion> a été détecté alors qu'on essayait de charger la version <versionToLoad>.

Pour plus d’informations , consultez DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VERSION_INVALID

SQLSTATE : 42815

La version fournie (<version>) n’est pas une version valide.

DELTA_VERSION_NOT_FOUND

SQLSTATE : 22003

Impossible de revenir à une version antérieure de la table Delta vers la version <userVersion>. Versions disponibles : [<earliest>, <latest>].

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE : 23001

Contrainte CHECK<constraintName> <expression> enfreinte par la ligne contenant les valeurs :

<values>.

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE : 0A000

La validation des propriétés de la table <table> a été violée :

Pour plus d’informations, consultez DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE : 0A000

<viewIdentifier> est une vue. Vous ne pouvez pas écrire de données dans une vue.

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE : 42703

La colonne <columnName> Z-Ordering n’existe pas dans le schéma de données.

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE : KD00D

L'ordre Z sur <cols> sera inefficace, car nous ne collectons actuellement pas de statistiques pour ces colonnes. Pour plus d’informations sur le saut de données et le classement z, consultez <link> cette section. Vous pouvez désactiver cette vérification en définissant

SET <zorderColStatKey> = faux

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE : 42P10

<colName> est une colonne de partition. L’ordre Z ne peut être effectué que sur les colonnes de données.

Partage Delta

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST

SQLSTATE : non assigné

L’activation n’est pas trouvée. Le lien d’activation que vous avez utilisé n’est pas valide ou a expiré. Régénérez le lien d’activation et réessayez.

DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED

SQLSTATE : non assigné

Le partage entre les régions <regionHint> et les régions en dehors de celui-ci n’est pas pris en charge.

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT

SQLSTATE : non assigné

La vue définie avec la current_recipient fonction est uniquement destinée au partage et ne peut être interrogée que du côté destinataire des données. L’élément sécurisable fourni avec l’ID <securableId> n’est pas une vue de partage Delta.

DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE : non assigné

Le type sécurisable fourni <securableKind> ne prend pas en charge la mutabilité dans le partage Delta.

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE : non assigné

Le type sécurisable <securableKind> fourni ne prend pas en charge l’action de rotation de jeton lancée par le service Marketplace.

DS_AUTH_TYPE_NOT_AVAILABLE

SQLSTATE : non assigné

<dsError>: type d’authentification non disponible dans l’entité <providerEntity>du fournisseur .

DS_CDF_NOT_ENABLED

SQLSTATE : non assigné

<dsError>: Impossible d’accéder au flux de données de modification pour <tableName>. CDF n’est pas activé sur la table delta d’origine pour la version <version>. Contactez votre fournisseur de données.

DS_CDF_NOT_SHARED

SQLSTATE : non assigné

<dsError>: Impossible d’accéder au flux de données de modification pour <tableName>. Le CDF n’est pas partagé sur la table. Contactez votre fournisseur de données.

DS_CDF_RPC_INVALID_PARAMETER

SQLSTATE : non assigné

<dsError>: <message>

DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE : non assigné

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE : non assigné

<dsError>: <message>

DS_CLOUD_VENDOR_UNAVAILABLE

SQLSTATE : non assigné

<dsError>: le fournisseur de cloud n’est pas disponible temporairement pour <rpcName>, réessayez.<traceId>

DS_DATA_MATERIALIZATION_COMMAND_FAILED

SQLSTATE : non assigné

<dsError> : la tâche de matérialisation des données s’exécute à <runId> partir de l’organisation <orgId> a échoué à la commande <command>

DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED

SQLSTATE : non assigné

<dsError> : l’exécution de la tâche de matérialisation de données <runId> partir de l’organisation <orgId> ne prend pas en charge la commande <command>

DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS

SQLSTATE : non assigné

<dsError>: <featureName> n’est pas pris en charge, car serverless n’est pas pris en charge ou activé dans l’espace de travail du fournisseur. Contactez votre fournisseur de données pour activer serverless.

DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE

SQLSTATE : non assigné

<dsError> : impossible de trouver un espace de noms valide pour créer une matérialisation pour <tableName>. Contactez votre fournisseur de données pour résoudre ce problème.

DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID

SQLSTATE : non assigné

<dsError>: aucun espace de travail approprié n’a été trouvé pour matérialiser la ressource partagée. Contactez votre fournisseur de données pour recréer le destinataire dans un espace de travail où l’accès en écriture au catalogue de la ressource partagée est autorisé.

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE : non assigné

<dsError>: la tâche de matérialisation des données exécutée à <runId> partir de l’organisation de <orgId> qui n’existe pas

DS_DELTA_ILLEGAL_STATE

SQLSTATE : non assigné

<dsError>: <message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE : non assigné

<dsError> : Impossible de rechercher tous les fichiers composants du point de contrôle à la version : <version>. <suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE : non assigné

<dsError>: <message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE : non assigné

<dsError>: <message>

DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE : non assigné

<dsError>: le type sécurisable <securableKind> fourni ne prend pas en charge l’action de jeton d’expiration lancée par le service Marketplace.

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_FAILED_REQUEST_TO_SAP_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE : non assigné

<dsError> : <feature> est uniquement activé pour le partage entre Databricks et Databricks Delta.

DS_FILE_LISTING_EXCEPTION

SQLSTATE : non assigné

<dsError>: : <storage><message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE : non assigné

<dsError>: <message>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE : non assigné

<dsError>: <message>

DS_GATEKEEPER_DISABLED

SQLSTATE : non assigné

<dsError>: cette fonctionnalité est désactivée pour le compte. Contactez votre fournisseur de données.

DS_HADOOP_CONFIG_NOT_SET

SQLSTATE : non assigné

<dsError>: <key> n’est pas défini par l’appelant.

DS_ILLEGAL_STATE

SQLSTATE : non assigné

<dsError>: <message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_INVALID_AZURE_PATH

SQLSTATE : non assigné

<dsError>: Chemin d’accès Azure non valide : <path>.

DS_INVALID_DELTA_ACTION_OPERATION

SQLSTATE : non assigné

<dsError>: <message>

DS_INVALID_FIELD

SQLSTATE : non assigné

<dsError>: <message>

DS_INVALID_ITERATOR_OPERATION

SQLSTATE : non assigné

<dsError>: <message>

DS_INVALID_PARAMETER_VALUE

SQLSTATE : non assigné

<dsError>: paramètre non valide pour <rpcName> due à <cause>.

DS_INVALID_PARTITION_SPEC

SQLSTATE : non assigné

<dsError>: <message>

DS_INVALID_RESPONSE_FROM_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_MATERIALIZATION_QUERY_FAILED

SQLSTATE : non assigné

<dsError>: La requête a échoué pour <schema>. <table> à partir de Share <share>.

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE : non assigné

<dsError>: délai d’attente de la requête pour <schema>. <table> à partir du partage <share> après <timeoutInSec> secondes.

DS_MIGRATED_MANAGEMENT_API_CALLED

SQLSTATE : non assigné

<dsError>: L'UC RPC a échoué <rpcName>.

DS_MISSING_IDEMPOTENCY_KEY

SQLSTATE : non assigné

<dsError>: la clé d’Idempotency est requise lors de la requête <schema>. <table> à partir de Share <share> de manière asynchrone.

POLITIQUE BUDGÉTAIRE SANS SERVEUR ABSENTE

SQLSTATE : non assigné

<dsError>: L’opération utilise le mode serverless sur Databricks du fournisseur, mais il manque une politique budgétaire serverless pour la répartition. Contactez le fournisseur de données pour ajouter une stratégie de budget serverless à partager.

DS_MORE_THAN_ONE_RPC_PARAMETER_SET

SQLSTATE : non assigné

<dsError>: Veuillez fournir uniquement l’une des suivantes : <parameters>.

DS_NETWORK_CONNECTION_CLOSED

SQLSTATE : non assigné

<dsError>: Connexion réseau fermée pour <rpcName> en raison de <errorCause>, veuillez réessayer.<traceId>

DS_NETWORK_CONNECTION_TIMEOUT

SQLSTATE : non assigné

<dsError> : délai d’expiration de la connexion réseau pour <rpcName> à cause de <errorCause>, réessayez. <traceId>

DS_NETWORK_ERROR

SQLSTATE : non assigné

<dsError>: Erreur réseau pour <rpcName> due à <errorCause>, veuillez réessayer s'il vous plaît.<traceId>

DS_NO_METASTORE_ASSIGNED

SQLSTATE : non assigné

<dsError>: aucun metastore attribué pour l’espace de travail actuel (workspaceId : <workspaceId>).

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED

SQLSTATE : non assigné

<dsError> : échec de la génération du jeton d’identité de charge de travail pour le fournisseur OIDC O2D : <message>.

DS_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE : non assigné

<dsError>: incompatibilité des arguments de pagination ou de requête.

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE : non assigné

<dsError>: colonne de partition [<renamedColumns>] renommée sur la table partagée. Contactez votre fournisseur de données pour résoudre ce problème.

DS_QUERY_BEFORE_START_VERSION

SQLSTATE : non assigné

<dsError>: Vous ne pouvez interroger que les données de table depuis la version <startVersion>.

DS_QUERY_END_VERSION_AFTER_LATEST_VERSION

SQLSTATE : non assigné

<dsError>: Version(<endVersion>) de fin fournie pour la lecture des données n’est pas valide. La version de fin ne peut pas être supérieure à la dernière version de la table(<latestVersion>).

DS_QUERY_START_VERSION_AFTER_LATEST_VERSION

SQLSTATE : non assigné

<dsError>: La ou les versions<startVersion> de début fournies pour la lecture des données ne sont pas valides. La version de départ ne peut pas être supérieure à la dernière version de la table(<latestVersion>).

DS_QUERY_TIMEOUT_ON_SERVER

SQLSTATE : non assigné

<dsError> : un délai d’expiration s’est produit lors du traitement <queryType> après <tableName><numActions> les mises à jour entre <numIter> les itérations.<progressUpdate> <suggestion> <traceId>

DS_RATE_LIMIT_ON_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_RECIPIENT_RPC_INVALID_PARAMETER

SQLSTATE : non assigné

<dsError>: <message>

DS_RECON_FAILED_ON_UC_WRITE_RPC

SQLSTATE : non assigné

<dsError> : échec de l’UC RPC <rpcName>, conversion en INTERNAL_ERROR.

DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_RESOURCE_EXHAUSTED

SQLSTATE : non assigné

<dsError>: Limite <resource> dépassée : [<limitSize>]<suggestion>.<traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER

SQLSTATE : non assigné

<dsError>: <message>

DS_SAP_UNSUPPORTED_DBR_VERSION

SQLSTATE : non assigné

<dsError> : le connecteur SAP Delta Sharing n’est pas pris en charge sur DBR <dbrVersion>. Les versions minimales prises en charge sont les suivantes : <supportedVersions>.

DS_SCHEMA_NAME_CONFLICT_FOUND

SQLSTATE : non assigné

<dsError>: le catalogue <catalogName> contient déjà des noms de schémas trouvés dans le partage <shareName>. <description> des noms de schémas en conflit : <schemaNamesInCommon>.

DS_SERVER_TIMEOUT

SQLSTATE : non assigné

<dsError> : délai d’expiration du serveur de <rpcName> à cause de <errorCause>, réessayez.<traceId>

DS_SERVICE_DENIED

SQLSTATE : non assigné

<dsError>: la demande a été refusée car le service est trop chargé. Réessayez plus tard après un certain temps.

DS_SHARE_ALREADY_MOUNTED_TO_CATALOG

SQLSTATE : non assigné

<dsError> : le partage <shareName> à partir du fournisseur <providerName> est déjà monté dans le catalogue <catalogName>.

DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE : non assigné

Impossible d’accorder des privilèges sur <securableType> au groupe <principal> généré par le système.

DS_TABLE_METADATA_TEMPORAIREMENT_INDISPONIBLE

SQLSTATE : non assigné

<dsError>: les métadonnées de table ne sont pas disponibles. Réessayez dans quelques instants.

DS_TIME_TRAVEL_NOT_PERMITTED

SQLSTATE : non assigné

<dsError>: La requête de voyage dans le temps n’est pas autorisée, sauf si l’historique est partagé sur <tableName>. Contactez votre fournisseur de données.

DS_UNAUTHORIZED

SQLSTATE : non assigné

<dsError>:Non autorisée.

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE : non assigné

<dsError> : Destinataire OIDC D2O non autorisé : <message>.

DS_UNKNOWN_EXCEPTION

SQLSTATE : non assigné

<dsError>: <traceId>

DS_UNKNOWN_QUERY_ID

SQLSTATE : non assigné

<dsError>: ID <queryID> de requête inconnu pour <schema>. <table> à partir de Share <share>.

DS_UNKNOWN_QUERY_STATUS

SQLSTATE : non assigné

<dsError>: État de requête inconnu pour l’ID <queryID> de requête pour <schema>. <table> à partir de Share <share>.

DS_UNKNOWN_RPC

SQLSTATE : non assigné

<dsError>: rpc <rpcName> inconnu.

DS_UNSUPPORTED_DELTA_READER_VERSION

SQLSTATE : non assigné

<dsError>: la version <tableReaderVersion> du lecteur de protocole Delta est supérieure <supportedReaderVersion> et ne peut pas être prise en charge dans le serveur de partage delta.

DS_UNSUPPORTED_DELTA_TABLE_FEATURES

SQLSTATE : non assigné

<dsError>: les fonctionnalités <tableFeatures> de table sont trouvées dans la table<versionStr> <historySharingStatusStr> <optionStr>

DS_UNSUPPORTED_OPERATION

SQLSTATE : non assigné

<dsError>: <message>

DS_UNSUPPORTED_STORAGE_SCHEME

SQLSTATE : non assigné

<dsError>: schéma de stockage non pris en charge : <scheme>.

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE : non assigné

<dsError>: Impossible de récupérer <schema>. <table> à partir du partage <share>, car la table de type [<tableType>] n’est actuellement pas prise en charge dans les requêtes <queryType>.

TYPE_DE_TABLE_NON_PRIS_EN_CHARGE_DANS_MST

SQLSTATE : non assigné

<dsError>: l’interrogation du type de table [<tableType>] n’est pas prise en charge dans la requête MST (multi-instruction transaction).

DS_USER_CONTEXT_ERROR

SQLSTATE : non assigné

<dsError>: <message>

DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED

SQLSTATE : non assigné

<dsError>: Les fonctions suivantes : <functions> ne sont pas autorisées dans la requête de partage d’affichage.

DS_WORKSPACE_DOMAIN_NOT_SET

SQLSTATE : non assigné

<dsError>: le domaine de l’espace de travail <workspaceId> n’est pas défini.

DS_WORKSPACE_NOT_FOUND

SQLSTATE : non assigné

<dsError>: l’espace de travail <workspaceId> n’a pas été trouvé.

Autoloader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE : 0A000

Le mode <addNewColumnsMode> d’évolution du schéma n’est pas pris en charge lorsque le schéma est spécifié. Pour utiliser ce mode, vous pouvez fournir le schéma par cloudFiles.schemaHints à la place.

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE : 42000

Options d’authentification de configuration des notifications trouvées pour le répertoire (par défaut)

mode de liste :

<options>

Si vous souhaitez utiliser le mode de notification de fichier, définissez explicitement :

.option(« cloudFiles.<useNotificationsKey> », « true »)

Sinon, si vous souhaitez ignorer la validation de vos options et passer outre

options d’authentification, vous pouvez définir :

.option(« cloudFiles.ValidateOptionsKey> », « false »)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE : 42000

Mode de liste incrémentielle (cloudFiles.<useIncrementalListingKey>)

et notification de fichier (cloudFiles.<useNotificationsKey>)

ont été activés en même temps.

Veillez à ne sélectionner qu’un seul.

CF_AZURE_AUTHENTICATION_MISSING_OPTIONS

SQLSTATE : 42000

Fournissez des informations d’identification de service Databricks ou clientId et clientSecret pour l’authentification auprès d’Azure.

CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS

SQLSTATE : 42000

Quand des informations d’identification de service Databricks sont fournies, aucune autre option d’informations d’identification (par exemple, clientId, clientSecret ou connectionString) ne doit être fournie.

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE : 42000

Exiger adlsBlobSuffix et adlsDfsSuffix pour Azure

CF_BUCKET_MISMATCH

SQLSTATE : 22000

Le <storeType> dans l’événement de fichier <fileEvent> est différent de celui attendu par la source : <source>.

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE : 22000

Impossible d’évoluer le schéma lorsque le journal de schéma est vide. Emplacement du journal de schéma : <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE : 22000

Impossible d’analyser le message de file d’attente suivant : <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE : 22000

Impossible de résoudre le nom du conteneur à partir du chemin d’accès : <path>, URI résolu : <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE : 22000

Impossible d’exécuter la liste des répertoires lorsqu’il existe un thread de remplissage asynchrone en cours d’exécution

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE : 42000

Impossible d’activer cloudFiles.cleanSource et cloudFiles.allowOverwrites en même temps.

CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH

SQLSTATE : 42000

Le déplacement de fichiers vers un répertoire sous le chemin d’accès qui est ingéré n’est pas pris en charge.

CF_CLEAN_SOURCE_NOT_ENABLED

SQLSTATE : 0A000

CleanSource n’a pas été activé pour cet espace de travail. Contactez le support Databricks pour obtenir de l’aide.

CF_CLEAN_SOURCE_NOT_SUPPORTED (Source de nettoyage non prise en charge)

SQLSTATE : 0A000

CleanSource n’est pas pris en charge pour <op>.

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE : 42501

Le chargeur automatique ne peut pas archiver les fichiers traités, car il n’a pas d’autorisations d’écriture dans le répertoire source ou la destination de déplacement.

Pour plus d’informations , consultez CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE : 22000

Une erreur s’est produite lors de la tentative d’inférence du schéma de partition de votre table. Vous avez la même colonne dupliquée dans vos chemins de données et de partition. Pour ignorer la valeur de partition, fournissez explicitement vos colonnes de partition à l’aide de : .option(« cloudFiles.<partitionColumnsKey> », « {virgule-separated-list} »)

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE : 42000

Impossible de déduire le schéma lorsque le chemin <path> d’entrée est vide. Essayez de démarrer le flux lorsqu’il existe des fichiers dans le chemin d’entrée ou spécifiez le schéma.

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE : 22000

Échec de la création d’un abonnement Event Grid. Vérifiez que votre principal

le principal a des abonnements <permissionType> Event Grid. Pour plus d’informations, consultez :

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE : 22000

Échec de la création d’un abonnement Event Grid. Vérifiez que Microsoft.EventGrid est

inscrit en tant que fournisseur de ressources dans votre abonnement. Pour plus d’informations, consultez :

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE : 22000

Échec de la création d’un abonnement Event Grid. Vérifiez que votre compte

de stockage (<storageAccount>) se trouve sous votre groupe de ressources (<resourceGroup>) et que

le compte de stockage est un compte « StorageV2 (usage général v2) ». Pour plus d’informations, consultez :

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE : 0A000

Le mode de notification d’événement du chargeur automatique n’est pas pris en charge pour <cloudStore>.

CF_EVENT_NOTIFICATION_SETUP_FAILED

SQLSTATE : 22000

Échec de la configuration des ressources de notification de fichier pour le chargeur automatique.

Pour plus d’informations , consultez CF_EVENT_NOTIFICATION_SETUP_FAILED

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE : 22000

Échec de la vérification pour déterminer si le flux est nouveau

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE : 22000

Échec de la création d’un abonnement : <subscriptionName>. Un abonnement portant le même nom existe déjà et est associé à une autre rubrique : <otherTopicName>. La rubrique souhaitée est <proposedTopicName>. Supprimez l’abonnement existant ou créez un abonnement avec un nouveau suffixe de ressource.

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE : 22000

Échec de la création d’une rubrique : <topicName>. Une rubrique portant le même nom existe déjà. <reason> Supprimez la rubrique existante ou réessayez avec un autre suffixe de ressource

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE : 22000

Impossible de supprimer la notification avec l’ID <notificationId> du compartiment <bucketName> pour la rubrique <topicName>. Réessayez ou supprimez manuellement la notification via la console GCP.

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE : 22000

Échec de désérialisation du schéma persistant à partir de la chaîne : « <jsonSchema> »

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE : 22000

Impossible de modifier le schéma sans journal de schéma.

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE : 42000

Échec de la recherche du fournisseur pour <fileFormatInput>

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE : 22000

Échec de l’inférence du schéma pour le format <fileFormatInput> à partir de fichiers existants dans le chemin <path>d’entrée.

Pour plus d’informations, consultez CF_FAILED_TO_INFER_SCHEMA

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE : 22000

Échec de l’écriture dans le journal du schéma à l’emplacement <path>.

CF_FILE_FORMAT_REQUIRED

SQLSTATE : 42000

Impossible de trouver l’option requise : cloudFiles.format.

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE : 22000

Plusieurs abonnements (<num>) trouvés avec le préfixe Auto Loader pour la rubrique <topicName> :

<subscriptionList>

Il ne doit y avoir qu’un seul abonnement par rubrique. Vérifiez manuellement que votre rubrique n’a pas plusieurs abonnements.

CF_GCP_AUTHENTICATION

SQLSTATE : 42000

Indiquez tous les éléments suivants : <clientEmail>, <client>

<privateKey>, et <privateKeyId> ou fournissez <serviceCredential> pour utiliser vos informations d’identification de service Databricks.

Vous pouvez également ne fournir aucune d'elles pour utiliser la chaîne de fournisseurs de certifications GCP par défaut pour s'authentifier auprès des ressources GCP.

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE : 22000

Reçu trop d’étiquettes (<num>) pour la ressource Google Cloud Platform. Le nombre maximal d’étiquettes par ressource est <maxNum>.

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE : 22000

Reçu trop de balises de ressource (<num>) pour la ressource GCP. Le nombre maximal d’étiquettes de ressource par ressource est <maxNum>, car les étiquettes de ressource sont stockées en tant qu’étiquettes GCP sur les ressources, et les balises spécifiques de Databricks consomment certains de ce quota d’étiquettes.

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE : 22000

Fichier journal incomplet dans le journal du schéma sur le chemin d’accès <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE : 22000

Fichier de métadonnées incomplet dans le point de contrôle de l’Auto Loader

CF_INCORRECT_BATCH_USAGE

SQLSTATE : 42887

CloudFiles est une source de streaming. Utilisez spark.readStream au lieu de spark.read. Pour désactiver cette vérification, définissez la valeur <cloudFilesFormatValidationEnabled> false.

CF_INCORRECT_SQL_PARAMS

SQLSTATE : 42000

La méthode cloud_files accepte deux paramètres de chaîne obligatoires : le chemin d’accès à charger et le format de fichier. Les options de lecteur de fichier doivent être fournies dans un tableau de chaînes de caractères clé-valeur. par exemple, cloud_files(« path », « json », map(« option1 », « value1 »)). Reçu : <params>

CF_INCORRECT_STREAM_USAGE

SQLSTATE : 42887

Pour utiliser « cloudFiles » comme source de diffusion en continu, indiquez le format de fichier avec l’option « cloudFiles.format » et utilisez .load() pour créer votre DataFrame. Pour désactiver cette vérification, définissez la valeur <cloudFilesFormatValidationEnabled> false.

CF_INTERNAL_ERROR

SQLSTATE : 42000

Le chargeur automatique a rencontré une erreur interne. Contactez le support Databricks pour obtenir de l’aide.

Pour plus d’informations , consultez CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE : 42000

ARN non valide : <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE : 42000

La clé privée fournie avec l’option cloudFiles.certificate ne peut pas être analysée. Indiquez une clé publique valide au format PEM.

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE : 42000

La clé privée fournie avec l’option cloudFiles.certificatePrivateKey ne peut pas être analysée. Indiquez une clé privée valide au format PEM.

CF_INVALID_CHECKPOINT

SQLSTATE : 42000

Ce point de contrôle n’est pas une source CloudFiles valide

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE : 42000

Mode non valide pour l’option de source propre <value>.

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE : 42000

Clé d’étiquette de ressource non valide pour la ressource GCP : <key>. Les touches doivent commencer par une lettre minuscule, être comprises entre 1 et 63 caractères et contenir uniquement des lettres minuscules, des chiffres, des traits de soulignement (_) et des traits d’union (-).

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE : 42000

Valeur de balise de ressource non valide pour la ressource GCP : <value>. Les valeurs doivent être comprises entre 0 et 63 caractères et contenir uniquement des lettres minuscules, des chiffres, des traits de soulignement (_) et des traits d’union (-).

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE : 42000

Le chargeur automatique ne prend pas en charge les options suivantes lorsqu’il est utilisé avec les événements de fichier managé :

<optionList>

Nous vous recommandons de supprimer ces options, puis de redémarrer le flux.

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE : 22000

Réponse non valide du service d’événements de fichiers managés. Contactez le support Databricks pour obtenir de l’aide.

Pour plus d’informations, consultez CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE : 42000

cloudFiles. <schemaEvolutionModeKey> doit être l’un des {

« <addNewColumnsWithTypeWidening> »

« <addNewColumns> »

« <failOnNewColumns> »

« <rescue> »

« <noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE : 42000

Les indicateurs de schéma ne peuvent spécifier qu’une seule fois une colonne particulière.

Dans ce cas, redéfinissez la colonne : <columnName>

plusieurs fois dans schemaHints :

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE : 42000

Les indicateurs de schéma ne peuvent pas être utilisés pour remplacer les types imbriqués des cartes et des tableaux.

Colonne en conflit : <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE : 22000

latestOffset doit être appelé avec une propriété ReadLimit sur cette source.

CF_LOG_FILE_MALFORMED

SQLSTATE : 22000

Le fichier journal a été mal formé : échec de lecture de la version correcte du journal à partir de <fileName>.

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE : 22000

Vous avez demandé au chargeur automatique d’ignorer les fichiers existants dans votre emplacement externe en définissant includeExistingFiles sur false. Toutefois, le service d’événements de fichiers managés découvre toujours les fichiers existants dans votre emplacement externe. Réessayez une fois que les événements de fichiers managés ont terminé la découverte de tous les fichiers dans votre emplacement externe.

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE : 42000

Vous utilisez le chargeur automatique avec des événements de fichier managé, mais il semble que l’emplacement externe de votre chemin d’entrée «<path> » n’a pas d’événements de fichier activés ou que le chemin d’entrée n’est pas valide. Demandez à votre administrateur Databricks d’activer les événements de fichier sur l’emplacement externe de votre chemin d’entrée.

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE : 42000

Vous utilisez Auto Loader avec des événements de fichiers gérés, mais vous n’avez pas accès à l’emplacement externe ou au volume pour le chemin d’entrée «<path>» ou le chemin d’entrée n’est pas valide. Demandez à votre administrateur Databricks d’accorder des autorisations de lecture pour l’emplacement ou le volume externe ou fournissez un chemin d’accès d’entrée valide dans un emplacement ou un volume externe existant.

CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN

SQLSTATE : 42000

La position de lecture de votre flux dans le cache des événements de fichier a été invalidée. Cela peut se produire parce que la configuration des événements de fichier a été mise à jour (par exemple, l’URL de file d’attente fournie a été modifiée ou les événements de fichier ont été désactivés et réactivé). Contactez le support Databricks pour obtenir de l’aide.

CF_MANAGED_FILE_EVENTS_IS_PREVIEW

SQLSTATE : 56038

Le chargeur automatique avec des événements de fichier managé est une fonctionnalité en préversion. Pour continuer, contactez le support Databricks ou désactivez l’option cloudFiles.useManagedFileEvents.

CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED

SQLSTATE : 53000

Trop de flux de chargeur automatique simultanés sont en cours d’exécution. Pour résoudre, réduisez la concurrence de flux si possible, ou créez des volumes distincts pour chaque sous-répertoire lors du chargement à partir de plusieurs sous-répertoires dans un emplacement externe. Contactez votre représentant Databricks si le problème persiste.

CF_MAX_MUST_BE_POSITIVE

SQLSTATE : 42000

max doit être positif

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE : 22000

Plusieurs requêtes de diffusion en continu utilisent simultanément <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE : 42000

Le fichier de métadonnées dans le répertoire de point de contrôle source de streaming est manquant. Ces métadonnées

le fichier contient des options par défaut importantes pour le flux, de sorte que le flux ne peut pas être redémarré

Tout de suite. Contactez le support Databricks pour obtenir de l’aide.

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE : 42000

La colonne <columnName> de partition n’existe pas dans le schéma fourni :

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE : 42000

Spécifiez un schéma à l’aide de .schema() si un chemin d’accès n’est pas fourni à la source CloudFiles lors de l’utilisation du mode de notification de fichier. Sinon, pour que le chargeur automatique déduit le schéma, fournissez un chemin de base dans .load().

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE : 22000

Notifications existantes trouvées pour la rubrique <topicName> sur le compartiment <bucketName>:

notification,id

<notificationList>

Pour éviter de polluer l’abonné avec des événements inattendus, supprimez les notifications ci-dessus et réessayez.

CF_NEW_PARTITION_ERROR

SQLSTATE : 22000

Les nouvelles colonnes de partition ont été déduites de vos fichiers : [<filesList>]. Fournissez toutes les colonnes de partition dans votre schéma ou fournissez une liste de colonnes de partition pour lesquelles vous souhaitez extraire des valeurs à l’aide de : .option(« cloudFiles.partitionColumns », « {virgule-separated-list|empty-string} »)

CF_PARTITON_INFERENCE_ERROR

SQLSTATE : 22000

Une erreur s’est produite lors de la tentative d’inférence du schéma de partition du lot actuel de fichiers. Indiquez explicitement vos colonnes de partition à l’aide de : .option(« cloudFiles.<partitionColumnOption> », « {virgule-separated-list} »)

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE : 42000

Impossible de lire les fichiers lorsque le chemin d’accès d’entrée <path> n’existe pas. Vérifiez que le chemin d’entrée existe et réessayez.

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE : 0A000

Le remplissage périodique n’est pas pris en charge si le remplissage asynchrone est désactivé. Vous pouvez activer le renvoi asynchrone/listage de répertoire en définissant spark.databricks.cloudFiles.asyncDirListing sur True

CF_PREFIX_MISMATCH

SQLSTATE : 22000

Événement incompatible trouvé : la clé <key> n’a pas le préfixe : <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE : 22000

<message>

Si vous n’avez pas besoin d’apporter d’autres modifications à votre code, définissez le code SQL

configuration : '<sourceProtocolVersionKey> = <value>'

pour reprendre votre flux. Reportez-vous à :

<docLink>

pour plus d’informations.

CF_REGION_NOT_FOUND_ERROR

SQLSTATE : 42000

Impossible d’obtenir la région AWS par défaut. Spécifiez une région à l’aide de l’option cloudFiles.region.

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE : 42000

Impossible de créer des services de notification : le suffixe de ressource ne peut pas être vide.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE : 42000

Impossible de créer des services de notification : le suffixe de ressource ne peut avoir que des caractères alphanumériques, des traits d’union (-) et des traits de soulignement (_).

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE : 42000

Impossible de créer des services de notification : le suffixe de ressource ne peut avoir que des lettres minuscules, un nombre et un tiret (-).

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE : 42000

Échec de la création de services de notification : le suffixe de ressource ne peut avoir que des caractères alphanumériques, des traits d’union (-), des traits de soulignement (_), des points (.), des tildes (~) plus des signes (+) et des signes de pourcentage ().<percentSign>

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE : 42000

Impossible de créer des services de notification : le suffixe de ressource ne peut pas comporter plus de <limit> caractères.

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE : 42000

Impossible de créer des services de notification : le suffixe de ressource doit être compris entre <lowerLimit> et <upperLimit> caractères.

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE : 22000

Clé d’étiquette de ressource GCP restreinte (<key>) trouvée. Les clés de balise de ressource GCP suivantes sont restreintes pour le chargeur automatique : [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE : 42000

cloudFiles.cleanSource.retentionDuration ne peut pas être supérieur à cloudFiles.maxFileAge.

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE : 22000

Échec de la création de notification pour la rubrique : <topic> avec préfixe : <prefix>. Il existe déjà une rubrique portant le même nom avec un autre préfixe : <oldPrefix>. Essayez d’utiliser un suffixe de ressource différent pour configurer ou supprimer la configuration existante.

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE : 42000

Impossible de cloner et de migrer toutes les entrées du journal de schéma source.

CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE

SQLSTATE : 42000

Le fichier de mot de passe ou de clé doit être spécifié pour SFTP.

Spécifiez le mot de passe dans l’URI source ou via <passwordOption>, ou spécifiez le contenu du fichier de clé via <keyFileOption>.

CF_SFTP_NOT_ENABLED

SQLSTATE : 0A000

L’accès aux fichiers SFTP n’est pas activé. Contactez le support Databricks pour obtenir de l’aide.

CF_SFTP_REQUIRE_FULL_PATH

SQLSTATE : 0A000

Spécifiez les composants de chemin d’accès complet d’une source SFTP sous la forme de sftp ://$user@$host :$port/$path pour garantir une recherche précise de la connexion UC.

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE : 0A000

Un cluster compatible UC est requis pour accéder aux fichiers SFTP. Contactez le support Databricks pour obtenir de l’aide.

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE : 42000

Le nom d’utilisateur doit être spécifié pour SFTP.

Indiquez le nom d’utilisateur dans l’URI source ou via <option>.

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE : 42000

Indiquez le chemin d’accès au répertoire source avec l’option path

CF_SOURCE_UNSUPPORTED

SQLSTATE : 0A000

La source de fichiers cloud prend uniquement en charge S3, Stockage Blob Azure (wasb/wasbs) et les chemins Azure Data Lake Gen1 (adl) et Gen2 (abfs/abfss) pour le moment. chemin : '<path>', URI résolu : '<uri>'

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE : 42000

La fonction cloud_files_state accepte un paramètre de chaîne représentant le répertoire de point de contrôle d’un flux cloudFiles ou d’un tableName en plusieurs parties identifiant une table de diffusion en continu et un deuxième paramètre entier facultatif représentant la version du point de contrôle pour laquelle charger l’état. Le deuxième paramètre peut également être « latest » pour lire le dernier point de contrôle. Reçu : <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE : 42000

Le chemin <path> du point de contrôle d’entrée n’est pas valide. Le chemin d’accès n’existe pas ou il n’existe pas de sources cloud_files trouvées.

CF_STATE_INVALID_VERSION

SQLSTATE : 42000

La version <version> spécifiée n’existe pas ou a été supprimée pendant l’analyse.

CF_THREAD_IS_DEAD

SQLSTATE : 22000

<threadName> le thread est terminé.

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE : 42000

Impossible de dériver l’emplacement du point de contrôle de flux à partir de l’emplacement du point de contrôle source : <checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE : 42000

Impossible de détecter le format de fichier source à partir du ou des fichier(s) échantillonné(s) <fileSize>, <formats> trouvé(s). Spécifiez le format.

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE : 42000

Impossible d’extraire les informations du bucket. Chemin : « <path> », URI résolu : « <uri> »

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE : 42000

Impossible d’extraire les informations clés. Chemin : « <path> », URI résolu : « <uri> »

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE : 42000

Impossible d’extraire les informations du compte de stockage ; chemin : « <path> », URI résolu : « <uri> »

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE : 22000

Nous avons reçu un événement de renommage de répertoire pour le chemin d’accès <path>, mais nous ne pouvons pas répertorier efficacement ce répertoire. Pour que le flux continue, définissez l’option « cloudFiles.ignoreDirRenames » sur true et envisagez d’activer les remblais réguliers avec cloudFiles.backfillInterval pour que ces données soient traitées.

CF_UNEXPECTED_READ_LIMIT

SQLSTATE : 22000

Limite de lecture inattendue : <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE : 42000

Clés d’option inconnues trouvées :

<optionList>

Vérifiez que toutes les clés d’option fournies sont correctes. Si vous souhaitez passer la

validation de vos options et ignorer ces options inconnues, vous pouvez définir :

.option(« cloudFiles.<validateOptions> », « false »)

CF_UNKNOWN_READ_LIMIT

SQLSTATE : 22000

Limite de lecture inconnue : <readLimit>

CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

SQLSTATE : 0A000

La configuration du mode « move » de cleanSource n’est pas prise en charge.

Pour plus de détails , consultez CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE : 0A000

La fonction SQL « cloud_files » pour créer une source de streaming pour Auto Loader est prise en charge uniquement dans un pipeline déclaratif Spark de Lakeflow. Pour plus d’informations, consultez :

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE : 0A000

L’inférence de schéma n’est pas prise en charge pour le format : <format>. Spécifiez le schéma.

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE : 0A000

UnsupportedLogVersion : la version maximale prise en charge du journal est v<maxVersion>, mais celle qui a été rencontrée est v<version>. Le fichier journal a été produit par une version plus récente de DBR et ne peut pas être lu par cette version. Effectuez une mise à niveau.

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE : 0A000

Le mode <mode> d’évolution du schéma n’est pas pris en charge pour le format : <format>. Définissez le mode d’évolution du schéma sur « none ».

CF_USE_DELTA_FORMAT

SQLSTATE : 42000

La lecture à partir d’une table Delta n’est pas prise en charge avec cette syntaxe. Si vous souhaitez consommer des données à partir de Delta, reportez-vous à la documentation : lisez une table Delta (<deltaDocLink>) ou lisez une table Delta en tant que source de flux (<streamDeltaDocLink>). La source de diffusion en continu à partir de Delta est déjà optimisée pour la consommation incrémentielle des données.

Geospatial

EWKB_PARSE_ERROR

SQLSTATE : 22023

Erreur d’analyse EWKB : <parseError> à la position <pos>

Pour plus d’informations , consultez EWKB_PARSE_ERROR

EWKT_PARSE_ERROR

SQLSTATE : 22023

Erreur d’analyse EWKT : <parseError> à la position <pos>

GEOJSON_PARSE_ERROR

SQLSTATE : 22023

Erreur d'analyse GeoJSON : <parseError> à la position <pos>

Pour plus d’informations , consultez GEOJSON_PARSE_ERROR

GEO_ENCODER_SRID_MISMATCH_ERROR

SQLSTATE : 42K09

Échec de l'encodage de la valeur <type>, car le SRID fourni <valueSrid> d'une valeur à encoder ne correspond pas au type SRID : <typeSrid>.

H3_INVALID_CELL_ID

SQLSTATE : 22023

<h3Cell> n’est pas un ID de cellule H3 valide

Pour plus d’informations , consultez H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE : 22023

La distance <k> de grille H3 doit être non négative

Pour plus d’informations, consultez H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE : 22023

La résolution H3 <r> doit être comprise entre <minR> et <maxR> (inclus)

Pour plus d’informations, consultez H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE : 0A000

<h3Expression> est désactivé ou non pris en charge. Envisagez de basculer vers un niveau prenant en charge les expressions H3

Pour plus d’informations , consultez H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE : 22023

Un pentagone a été rencontré lors du calcul du cercle hexagonal de <h3Cell> avec la distance de grille <k>

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE : 22023

Distance de grille H3 entre <h3Cell1> et <h3Cell2> n’est pas définie

ST_DIFFERENT_SRID_VALUES

SQLSTATE : 22023

Les arguments à «<sqlFunction> » doivent avoir la même valeur SRID. Valeurs SRID trouvées : <srid1>, <srid2>

ST_ARGUMENT_INVALIDE

SQLSTATE : 22023

« <sqlFunction> » :

Pour plus d’informations , consultez ST_INVALID_ARGUMENT

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE : 22023

<sqlFunction>: transformation CRS non valide ou non prise en charge de SRID <srcSrid> vers SRID <trgSrid>

ST_INVALID_PRECISION_VALUE

SQLSTATE : 22023

La précision <p> doit être comprise entre <minP> et <maxP>, inclusive

ST_NOT_ENABLED

SQLSTATE : 0A000

<stExpression> est désactivé ou non pris en charge. Envisagez de passer à un niveau prenant en charge les expressions ST

WKB_PARSE_ERROR

SQLSTATE : 22023

Erreur lors de l’analyse de WKB : <parseError> à la position <pos>

Pour plus d’informations , consultez WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE : 22023

Erreur lors de l’analyse de WKT : <parseError> à la position <pos>

Pour plus d’informations , consultez WKT_PARSE_ERROR

Unity Catalog

CANNOT_DROP_TAGGED_COLUMN

SQLSTATE : 42893

La colonne ne peut pas être supprimée, car elle a une ou plusieurs balises régies affectées. Supprimez la ou les balises avant de supprimer la colonne. Pour obtenir des conseils, reportez-vous à la documentation <docLink>.

CRÉATION D'ENFANT INTERDITE POUR LA SÉCURITÉ ÉTRANGÈRE

SQLSTATE : 22023

L’élément sécurisable <childSecurableName> de type <childSecurableType> ne peut pas être créé dans le parent <parentSecurableName> du type <parentSecurableKind>.

FORMAT DE LA COLONNE INCOMPATIBLE AVEC LE TYPE DE COLONNE

SQLSTATE : 42809

La colonne <columnName> a <formatType> un format qui n’est pas compatible avec le type <columnType>de colonne.

CONFLICTING_COLUMN_NAMES_ERROR

SQLSTATE : 42711

La <columnName> colonne est en conflit avec une autre colonne portant le même nom, mais avec/sans espaces blancs de fin (par exemple, une colonne existante nommée <columnName> ). Renommez la colonne avec un autre nom.

CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION

SQLSTATE : 0AKUC

Demande non valide pour obtenir les informations d’identification au niveau de la connexion pour la connexion de type <connectionType>. Ces informations d’identification sont disponibles uniquement pour les connexions PostgreSQL gérées.

CONNECTION_TYPE_NOT_ENABLED

SQLSTATE : 56038

Le type de connexion '<connectionType>' n’est pas activé. Activez la connexion pour l’utiliser.

ÉTAT_APPROVISIONNEMENT_CLÉ_PARTAGE_DELTA_NON_ACTIF

SQLSTATE : 55019

L’entité partagée «<securableFullName> » n’est actuellement pas utilisable, car elle n’a pas encore été entièrement synchronisée avec l’entité source correspondante. Provoqué par : <reason>.

DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS

SQLSTATE : 42710

Il existe déjà un objet Recipient '<existingRecipientName>' avec le même identificateur de partage '<existingMetastoreId>'.

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE : 42501

Les données d’un type <securableKindName> sécurisable de partage Delta sont en lecture seule et ne peuvent pas être créées, modifiées ou supprimées.

SAUVEGARDE_APRÈS_CATASTROPHE_LECTURE_SEULE

SQLSTATE : 25006

Les données d’un catalogue <catalogName> de réplicas gérés par la Récupération d’Urgence sont en lecture seule et ne peuvent pas être créées, modifiées ou supprimées.

EXTERNAL_ACCESS_DISABLED_ON_METASTORE

SQLSTATE : 0A000

La vente d’informations d’identification est rejetée pour l’environnement de calcul non Databricks en raison de la désactivation de l’accès aux données externes pour le metastore <metastoreName>. Contactez l’administrateur de votre metastore pour activer la configuration « Accès aux données externes » sur le metastore.

EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE

SQLSTATE : 0AKUC

Impossible d’accéder à la table avec l’ID <tableId> en dehors de l’environnement de calcul Databricks en raison de son type .<securableKind> Seuls les types de tables «TABLE_EXTERNAL », «TABLE_DELTA_EXTERNAL » et «TABLE_DELTA » sont accessibles en externe.

EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE

SQLSTATE : 22023

Privilege EXTERNAL USE SCHEMA n’est pas applicable à cette entité <assignedSecurableType> et ne peut être affecté qu’à un schéma ou à un catalogue. Supprimez plutôt le privilège de l’objet <assignedSecurableType> et affectez-le à un schéma ou un catalogue.

EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE

SQLSTATE : 0AKUC

La table avec ID <tableId> ne peut pas être écrite en dehors de l’environnement de calcul Databricks en raison de son type .<securableKind> Seuls les types de table 'TABLE_EXTERNAL' et 'TABLE_DELTA_EXTERNAL' peuvent être écrits en externe.

FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES

SQLSTATE : 42501

L’emplacement de stockage d’un catalogue étranger de type <catalogType> sera utilisé pour décharger les données et ne peut pas être en lecture seule.

HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED

SQLSTATE : 54000

Le nombre de <resourceType>s pour le chemin d’entrée <url> dépasse la limite autorisée (<overlapLimit>) pour le chevauchement des s HMS <resourceType>.

INVALID_DATASOURCE_FORMAT

SQLSTATE : 0AKUC

Le format de source de données '<datasourceFormat>' n’est pas pris en charge<tableTypeSuffix> <catalogKindSuffix>.

INVALID_NAME_FORMAT

SQLSTATE : 42602

<fieldDescription> n’est pas un nom valide. Les noms valides doivent contenir uniquement des caractères alphanumériques et des traits de soulignement, et ne peuvent pas contenir d’espaces, de points, de barres obliques ou de caractères de contrôle.

INVALID_RESOURCE_NAME_DELTA_SHARING

SQLSTATE : 0A000

Les demandes de partage Delta ne sont pas prises en charge à l’aide de noms de ressources

INVALID_RESOURCE_NAME_ENTITY_TYPE

SQLSTATE : 42809

Le nom de ressource fourni fait référence au type <provided> d’entité, mais le type attendu est <expected>

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE : 42000

Le nom de ressource fourni fait référence à un metastore qui n’est pas dans l’étendue de la requête actuelle

NOM_SÉCURISABLE_INVALIDE

SQLSTATE : 42602

<rpcName> nom non valide <securableType> : '<securableFullName>'

LOCATION_OVERLAP

SQLSTATE : 22023

L’URL du chemin d’accès d’entrée « <path> » se superpose à <overlappingLocation> dans l’appel « <caller> ». <conflictingSummary>. <permissionErrorSuggestion>

CONFLIT_DE_STOCKAGE_LOCATIONS_RECOUVREMENT_AVEC_STOCKAGE_ESPACE_DE_TRAVAIL

SQLSTATE : 22023

L’emplacement de stockage défini par le client est en conflit avec le stockage par défaut de l’espace de travail «<path> » pendant l’opération «<caller> ». Cela empêche les fonctionnalités qui s’appuient sur le stockage de l’espace de travail de fonctionner. Résumé des conflits : <conflictingSummary>. Pour les étapes de correction, consultez https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts.

MANAGED_TABLE_FORMAT

SQLSTATE : 0AKUC

Seul Delta est pris en charge pour les tables managées. Le format de source de données fourni est <datasourceFormat>.

MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT

SQLSTATE : 42616

La création ou la mise à jour d’une connexion MongoDB n’est pas autorisée, car la chaîne de connexion SRV MongoDB ne nécessite pas de port.

Supprimez le port, car la chaîne de connexion SRV ne nécessite pas de port.

PRINCIPAL_N'EXISTE_PAS

SQLSTATE : 42704

Impossible de trouver le principal avec le nom <principalName>.

PRISE_EN_CHARGE_DES_PRIVILÈGES_NON_ACTIVÉE

SQLSTATE : 0AKUC

La prise en charge des privilèges n’est pas activée pour le type [<typeString>]

PRIVILÈGE_NON_APPLICABLE_POUR_ENTITÉ

SQLSTATE : 22023

Le privilège <privilege> n’est pas applicable à cette entité [<classifier>]. Si cela semble inattendu, vérifiez la version de privilège du metastore en cours d’utilisation [<privilegeVersion>].

CATALOGUE_EN_LECTURE_SEULE

SQLSTATE : 0AKUC

Les données d’un catalogue de partage Delta sont en lecture seule et ne peuvent pas être créées, modifiées ou supprimées. Le catalogue «<catalogName> » est un catalogue de partage delta.

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE : 22KD1

La racine de stockage du catalogue étranger Redshift doit être AWS S3.

SCHEMA_NOT_EMPTY

SQLSTATE : 42893

Le schéma '<fullName>' n’est pas vide. <extraInfo>

SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE : 0AKUC

Sécurisable avec un type <securableKind> ne prend pas en charge lakehouse Federation.

SECURABLE_KIND_NOT_ENABLED

SQLSTATE : 56038

Le type sécurisable '<securableKind>' n’est pas activé. S’il s’agit d’un type sécurisable associé à une fonctionnalité en préversion, activez-le dans les paramètres de l’espace de travail.

SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE : 0AKUC

Le type sécurisable <securableType> ne prend pas en charge la fédération Lakehouse.

SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT

SQLSTATE : 54000

La table source comporte plus de <columnCount> colonnes. Veuillez réduire le nombre de colonnes à <columnLimitation> ou moins.

SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED

SQLSTATE : 42704

Impossible de trouver le principal de service système inscrit avec le nom de ressource <servicePrincipalResource>.

TABLE_TYPE_DOES_NOT_SUPPORT_COLUMN_METADATA

SQLSTATE : 0AKUC

Le type de table <tableType> ne prend pas en charge les métadonnées de colonne.

SQLSTATE : 42KDI

Les clés secrètes client pour le principal de service avec l’ID d’application <applicationId> ont expiré. Visitez le portail Azure pour créer de nouvelles clés pour votre principal de service.

UC_SECRET_CLIENT_AAD_EXPIRÉ_POUR_IDENTIFIANT_DE_STOCKAGE

SQLSTATE : 42KDI

Les clés secrètes client associées aux informations d’identification <storageCredentialName> pour le stockage ont expiré. Contactez le propriétaire ou l’administrateur de votre compte pour mettre à jour les informations d’identification de stockage.

UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL (Secret client UC AAD invalide pour le principal du service)

SQLSTATE : 42KDI

La clé secrète client pour le principal de service avec l’ID d’application <applicationId> n’est pas valide.

UC_PRINCIPAL_DE_SERVICE_AAD_CONFIGURATION_INVALIDE

SQLSTATE : 42KDI

La configuration du principal de service n’est pas valide. Vérifiez l’ID d’annuaire, l’ID d’application et la clé secrète client.

ÉCHANGE_DE_JETON_UC_AAD_ERREUR_GÉNÉRIQUE

SQLSTATE : 42KDI

Échec de l’obtention des informations d’identification : les informations d’identification <storageCredentialName> de stockage ne sont pas configurées correctement. Contactez le propriétaire ou l’administrateur de votre compte pour mettre à jour la configuration.

UC_AAD_TOKEN_LIFETIME_TOO_SHORT

SQLSTATE : 22003

La durée de vie du jeton AAD échangé est <lifetime>, cette configuration est trop courte. Vérifiez votre paramètre Azure AD pour vous assurer que le jeton d’accès temporaire a au moins une heure de vie. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes

UC_ABAC_AMBIGUOUS_COLUMN_MATCH

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». Échec de la stratégie «<policyName> » avec le message : L’utilisation de l’alias «<alias> » a entraîné <size> correspondances, une seule correspondance est autorisée.

UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED

SQLSTATE : 54000

<resourceType> '<ref>' a trop de <resolverType> dépendances abac.

UC_ABAC_DEPENDENCY_DIFFERING_RF_CM

SQLSTATE : 55000

La dépendance « <dependency> » est référencée plusieurs fois et a produit différents filtres de ligne ABAC ou masques de colonne.

UC_ABAC_EVALUATION_USER_ERROR

SQLSTATE : 42000

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». Échec de la stratégie «<policyName> » avec le message : <message>.

UC_ABAC_INVALID_TAG_POLICY_VALUE

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». Erreur avec le message : Valeur de politique de balise invalide <tagValue> pour la clé <tagKey>.

UC_ABAC_MULTIPLE_ROW_FILTERS

SQLSTATE : 42KDJ

L'évaluation des politiques ABAC sur «<resource> » a abouti à plusieurs filtres de lignes. Au plus un filtre de lignes est autorisé.

UC_ABAC_UNKNOWN_TAG_POLICY

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». Échec avec le message : Politique d'étiquette inconnue : <tagKey>.

UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». Échec avec le message : l’alias «<alias>» utilisé dans USING COLUMNS ne correspondait à aucune colonne.

UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». La stratégie «<policyName> » a échoué avec le message : l’alias «<alias> » utilisé dans ON COLUMN ne correspondait à aucune colonne.

UC_ABAC_INADÉQUATION_UTILISANT_ALIAS

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». "La stratégie '<policyName>' a échoué avec le message : l’utilisation de l’alias '<alias>' ne présente pas de colonne correspondante."

UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». Échec du message : la colonne «<usingCol> » a été masquée par la stratégie RLS/CM native et ne peut pas être utilisée comme entrée de la stratégie ABAC «<policyName> ».

ACCÈS_UC_EXIGE_ESPACE_DE_TRAVAIL

SQLSTATE : 42501

Impossible d’accéder à l’élément sécurisable lié à l’espace de travail, car l’utilisateur n’est pas affecté à l’espace de travail associé.

UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE

SQLSTATE : 0A000

Modification de la vue «<viewFullName> » en dehors du pipeline qui l’a définie non autorisée. Au lieu de cela, mettez à jour la définition de vue à partir du pipeline qui l’a définie (ID de pipeline : <owningPipelineId>).

UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE (UC_ATLAS non activé pour le service d'appel)

SQLSTATE : 0A000

Atlas n'est pas activé pour le service d’appel <serviceName>.

UC_AUTHZ_ACTION_NOT_SUPPORTED

SQLSTATE : 0AKUC

L’autorisation <actionName> n’est pas prise en charge ; vérifiez que l’appel RPC est implémenté pour ce type de ressource

UC_AWS_ASSUME_ROLE_FAILED

SQLSTATE : 42KDI

Échec de l’obtention des informations d’identification : le rôle AWS IAM dans les informations d’identification du catalogue Unity n’est pas configuré correctement. Contactez votre administrateur metastore ou le propriétaire des informations d’identification pour mettre à jour la configuration dans AWS.

Emplacement de stockage vide AWS UC

SQLSTATE : 22023

Emplacement de stockage vide.

UC_AWS_INVALID_S3_POLICY_PREFIX

SQLSTATE : 22KD1

Chemin d’accès s3 non valide pour l’emplacement de stockage : le chemin <providedPath> S3 ne commence pas par le préfixe attendu : <expectedPrefix>.

UC_AWS_UNSUPPORTED_S3_SCHEME

SQLSTATE : 22KD1

Chemin S3 non valide pour l'emplacement de stockage : schéma trouvé non pris en charge : <providedScheme>. Les schémas pris en charge sont les suivants : <supportedS3Schemes>.

UC_AZURE_BLOB_SERVICE_UNAVAILABLE

SQLSTATE : 57P03

Le service Blob Azure n’est pas disponible temporairement. Réessayez plus tard.

UC_AZURE_UDK_NON_AUTORISÉ

SQLSTATE : 42501

La demande de clé de délégation d’utilisateur n’est pas autorisée. Détails : <details>

UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED

SQLSTATE : 42501

Impossible de créer une connexion pour un metastore hive intégré, car l’utilisateur : <userId> n’est pas l’administrateur de l’espace de travail : <workspaceId>

UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD

SQLSTATE : 22023

Essayez de modifier un champ restreint dans la connexion HMS intégrée «<connectionName> ». Seuls « warehouse_directory » peuvent être mis à jour.

UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN

SQLSTATE : 428FR

Impossible de renommer la colonne <originalLogicalColumn> de table, car elle est utilisée pour le filtrage de partition dans <sharedTableName>. Pour continuer, vous pouvez supprimer la table du partage, renommer la colonne et la partager à nouveau avec les colonnes de filtrage de partition souhaitées. Toutefois, cela peut interrompre la requête de diffusion en continu pour votre destinataire.

UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER

SQLSTATE : 0AKUC

Impossible de créer <securableType> «<securable> » sous <parentSecurableType> «<parentSecurable> », car la requête ne provient pas d’un cluster UC.

OPTIONS_DE_LISTE_AUTORISÉE_DE_CONNEXION_CONFLICTUELLE_UC

SQLSTATE : 42616

Impossible de créer une connexion avec une liste d'autorisation qui se chevauche avec une option de connexion. Valeur: <conflictingOptions>

UC_CONFLICTING_CONNECTION_OPTIONS

SQLSTATE : 42616

Impossible de créer une connexion avec les options d’authentification oauth et nom d’utilisateur/mot de passe. Choisissez-en un.

UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED

SQLSTATE : 53400

Le nombre maximal d’informations d’identification pour le nom de connexion «<connectionName> » a été atteint. Supprimez les informations d’identification existantes avant de en créer une nouvelle.

UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN

SQLSTATE : 42517

Les informations d’identification de l’identité de l’utilisateur (''<userIdentity>) sont introuvables pour la connexion '<connectionName>'. Connectez-vous d’abord à la connexion en visitant <connectionPage>

UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED

SQLSTATE : 42809

La création d’identifiants pour le type sécurisable '<securableType>' n’est pas prise en charge. Types sécurisables pris en charge : <allowedSecurableType>.

UC_CONNECTION_EXISTS_FOR_CREDENTIAL

SQLSTATE : 42893

Les identifiants «<credentialName>» ont une ou plusieurs connexions dépendantes. Vous pouvez utiliser l’option forcer la mise à jour ou la suppression des informations d’identification, mais les connexions utilisant ces informations d’identification peuvent ne plus fonctionner.

UC_CONNECTION_EXPIRED_ACCESS_TOKEN

SQLSTATE : 42KDI

Le jeton d’accès associé à la connexion a expiré. Mettez à jour la connexion pour redémarrer le flux OAuth pour récupérer un jeton.

UC_CONNECTION_EXPIRED_REFRESH_TOKEN

SQLSTATE : 42KDI

Le jeton d’actualisation associé à la connexion a expiré. Mettez à jour la connexion pour redémarrer le flux OAuth pour récupérer un nouveau jeton.

UC_CONNECTION_IN_FAILED_STATE

SQLSTATE : 55000

La connexion est dans l’état FAILED . Mettez à jour la connexion avec des informations d’identification valides pour la réactiver.

UC_CONNECTION_MISSING_OPTION

SQLSTATE : 22023

Les connexions de type sécurisable '<securableType>' doivent inclure les options suivantes : <requiredOptions>.

UC_CONNECTION_MISSING_REFRESH_TOKEN

SQLSTATE : 42KDI

Aucun jeton d’actualisation n’est associé à la connexion. Mettez à jour l’intégration du client OAuth dans votre fournisseur d’identité pour retourner des jetons d’actualisation, puis mettez à jour ou recréez la connexion pour redémarrer le flux OAuth et récupérer les jetons nécessaires.

UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE : 42KDI

Échec de l’échange de jeton OAuth avec le code <httpStatus>d’état HTTP. Le message de réponse ou d’exception du serveur retourné est : <response>

UC_CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE : 42616

Les connexions de type sécurisable '<securableType>' ne prennent pas en charge les options suivantes : <optionsNotSupported>. Options prises en charge : <allowedOptions>.

UC_COORDINATED_COMMITS_NOT_ENABLED

SQLSTATE : 56038

La prise en charge des validations coordonnées n’est pas activée. Contactez le support Databricks.

UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE

SQLSTATE : 55019

Impossible de créer <securableType> '<securableName>' car il se trouve sous un <parentSecurableType> '<parentSecurableName>' qui n’est pas actif. Supprimez l’élément sécurisable parent et recréez le parent.

UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE : 22KD1

Échec de l’analyse de l’ID de connecteur d’accès fourni : <accessConnectorId>. Vérifiez sa mise en forme et réessayez.

UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE : 58000

Échec de l’obtention d’un jeton AAD pour effectuer la validation des autorisations cloud sur un connecteur d’accès. Réessayez l’action.

UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE : non assigné

L’inscription d’informations d’identification nécessite le rôle contributeur sur le connecteur d’accès correspondant avec l’ID <accessConnectorId>. Veuillez contacter votre administrateur de compte.

UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE

SQLSTATE : 22023

Le type d’informations d’identification « <credentialType> » n’est pas pris en charge à des fins de « <credentialPurpose> »

UC_CREDENTIAL_PERMISSION_DENIED

SQLSTATE : non assigné

Seul l’administrateur de compte peut créer ou mettre à jour des informations d’identification avec le type <storageCredentialType>.

UC_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE : 22023

La stratégie d’approbation du rôle IAM pour permettre au compte Databricks d’assumer le rôle doit nécessiter un ID externe. Contactez l’administrateur de votre compte pour ajouter la condition d’ID externe. Ce comportement consiste à se protéger contre le problème du député confus (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE : 0A000

La création ou la mise à jour d’informations d’identification en tant qu’administrateur non-compte n’est pas prise en charge dans l’API au niveau du compte. Utilisez plutôt l’API au niveau de l’espace de travail.

UC_DBR_TRUST_VERSION_TOO_OLD

SQLSTATE : 0A000

Databricks Runtime utilisé ne prend plus en charge cette opération. Utilisez la dernière version (vous devrez peut-être redémarrer votre cluster).

VERSION_ILLICITE_UC_DELTA_REMPLISSAGE_RÉTROACTIF

SQLSTATE : 22023

Dernière version inattendue deBackfilledVersion <latestBackfilledVersion> sur la validation (<version>, <commitType>).

UC_DELTA_MIGRATION_CONCURRENTE_ILLÉGALE

SQLSTATE : 0A000

La mise à niveau ou la rétrogradation simultanée vers/depuis une table gérée par catalogue n’est pas prise en charge. Vérifiez qu’une seule transaction exécute la commande de migration à la fois. Un doublon <commitType> a été détecté.

UC_DELTA_MIGRATION_ILLÉGALE_CHANGEMENT_D'ÉTAT

SQLSTATE : 22023

Transition illégale d'état de l'ancien type de commit <lastCommitType> vers le nouveau <commitType>.

UC_DELTA_MIGRATION_CHANGEMENT_D'ÉTAT_VER_MISMATCH

SQLSTATE : 22023

Les versions ne correspondent pas pour la transition d’état de l’ancien (<lastVersion>, <lastCommitType>) au nouveau (<version>, <commitType>).

UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION

SQLSTATE : 22P02

Impossible d’analyser la version de la table Apache Iceberg à partir de l’emplacement <metadataLocation>des métadonnées.

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE : 40001

Une mise à jour simultanée vers la même version des métadonnées Apache Iceberg a été détectée.

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION

SQLSTATE : 22KD1

L’emplacement <metadataLocation> des métadonnées validées n’est pas valide. Il ne s’agit pas d’un sous-répertoire du répertoire racine <tableRoot> de la table.

UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT

SQLSTATE : 42601

Les informations fournies concernant la conversion de format Delta Apache Iceberg manquent de champs requis.

UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT

SQLSTATE : 0A000

La définition des informations relatives au format Apache Iceberg delta lors de la création n’est pas prise en charge.

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT

SQLSTATE : 54000

Les informations de conversion de format delta Apache Iceberg fournies sont trop volumineuses.

UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID

SQLSTATE : 0A000

Les métadonnées uniformes ne peuvent être mises à jour que sur les tables Delta avec l’uniformisation activée.

UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED

SQLSTATE : 54000

<resourceType> La profondeur '<ref>' dépasse la limite (ou a une référence circulaire).

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE : 42704

<resourceType> '<ref>' n’est pas valide, car l’une des ressources sous-jacentes n’existe pas. <cause>

UC_DEPENDENCY_PERMISSION_DENIED

SQLSTATE : 42501

<resourceType> '<ref>' n’a pas suffisamment de privilèges pour s’exécuter, car le propriétaire de l’une des ressources sous-jacentes a échoué à une vérification d’autorisation. <cause>

UC_DUPLICATE_CONNECTION

SQLSTATE : 42710

Une connexion appelée «<connectionName> » avec la même URL existe déjà. Demandez au propriétaire l’autorisation d’utiliser cette connexion au lieu de créer un doublon.

UC_DUPLICATE_FABRIC_CATALOG_CREATION

SQLSTATE : 42710

Tentative de création d’un catalogue Fabric avec l’URL «<storageLocation> » qui correspond à un catalogue existant, qui n’est pas autorisé.

UC_DUPLICATE_TAG_ASSIGNMENT_CREATION

SQLSTATE : 42710

L’attribution d’étiquettes avec la clé d’étiquette <tagKey> existe déjà

UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER

SQLSTATE : 57000

L’entité <securableType> <entityId> n’a pas de cluster en ligne correspondant.

UC_ETAG_MISMATCH

SQLSTATE : 40001

La ressource a été modifiée. Récupérez le dernier etag et réessayez. Valeur etag attendue : <expectedTokenValue> avec la version <expectedTokenVersion>du protocole , valeur etag reçue : <providedTokenValue> avec la version du protocole <providedTokenVersion>

UC_EXCEEDS_MAX_FILE_LIMIT

SQLSTATE : 22023

Il y a plus de fichiers <maxFileResults>. Spécifiez [max_results] pour limiter le nombre de fichiers retournés.

UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED

SQLSTATE : 22023

Le schéma <schemaName> est dans DEGRADED un état d’approvisionnement attendu, car l’emplacement du schéma eHMS /Glue n’est pas fédéré.

UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED

SQLSTATE : 22023

Ne peut pas <opName> <extLoc> <reason>. <suggestion>.

UC_FEATURE_DISABLED

SQLSTATE : 56038

<featureName> est actuellement désactivé dans l’UC.

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE : 42809

La création d’un catalogue étranger pour le type de connexion '<connectionType>' n’est pas prise en charge. Ce type de connexion ne peut être utilisé que pour créer des pipelines d’ingestion managés. Pour plus d’informations, consultez la documentation Databricks.

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE : 0AKUC

Seuls les identifiants READ peuvent être récupérés pour les tables étrangères.

CRÉATION_D'ENTITÉ_ÉTRANGÈRE_INTERDITE_PENDANT_LA_CONVERSION

SQLSTATE : 55019

La création de 'FOREIGN <securableType>' sous le catalogue '<entityName>' est interdite pendant que le catalogue est en cours de conversion de FOREIGN à STANDARD.

UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH

SQLSTATE : 22023

La table de base et la table clone doivent se trouver dans le même catalogue que les clones superficiels créés dans des catalogues de metastores Hive étrangers. La table de base '<baseTableName>' se trouve dans le catalogue '<baseCatalogName>' et la table clone '<cloneTableName>' est dans le catalogue '<cloneCatalogName>'.

UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH

SQLSTATE : 42830

Les colonnes enfants <constraintName> des clés étrangères et des colonnes parentes sont de différentes tailles.

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE : 42830

Les colonnes parentes de clé étrangère ne correspondent pas aux colonnes enfants de clé primaire référencée. Les colonnes parentes de clé étrangère sont (<parentColumns>) et les colonnes enfants de clé primaire sont (<primaryKeyChildColumns>).

UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH

SQLSTATE : 42830

Le type de colonne enfant de clé étrangère ne correspond pas au type de colonne parent. La colonne <childColumnName> enfant de clé étrangère a le type <childColumnType> et la colonne parente <parentColumnName> a le type <parentColumnType>.

UC_GCP_INVALID_PRIVATE_KEY

SQLSTATE : 42501

Accès refusé. Cause : la clé privée du compte de service n’est pas valide.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT

SQLSTATE : 22032

La clé privée OAuth du compte Google Server doit être un objet valide JSON avec les champs obligatoires, veillez à fournir le fichier complet JSON généré à partir de la section « CLÉS » de la page de détails du compte de service.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS

SQLSTATE : 22032

La clé privée OAuth du compte Google Server doit être un objet valide JSON avec les champs obligatoires, veillez à fournir le fichier complet JSON généré à partir de la section « CLÉS » de la page de détails du compte de service. Les champs manquants sont <missingFields>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE : 22023

Le rôle IAM de ces informations d’identification de stockage a été détecté comme non autonome. Vérifiez la confiance de votre rôle et les stratégies IAM pour vous assurer que votre rôle IAM peut s’assumer conformément à la documentation des informations d’identification de stockage du catalogue Unity.

UC_ICEBERG_COMMIT_CONFLICT

SQLSTATE : 40001

Impossible de valider <tableName>: l’emplacement <baseMetadataLocation> des métadonnées a changé de <catalogMetadataLocation>.

UC_ICEBERG_COMMIT_INVALID_TABLE

SQLSTATE : 42809

Impossible d'effectuer un engagement Apache Iceberg managé sur une table Apache Iceberg non gérée : <tableName>.

UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT

SQLSTATE : 42601

Les informations de validation gérées d'Apache Iceberg fournies comportent des champs obligatoires manquants.

UC_ID_MISMATCH

SQLSTATE : 40001

Le <type> <name> n'a pas l'ID <wrongId>. Réessayez l’opération.

UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED

SQLSTATE : 53300

Trop de demandes de schéma d’informations pour le metastore. Patientez quelques minutes, puis réessayez. Si le problème persiste, envisagez d’ajuster la sélectivité de vos requêtes ou de contacter le support pour obtenir de l’aide.

UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION

SQLSTATE : 0AKUC

La table en ligne est déconseillée. L’acquisition de l’accès à la table <securableName> en ligne n’est plus prise en charge.

UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION

SQLSTATE : 0A000

Accès non valide à l’instance de base de données. <reason>

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE : 42501

L'accès <securableType> <securableName> est non valide dans le catalogue <catalogName> fédéré. <reason>

UC_INVALID_AZURE_PATH

SQLSTATE : 22KD1

Chemin d’accès Azure non valide : <path>

UC_INVALID_CLOUDFLARE_ACCOUNT_ID

SQLSTATE : 22023

ID de compte Cloudflare non valide.

UC_INVALID_CREDENTIAL_CLOUD

SQLSTATE : 42616

Le fournisseur de cloud d’identifiants «<cloud> » est invalide. Fournisseur de cloud autorisé «<allowedCloud> ».

UC_INVALID_CREDENTIAL_PURPOSE_VALUE

SQLSTATE : 42616

Valeur « <value> » de l’« objet » des informations d’identification non valide. Valeurs autorisées '<allowedValues>'.

UC_INVALID_CREDENTIAL_TRANSITION

SQLSTATE : 42616

Impossible de mettre à jour une connexion de <startingCredentialType> vers <endingCredentialType>. La seule transition valide provient d’une connexion basée sur le nom d’utilisateur/mot de passe à une connexion basée sur un jeton OAuth.

UC_INVALID_CRON_STRING_FABRIC

SQLSTATE : 22P02

Chaîne cron non valide. Trouvé : « <cronString> » avec l'erreur de parsing : « <message> »

UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE

SQLSTATE : 22023

Table managée d’accès direct <tableName> non valide. Vérifiez que la définition de la table source et du pipeline n’est pas définie.

UC_INVALID_EMPTY_STORAGE_LOCATION

SQLSTATE : 55000

Emplacement de stockage vide inattendu pour <securableType> «<securableName> » dans le catalogue «<catalogName> ». Pour corriger cette erreur, exécutez DESCRIBE SCHEMA <catalogName>. <securableName> et actualisez cette page.

UC_INVALID_OPTIONS_UPDATE

SQLSTATE : 42601

Options non valides fournies pour la mise à jour. Options non valides : <invalidOptions>. Options autorisées : <allowedOptions>.

UC_INVALID_OPTION_VALUE

SQLSTATE : 42616

Valeur non valide '<value>' pour '<option>'. Valeurs autorisées '<allowedValues>'.

UC_INVALID_OPTION_VALUE_EMPTY

SQLSTATE : 42616

'<option>' ne peut pas être vide. Entrez une valeur non vide.

UC_INVALID_POLICY_CONDITION

SQLSTATE : 42611

Condition non valide dans la stratégie « <policyName> ». Erreur de compilation avec le message «<message> ».

UC_INVALID_R2_ACCESS_KEY_ID

SQLSTATE : 22023

ID de clé d’accès R2 non valide.

UC_INVALID_R2_SECRET_ACCESS_KEY

SQLSTATE : 22023

Clé d’accès au secret R2 non valide.

UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE

SQLSTATE : 42501

Impossible de mettre à jour <securableType> '<securableName> car il appartient à un groupe interne. Pour plus d’informations, contactez le support Databricks.

UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL

SQLSTATE : 22023

Les identifiants de stockage <storageCredentialName> fournis ne sont pas associés à la racine DBFS, la création d'une Location externe 'wasbs' est interdite.

UC_LOCATION_INVALID_SCHEME

SQLSTATE : 22KD1

L’emplacement de stockage a un schéma d’URI non valide : <scheme>.

UC_MALFORMED_OAUTH_SERVER_RESPONSE

SQLSTATE : 58000

La réponse du serveur de jetons manquait le champ <missingField>. La réponse du serveur retourné est la suivante : <response>

UC_MANAGED_ICEBERG_UNSUPPORTED

SQLSTATE : 0AKUC

Impossible de gérer la table gérée d'Apache Iceberg sur le point de terminaison actuel.

UC_METASTORE_ASSIGNMENT_STATUS_INVALID

SQLSTATE : 22023

« <metastoreAssignmentStatus> » ne peut pas être affecté. Seuls MANUALLY_ASSIGNABLE et AUTO_ASSIGNMENT_ENABLED sont pris en charge.

UC_METASTORE_CERTIFICATION_NOT_ENABLED

SQLSTATE : 0A000

La certification metastore n’est pas activée.

UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS

SQLSTATE : non assigné

Le metastore <metastoreId> a <numberManagedOnlineCatalogs> géré des catalogues en ligne. Supprimez-les explicitement, puis réessayez la suppression du metastore.

UC_METASTORE_QUOTA_EXCEEDED

SQLSTATE : 53400

Ce compte avec ID <accountId> a atteint la limite pour les metastores dans la région <region>.

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE : 22023

Les informations d’identification racine du metastore ne peuvent pas être définies lors de la mise à jour de l’emplacement racine du metastore. Les informations d’identification sont extraites de l’emplacement externe parent du metastore.

UC_METASTORE_STORAGE_ROOT_DELETION_INVALID

SQLSTATE : 42501

Échec de la suppression de l’emplacement racine du stockage metastore. <reason>

UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID

SQLSTATE : 22023

La racine <securableType> d’un metastore ne peut pas être en lecture seule.

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID

SQLSTATE : 22023

La racine de stockage du metastore ne peut pas être mise à jour une fois qu’elle est définie.

UC_MODEL_INVALID_STATE

SQLSTATE : 55000

Impossible de générer des informations d’identification temporaires «<opName> » pour la version <modelVersion> du modèle avec l’état <modelVersionStatus>. Les informations d’identification '<opName>' ne peuvent être générées que pour les versions de modèle avec l’état <validStatus>

UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». Échec avec le message : la colonne «<usingCol> » a été masquée par la stratégie ABAC «<policyName> » et ne peut pas être utilisée comme entrée dans une stratégie RLS/CM native.

UC_NO_ORG_ID_IN_CONTEXT

SQLSTATE : 58000

Tentative d’accès à l’ID d’organisation (ou à l’ID de l’espace de travail), mais le contexte n’en a aucun.

UC_ONELAKE_PATH_BAD_DOMAIN

SQLSTATE : 22KD1

Le chemin d’accès Azure OneLake «<path> » doit avoir le nom de domaine «<expectedHost> ».

UC_ONELAKE_PATH_BAD_FORMAT

SQLSTATE : 22KD1

Le chemin d’accès Azure OneLake '<path>' doit être au format 'abfss ://_WORKSPACE_@<host>/'.

UC_ONELAKE_PATH_MISSING_AT

SQLSTATE : 22KD1

Le chemin d’accès Azure OneLake '<path>' ne contient pas '@'.

UC_ONELAKE_PATH_MISSING_WORKSPACE

SQLSTATE : 22KD1

Le chemin d’accès Azure OneLake «<path> » doit contenir un nom d’espace de travail.

UC_ONLINE_CATALOG_NOT_MUTABLE

SQLSTATE : non assigné

La demande <rpcName> met à jour <fieldName>. Utilisez l’onglet de calcul du magasin en ligne pour modifier autre chose que le commentaire, le propriétaire et l’isolationMode d’un catalogue en ligne.

UC_ONLINE_CATALOG_QUOTA_EXCEEDED

SQLSTATE : 53400

Impossible de créer plus que des magasins <quota> en ligne dans le metastore et il y a déjà <currentCount>. Vous n’avez peut-être pas accès à des magasins en ligne existants. Contactez l’administrateur de votre metastore pour obtenir un accès ou pour obtenir d’autres instructions.

UC_ONLINE_INDEX_CATALOG_INVALID_CRUD

SQLSTATE : non assigné

les catalogues d’index en ligne doivent être <action> via l’API /vector-search.

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE : non assigné

La demande <rpcName> met à jour <fieldName>. Utilisez l'API /vector-search pour modifier tout sauf le commentaire, le propriétaire et le mode d'isolation d'un catalogue d'index en ligne.

UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED

SQLSTATE : 53400

Impossible de créer plus que des catalogues d’index <quota> en ligne dans le metastore et il existe déjà <currentCount>. Vous n’avez peut-être pas accès à des catalogues d’index en ligne existants. Contactez l’administrateur de votre metastore pour obtenir un accès ou pour obtenir d’autres instructions.

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE : 0A000

les index en ligne doivent être <action> via l’API /vector-search.

UC_ONLINE_STORE_INVALID_CRUD

SQLSTATE : non assigné

les magasins en ligne doivent être <action> via l’onglet calcul du magasin en ligne.

UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG

SQLSTATE : 54000

Le nom de colonne <columnName> de la table source est trop long. La longueur maximale est de <maxLength> caractères.

UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE : 42P16

La <columnName> colonne ne peut pas être utilisée comme colonne clé primaire de la table en ligne, car elle ne fait pas partie de la contrainte existante PRIMARY KEY de la table source. Pour plus d’informations, consultez <docLink>

UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE : 42P16

La colonne <columnName> ne peut pas être utilisée comme clé de série chronologique de la table en ligne, car elle n’est pas une colonne timeseries de la contrainte existante PRIMARY KEY de la table source. Pour plus d’informations, consultez <docLink>

UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE : 53400

Impossible de créer plusieurs tables <quota> en ligne par table source.

UC_ONLINE_VIEW_ACCESS_DENIED

SQLSTATE : 0AKUC

L’accès à la ressource <resourceName> nécessite l’utilisation d’un entrepôt SQL serverless. Assurez-vous que l’entrepôt utilisé pour exécuter une requête ou afficher un catalogue de bases de données dans l’interface utilisateur est serverless. Pour plus d’informations, consultez <docLink>

UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED

SQLSTATE : 53400

Impossible de créer plus d’affichages <quota> en ligne continus dans le magasin en ligne, et il existe déjà <currentCount>. Vous n’avez peut-être pas accès à des vues en ligne existantes. Contactez l’administrateur de votre magasin en ligne pour obtenir un accès ou pour obtenir d’autres instructions.

UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK

SQLSTATE : non assigné

<tableKind> ne peut pas être créé sous l’emplacement de stockage avec des clés managées Databricks. Choisissez un autre schéma/catalogue dans un emplacement de stockage sans chiffrement des clés managées Databricks.

UC_ONLINE_VIEW_INVALID_CATALOG

SQLSTATE : 42809

Catalogue <catalogName> non valide avec un type <catalogKind> pour créer un <tableKind> à l’intérieur. <tableKind> ne peut être créé que dans des catalogues des types suivants : <validCatalogKinds>.

UC_ONLINE_VIEW_INVALID_SCHEMA

SQLSTATE : 42809

Schéma <schemaName> non valide avec le type <schemaKind> à créer <tableKind> . <tableKind> ne peut être créé que sous des schémas de types : <validSchemaKinds>.

UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE

SQLSTATE : 42809

La colonne <columnName> de type <columnType> ne peut pas être utilisée comme colonne de temps TTL. Les types autorisés sont <supportedTypes>.

UC_OPERATION_NOT_SUPPORTED

SQLSTATE : 0AKUC

Opération non prise en charge par le catalogue Unity. <detailedMessage>

UC_OUT_OF_AUTHORIZED_PATHS_SCOPE

SQLSTATE : 22023

Erreur de chemin d’accès autorisé. L’emplacement <securableType><location> n’est pas défini dans les chemins d’accès autorisés pour le catalogue : <catalogName>. Demandez au propriétaire du catalogue d’ajouter le chemin d’accès à la liste des chemins autorisés définis sur le catalogue.

UC_OVERLAPPED_AUTHORIZED_PATHS

SQLSTATE : 22023

L’option « authorized_paths » contient des chemins qui se chevauchent : <overlappingPaths>. Vérifiez que chaque chemin d’accès est unique et qu’il ne se croise pas avec d’autres personnes dans la liste.

UC_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE : 22023

L’argument de requête '<arg>' est défini sur '<received>' qui est différent de la valeur utilisée dans le premier appel de pagination (''<expected>)

UC_PATH_FILTER_ALLOWLIST_VIOLATION

SQLSTATE : 42501

Les informations d’identification «<credentialName> » sont des informations d’identification par défaut de l’espace de travail qui sont uniquement autorisées à accéder aux données dans les chemins suivants : «<allowlist> ». Vérifiez que tout chemin accessible à l’aide de ces informations d’identification se trouve sous l’un de ces chemins.

VIOLATION_DE_LISTE_NOIRE_FILTRAGE_CHEMIN_UC

SQLSTATE : 42501

Les informations d’identification «<credentialName> » sont des informations d’identification par défaut de l’espace de travail qui ne peuvent pas accéder aux données dans le chemin restreint suivant : «<targetPath> ».

UC_PATH_TOO_LONG

SQLSTATE : 54000

Le chemin d’accès d’entrée est trop long. Longueur autorisée : <maxLength>. Longueur d’entrée : <inputLength>. Entrée : <path>...

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE : 54000

Limite de concurrence dépassée pour le metastore <metastoreId>. Réessayez plus tard. Si le problème persiste, contactez le support technique. Code d’erreur #UC-<errorCodeArbitraryFiveLettersUpperCase>

UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE : 53400

Impossible de créer plus de <quota> tables de base de données synchronisées pour chaque table source.

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE : 42831

Impossible de créer la clé primaire <constraintName> car la colonne enfant <childColumnNames> est nullable. Modifiez la valeur nullabilité de la colonne et réessayez.

LIMITE_DE_DEMANDE_UC_DÉPASSÉE

SQLSTATE : 53400

Votre demande a été rejetée, car votre organisation a dépassé la limite de débit. Réessayez votre demande ultérieurement.

UC_REQUEST_TIMEOUT

SQLSTATE : 57KD0

Cette opération a pris trop de temps.

UC_RESOURCE_QUOTA_EXCEEDED

SQLSTATE : 53400

Impossible de créer <amount> <resourceType>(s) dans <parentResourceType> <parentResourceId> (nombre estimé : <currentCount>, limite : <quotaLimit>).

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE : 22KD1

Le nom du compartiment S3 de stockage racine contenant des points n’est pas pris en charge par le catalogue Unity : <uri>

UC_SCHEMA_EMPTY_STORAGE_LOCATION

SQLSTATE : 22KD1

Emplacement de stockage vide inattendu pour le schéma '<schemaName>' dans le catalogue '<catalogName>'. Vérifiez que le schéma utilise un schéma de chemin d’accès de <validPathSchemesListStr>.

UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING

SQLSTATE : 42501

Les notebooks Python et Scala serverless sont interdits de récupérer des informations d’identification de stockage temporaires à partir du catalogue Unity dans les espaces de travail à accès réseau restreint.

UC_SHALLOW_CLONE_BASE_TABLE_DELETED

SQLSTATE : 42S02

Impossible d’accéder au clone peu profond '<tableFullName>' car sa table de base '<baseTableName>' a été supprimée.

UC_AVEC_SUPPRESSION_DE_LIEU_EXTERNE_REFUSÉE

SQLSTATE : 42893

Les informations d’identification de stockage «<credentialName> » dépendent <extTablesCount> directement des tables externes et <extLocationsCount> des emplacements de stockage dépendants. Vous pouvez utiliser l'option de forçage pour le supprimer, mais les données de stockage gérées via ces identifiants de stockage ne peuvent plus être supprimées par Unity Catalog.

STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_UPDATE_DENIED

SQLSTATE : 42893

Les informations d’identification de stockage «<credentialName> » dépendent <extTablesCount> directement des tables externes et <extLocationsCount> des emplacements de stockage dépendants ; utilisez l’option forcer la mise à jour de toute façon.

UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE : 22KD1

Échec de l’analyse de l’ID de connecteur d’accès fourni : <accessConnectorId>. Vérifiez sa mise en forme et réessayez.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE : 42501

Impossible de créer des informations d’identification de stockage pour la racine DBFS, car l’utilisateur : <userId> n’est pas l’administrateur de l’espace de travail : <workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE : 0AKUC

Les informations d’identification de stockage racine DBFS ne sont pas encore prises en charge pour les espaces de travail avec DBFS avec pare-feu

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE : 0A000

Les identifiants de stockage racine DBFS pour cet espace de travail ne sont pas encore pris en charge.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE : 0A000

La racine DBFS n’est pas activée pour l’espace de travail <workspaceId>

UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE : 58000

Échec de l’obtention d’un jeton AAD pour effectuer la validation des autorisations cloud sur un connecteur d’accès. Réessayez l’action.

UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE : 42501

L’enregistrement d'identifiants de stockage nécessite le rôle de contributeur sur le connecteur d’accès correspondant avec l’ID <accessConnectorId>. Veuillez contacter votre administrateur de compte.

REFUS_DE_SUPPRESSION_RACINE_METASTORE_IDENTIFIANT_DE_STORAGE

SQLSTATE : 55000

Les informations d’identification de stockage «<credentialName> » ne peuvent pas être supprimées, car elles sont configurées comme informations d’identification racine de ce metastore. Mettez à jour les informations d’identification racine du metastore avant de tenter de supprimer.

UC_STORAGE_CREDENTIAL_PERMISSION_DENIED

SQLSTATE : 42501

Seul l’administrateur de compte peut créer ou mettre à jour des informations d’identification de stockage avec le type <storageCredentialType>.

UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN

SQLSTATE : 42KDI

Jeton de validation manquant pour le principal de service. Fournissez un jeton Entra ID d’étendue ARM valide dans l’en-tête de la requête « X-Databricks-Azure-SP-Management-Token » et réessayez. Pour plus d’informations, consultez https://docs.databricks.com/api/workspace/storagecredentials

UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE : 22023

La stratégie d’approbation du rôle IAM pour permettre au compte Databricks d’assumer le rôle doit nécessiter un ID externe. Contactez l’administrateur de votre compte pour ajouter la condition d’ID externe. Ce comportement consiste à se protéger contre le problème du député confus (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE : 22KD1

L’emplacement <location> n’est pas à l’intérieur de la racine DBFS, car nous ne pouvons pas créer d’informations d’identification de stockage <storageCredentialName>

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE : 0AKD1

Il n'est pas possible de créer ou de mettre à jour des identifiants de stockage pour un administrateur qui n'est pas au niveau du compte dans l'API au niveau du compte. Utilisez plutôt l’API au niveau de l’espace de travail.

UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION

SQLSTATE : 22KD1

L’emplacement <requestedLocation> n’est pas à l’intérieur du contexte autorisé <allowedLocation>

UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED

SQLSTATE : 56038

Les informations d’identification de stockage de catalogue interne à l’espace de travail de l’espace de travail actuel ne sont pas encore prises en charge

UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT

SQLSTATE : 57P03

Le schéma système <systemSchema> n'est actuellement pas disponible pour l'activation ou la mise en service. Réessayez plus tard.

UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE : 22023

Impossible d’accorder des privilèges sur <securableType> au groupe <principal> généré par le système.

UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION

SQLSTATE : 55000

La table «<tableId> » est temporairement verrouillée pour une migration de table gérée par le catalogue. Les transactions de cette table sont bloquées jusqu’à la fin de la migration. Réessayez votre transaction sous peu.

UC_TABLE_IS_NOT_CATALOG_OWNED

SQLSTATE : 0A000

La requête d’exécution de commit/getCommits sur la table « <tableId> » nécessite l’activation de la fonctionnalité appartenant au catalogue sur la table.

UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST

SQLSTATE : 42704

L’attribution d’étiquettes avec la clé d’étiquette <tagKey> n’existe pas

UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED

SQLSTATE : 0A000

L’opération d’informations d'identification temporaire n’est pas prise en charge.

UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS

SQLSTATE : 42710

Impossible de supprimer '<resourceType>' car un '<resourceType>' avec l’ID '<resourceId>' existe déjà.

UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS

SQLSTATE : 42710

Impossible de rétablir '<resourceType>' car un '<resourceType>' portant le nom '<resourceName>' existe déjà.

UC_UNDROP_RESOURCE_NOT_READY

SQLSTATE : 55000

Impossible de supprimer «<resourceType> » car le «<resourceType> » avec l’ID «<resourceId> » n’est pas prêt à être restauré, réessayez ultérieurement.

UC_UNDROP_RESOURCE_PAST_CUSTOM_RETENTION_PERIOD

SQLSTATE : 55019

Impossible de supprimer '<resourceType> car le '<resourceType>' avec l’ID '<resourceId>' dépasse sa période de restauration personnalisée.

UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW

SQLSTATE : 55019

Impossible de restaurer « <resourceType> » car le « <resourceType> » avec un ID « <resourceId> » dépasse la période de restauration prise en charge de « <maxRestorationPeriodDay> » jours.

UC_CONTRAINTE_UNIQUE_COLONNES_ENFANT_EXISTENT_DÉJÀ

SQLSTATE : 42891

Impossible de créer UNIQUE une contrainte <newConstraintName>: la table <tableName> a déjà une contrainte UNIQUE : <existingConstraintName>, qui a le même jeu de colonnes enfants.

UC_CONTRAINTE_UNIQUE_NON_PRIS_EN_CHARGE

SQLSTATE : 56038

Échec d'opération avec la contrainte UNIQUE<constraintName>: la contrainte UNIQUE n'est pas activée.

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE : 22KD1

Chemin d’accès de base non valide fourni, le chemin d’accès de base doit être similaire à /api/resources/v1. Chemin d’accès non pris en charge : <path>

UC_UNSUPPORTED_HTTP_CONNECTION_HOST

SQLSTATE : 22KD1

Nom d’hôte non valide fourni, le nom d’hôte devrait être similaire à https://www.databricks.com sans suffixe de chemin d'accès. Hôte non pris en charge : <host>

UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE : 22KD1

Seuls les caractères Latin/Latin-1 ASCII de base sont pris en charge dans les chemins d’accès emplacement/volume/table externes. Chemin d’accès non pris en charge : <path>

UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE

SQLSTATE : 55019

Impossible de mettre à jour <securableType> '<securableName>' car il est en cours de provisionnement.

UC_UTILISATION_REF_DE_COLONNES_MASQUÉES

SQLSTATE : 42KDJ

Erreur lors de l’évaluation des politiques ABAC sur « <resource> ». Échec avec le message : la colonne « <usingCol> » a été masquée par la politique ABAC « <existingMaskingPolicy> » et ne peut pas être utilisée dans la politique « <policyName> ».

UC_WRITE_CONFLICT

SQLSTATE : 40001

L’objet <type> <name> a été modifié par une autre requête. Réessayez l’opération.

UNDROP_TABLE_NOT_FOUND

SQLSTATE : 42704

Il est impossible de restaurer la table, car aucune table portant le nom <tableFullName> ne peut être restaurée. Cette table pourrait être déjà restaurée, supprimée au-delà de la période de restauration maximale, ou bien n’a jamais existé.

UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED

SQLSTATE : 42517

La demande d’exécution de commit/getCommits pour la table «<tableId> » en dehors de Databricks Unity Catalog est refusée pour la sécurité. Contactez le support Databricks pour les intégrations avec Unity Catalog.

UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED

SQLSTATE : 42517

La demande de création d’une table intermédiaire «<tableFullName> » en dehors de l’environnement de calcul compatible databricks Unity Catalog est refusée pour la sécurité. Contactez le support Databricks pour les intégrations avec Unity Catalog.

COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED

SQLSTATE : 42517

La demande de création d’une table «<tableFullName> » en dehors de l’environnement de calcul compatible databricks Unity Catalog est refusée. Les masques de colonne ne sont pas pris en charge lors de la création de tables de manière externe.

ÉCHEC DE CRÉATION DE TABLE EXTERNE DANS UNITY_CATALOG - VALIDATION ÉCHOUÉE: LE FORMAT DE LA SOURCE DE DONNÉES N'EST PAS DELTA

SQLSTATE : 42517

La demande de création d’une table «<tableFullName> » en dehors de l’environnement de calcul compatible databricks Unity Catalog est refusée. Le format de source de données doit être DELTA pour créer une table en externe, sinon, c'est '<dataSourceFormat>'.

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL

SQLSTATE : 42517

La demande de création d’une table «<tableFullName> » en dehors de l’environnement de calcul compatible databricks Unity Catalog est refusée. Le type de table doit être EXTERNAL pour créer une table à l'extérieur, mais il est «<tableType>».

Informations de création de table externe de UNITY_CATALOG contiennent des champs invalides (UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_CONTAINS_INVALID_FIELDS)

SQLSTATE : 22023

La création de tables externes autorise uniquement ces champs : [nom, catalog_name, schema_name, table_type, data_source_format, colonnes, storage_location et propriétés].

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE : 42517

La demande de création d’une table non externe «<tableFullName> » en dehors de l’environnement de calcul compatible databricks Unity Catalog est refusée pour la sécurité. Contactez le support Databricks pour les intégrations avec Unity Catalog.

UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE : 42517

La demande de suppression d’une table non externe «<tableFullName> » en dehors de l’environnement de calcul compatible databricks Unity Catalog n’est pas prise en charge.

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE : 42517

La demande de génération d’informations d’identification d’accès pour le chemin d’accès «<path> » depuis l’extérieur de l’environnement de calcul activé par le catalogue Unity de Databricks est refusée pour des raisons de sécurité. Contactez le support Databricks pour les intégrations avec Unity Catalog.

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED

SQLSTATE : 42517

La demande de génération d’informations d’identification d’accès pour la table «<tableId> » à partir de l’extérieur de l’environnement de calcul activé par Databricks Unity Catalog est refusée pour des raisons de sécurité. Contactez le support Databricks pour les intégrations avec Unity Catalog.

UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED

SQLSTATE : 42517

La demande de générer des informations d'identification de chemin d'accès temporaire en dehors de l'environnement de calcul compatible avec Databricks Unity Catalog est refusée. L'ID d'identifiants ne doit pas être défini lors de la génération externe d'identifiants temporaires.

UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED

SQLSTATE : 42517

La demande de générer des informations d'identification de chemin d'accès temporaire en dehors de l'environnement de calcul compatible avec Databricks Unity Catalog est refusée. make_path_only_parent ne doit pas être défini lors de la génération d’identifiants de chemin temporaires en externe.

CREDENTIELS_VOLUME_UNITY_CATALOG_EXTERNE_GÉNÉRATION_REFUSÉE

SQLSTATE : 42517

La demande de génération d’informations d’identification d’accès pour le volume «<volumeId> » en dehors de l’environnement de calcul compatible databricks Unity Catalog est refusée pour la sécurité. Contactez le support Databricks pour les intégrations avec Unity Catalog.

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE : 0AKUC

La demande de génération d’informations d’identification d’accès pour «<volumeSecurableKind> » à partir de l’extérieur du Databricks Unity Catalog est refusée pour des raisons de sécurité. Contactez le support Databricks pour les intégrations avec Unity Catalog.

UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED

SQLSTATE : 42517

La demande d’obtention d’informations d’identification étrangères pour les éléments sécurisables à partir de l’extérieur de Databricks Unity Catalog est refusée pour la sécurité.

UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED

SQLSTATE : 42517

La demande de mise à jour des captures instantanées de métadonnées en dehors de l’environnement de calcul compatible databricks Unity Catalog est refusée pour la sécurité.

SCHÉMA_EMPLACEMENT_NON_PRIS_EN_CHARGE

SQLSTATE : 22KD1

<fieldName> a un schéma <scheme>d’URI non valide. Les schémas d’URI valides incluent <validSchemes>. Chemin d’accès non valide : <path>.

UPDATE_SYSTEM_TABLE

SQLSTATE : 42501

Impossible de modifier la table détenue par le système. La table '<tableName>' est une table appartenant au système.

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE

SQLSTATE : 0AKUC

Requête pour obtenir des autorisations d’écriture dans une table en ligne managée dans un catalogue en ligne non valide.

API Fichiers

FILES_API_API_IS_NOT_ENABLED

SQLSTATE : non assigné

<api_name> L’API n’est pas activée

FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS

SQLSTATE : non assigné

La méthode demandée de l’API Files n’est pas prise en charge pour les chemins d’accès cloud

FILES_API_AWS_ACCESS_DENIED

SQLSTATE : non assigné

L’accès au compartiment de stockage est refusé par AWS.

FILES_API_AWS_ALL_ACCESS_DISABLED

SQLSTATE : non assigné

Tout l’accès au compartiment de stockage a été désactivé dans AWS.

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE : non assigné

Le compartiment de stockage n’existe pas dans AWS.

FILES_API_AWS_FORBIDDEN

SQLSTATE : non assigné

L’accès au compartiment de stockage est interdit par AWS.

FILES_API_AWS_INVALID_AUTHORIZATION_HEADER

SQLSTATE : non assigné

L’espace de travail est mal configuré : il doit se trouver dans la même région que le compartiment de stockage racine de l’espace de travail AWS.

FILES_API_AWS_INVALID_BUCKET_NAME

SQLSTATE : non assigné

Le nom du compartiment de stockage n’est pas valide.

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE : non assigné

Les clés KMS configurées pour accéder au compartiment de stockage sont désactivées dans AWS.

FILES_API_AWS_UNAUTHORIZED

SQLSTATE : non assigné

L’accès à la ressource AWS n’est pas autorisé.

FILES_API_AZURE_ACCOUNT_IS_DISABLED

SQLSTATE : non assigné

Le compte de stockage est désactivé dans Azure.

FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH

SQLSTATE : non assigné

Incompatibilité des autorisations.

FILES_API_AZURE_CMK_NOT_FOUND

SQLSTATE : non assigné

La clé de chiffrement managée est introuvable.

FILES_API_AZURE_CMK_SOFT_DELETED

SQLSTATE : non assigné

La clé de chiffrement managée a été supprimée de manière réversible.

FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST

SQLSTATE : non assigné

Le conteneur Azure n’existe pas.

INFORMATION D'IDENTIFICATION AZURE NON TROUVÉE POUR FILES_API

SQLSTATE : non assigné

Informations d’identification Azure introuvables. Les informations d’identification Azure peuvent être manquantes ou inaccessibles.

FILES_API_AZURE_FORBIDDEN

SQLSTATE : non assigné

L’accès au conteneur de stockage est interdit par Azure.

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE : non assigné

Azure a répondu qu’il existe actuellement un bail sur la ressource. Réessayez plus tard.

FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION

SQLSTATE : non assigné

Le compte accessible ne dispose pas des autorisations suffisantes pour exécuter cette opération.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION

SQLSTATE : non assigné

La configuration du compte en cours d’accès n’est pas prise en charge.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE : non assigné

Impossible d’accéder au compte de stockage dans Azure : nom de compte de stockage non valide.

FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED

SQLSTATE : non assigné

Le coffre de clés est introuvable dans Azure. Vérifiez les paramètres de vos clés gérées par le client.

FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND

SQLSTATE : non assigné

La clé du coffre de clés Azure est introuvable dans Azure. Vérifiez les paramètres de vos clés gérées par le client.

FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND

SQLSTATE : non assigné

Le coffre de clés est introuvable dans Azure. Vérifiez les paramètres de vos clés gérées par le client.

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND

SQLSTATE : non assigné

Informations d’identification d’identité managée Azure avec access Connector introuvables. Cela peut être dû au fait que les contrôles d’accès IP ont rejeté votre demande.

FILES_API_AZURE_OPERATION_TIMEOUT

SQLSTATE : non assigné

Impossible d'exécuter l'opération dans le temps imparti.

FILES_API_AZURE_PATH_INVALID

SQLSTATE : non assigné

Le chemin demandé n’est pas valide pour Azure.

FILES_API_AZURE_PATH_IS_IMMUTABLE

SQLSTATE : non assigné

Le chemin demandé est immuable.

FILES_API_AZURE_UNSUPPORTED_HEADER

SQLSTATE : non assigné

L’un des en-têtes spécifiés dans l’opération n’est pas pris en charge.

FILES_API_CANNOT_PARSE_URL_PARAMETER

SQLSTATE : non assigné

Impossible d’analyser le paramètre d’URL.

FILES_API_CATALOG_NOT_FOUND

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_CLOUD_RESOURCE_EXHAUSTED

SQLSTATE : non assigné

<message>

FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE

SQLSTATE : non assigné

Il y a un problème de connexion pour atteindre <cloud_storage_provider>. Réessayez plus tard.

FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH

SQLSTATE : non assigné

Caractère « : » non pris en charge dans les chemins

FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE : non assigné

La zone réseau du consommateur «<consumer_network_zone> » n’est pas autorisée à partir de la zone réseau du demandeur «<requester_network_zone> ».

FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE : non assigné

Zone réseau du plan de contrôle Databricks non autorisée.

FILES_API_CREDENTIAL_NOT_FOUND (Identifiant API de fichier introuvable)

SQLSTATE : non assigné

Les informations d’identification n’ont pas été trouvées.

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE : non assigné

Un corps a été fourni, mais les répertoires ne peuvent pas avoir de corps de fichier

FILES_API_DIRECTORY_IS_NOT_EMPTY

SQLSTATE : non assigné

Le répertoire n’est pas vide. Cette opération n’est pas prise en charge sur les répertoires non vides.

FILES_API_DIRECTORY_IS_NOT_FOUND

SQLSTATE : non assigné

Le répertoire accessible est introuvable.

LIMITE_DE_FICHIERS_TÉLÉCHARGEMENT_ZIP_RÉPERTOIRE_API_DÉPASSÉ

SQLSTATE : non assigné

Le répertoire contient trop de fichiers pour le téléchargement ZIP. Nombre maximal de <max_file_count> fichiers autorisés.

FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED

SQLSTATE : non assigné

La clé racine du chiffrement géré par le client est désactivée.

FILES_API_DUPLICATED_HEADER

SQLSTATE : non assigné

La demande contenait plusieurs copies d’un en-tête qui n’est autorisé qu’une seule fois.

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE : non assigné

Le paramètre de requête '<parameter_name>' doit être présent exactement une fois, mais a été fourni plusieurs fois.

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE : non assigné

Le nom du compartiment DBFS est vide.

FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED

SQLSTATE : non assigné

L’utilisateur n’a pas accès à la clé de chiffrement.

FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT

SQLSTATE : non assigné

L’opération de récupération de la clé de chiffrement n’a pas pu être effectuée dans le délai autorisé.

FILES_API_ENTITY_TOO_LARGE

SQLSTATE : non assigné

Votre objet dépasse la taille maximale autorisée de l’objet.

FILES_API_ERROR_EXPIRED_TTL

SQLSTATE : non assigné

Le TTL a expiré.

FILES_API_ERROR_INVALID_TTL

SQLSTATE : non assigné

Le TTL n'est pas valide.

FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND

SQLSTATE : non assigné

La clé de l’espace de travail est introuvable.

FILES_API_ERROR_MISSING_REQUIRED_PARAM

SQLSTATE : non assigné

L'URL manque d'un paramètre requis.

FILES_API_ERROR_TTL_IN_THE_FUTURE

SQLSTATE : non assigné

TTL dans le futur.

FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME

SQLSTATE : non assigné

Nom de partition de l’émetteur non valide.

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE : non assigné

l’heure d’expiration doit être présente

FILES_API_EXPIRED_TOKEN

SQLSTATE : non assigné

Le jeton fourni a expiré.

FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE

SQLSTATE : non assigné

ExpireTime doit être à l’avenir

FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE

SQLSTATE : non assigné

La durée de vie demandée (TTL) est supérieure à celle supportée (1 heure).

FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE : non assigné

Le fichier en cours de création existe déjà.

FILES_API_FILE_NOT_FOUND

SQLSTATE : non assigné

Le fichier accessible est introuvable.

FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT

SQLSTATE : non assigné

Les fichiers ou répertoires se terminant par le caractère « . » ne sont pas pris en charge.

FILES_API_FILE_SIZE_EXCEEDED

SQLSTATE : non assigné

La taille du fichier ne doit pas dépasser <max_download_size_in_bytes> octets, mais <size_in_bytes> octets ont été trouvés.

FILES_API_GCP_ACCOUNT_IS_DISABLED

SQLSTATE : non assigné

L’accès au compartiment de stockage a été désactivé dans GCP.

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE : non assigné

Le compartiment de stockage n’existe pas dans GCP.

FILES_API_GCP_FORBIDDEN

SQLSTATE : non assigné

L’accès au compartiment est interdit par GCP.

FILES_API_GCP_IAM_ÉCHEC_D'AUTHENTIFICATION

SQLSTATE : non assigné

L’authentification a échoué pour l’opération IAM GCP.

FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND

SQLSTATE : non assigné

Les informations d’identification GCP spécifiées n’existent pas ou ne sont pas accessibles.

FILES_API_GCP_IAM_PERMISSION_REFUSÉ

SQLSTATE : non assigné

Autorisation refusée pour l’opération IAM GCP.

FILES_API_GCP_KEY_DELETED

SQLSTATE : non assigné

La clé de chiffrement a été supprimée ou n’est plus accessible.

FILES_API_GCP_KEY_DISABLED_OR_DESTROYED

SQLSTATE : non assigné

La clé de chiffrement gérée par le client configurée pour cet emplacement est désactivée ou détruite.

FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY

SQLSTATE : non assigné

Les demandes BPC adressées au compartiment sont interdites par la stratégie, vérifiez les contrôles du service VPC.

PROBLÈME_DE_COMPTE_DE_PROJET_UTILISATEUR_API_FICHIERS_GCP

SQLSTATE : non assigné

Il existe un problème avec le projet GCP utilisé dans la demande qui empêche l’opération de se terminer correctement.

FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE

SQLSTATE : non assigné

L’hôte du fournisseur de cloud n’est pas disponible temporairement ; réessayez plus tard.

FILES_API_INVALID_CONTENT_LENGTH

SQLSTATE : non assigné

La valeur de l’en-tête de longueur de contenu doit être un entier supérieur ou égal à 0.

FILES_API_INVALID_CONTINUATION_TOKEN

SQLSTATE : non assigné

Le jeton de page fourni n’est pas valide.

Valeur de l'en-tête non valide dans l'API des fichiers

SQLSTATE : non assigné

La valeur de l’en-tête '<header_name>' n’est pas valide.

FILES_API_INVALID_HOSTNAME

SQLSTATE : non assigné

Le nom d’hôte n’est pas valide.

FILES_API_INVALID_HTTP_METHOD

SQLSTATE : non assigné

Méthode http non valide. « <expected> » attendue, « <actual> » reçue.

FILES_API_INVALID_METASTORE_ID_HEADER

SQLSTATE : non assigné

L’en-tête d’ID du metastore n’est pas valide.

FILES_API_INVALID_PAGE_TOKEN

SQLSTATE : non assigné

jeton de page non valide

FILES_API_INVALID_PATH

SQLSTATE : non assigné

Chemin d’accès non valide : <validation_error>

FILES_API_INVALID_RANGE

SQLSTATE : non assigné

L’en-tête de plage n’est pas valide.

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_INVALID_SESSION_TOKEN

SQLSTATE : non assigné

Jeton de session non valide

FILES_API_INVALID_SESSION_TOKEN_TYPE

SQLSTATE : non assigné

Type de jeton de session non valide. « <expected> » attendue, « <actual> » reçue.

FILES_API_INVALID_TIMESTAMP

SQLSTATE : non assigné

L’horodatage n’est pas valide.

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE : non assigné

Type de chargement non valide. « <expected> » attendue, « <actual> » reçue.

FILES_API_INVALID_URL

SQLSTATE : non assigné

URL non valide

FILES_API_INVALID_URL_PARAMETER

SQLSTATE : non assigné

L’URL passée en tant que paramètre n’est pas valide

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER

SQLSTATE : non assigné

Le paramètre de la requête « overwrite » doit être défini sur true ou false, mais il est défini sur : <got_values>

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE : non assigné

Le paramètre de requête '<parameter_name>' doit être l’un des suivants : <expected> mais était : <actual>

FILES_API_MALFORMED_REQUEST_BODY

SQLSTATE : non assigné

Corps de la demande malformé

FILES_API_MANAGED_CATALOG_FEATURE_DISABLED

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE

SQLSTATE : non assigné

La méthode demandée de l’API Files n’est pas prise en charge pour le stockage d’artefacts de calcul en arrière-plan des travaux.

FILES_API_MISSING_CONTENT_LENGTH

SQLSTATE : non assigné

L’en-tête de longueur de contenu est requis dans la requête.

FILES_API_MISSING_QUERY_PARAMETER

SQLSTATE : non assigné

Le paramètre de requête '<parameter_name>' est requis, mais il est manquant dans la requête.

FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST

SQLSTATE : non assigné

Un paramètre requis est manquant dans la requête.

FILES_API_MLFLOW_PERMISSION_DENIED

SQLSTATE : non assigné

<mlflow_error_message>

FILES_API_MLFLOW_RESOURCE_EXHAUSTED

SQLSTATE : non assigné

Limite de requêtes dépassée lors de l'interaction avec le service mlflow.

FILES_API_MODEL_VERSION_IS_NOT_READY

SQLSTATE : non assigné

La version du modèle n’est pas encore prête

FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED

SQLSTATE : non assigné

Les URL présignées pour l’abandon des chargements en plusieurs parties ne sont pas prises en charge pour les fichiers stockés sur <cloud_storage_provider>.

L'abandon du téléversement à plusieurs parties par FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED n'est pas pris en charge.

SQLSTATE : non assigné

L'annulation des téléchargements multipartites n'est pas prise en charge pour les fichiers stockés sur <cloud_storage_provider>.

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE : non assigné

La liste des parties doit avoir au moins un élément, mais elle a été vide.

FILES_API_MULTIPART_UPLOAD_INVALID_PART

SQLSTATE : non assigné

Impossible de trouver une ou plusieurs des parties spécifiées. Le composant n’a peut-être pas été chargé, ou la balise d’entité spécifiée peut ne pas correspondre à la balise d’entité du composant.

FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER

SQLSTATE : non assigné

Les nombres de parties doivent être supérieurs ou égaux à <min> et inférieurs ou égaux à <max>.

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE : non assigné

Les ETags doivent être fournis pour les fichiers stockés sur <cloud_storage_provider>. Au moins un ETag n’a pas été fourni ou vide.

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE : non assigné

L’état interne de l’entité de stockage a été modifié depuis le lancement du chargement, par exemple, car le chemin d’accès au fichier ne pointe pas vers le même emplacement de stockage cloud sous-jacent. Poursuivez en lançant une nouvelle session de chargement.

FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES

SQLSTATE : non assigné

Les parties chargées dans le cadre d’une session de chargement multipart doivent être de la même taille pour les fichiers stockés sur <cloud_storage_provider>, à l’exception de la dernière partie qui peut être plus petite.

FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE

SQLSTATE : non assigné

La taille des parties chargées dans le cadre d’une session de chargement multipart doit être supérieure ou égale à <min> et inférieure ou égale à <max>.

FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND

SQLSTATE : non assigné

La session de chargement est introuvable. Elle a peut-être été abandonnée ou terminée.

FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST

SQLSTATE : non assigné

La liste du composant doit être triée par le numéro de partie, mais elle n’a pas été triée.

FILES_API_NON_ZERO_CONTENT_LENGTH

SQLSTATE : non assigné

L'en-tête Content-Length doit être zéro pour cette requête.

FILES_API_NOT_ENABLED_FOR_PLACE

SQLSTATE : non assigné

API Fichiers pour <place> n'est pas activée pour cet espace de travail/compte

FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE

SQLSTATE : non assigné

La méthode demandée de l’API Files n’est pas prise en charge pour le stockage d’espace de travail interne

FILES_API_OPERATION_MUST_BE_PRESENT

SQLSTATE : non assigné

Une opération doit être présente

FILES_API_OPERATION_TIMEOUT

SQLSTATE : non assigné

L’opération a expiré.

FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO

SQLSTATE : non assigné

page_size doit être supérieur ou égal à 0

ACCÈS BASÉ SUR LE CHEMIN API FICHIERS À LA TABLE AVEC FILTRE NON AUTORISÉ

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_PATH_END_WITH_A_SLASH

SQLSTATE : non assigné

Les chemins se terminant par le caractère « / » représentent des répertoires. Cette API ne prend pas en charge les opérations sur les répertoires.

FILES_API_PATH_IS_A_DIRECTORY

SQLSTATE : non assigné

Le chemin d’accès donné pointe vers un répertoire existant. Cette API ne prend pas en charge les opérations sur les répertoires.

FILES_API_PATH_IS_A_FILE

SQLSTATE : non assigné

Le chemin d’accès donné pointe vers un fichier existant. Cette API ne prend pas en charge les opérations sur les fichiers.

FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL

SQLSTATE : non assigné

le chemin donné n’était pas une URL encodée UTF-8 valide

FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY

SQLSTATE : non assigné

Le chemin d’accès donné n’est pas activé pour le proxy de plan de données

FILES_API_PATH_MUST_BE_PRESENT

SQLSTATE : non assigné

le chemin d’accès doit être présent

FILES_API_PATH_NOT_SUPPORTED

SQLSTATE : non assigné

<rejection_message>

FILES_API_PATH_TOO_LONG

SQLSTATE : non assigné

Le chemin d’accès du fichier fourni est trop long.

FILES_API_PRECONDITION_FAILED

SQLSTATE : non assigné

La demande a échoué en raison d’une condition préalable.

FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED

SQLSTATE : non assigné

L’API Fichiers pour les URL présignées pour les modèles n’est pas prise en charge pour le moment

FILES_API_R2_CREDENTIALS_DISABLED

SQLSTATE : non assigné

R2 n’est pas pris en charge pour le moment.

FILES_API_RANGE_NOT_SATISFIABLE

SQLSTATE : non assigné

La plage demandée n’est pas satisfaisante.

FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED

SQLSTATE : non assigné

La liste récursive des fichiers n’est pas prise en charge.

FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN

SQLSTATE : non assigné

Impossible de déduire la zone réseau du demandeur.

FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY

SQLSTATE : non assigné

La demande a été routée de manière incorrecte

FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION

SQLSTATE : non assigné

La demande doit inclure des informations de compte

LA_REQUÊTE_API_FICHIERS_DOIT_INCLURE_DES_INFORMATIONS_DU_DESTINATAIRE

SQLSTATE : non assigné

La demande doit inclure des informations sur le destinataire.

FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION

SQLSTATE : non assigné

La demande doit inclure des informations utilisateur

FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION

SQLSTATE : non assigné

La demande doit inclure des informations sur l’espace de travail

FILES_API_RESOURCE_IS_READONLY

SQLSTATE : non assigné

La ressource est en lecture seule.

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_SECURE_URL_CANT_BE_ACCESSED

SQLSTATE : non assigné

L’URL n’est pas accessible.

FILES_API_SIGNATURE_VERIFICATION_FAILED

SQLSTATE : non assigné

Échec de la vérification de la signature.

CONTEXTE_ACCÈS_STOCKAGE_API_FICHIERS_INVALIDE

SQLSTATE : non assigné

Le contexte d’accès au stockage n’est pas valide.

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE : non assigné

La configuration du stockage pour cet espace de travail n’est pas accessible.

FILES_API_STORAGE_CREDENTIAL_NOT_FOUND

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE : non assigné

L’API Fichiers n’est pas prise en charge pour <table_type>

FILES_API_UC_AUTHENTICATION_FAILURE

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_UC_MODEL_INVALID_STATE

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_UC_PERMISSION_DENIED

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE : non assigné

<message>

FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE : non assigné

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE : non assigné

<unity_catalog_error_message>

INCIDENT_FICHIERS_API_IMPOSSIBLE_DE_RENOUVELER_LES_IDENTITÉS_MANAGÉES_AZURE

SQLSTATE : non assigné

Impossible de renouveler l’identité managée Azure.

FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI

SQLSTATE : non assigné

Erreur inattendue lors de l’analyse de l’URI

FILES_API_UNEXPECTED_QUERY_PARAMETERS

SQLSTATE : non assigné

Paramètres de requête inattendus : <unexpected_query_parameters>

FILES_API_UNKNOWN_METHOD

SQLSTATE : non assigné

Méthode inconnue <method>

FILES_API_UNKNOWN_SERVER_ERROR

SQLSTATE : non assigné

Erreur de serveur inconnue.

FILES_API_UNKNOWN_URL_HOST

SQLSTATE : non assigné

L’hôte d’URL est inconnu.

FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD

SQLSTATE : non assigné

La demande n’a pas été authentifiée correctement.

FILES_API_UNSUPPORTED_HTTP_METHOD

SQLSTATE : non assigné

httpMethod n’est pas pris en charge.

FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION

SQLSTATE : non assigné

La combinaison de paramètres n’est pas prise en charge.

FILES_API_UNSUPPORTED_PATH

SQLSTATE : non assigné

Le chemin fourni n’est pas pris en charge par l’API Files. Assurez-vous que le chemin d’accès fourni ne contient pas les séquences '../' ou './'. Vérifiez que le chemin fourni n’utilise pas plusieurs barres obliques consécutives (par exemple, « /// »).

FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO

SQLSTATE : non assigné

Le paramètre d’entrée 'count' doit être supérieur à 0.

FILES_API_URL_GENERATION_DISABLED

SQLSTATE : non assigné

La génération d’URL présignée n’est pas activée pour <cloud>.

FILES_API_VOLUME_TYPE_NOT_SUPPORTED

SQLSTATE : non assigné

L’API Fichiers n’est pas prise en charge pour <volume_type>.

FILES_API_WORKSPACE_IS_CANCELED

SQLSTATE : non assigné

L’espace de travail a été annulé.

FILES_API_WORKSPACE_IS_NOT_FOUND

SQLSTATE : non assigné

La configuration du stockage pour cet espace de travail n’est pas accessible.

Pipelines déclaratifs Spark Lakeflow

Politiques ABAC non prises en charge

SQLSTATE : 0A000

Les stratégies ABAC ne sont pas prises en charge sur les tables définies dans un pipeline.

Supprimez les stratégies ou contactez le support Databricks.

TERMINAISON_ANORMALE_DU_CONDUCTEUR

SQLSTATE : 57P02

Le pilote sur le cluster <clusterId> s’est arrêté anormalement en raison de <terminationCause>. Pour plus d’informations, consultez les journaux du pilote.

ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE

SQLSTATE : 42000

Une mise à jour active «<updateId> » existe déjà pour le pipeline lié «<linkedPipelineId> ».

ACTIVE_UPDATE_EXISTS_FOR_PIPELINE

SQLSTATE : 42000

Une mise à jour active «<updateId> » existe déjà pour le pipeline «<pipelineId> ».

ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE : 0A000

ALTER n’est pas autorisé sur les tables gérées par un

Pour plus de détails , consultez ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE : 42704

Impossible de modifier <type> sur une table sans planification ou déclencheur existant. Ajoutez une planification ou un déclencheur à la table avant de tenter de la modifier.

API_QUOTA_EXCEEDED

SQLSTATE : KD000

Vous avez dépassé le quota d’API pour la source de données <sourceName>.

Pour plus de détails, consultez API_QUOTA_EXCEEDED

APPLY_CHANGES_ERROR

SQLSTATE : 42000

Une erreur s’est produite pendant l’opération AUTO CDC .

Pour plus de détails, consultez APPLY_CHANGES_ERROR

APPLY_CHANGES_FROM_SNAPSHOT_ERROR

SQLSTATE : 22000

Une erreur s’est produite pendant l’opération AUTO CDC FROM SNAPSHOT .

Pour plus de détails, consultez APPLY_CHANGES_FROM_SNAPSHOT_ERROR

APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE : 0A000

Le jeu de données <datasetName> a des attentes définies, mais les attentes ne sont actuellement pas prises en charge pour les jeux de données utilisant AUTO CDC FROM SNAPSHOT.

Supprimez les attentes pour résoudre cette erreur. En guise d’alternative, envisagez d’utiliser la structure suivante pour appliquer des attentes en combinant AUTO CDC et AUTO CDC FROM SNAPSHOT:

  1. Appliquez les modifications de l’instantané à l’aide du type 1 du SCD à une table intermédiaire sans attentes.

  2. Lire les modifications de la table intermédiaire à l’aide de spark.readStream.option("readChangeFeed", "true").table.

  3. Appliquez les modifications de la table intermédiaire à la table cible finale à l’aide dlt.apply_changes des paramètres suivants en plus des paramètres actuellement utilisés avec dlt.apply_changes_from_snapshot:

  • Pour gérer les modifications : apply_as_deletes = "_change_type == 'delete'"

  • Pour supprimer les colonnes ajoutées par le CDF : except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]

  1. Incluez l’ensemble actuel des attentes sur la table cible finale utilisée pour dlt.apply_changes.

APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED

SQLSTATE : 0A000

La fonctionnalité COLUMNS TO UPDATE est en préversion et n’est pas activée pour votre espace de travail. Contactez votre représentant Databricks pour en savoir plus sur cette fonctionnalité et accéder à la préversion privée.

CLUSTER_D'ENVIRONNEMENT_APPLIQUÉ_INDISPONIBLE

SQLSTATE : 57000

Le calcul du pipeline pour <pipelineId> n'est pas disponible. Le calcul du pipeline peut avoir cessé ou continuer à démarrer.

Réessayez ultérieurement lorsque le calcul est entièrement disponible. Si le problème persiste, contactez le support Databricks.

Environnement cluster non trouvé

SQLSTATE : 57000

Le calcul du pipeline pour <pipelineId> est introuvable. Ce calcul de pipeline n’a peut-être jamais démarré ou s’est déjà arrêté. Démarrez le pipeline

avant de configurer l’environnement.

ENVIRONNEMENT_APPLIQUER_NON_SUPPORTÉ

SQLSTATE : 0A000

Le point de terminaison ApplyEnvironment n’est pas pris en charge.

ARCHITECTURE_MIGRATION_FAILURE

SQLSTATE : 55000

Pour plus de détails, consultez ARCHITECTURE_MIGRATION_FAILURE

ARCLIGHT_REQUIRES_SERVERLESS

SQLSTATE : 42000

Les pipelines ciblant des catalogues à l’aide du stockage par défaut doivent utiliser un calcul serverless. Si vous n’avez pas accès au calcul serverless, contactez Databricks pour activer cette fonctionnalité pour votre espace de travail.

AUTO_RAFRAÎCHISSEMENT_COMPLET_DÉSACTIVÉ

SQLSTATE : 42000

L’actualisation complète automatique est désactivée pour la table <tableName>.

Actualisation complète automatique non autorisée

SQLSTATE : 42000

L’actualisation complète automatique a échoué pour la table <tableName> car <reason>.

AUTO_RAFRAÎCHISSEMENT_COMPLET_LIMITÉ

SQLSTATE : 42000

Échec de l’actualisation automatique complète. La table <tableName> a été entièrement actualisée automatiquement à <timestamp> et l'intervalle minimal avant la prochaine actualisation automatique complète est : <minInterval> minutes.

AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED

SQLSTATE : 28000

Échec de l’authentification Azure Active Directory (AADSTS5000224).

ID de trace : <traceId>, ID de corrélation : <correlationId>.

Vérifiez que l’annuaire Azure Active Directory est correctement configuré et accessible. Si le problème persiste, contactez le support technique Microsoft.

AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND

SQLSTATE : 28000

Les informations d'identification d'identité managée Azure avec l'ID du connecteur d'accès <accessConnectorId> n'ont pas été trouvées pour le compte <accountId>.

Vérifiez que les informations d’identification existent et sont correctement configurées.

AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED - Échec de la résolution du nom d'hôte de stockage dans Azure

SQLSTATE : 08001

Échec de la résolution du nom d’hôte du stockage Azure : <hostname>.

Vérifiez que DNS est correctement configuré et que le compte de stockage est accessible à partir de votre réseau.

AZURE_STORAGE_REQUEST_NOT_AUTHORIZED

SQLSTATE : 42501

La demande adressée au stockage Azure n’a pas été autorisée par le périmètre de sécurité réseau.

Vérifiez que le stockage est correctement configuré et accessible.

BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur de données BigQuery.

Le « catalogue source » (ID de projet GCP) est manquant dans votre spécification d’ingestion.

Spécifiez le catalogue source (ID de projet) dans votre spécification d’ingestion pour résoudre ce problème.

CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS

SQLSTATE : 42000

De nouvelles colonnes (<columnNames>) sont ajoutées à include_columns champ dans la définition de pipeline pour la table <qualifiedTableName>. Actualisez complètement la table pour éviter toute perte de données potentielle ou supprimer ces colonnes de include_columns.

CANNOT_ADD_STORAGE_LOCATION

SQLSTATE : 42000

Impossible d’ajouter un emplacement de stockage à un pipeline existant avec un catalogue défini. Si vous souhaitez définir un emplacement de stockage, créez un nouveau pipeline.

Catalogue existant : '<catalog>'.

Emplacement de stockage demandé : <storageLocation>.

CANNOT_COMPOSE_DECORATOR

SQLSTATE : non assigné

Le @<decoratorName> décorateur ne peut pas être composé avec <otherDecorators>.

CANNOT_EXCLUDE_NON_EXISTENT_COLUMN

SQLSTATE : 42703

La définition de pipeline exclut les colonnes (<columnNames>) qui n’existent pas dans la table de la source <qualifiedTableName><sourceType>. Supprimez ces colonnes du champ exclude_columns.

CANNOT_FILTER_OUT_REQUIRED_COLUMN

SQLSTATE : 42000

La définition du pipeline n’inclut pas les colonnes requises (<columnNames>) dans la table <qualifiedTableName> de la source <sourceType> pour l’ingestion. Ajoutez-les à include_columns ou supprimez-les de exclude_columns.

CANNOT_INCLUDE_NON_EXISTENT_COLUMN

SQLSTATE : 42703

La définition de pipeline inclut des colonnes (<columnNames>) qui n’existent pas ou qui ne sont pas accessibles dans la table de la source <qualifiedTableName><sourceType>. Supprimez ces colonnes du champ include_columns.

CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY

SQLSTATE : 42000

La table <qualifiedTableName> de la <sourceType> source n’a pas de clé primaire.

Spécifiez une clé primaire dans la configuration du connecteur pour ingérer la table si elle existe.

CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES

SQLSTATE : 42000

La modification du propriétaire pour les pipelines non UC n’est pas encore prise en charge.

CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED

SQLSTATE : 42000

Seuls les administrateurs d’espace de travail peuvent modifier le propriétaire du pipeline.

CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING

SQLSTATE : 42000

Le nouveau propriétaire n’existe pas.

CANNOT_MODIFY_PIPELINE_TYPE

SQLSTATE : 42000

pipeline_type ne peut pas être mis à jour.

pipeline_type à jour : <currentPipelineType>.

pipeline_type mis à jour : <requestedPipelineType>.

CANNOT_MODIFY_STORAGE_LOCATION

SQLSTATE : 42000

Impossible de modifier l’emplacement de stockage d’un pipeline existant.

Emplacement de stockage existant : «<existingStorageLocation> ».

Emplacement de stockage demandé : <requestedStorageLocation>.

CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS

SQLSTATE : 42000

Les colonnes (<columnNames>) sont supprimées du champ exclude_columns dans la définition de pipeline pour la table <qualifiedTableName>. Actualisez complètement la table pour éviter toute perte de données potentielle ou ajoutez ces colonnes à exclude_columns.

CANNOT_SET_CATALOG_FOR_HMS_PIPELINE

SQLSTATE : 42613

Impossible d’ajouter un catalogue à un pipeline existant avec un emplacement de stockage défini, si vous souhaitez utiliser l’UC, créez un pipeline et définissez un catalogue.

Emplacement de stockage existant : '<storageLocation>'

Catalogue demandé : '<catalog>'

CANNOT_SET_LINKED_PIPELINE_ID

SQLSTATE : 42000

Les IDs de pipeline sont identiques, configurer les IDs de pipeline liés entraînera un blocage.

CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

SQLSTATE : 0AKD0

Le champ « schéma » spécifié dans les paramètres de pipeline pour le pipeline «<pipelineName> » est illégal. Reason:

Pour plus de détails, consultez CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

IMPOSSIBLE_À_PARAMÉTRER_ENSEMBLE

SQLSTATE : non assigné

<argList> sont mutuellement exclusifs et ne peuvent pas être définis ensemble.

CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS

SQLSTATE : 42000

La définition de pipeline spécifie à la fois include_columns et exclude_columns pour <identifier>. Supprimez l’une d’entre elles.

CANNOT_UPDATE_CLUSTERING_COLUMNS

SQLSTATE : 42000

Impossible de mettre à jour les colonnes de clustering pour la table <tableName> , car elle utilise des colonnes de partition. Une table peut utiliser des colonnes de partition ou des colonnes de clustering, mais pas les deux.

Pour basculer entre le clustering liquide et le partitionnement, déclenchez une actualisation complète de cette table.

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE : 42000

Impossible de mettre à jour les colonnes de partition pour la table de données en flux continu <tableName>.

Actuel : <existingPartitionColumns>,

Demandé : <requestedPartitionColumns>

Pour appliquer cette modification de partition, déclenchez une actualisation complète de cette table et toutes les autres tables de streaming qui ont mis à jour les colonnes de partition.

Vous pouvez également rétablir cette modification pour continuer à utiliser les colonnes de partition existantes.

CANNOT_UPDATE_TABLE_SCHEMA

SQLSTATE : 42KD9

Échec de la fusion des schémas actuels et nouveaux pour la table <tableName>.

Pour poursuivre cette modification de schéma, vous pouvez déclencher une actualisation complète de cette table.

En fonction de votre cas d’usage et des modifications de schéma, vous pouvez peut-être obvier le changement de schéma. Vous pouvez mettre à jour vos requêtes afin que le schéma de sortie soit compatible avec le schéma existant (par exemple, en cas de conversion explicite de colonnes vers le type de données correct).

CANNOT_WRITE_TO_INACTIVE_COLUMNS

SQLSTATE : 55000

<details>

Toutefois, la ou les tables de destination ont déjà des colonnes inactives avec ce nom ; les colonnes sont inactives, car elles ont été précédemment supprimées des tables sources.

Pour poursuivre la mise à jour, exécutez la commande FULL REFRESH sur les tables.

CANNOT_WRITE_TO_INACTIVE_TABLES

SQLSTATE : 55000

Les tableaux suivants dans la destination sont inactifs et sont en conflit avec les tables sources actuelles : <tables>.

Ces tables restent inactives, car elles ont été précédemment supprimées de la source ou non sélectionnées du connecteur.

Pour poursuivre la mise à jour, modifiez le nom de la table de destination ou effectuez une FULL REFRESH opération sur ces tables ou supprimez ces tables inactives de la destination dans l’Explorateur de catalogues ou via DROP TABLE la commande, puis réessayez la mise à jour.

CANNOT_WRITE_TO_TABLES_PENDING_RESET

SQLSTATE : 55000

Les tableaux suivants dans la destination ne sont pas réinitialisés correctement dans l’actualisation complète précédente : <tables>.

Déclenchez une actualisation complète sur celles-ci pour récupérer.

CATALOG_MAPPING_NOT_AVAILABLE_IN_UC

SQLSTATE : 3D000

Le catalogue UC n’a pas le mappage pour le catalogue «<sourceCatalog> ».

Vérifiez si le catalogue est inscrit dans le catalogue UC.

CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE

SQLSTATE : 55000

Le catalogue <destPipelineCatalog> et le schéma <destPipelineSchema> du pipeline de destination avec l’ID '<destPipelineId> ne correspondent pas au catalogue et au schéma de la table <tableName>. Le pipeline de destination doit avoir le même catalogue et le même schéma que la table ou le pipeline de destination doit utiliser le mode de publication directe.

CATALOG_SPEC_UNSUPPORTED

SQLSTATE : 0A000

Les catalogSpecs ne sont actuellement pas pris en charge par les connecteurs de base de données. Veuillez supprimer la spécification du catalogue.

LA_POLITIQUE_AUTO_FULL_REFRESH_DE_L_APPLIQUEUR_CDC_DOIT_ÊTRE_IDENTIQUE_POUR_TOUTES_LES_TABLES_DE_DESTINATION

SQLSTATE : 42000

La stratégie d’actualisation complète automatique de toutes les tables de destination connectées à la même table source doit être identique.

Modifiez la stratégie pour les tables <destinationTables> de destination suivantes connectées à la source <sourceTable>.

CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED

SQLSTATE : 0A000

Les colonnes avec UOID <columnNames> de la table <tableName> ne sont pas prises en charge dans les pipelines d’ingestion managés par CDC.

Vérifiez si le pipeline d’ingestion prend en charge la colonne UOID ou demandez une actualisation complète de la table.

CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY

SQLSTATE : 42000

Le pipeline de passerelle a rencontré une erreur irrécupérable :

<errorMessage>

Vérifiez la défaillance de la mise à jour du pipeline ici : <link>.

CDC_APPLIER_INGESTION_GATEWAY_REMOVED

SQLSTATE : 42000

Le pipeline <pipelineId> de passerelle d’ingestion lié au pipeline d’ingestion géré a été supprimé.

Supprimez le pipeline d’ingestion managée, puis créez une passerelle d’ingestion et des pipelines d’ingestion managés.

CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY

SQLSTATE : 42KD4

Les métadonnées de table répliquées pour la table <tableName> ne sont pas prêtes.

L’horodatage de la demande de travail actuelle est <existingRequestTs>, mais nous nous attendons à <expectedRequestTs> ou à un moment ultérieur.

CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH

SQLSTATE : 42000

L’actualisation complète d’une table de destination et la mise à jour normale d’une autre table de destination à partir de la même source n’est pas prise en charge.

Actualisez complètement les deux tables pour continuer, si possible.

Tables d’actualisation complète : <fullRefreshTables>

Tables de destination pour la source <sourceTable>: <destinationTables>

CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING

SQLSTATE : 42KD4

La version <dataSchemaVersion> du schéma est différente de la version <readSchemaVersion> du schéma de lecture.

Les pipelines déclaratifs Spark Lakeflow réessayent la mise à jour.

CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND

SQLSTATE : 42704

La colonne <columnName> de la table <tableName> spécifiée dans sequenceBy n’existe pas dans <columns>.

CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE

SQLSTATE : 0A000

La colonne <columnName> de la table <tableName> spécifiée dans sequenceBy est de type <typeName> qui n’est pas prise en charge.

Les types pris en charge pour les colonnes sequenceBy sont <allowedTypes>.

CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED

SQLSTATE : 0A000

Une colonne au plus peut être spécifiée dans le sequenceBy d’un pipeline d’ingestion managé par CDC.

Colonnes spécifiées : <columns> pour la table <tableName>.

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE : 42KD4

Nous avons rencontré une modification de schéma incompatible (<cause>) de la version <previousSchemaVersion> du schéma à <currentSchemaVersion>.

Par conséquent, nous ne pouvons pas poursuivre l’application des modifications pour <tableName>. Demandez une actualisation complète de la table.

Schéma précédent : <previousSchema>

Schéma actuel : <currentSchema>

CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE

SQLSTATE : 42000

Plusieurs tables sources ont été trouvées : <source_tables> mappées à la même table <destination_table>de destination.

Mappez-les à un nom de table de destination différent ou à un schéma de destination différent.

CDC_POTENTIAL_DATA_GAPS

SQLSTATE : 55000

Les tableaux suivants [<needFullRefreshTableList>] n'ont pas été mises à jour avec succès depuis <retention> jours.

Effectuez une actualisation complète de ces tables ou de l’ensemble du pipeline.

CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES

SQLSTATE : 42000

Le même nom <table> de table a été trouvé à partir de plusieurs sources : <sources>.

Divisez-les en différents pipelines pour éviter les conflits.

CDC_SOURCE_VALIDATION_FAILURE

SQLSTATE : 42000

La validation de la base de données source a détecté <errorCount> des erreurs. Pour obtenir des résultats détaillés et des étapes de correction, consultez le ou les rapports du journal des événements.

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE : 42P01

La table <table> est introuvable dans l’instantané de toutes les tables de la base de données source.

Détails des spécifications du tableau :

<tableSpec>

CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED

SQLSTATE : 0AKD0

La modification d’un pipeline HMS en pipeline UC n’est pas autorisée.

CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED

SQLSTATE : 0AKD0

La modification d’un pipeline UC en pipeline HMS n’est pas autorisée.

CHANGING_CATALOG_NOT_ALLOWED

SQLSTATE : 0AKD0

Impossible de modifier le catalogue d’un pipeline existant. Catalogue existant : '<existingCatalog>'. Catalogue demandé : '<requestedCatalog>'.

CHANGING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE : 0AKD0

La modification du schéma cible n’est pas autorisée. Raison : <reason>.

CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED

SQLSTATE : 57000

Échec de la création d’un cluster, car la stratégie budgétaire du pipeline a dépassé la limite. Utilisez une autre stratégie ou contactez votre administrateur de facturation.

CLUSTER_CREATION_CLIENT_ERROR

SQLSTATE : KDL01

Échec de la création d’un cluster de pipeline : <errorMessage>

Cette erreur est probablement due à une mauvaise configuration dans le pipeline.

Vérifiez la configuration du cluster de pipeline et la stratégie de cluster associée.

LIMITE_ATTEINTE_POUR_LA_CREATION_DE_CLUSTERS_POLITIQUE_DE_CLUSTER

SQLSTATE : 57000

Échec de la création d’un cluster, car le nombre de clusters en cours d’exécution par utilisateur pour la stratégie «<clusterPolicy> » a dépassé la limite de <clusterLimit>. Utilisez une stratégie différente ou contactez votre administrateur.

CLUSTER_CREATION_CREDITS_EXHAUSTED

SQLSTATE : 57000

Échec de la création d’un cluster, car vous avez épuisé vos crédits disponibles. Ajoutez un mode de paiement pour mettre à niveau votre compte.

CLUSTER_CREATION_RESOURCE_EXHAUSTED

SQLSTATE : 57000

Échec de la création d’un cluster, car vous avez dépassé les limites de ressources : <errorMessage>

ÉCHEC_DE_RÉCUPÉRATION_DES_SECRETS_DE_CRÉATION_DU_CLUSTER

SQLSTATE : 42501

Impossible d’extraire les secrets référencés dans la configuration Spark.

Vérifiez que les secrets existent et que le propriétaire du cluster dispose d’autorisations de lecture.

CLUSTER_LAUNCH_CLIENT_ERROR

SQLSTATE : KDL01

Échec du lancement du cluster de pipeline <clusterId> : <clusterStateMessage>

Cette erreur est probablement due à une mauvaise configuration dans le pipeline.

Vérifiez la configuration du cluster de pipeline et la stratégie de cluster associée.

CLUSTER_LAUNCH_CLOUD_FAILURE

SQLSTATE : 58000

Échec du lancement du cluster de pipeline <clusterId> : <clusterStateMessage>

Cette erreur peut être temporaire : redémarrez votre pipeline et signalez si vous rencontrez toujours le même problème.

CLUSTER_LAUNCH_RESOURCE_EXHAUSTED

SQLSTATE : 57000

Échec du lancement du cluster <clusterId> de pipeline en raison d’épuisement des limites de ressources : <clusterStateMessage>.

ÉPUISEMENT_DES_RESSOURCES_DU_LANCEMENT_DU_CLUSTER

SQLSTATE : KDL01

Échec du lancement du cluster de pipeline <clusterId> : <clusterStateMessage>

Le type d’instance demandé n’a pas pu être fourni par le fournisseur de cloud.

Vérifiez votre abonnement de fournisseur de cloud ou réessayez avec un autre type d’instance.

CLUSTER_SETUP_CLIENT_ERROR

SQLSTATE : KDL01

Impossible de configurer le cluster <clusterId> pour l’exécution des mises à jour du pipeline. Reason:

Pour plus d’informations , consultez CLUSTER_SETUP_CLIENT_ERROR

CLUSTER_UNREACHABLE

SQLSTATE : 08000

Communication perdue avec le pilote. Le cluster <clusterId> n’a pas été accessible pendant <timeoutSeconds> des secondes.

COLUMN_MASK_WITH_NO_COLUMN

SQLSTATE : 42000

Masque de colonne trouvé pour la colonne '<columnName>' qui n’existe pas dans le schéma MV/ST. S’il s’agit d’une modification du schéma de la table de base,

supprimez l’ancien masque avec ALTER TABLE [table_name] ALTER COLUMN [colonne où le masque est appliqué] DROP MASK ou restaurez la colonne.

COLUMN_TO_UPDATE_NOT_FOUND

SQLSTATE : 42703

Colonne <column> spécifiée dans COLUMNS TO UPDATE introuvable dans le dataframe source.

CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE

SQLSTATE : 2D521

Mise à jour «<upgradedUpdateId> » démarrée pour une mise à niveau, mais n’a pas pu arrêter la mise à jour précédente «<oldUpdateId> ».

Cette erreur est probablement temporaire. Le pipeline sera automatiquement réessayé et le problème devrait se résoudre de lui-même.

Signalez cette erreur à Databricks si vous continuez à voir le même problème.

CRÉER_APPEND_UNE_SEULE_FOIS_FLUX_DEPUIS_REQUÊTE_PAR_LOT_NON_AUTORISÉ

SQLSTATE : 42000

Impossible de créer une table de diffusion en continu en ajoutant une fois le flux à partir d’une requête par lots.

Cela empêche l’ingestion incrémentielle de la source et peut entraîner un comportement incorrect.

Tableau incriminé : '<table>'.

Pour résoudre ce problème, utilisez l’opérateur STREAM() ou readStream pour déclarer la source comme entrée de streaming.

Exemple : SELECT...FROM STREAM(<source table name>) ou spark.readStream.table('<source table name>')

DATASET_DECORATOR_APPLIED_TWICE

SQLSTATE : non assigné

Le jeu de données <datasetName> existe déjà. Vérifiez que la fonction de requête n’a été marquée qu’une seule fois en tant que vue ou table.

DATASET_NOT_DEFINED

SQLSTATE : 42P01

Désolé... Nous n’avons pas pu lire le jeu de données «<datasetName> ». Ce jeu de données n’est pas défini dans le pipeline.

Si cette table est gérée par un autre pipeline, n’utilisez pas dlt.read / dlt.readStream pour lire la table et ne faites pas précéder le nom du mot-clé LIVE.

JEU_DE_DONNÉES_INTROUVABLE_POUR_ATTENTES

SQLSTATE : 42P01

Tentative de définition des attentes d’un jeu de données «<datasetName> » qui n’existe pas

DATASET_NOT_REGISTERED_FOR_FLOW

SQLSTATE : 42000

Tentative d’inscription d’un flux pour le jeu de données «<datasetName> », mais le jeu de données n’est pas inscrit.

DBFS_NOT_ENABLED

SQLSTATE : 42000

DBFS n’est pas activé pour cet espace de travail ; publiez dans le catalogue Unity ou spécifiez un autre emplacement de stockage pour le pipeline.

DBSQL_PLANIFICATION_INCONSISTANTE_DANS_PIPELINE

SQLSTATE : 42000

Le pipeline <pipelineId> a plusieurs tables de production avec différents paramètres de planification : [<tableScheduleInfo>]. Toutes les tables de production doivent avoir la même planification.

DBSQL_INVALID_CHANNEL_VALUE

SQLSTATE : 42616

Canal non valide spécifié avec la propriété pipelines.channel : <channel>. Les valeurs valides sont les suivantes : <validChannels>.

DBSQL_INVALID_SCHEDULE_TYPE

SQLSTATE : 42616

Type de planification non valide spécifié avec la propriété de planification : <scheduleValue>.

DBSQL_MISSING_SCHEDULE_PROPERTY

SQLSTATE : 42000

Propriété de planification requise manquante dans les propriétés de table.

DBSQL_PIPELINE_IS_MISSING

SQLSTATE : 42000

Un DBSQL pipeline est manquant. Actualisez votre vue matérialisée ou votre table de streaming pour créer le pipeline DBSQL.

DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE : 42000

Un pipeline DBSQL doit avoir exactement une vue matérialisée ou une table de diffusion en continu, mais <tablesSize> tables ont été trouvées : <tables>

SUPPRESSION_CANALISATION_DÉSACTIVÉE

SQLSTATE : 58000

Le pipeline ne peut pas être supprimé pour l’instant.

Contactez le support Databricks pour obtenir de l’aide sur la suppression du pipeline «<pipelineId> ».

DESTINATION_PIPELINE_NOT_FOUND

SQLSTATE : 42K03

Le pipeline de destination avec l’ID '<pipelineId>' est introuvable. Assurez-vous que vous êtes dans le même espace de travail que le pipeline, que vous êtes le propriétaire du pipeline et que le pipeline a été exécuté au moins une fois.

DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE : 0AKLT

Le pipeline de destination avec l’ID «<pipelineId> » n’utilise pas le mode de publication directe.

DESTINATION_PIPELINE_PERMISSION_DENIED

SQLSTATE : 42501

Vous n’êtes pas autorisé à effectuer cette opération, vous n’êtes pas le propriétaire du pipeline de destination avec l’ID «<pipelineId> ». Seuls les propriétaires peuvent modifier le pipeline d’une table.

DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE : 0AKLT

Le pipeline de destination avec l’ID '<pipelineId>' n’est pas un pipeline ETL.

CHEMIN_RÉPERTOIRE_NÉCESSITE_GLOB

SQLSTATE : 42000

Le chemin <path> est un répertoire. Pour inclure tous les fichiers dans un répertoire, utilisez le modèle glob avec le suffixe « ** », « <path>/*** », dans votre configuration de pipeline.

REQUÊTE_NON_AUTORISÉE_POUR_RESTAURATION_DU_PIPELINE

SQLSTATE : 42000

La demande <request> n’est pas autorisée pour le pipeline '<pipelineId>' dans l’état RESTORING .

DO_CREATE_OR_EDIT_INVALID_USER_ACTION

SQLSTATE : 42000

Erreur lors de la gestion de la requête «<action> ».

DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE : 42000

Impossible de supprimer SCHEDULE sur une table sans planification ou déclencheur existant.

DUPLICATED_FROM_JSON_SCHEMA_LOCATION

SQLSTATE : 42616

Clé d’emplacement de schéma from_json dupliquée : <schemaLocationKey>.

Choisissez des clés d’emplacement de schéma uniques pour chaque requête from_json dans le pipeline

DUPLICATED_INGESTION_CONFIG_TABLE_SPECS

SQLSTATE : 42710

La configuration du pipeline d’ingestion contient des tables dupliquées. Assurez-vous que chaque table est unique.

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE : 42000

Les objets de configuration d’ingestion sont vides.

ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION

SQLSTATE : 42000

Le paramètre « spare_capacity_fraction » de mise à l’échelle automatique améliorée n’est pris en charge que dans l’édition de produit avancée de Lakeflow Spark Declarative Pipelines.

Modifiez vos paramètres de pipeline pour définir « édition » sur « avancé » pour utiliser « spare_capacity_fraction ».

ENVIRONMENT_PIP_INSTALL_ERROR

SQLSTATE : 42000

Échec de l’installation de la dépendance d’environnement : «<pipDependency> ». Consultez les journaux stdout du pilote sur le cluster pour plus d’informations.

EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED

SQLSTATE : 0A000

La publication du journal des événements dans le catalogue Unity n’est pas prise en charge en mode de publication hérité. Pour activer cette fonctionnalité, migrez votre pipeline vers le mode de publication par défaut en suivant les étapes du guide https://docs.databricks.com/aws/en/dlt/migrate-to-dpmde migration. Si vous préférez continuer à utiliser le mode de publication hérité, supprimez la configuration « event_log » de votre spécification de pipeline.

EXPECTATION_VIOLATION

SQLSTATE : 22000

Le flux '<flowName>' n’a pas répondu aux attentes.

Pour plus de détails, consultez EXPECTATION_VIOLATION

EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY

SQLSTATE : 42000

explore_only et validate_only ne peuvent pas être tous les deux définis sur true.

EXPLORE_ONLY_IS_NOT_ENABLED

SQLSTATE : 0A000

La mise à jour 'exploration_seule' n'est pas activée. Contactez le support Databricks.

FAILED_TO_CREATE_EVENT_LOG

SQLSTATE : 58030

Échec de la création du journal des événements de pipeline (id=<pipelineId>) avec l’identificateur <eventLogIdentifier>. Pour plus d’informations, consultez l’exception ci-dessous.

FAILED_TO_PUBLISH_VIEW_TO_METASTORE

SQLSTATE : 42000

Échec de la publication de la vue <viewName> sur le metastore, car <reason>.

FAILED_TO_UPDATE_EVENT_LOG

SQLSTATE : 58030

Échec de la mise à jour de l’identificateur du journal des événements du pipeline (id = <pipelineId>) à <newEventLogIdentifier>. Pour plus d’informations, consultez l’exception ci-dessous.

FLOW_SCHEMA_CHANGED

SQLSTATE : KD007

Le flux <flowName> s’est arrêté depuis qu’il a rencontré une modification de schéma pendant l’exécution.

La modification du schéma est compatible avec le schéma cible existant et l’exécution suivante du flux peut reprendre avec le nouveau schéma.

FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL

SQLSTATE : 0A000

Lakeflow Spark Declarative Pipelines ForeachBatch Sink n’est actuellement pas pris en charge.

La préversion privée pour le récepteur ForeachBatch de Pipelines déclaratifs Spark Lakeflow nécessite le PREVIEW canal.

Récepteurs de pipelines déclaratifs Spark Lakeflow : <sinkNames>

GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED

SQLSTATE : 0A000

Le pipeline de la passerelle n’autorise pas les scripts d’initialisation de cluster. Veuillez le supprimer de <from>.

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE : 0A000

Le pipeline de la passerelle n’autorise pas la configuration Spark [<configs>]. Supprimez-les de <from>.

GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED

SQLSTATE : 54000

Le nombre d’ID d’organisation demandés dépasse la limite maximale autorisée de <limit>

GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur de données brutes Google Analytics.

Le « catalogue source » (ID de projet GCP) est manquant dans votre spécification d’ingestion.

Spécifiez le catalogue source (ID de projet) dans votre spécification d’ingestion pour résoudre ce problème.

HMS_NOT_ENABLED

SQLSTATE : 42000

Le metastore Hive n’est pas activé pour cet espace de travail ; publiez dans le catalogue Unity.

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE

SQLSTATE : 42000

Le type de données de la colonne spécifiée dans COLUMNS TO UPDATE doit être un tableau de chaînes, mais on y a trouvé <illegalDataType>.

ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS

SQLSTATE : 42000

Les paramètres ne doivent pas contenir «<fieldName> ».

ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC

SQLSTATE : 42000

Le champ « schéma » spécifié dans les paramètres du pipeline n’est pas valide. Raison : <reason>.

INCORRECT_ROOT_PATH_TYPE

SQLSTATE : 42000

Le chemin racine '<rootPath>' doit être un répertoire, mais <objectType> a été trouvé.

ACTUALISATION_INCREMENTIELLE_INDISPONIBLE_AVEC_POLITIQUE_DE_REFRESH_STRICTE

SQLSTATE : 42000

La vue matérialisée a une stratégie d’actualisation de INCREMENTAL_STRICT mais ne peut pas être incrémentalisée.

INFRASTRUCTURE_MAINTENANCE

SQLSTATE : 57P01

Le pilote sur le cluster <clusterId> s’est arrêté en raison de la maintenance de l’infrastructure.

INGESTION_CONFIG_DUPLICATED_SCHEMA

SQLSTATE : 42710

La configuration du pipeline d'ingestion comporte des schémas dupliqués. Vérifiez que chaque schéma est unique.

INGESTION_GATEWAY_AUTHENTICATION_FAILURE

SQLSTATE : 42501

Échec de l’authentification

Pour plus d’informations , consultez INGESTION_GATEWAY_AUTHENTICATION_FAILURE

INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE

SQLSTATE : 42KD4

Une incompatibilité de schéma a été détectée entre les tables source et cible. Pour résoudre ce problème, une actualisation complète de la table «<entityName> » est requise sur le pipeline d’ingestion.

INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE

SQLSTATE : 42000

L'instance de capture pour <entityName> n'est plus disponible sur la source.

Déclenchez une actualisation complète après avoir activé CDC ou CT sur la table.

INGESTION_GATEWAY_CDC_LOG_TRUNCATED

SQLSTATE : 42000

Le journal CDC a été tronqué pour la table '<entityName>', raison : <errorMessage>.

Cela peut être dû à la stratégie de rétention des journaux CDC, qui tronque les journaux de suivi des changements avant leur traitement.

La table sera ignorée lors du traitement. Pour réactiver le traitement, actualisez complètement la table.

INGESTION_GATEWAY_CDC_NOT_ENABLED

SQLSTATE : 42000

La CDC n’est pas activée sur <entityType> « <entityName> ». Activez la capture des données modifiées et effectuez un rafraîchissement complet de la table sur le pipeline d'ingestion. Message d’erreur : '<errorMessage>'.

INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED (Erreur : Version de la base de données de la passerelle d'ingestion non prise en charge)

SQLSTATE : 42000

La version de la base de données n’est pas prise en charge.

Pour plus d’informations , consultez INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED

INGESTION_GATEWAY_DDL_OBJECTS_MISSING

SQLSTATE : 42000

Objets DDL manquants sur <entityType> «<entityName> ». Exécutez le script des objets DDL et effectuez un rafraîchissement complet de la table dans le pipeline d’ingestion. Message d’erreur : '<errorMessage>'.

INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED

SQLSTATE : 42000

Échec du cycle de validation du vérificateur d’intégrité interne. Nous réessayerons au cours du cycle suivant. Si le problème persiste, veuillez soumettre un ticket.

Message d’erreur : <errorMessage>

INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE

SQLSTATE : 42000

La configuration de la passerelle d’ingestion est manquante.

Ajoutez une référence à la connexion du catalogue Unity contenant vos informations d’identification.

Détails de la définition de pipeline de passerelle d’ingestion :

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG

SQLSTATE : 42000

La configuration de la passerelle d’ingestion est manquante dans le catalogue d’emplacements de stockage interne.

Ajoutez le catalogue d’emplacements de stockage interne.

Détails de la définition de pipeline de passerelle d’ingestion :

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME

SQLSTATE : 42000

La configuration de la passerelle d’ingestion ne contient pas le nom de l’emplacement de stockage interne.

Ajoutez le nom de l’emplacement de stockage interne.

Détails de la définition de pipeline de passerelle d’ingestion :

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA

SQLSTATE : 42000

La configuration de la passerelle d’ingestion est manquante dans le schéma d’emplacement de stockage interne.

Ajoutez le schéma d’emplacement de stockage interne.

Détails de la définition de pipeline de passerelle d’ingestion :

<definition>

INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE

SQLSTATE : 42P01

La table '<entityName>' n’existe pas dans la base de données source ou a été supprimée. Résolvez le problème et actualisez complètement la table sur le pipeline d’ingestion managée. Message d’erreur : '<errorMessage>'.

INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED

SQLSTATE : 42000

Le ou les fichiers binlog MySQL requis ont été supprimés sur la base de données source. Cela se produit généralement lorsque la période de rétention binlog est trop faible ou lorsque l’ingestion redémarre une fois la fenêtre de rétention passée. Pour atténuer les problèmes, exécutez une actualisation complète sur toutes les tables et augmentez la rétention binlog sur la source.

Message d’erreur : <errorMessage>

Passerelle_d'ingestion_MYSQL_fichiers_binlog_absents_détectés

SQLSTATE : 42000

Échec de détection des fichiers Binlog MySQL. Effectuez une actualisation complète sur <entityName>.

Message d’erreur : <errorMessage>

INGESTION_PASSERELLE_ORACLE_FICHIERS_JOURNAL_ARCHIVES_INDISPONIBLES

SQLSTATE : 42000

Les fichiers journaux d’archivage Oracle nécessaires à la réplication CDC ne sont plus disponibles sur la base de données source. Cela peut se produire lorsque les journaux d’archivage dépassent la période de rétention ou sont supprimés manuellement. Effectuez une actualisation complète sur toutes les tables de destination mappées au catalogue «<catalogName> ». Si ce problème persiste, envisagez d’augmenter la période de rétention des journaux d’archivage sur la base de données source pour vous assurer que les journaux restent disponibles pendant leur traitement.

Message d’erreur : <errorMessage>

PASSERELLE_D'INGESTION_ORACLE_CONFIGURATION_MANQUANTE

SQLSTATE : 42000

La configuration de la connexion Oracle est incomplète.

Pour plus d’informations , consultez INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION

INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

SQLSTATE : 42000

Échec de modification de la publication de réplication pour <entityType> '<entityName>'

Message d’erreur : <errorMessage>

Pour plus d’informations , consultez INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

SQLSTATE : 42000

Échec de la création d'une publication de réplication pour <entityType> '<entityName>'

Message d’erreur : <errorMessage>

Pour plus d’informations , consultez INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

SQLSTATE : 42000

Échec de la suppression de la publication de réplication pour <entityType> '<entityName>'

Message d’erreur : <errorMessage>

Pour plus d’informations , consultez INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED

SQLSTATE : 55000

La configuration de l’emplacement de réplication pour <entityType> <entityName> n’est pas dans un état sain. Pour résoudre ce problème, déclenchez une actualisation complète sur toutes les tables de destination mappées au catalogue <catalogName>.

Message d’erreur : <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS

SQLSTATE : 42000

Échec de la création d’un emplacement de réplication pour <entityType> «<entityName> » en raison de l’utilisation de l’emplacement de réplication par un autre PID.

Message d’erreur : <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

SQLSTATE : 42000

Échec de la création du slot de réplication pour <entityType> '<entityName>'

Message d’erreur : <errorMessage>

Pour plus détails, consultez INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

SQLSTATE : 42000

Échec de la suppression du slot de réplication pour <entityType> '<entityName>'

Message d’erreur : <errorMessage>

Pour plus d’informations , consultez INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

FENTREE_PASSERELLE_PG_EMPLACEMENT_A_ETE_SUPPRIME

SQLSTATE : 42704

L’emplacement de réplication pour <entityType> «<entityName> » a été supprimé. Veuillez déclencher une actualisation complète sur toutes les tables de destination reliées au catalogue «<catalogName> ».

Message d’erreur : <errorMessage>

(No improvements made as recognizable technical identifiers are often left untranslated to maintain accuracy and context across different languages.)

SQLSTATE : 55000

Le slot de réplication pour <entityType> « <entityName> » n’est pas dans un état sain. Supprimez le créneau et déclenchez une actualisation complète sur toutes les tables de destination mappées au catalogue «<catalogName> ».

Message d’erreur : <errorMessage>

INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE

SQLSTATE : 42501

L’utilisateur n’a pas les autorisations requises pour accéder à cet objet ou exécuter la procédure stockée. Vérifiez que tous les privilèges nécessaires sont accordés. Reportez-vous à la documentation suivante : https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.

INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY

SQLSTATE : 42000

Aucune table n’est disponible pour la réplication à partir de la source.

Vérifiez que les tables sont correctement sélectionnées et définies dans le pipeline d’ingestion

et l’utilisateur disposent du catalogue et de l’accès au schéma nécessaires.

INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED

SQLSTATE : 42000

Le suivi des modifications pour la table <entityName> a été désactivé sur la source.

Déclenchez une actualisation complète après avoir activé CDC ou CT sur la table.

TABLE_PASSERELLE_D'INGESTION_SUPPRIMÉE

SQLSTATE : 42000

La table source '<entityName>' a été supprimée dans la source. Message d’erreur : <errorMessage>

PASSERELLE_D'INGESTION_TABLE_RENOMMÉE

SQLSTATE : 42000

La table source '<entityName>' a été renommée dans la source. Message d’erreur : <errorMessage>

La table de passerelle d'ingestion ignorée en raison d'un type de données de colonne non pris en charge

SQLSTATE : 42P01

La table '<entityName>' a été ignorée en raison de colonnes de type de données non prises en charge. Résolvez le problème et actualisez complètement la table sur le pipeline d’ingestion managée. Message d’erreur : '<errorMessage>'.

INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID

SQLSTATE : 0AXX1

La table '<entityName>' a été ignorée en raison d’un UOID inattendu affecté aux colonnes. Effectuez une actualisation complète de la table pour résoudre le problème. Erreur : <errorMessage>.

INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID

SQLSTATE : 0AXX2

La table '<entityName>' a été ignorée en raison d’un UOID inattendu affecté à la table. Effectuez une actualisation complète de la table pour résoudre le problème. Erreur : <errorMessage>.

INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

SQLSTATE : 08000

La connexion a échoué en raison d’un nom <host> d’hôte et/ou d’un port <port> incorrects de la base de données source.

Pour plus de détails, consultez INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME

SQLSTATE : 42XXX

Caractères non pris en charge trouvés dans les objets pour la table <entityName>, raison : <errorMessage>. La table sera ignorée. Contactez le support pour activer l’ingestion de caractères spéciaux.

INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE

SQLSTATE : 42P01

L’objet '<entityName>' n’est pas pris en charge et a été ignoré. Pour résoudre ce problème, supprimez cet objet du pipeline d’ingestion. Message d’erreur : '<errorMessage>'.

PASSERELLE_D'INGESTION_MODIFICATION_DE_TABLE_INTRAÇABLE

SQLSTATE : 42000

Modification de table non accessible détectée pour la table <entityName>, raison : <errorMessage>.

Cela peut être dû à une troncature de table, à un basculement de journal CDC ou à une autre opération intraceable.

La table sera ignorée lors du traitement. Pour réactiver le traitement, actualisez complètement la table.

PASSERELLE_D'INGESTION_TRANSACTION_XA_NON_PRISE_EN_CHARGE

SQLSTATE : 42000

Impossible de répliquer <entityType> «<entityName> », car il fait partie d’une transaction XA.

Message d’erreur : <errorMessage>

INVALID_APPLY_CHANGES_COMMAND

SQLSTATE : 42000

AUTO CDC la commande n’est pas valide. <reason>.

INVALID_ARGUMENT_TYPE

SQLSTATE : non assigné

Valeur du type non valide passé au paramètre '<paramName>'. <expectedType> attendu. <additionalMsg>.

INVALID_COMPATIBILITY_OPTIONS

SQLSTATE : 42616

Les options de table spécifiées pour la table <table> ne sont pas valides, car

Pour plus de détails, consultez INVALID_COMPATIBILITY_OPTIONS

INVALID_CONFIG_FOR_UC_PIPELINE

SQLSTATE : 42616

Les pipelines UC ne prennent pas en charge le réglage de «<configKey>» à «<configValue>». Supprimez cette configuration de vos paramètres de pipeline.

INVALID_DECORATOR_USAGE

SQLSTATE : non assigné

Le premier argument positionnel passé à @<decoratorName> doit être appelable. Ajoutez @<decoratorName> sans paramètre à votre fonction, ou passez des options à @<decoratorName> à l’aide d’arguments de mot clé (par exemple, <exampleUsage>).

INVALID_DESTINATION_PIPELINE_ID

SQLSTATE : 42K03

ID de pipeline de destination non valide : «<pipelineId> ». Les ID de pipeline doivent être des UUID valides.

Vérifiez que vous utilisez le bon identifiant de pipeline, et non le nom du pipeline.

INVALID_EVENT_LOG_CONFIGURATION

SQLSTATE : F0000

Configuration du journal des événements non valide trouvée dans la spécification du pipeline : <message>

INVALID_NAME_IN_USE_COMMAND

SQLSTATE : 42000

Nom non valide '<name>' dans la <command> commande. Raison: <reason>

INVALID_PARAM_FOR_DBSQL_PIPELINE

SQLSTATE : 42000

Vous pouvez uniquement spécifier « pipeline_id » et « pipeline_type » lors de l’appel de « dry_run » pour un DBSQL pipeline.

INVALID_REFRESH_SELECTION

SQLSTATE : 42000

Pour plus d’informations , consultez INVALID_REFRESH_SELECTION

INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE

SQLSTATE : 42000

La sélection d’actualisation n’est pas prise en charge pour le mode continu.

INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH

SQLSTATE : 42000

full_refresh ne doit pas être défini sur true pour une requête de sélection pour actualisation.

INVALID_REWIND_SPECIFICATION

SQLSTATE : 0A000

La spécification de rembobinage n’est pas valide

Pour plus d’informations , consultez INVALID_REWIND_SPECIFICATION

INVALID_ROOT_PATH

SQLSTATE : 42000

Root_path '<rootPath> non valide : seuls les chemins d’accès absolus sont actuellement pris en charge. Les chemins d’accès au répertoire doivent commencer par « / » et ne pas se terminer par « / ».

INVALID_SCHEMA_NAME

SQLSTATE : 3F000

Schéma non valide «<schemaName> » spécifié dans le paramètre de pipeline. Raison : <reason>.

INVALID_SNAPSHOT_AND_VERSION_TYPE

SQLSTATE : non assigné

snapshot_and_version pour le flux avec le type cible «<target> » retourné non pris en charge. <additionalMsg>.

INVALID_TRIGGER_INTERVAL_FORMAT

SQLSTATE : 42000

La configuration de l’intervalle de déclencheur spécifiée dans le <configurationType> fichier n’est pas valide

ACCÈS_JIRA_INTERDIT

SQLSTATE : KD000

L’utilisateur connecté n’a pas accès. Vérifiez de nouveau les autorisations de l’utilisateur et réessayez.

JIRA_ADMIN_PERMISSION_MISSING

SQLSTATE : KD000

Erreur rencontrée lors de l’appel des API Jira. Veillez à donner

l’utilisateur qui connecte les autorisations d’administrateur Jira pour votre instance Jira.

JIRA_AUTHORIZATION_FAILED

SQLSTATE : KD000

L’autorisation a échoué lors de l’appel des API Jira. S’authentifier à nouveau

Recréez la connexion UC et réessayez.

JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur Jira.

Un problème s’est produit lors de la tentative d’analyse du mappage d’entité pour le type d’entité : <entityType>. Vérifiez si votre entité fait partie des types pris en charge.

Si l’erreur persiste, déposez un ticket.

JIRA_MISSING_REQUIRED_FIELD

SQLSTATE : KD000

Le champ obligatoire «<fieldName> » est manquant dans la réponse de l’API Jira.

JSON Nœud: <jsonNode>

JIRA_SITE_INDISPONIBLE

SQLSTATE : KD000

Impossible de trouver cloudId correspondant au domaine <domain>Jira fourni.

Assurez-vous que l’utilisateur connecté peut accéder à ce site.

JOB_DETAILS_DO_NOT_MATCH

SQLSTATE : 42000

Si « update_cause_details.job_details » et « job_task » sont donnés, ils doivent tous les deux correspondre, mais ce sont <details> et <jobTask>

JOB_TASK_DETAILS_MISSING

SQLSTATE : 42000

Si la « cause » est JOB_TASK, alors « job_task » ou « update_cause_details.job_details » doivent être donnés.

DÉSACTIVATION_DE_LA_CRÉATION_D’UN_PIPELINE_LÉGA

SQLSTATE : 0A000

La création de pipelines en mode de publication hérité est désactivée par défaut dans les espaces de travail. Contactez le support Databricks si une exception est requise.

PERMISSION_REFUSÉE_DE_TÉLÉCHARGER_FICHIER_BIBLIOTHÈQUE

SQLSTATE : 42501

Impossible d’accéder au fichier de bibliothèque à l’adresse «<path> ». Vérifiez que l’utilisateur dispose des autorisations requises pour lire ce fichier.

Raison: <reason>

LIBRARY_FILE_NON_TROUVÉ

SQLSTATE : 42000

Le fichier '<path>' est introuvable ou l’utilisateur run_as n’a pas les autorisations nécessaires pour y accéder.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC

SQLSTATE : 42000

Le référencement de jeux de données à l’aide LIVE d’un schéma virtuel en dehors de la définition de requête de jeu de données (c’est-à-dire l’annotation @dlt.table ) n’est pas pris en charge.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM

SQLSTATE : 42000

Le référencement de jeux de données à l’aide LIVE d’un schéma <identifier> virtuel en dehors de la définition de requête de jeu de données (c’est-à-dire l’annotation @dlt.table ) n’est pas pris en charge.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE : 0A000

Référencement de jeux de données à l’aide LIVE d’un schéma virtuel dans spark.sql(...) L’API ne doit pas être appelée en dehors de la définition de requête du jeu de données (par exemple, @dlt.table annotation). Elle ne peut être appelée qu’au sein de la définition de requête du jeu de données.

Erreur de validation de la spécification de pipeline d'ingestion gérée

SQLSTATE : 42000

Pour plus d’informations , consultez MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR

MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME

SQLSTATE : non assigné

La fonction de requête pour la vue matérialisée «<datasetName> » a retourné un DataFrame de diffusion en continu.

Il doit retourner un DataFrame non en streaming.

MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE

SQLSTATE : 42000

Nombre maximal de nouvelles tentatives atteintes. Nombre de nouvelles tentatives :<flowRetryCount>. maxFlowFailureRetryCountThreshold :<maxFlowRetryAttempts>. <message>

MESA_PIPELINE_INVALID_DEFINITION_TYPE

SQLSTATE : 42000

Le démarrage d’un pipeline <definitionType> à partir d’une définition UC n’est pas autorisé.

MESA_PIPELINE_MISMATCH_PIPELINE_TYPES

SQLSTATE : 42000

La définition stockée et mise à jour doit être du même type de pipeline, or nous avons obtenu <stored> et <updated>.

MESA_PIPELINE_MISSING_DEFINITION

SQLSTATE : 42000

Le pipeline n’a pas de définition valide dans l’UC, mais une actualisation est demandée.

MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED

SQLSTATE : 42000

Définition de l’UC du pipeline manquante de manière inattendue.

METASTORE_OPERATION_TIMED_OUT

SQLSTATE : 58000

Les opérations impliquées dans la mise à jour des informations du metastore pour `<tableName>` ont pris plus de temps que `<timeout>`.

Ce problème peut être temporaire ou indiquer des bogues dans le client de metastore configuré. Essayez de redémarrer votre pipeline et de signaler ce problème s’il persiste.

META_ANNONCES_PARAMÈTRES_MODIFIÉS

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur Meta marketing. Les paramètres d’entrée de la table ad_insights ont été modifiés.

Effectuez une actualisation complète sur les tables affectées.

META_ADS_SOURCE_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans l’appel de l’API Meta marketing. ID de trace Facebook à suivre avec le support de Meta : <trace_id>.

Si l’erreur persiste, déposez un ticket.

META_MARKETING_INSIGHTS_LEVEL_INVALID

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur Meta marketing lors de la tentative d’extraction d’insights pour la table ad_insights.

Le paramètre <level> de niveau fourni n’est pas valide. Veuillez choisir parmi (annonce, adset, campagne, compte).

META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur Meta marketing lors de la tentative d’extraction d’insights pour la table ad_insights.

L’analyse <breakdowns> des répartitions fournies n’est pas valide. Consultez la documentation de l’API meta pour obtenir la liste valide des répartitions.

Si l’erreur persiste, déposez un ticket.

META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur Meta marketing lors de la tentative d’extraction d’insights pour la table ad_insights.

Impossible d’analyser le paramètre <timeInc> d’incrément de temps fourni. Entrez un nombre entier valide.

DATE_DE_DÉBUT_META_MARKETING_INSIGHTS_INVALIDE

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur Meta marketing lors de la tentative d’extraction d’insights pour la table ad_insights.

Impossible d’analyser le paramètre <startDate> de date de début fourni. Vérifiez et modifiez-le au format aaaa-MM-DD correct.

DATE_DE_DÉBUT_META_MARKETING_INSIGHTS_TROP_ANTÉRIEURE

SQLSTATE : KD000

Une erreur s’est produite dans le connecteur Meta marketing lors de la tentative d’extraction d’insights pour la table ad_insights.

La date de début fournie ne peut pas dépasser 37 mois à partir de la date de synchronisation actuelle. Vérifiez et modifiez-le dans les paramètres fournis.

Si l’erreur persiste, déposez un ticket.

META_MARKETING_RATE_LIMIT_EXCEEDED

SQLSTATE : KD000

La limite de taux d’API meta pour ce compte publicitaire a été épuisée. Réessayez la mise à jour du pipeline après un certain temps. Il est recommandé d’ingérer moins de tables en parallèle pour éviter d’atteindre à nouveau les limites.

Si vous rencontrez fréquemment des erreurs de limite de débit, envisagez de procéder à la mise à niveau vers l’accès avancé si ce n’est pas déjà fait, conformément à la documentation meta : https://developers.facebook.com/docs/marketing-api/get-started/authorization

LIMITE_DE_DONNÉES_DEMANDEE_PAR_META_MARKETING_DÉPASSÉE

SQLSTATE : KD000

L’API Meta a échoué, car la quantité de données demandées dépasse la limite que les serveurs meta peuvent traiter.

Essayez de réduire le nombre de champs à ingérer dans cette table à l’aide de la logique de sélection de colonne. Si l’erreur persiste, déposez un ticket.

MIGRATION_VERS_CATALOGUE_UNITÉ

SQLSTATE : 55000

Pour plus d’informations , consultez MIGRATION_TO_UNITY_CATALOG

PERMISSION_CATALOGUE_OU_SCHEMA_MANQUANTE

SQLSTATE : 42501

L’utilisateur '<userName>' n’a pas d’autorisations sur '<schemaName>'. Détails : <reason>

MISSING_CREATE_SCHEMA_PRIVILEGE

SQLSTATE : 42501

L’utilisateur '<userName>' n’a pas l’autorisation de créer un schéma dans le catalogue <catalogName>

MISSING_CREATE_TABLE_PRIVILEGE

SQLSTATE : 42501

L’utilisateur '<userName>' n’a pas l’autorisation de créer une table dans le schéma <schemaName>

MISSING_RUN_AS_USER

SQLSTATE : 28000

Aucune exécution en tant qu’utilisateur n’a été spécifiée pour la mise à jour.

CIBLE_SNAPSHOT_MULTIPLE_REQUÊTES_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

'<tableName>' contient déjà une AUTO CDC FROM SNAPSHOT requête '<flowName>'. Actuellement, cette API ne prend en charge qu’un seul flux par destination.

MUTUALLY_EXCLUSIVE_OPTIONS

SQLSTATE : 42000

Options mutuellement exclusives <options>. Supprimez l’une de ces options.

NEGATIVE_VALUE

SQLSTATE : non assigné

La valeur de <arg_name> doit être supérieure ou égale à 0, « <arg_value> » reçu.

NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE

SQLSTATE : 42P07

La table '<tableName>' est déjà gérée par le pipeline <otherPipelineId>.

Si vous souhaitez que la table «<tableName> » soit gérée par ce pipeline :

  1. Supprimez la table du pipeline « <otherPipelineId> ».

  2. Démarrez une mise à jour d’actualisation complète pour ce pipeline.

Si vous souhaitez continuer à gérer la table à partir de plusieurs pipelines, désactivez cette vérification en définissant la configuration pipelines.tableManagedByMultiplePipelinesCheck.enabledfalse dans vos paramètres de pipeline.

Cela n’est pas recommandé, car les opérations simultanées sur la table peuvent entrer en conflit entre elles et entraîner des résultats inattendus.

NOTEBOOK_NAME_LIMIT_REACHED

SQLSTATE : 42000

Chemin d’accès du bloc-notes non valide : '<nameStart>...<nameEnd>'. Il est plus long que les <maxNotebookPathLength> caractères.

NOTEBOOK_NOT_FOUND

SQLSTATE : 42000

Impossible d’accéder au bloc-notes «<notebookPath> ». Il n’existe pas ou l’identité utilisée pour exécuter ce pipeline, <identity>ne dispose pas des autorisations requises.

NOTEBOOK_PIP_INSTALL_ERROR

SQLSTATE : 42000

Échec de l’exécution de «<pipInstallCommand> » à partir du notebook : <notebookPath>. Consultez les journaux stdout du pilote sur le cluster pour plus d’informations.

NOTEBOOK_TOO_LARGE

SQLSTATE : 54000

Le contenu du bloc-notes résolu à «<notebookPath> » est trop volumineux, réduisez la taille du bloc-notes.

NOTIFICATIONS_DUPLICATE_ALERTS

SQLSTATE : 42000

Alertes en double « <alertsDuplicates> » spécifiées dans [<alerts>]

NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES

SQLSTATE : 42000

Adresses e-mail en double '<emailRecipientsDuplicates>' spécifiées dans [<emailRecipients>]

NOTIFICATIONS_INVALID_ALERTS

SQLSTATE : 42000

Des alertes non valides ont été spécifiées pour recevoir des notifications sur : <invalidAlerts>

NOTIFICATIONS_INVALID_EMAIL_ADDRESS

SQLSTATE : 42000

Adresse e-mail non valide spécifiée pour recevoir des notifications : <invalidEmailAddresses>

NOTIFICATIONS_MISSING_PARAMS

SQLSTATE : 42000

Spécifiez au moins un destinataire et une alerte dans <setting>

NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED

SQLSTATE : non assigné

Soit source soit snapshot_version doit être configuré pour apply_changes_from_snapshot avec la cible '<target>'.

NO_TABLES_IN_PIPELINE

SQLSTATE : 42617

Au moins une table doit être définie dans les pipelines, mais aucune table n’a été trouvée dans votre pipeline.

Veuillez vérifier que vous avez inclus, et partagé si Run As est configuré, les fichiers sources et/ou répertoires attendus, et que votre code source inclut des définitions de table (par exemple, CREATE MATERIALIZED VIEW dans le code SQL, @dlt.table dans le code Python).

Notez que seules les tables sont comptabilisées dans cette vérification. Vous pouvez également rencontrer cette erreur si vous incluez uniquement des vues ou des flux dans votre pipeline.

MODE_DE_SORTIE_NON_PRIS_EN_CHARGE_POUR_LE_FLUX_DE_TABLEAU

SQLSTATE : 42000

Le mode de sortie '<outputMode>' n’est pas pris en charge pour le flux de la table '<flowName>' vers la table cible '<target>'. Seul le mode « append » est pris en charge pour les flux de tables.

OWNER_IS_MISSING

SQLSTATE : 42000

Le propriétaire n’existe pas.

PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION

SQLSTATE : 42000

Vous pouvez fournir un <name> ou une pagination, mais pas les deux.

PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD

SQLSTATE : 42000

PatchPipelineDefinition prend uniquement en charge le schedule champ, mais la définition fournie avait d’autres champs remplis : «<updatedDefinition> ».

PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE

SQLSTATE : 42000

Les vues persistantes ne supportent pas la lecture de sources de diffusion en continu.

PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW

SQLSTATE : 42K0F

La vue persistante <persistedViewName> ne peut pas référencer une vue temporaire <temporaryViewName> qui ne sera pas disponible en dehors de l’étendue du pipeline. Rendez l’affichage persistant temporaire ou conservez l’affichage temporaire.

PIPELINE_CLONING_ALREADY_IN_PROGRESS

SQLSTATE : 42000

Le pipeline est déjà en cours de clonage avec l’ID « <pipelineId> ».

Clonage du pipeline : cible et schéma spécifiés simultanément

SQLSTATE : 42000

Impossible de spécifier à la fois « cible » et « schéma » lors du clonage d’un pipeline. Spécifiez un seul.

PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET

SQLSTATE : 42000

Impossible de cloner un pipeline avec « schéma » vers un pipeline avec « cible ». Le pipeline cloné doit également utiliser le « schéma » ou omettre les deux pour hériter de la valeur d’origine.

PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE

SQLSTATE : 42000

Impossible de cloner le pipeline avec l’ID «<pipelineId> » pendant une mise à jour active.

PIPELINE_CLONING_INVALID_FIELDS

SQLSTATE : 42000

La requête inclus dan les spécifications de pipeline des champs non valides pour le clonage. Les champs autorisés sont les suivants : nom, catalogue, cible, configuration.

PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET

SQLSTATE : 42000

Le pipeline avec l’ID '<pipelineId>' ne publie pas sur un schéma cible. Le pipeline source doit publier dans un schéma cible pour être cloné. Réessayez après avoir spécifié le champ « cible » dans la spécification du pipeline, puis exécutez une nouvelle mise à jour pour publier sur un schéma cible.

PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE

SQLSTATE : 42000

Le pipeline avec l’ID «<pipelineId> » est déjà un pipeline UC. Les pipelines UC ne peuvent pas être clonés.

PIPELINE_CLONING_NO_CATALOG_SPECIFIED

SQLSTATE : 42000

Aucun catalogue spécifié pour le clonage.

PIPELINE_CLONING_NO_MODE_SPECIFIED

SQLSTATE : 42000

Aucun mode clone spécifié.

PIPELINE_CLONING_NO_TARGET_SPECIFIED

SQLSTATE : 42000

Aucun catalogue cible spécifié pour le clonage.

PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE : 42000

La création de pipeline n’est pas activée pour cet espace de travail.

PIPELINE_DOES_NOT_EXIST

SQLSTATE : 42000

Le pipeline avec l’ID '<pipelineId>' n’existe pas.

Pour plus d’informations , consultez PIPELINE_DOES_NOT_EXIST

PIPELINE_ENVIRONMENT_NOT_ENABLED

SQLSTATE : 0A000

L’utilisation de l’environnement dans les pipelines déclaratifs Spark Lakeflow n’est pas activée.

PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED

SQLSTATE : 54000

L’environnement du pipeline ne prend actuellement pas en charge les différentes versions d’environnement.

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE

SQLSTATE : 55000

Le pipeline n’a pas pu mettre à jour la table UC (<tableName>) en raison de modifications simultanées après <attempts> tentatives.

Vérifiez qu’il n’existe pas de processus externes qui modifient la table, réessayez la mise à jour et contactez le support Databricks si ce problème persiste.

ÉCHEC DE MISE À JOUR DE LA TABLE UC EN RAISON D'UNE SUPPRESSION EXTERNE

SQLSTATE : 55000

La table <tableName> a été supprimée par une opération externe pendant la mise à jour du pipeline.

Vérifiez qu’aucun processus externe ne modifie la table, puis réessayez la mise à jour.

Si le problème persiste, contactez le support Databricks.

PIPELINE_FOR_TABLE_NEEDS_REFRESH

SQLSTATE : 55000

La table <tableName> n’est pas dans l’état requis, la table n’a pas été mise à jour récemment. Le pipeline avec l’ID '<pipelineId> doit être exécuté une fois de plus, puis réessayer l’opération.

PIPELINE_FOR_TABLE_NOT_FOUND

SQLSTATE : 42K03

Le pipeline avec l'ID «<pipelineId>», gérant la table <tableName>, est introuvable. Assurez-vous que vous êtes dans le même espace de travail que le pipeline, que vous êtes le propriétaire du pipeline et que le pipeline a été exécuté au moins une fois.

PIPELINE_GLOB_INCLUDES_CONFLICTS

SQLSTATE : F0000

Le champs glob ou notebook/file sous les bibliothèques des paramètres du pipeline doit être configuré. Modifiez les paramètres du pipeline.

PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED

SQLSTATE : 0A000

L’utilisation du champ glob pour inclure des fichiers sources est une fonctionnalité d’aperçu et est désactivée.

Sélectionnez à nouveau chaque fichier source à inclure pour que le pipeline corrige cette erreur.

Contactez le support Databricks pour en savoir plus sur cette fonctionnalité et inscrivez-vous dans la préversion.

PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER

SQLSTATE : 42000

Les caractères spéciaux <specialChar> sont réservés et ne doivent pas être utilisés dans le chemin d’accès «<path> » inclus dans les paramètres du pipeline. Supprimer ces caractères pour corriger l’erreur

PIPELINE_NAME_LIMIT_REACHED

SQLSTATE : 42000

Le nom ne peut pas dépasser <maxPipelineNameLength> caractères.

PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR

SQLSTATE : 42000

Échec du pipeline à analyser les tables sources (<tables>) en raison d’erreurs qui ne peuvent pas être réessayées après une exécution partielle.

Une mise à jour de pipeline ne sera pas créée.

<flowErrors>

Vérifiez le journal des événements et corrigez les problèmes en conséquence.

CANALISATION_NON_ÉLIGIBLE_POUR_RESTAURATION

SQLSTATE : 42000

Le pipeline '<pipelineId>' est en dehors de la période de restauration.

PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE : 0AKLT

Le pipeline, ayant l'ID '<pipelineId>', qui gère la table <tableName>, n’utilise pas le mode de publication directe.

PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

SQLSTATE : 55000

La table n’est pas encore prête pour l’actualisation

Pour plus de détails, consultez PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

PIPELINE_PERMISSION_DENIED_NOT_OWNER

SQLSTATE : 42501

Vous n’êtes pas autorisé à effectuer cette opération. Vous n’êtes pas le propriétaire du pipeline avec l’ID «<pipelineId> », gérant la table <tableName>.

ANALYSE_RÉESSAYABLE_PIPELINE

SQLSTATE : 42000

Le pipeline n’a pas pu analyser les tables sources (<tables>) en raison d'erreurs réessayables après l’exécution partielle.

Une nouvelle mise à jour de pipeline sera créée pour réessayer le traitement. Si l’erreur persiste, vérifiez le journal des événements et résolvez les problèmes en conséquence.

PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED

SQLSTATE : 42000

'<uneditableFieldName>' ne peut pas être modifié par les utilisateurs. Si les utilisateurs souhaitent ajouter ou modifier le <settingName>champ , utilisez plutôt le champ «<editableFieldName> ».

PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY

SQLSTATE : 42000

Les paramètres de pipeline ont été modifiés simultanément.

PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS

SQLSTATE : 42000

Les configurations <configurations> ne sont pas prises en charge par Spark Declarative Pipelines de Lakeflow. Supprimez ces configurations.

PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT

SQLSTATE : 42000

Le démarrage d’une mise à jour avec le paramètre « développement » n’est pas pris en charge.

PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE : 42000

Le pipeline doit avoir exactement une table, mais <tablesSize> tables ont été trouvées : <tables>

PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED

SQLSTATE : 54000

Le nombre de fichiers sources, y compris les fichiers déclarés dans les dossiers, dépasse la limite de <limit>.

Supprimez ou fusionnez des fichiers excessifs et modifiez les spécifications de pipeline correspondantes si nécessaire,

ou contactez le support Databricks pour demander une augmentation de limite.

PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED

SQLSTATE : 54000

Le dossier '<folder_path>' dépasse le niveau maximal d’imbrication du répertoire autorisé de <limit>. Réduisez le niveau d’imbrication des dossiers ou contactez le support Databricks pour demander une augmentation de limite.

PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED

SQLSTATE : 42000

La modification du paramètre <param> suivant dans les paramètres de pipeline n’est pas autorisée

PIPELINE_TYPE_NOT_SUPPORTED

SQLSTATE : 42000

Le type de pipeline « <pipelineType> » n’est pas pris en charge.

PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE : 0AKLT

Le pipeline avec l’ID «<pipelineId>», qui gère la table <tableName>, n’est pas un pipeline ETL.

PIPELINE_TYPE_QUOTA_EXCEEDED

SQLSTATE : 54000

Impossible de démarrer la mise à jour '<updateId> car la limite pour les pipelines actifs de type '<pipelineType>' a été atteinte.

PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING

SQLSTATE : 55000

Le pipeline avec l'ID «<pipelineId>», gérant la table <tableName>, est en cours d'exécution. Arrêtez le pipeline avant d’exécuter l’opération.

PIPELINE_WORKSPACE_LIMIT_REACHED

SQLSTATE : 42000

Création de pipeline du type «<pipelineType>» bloquée car l'espace de travail «<orgId>» possède déjà les pipelines «<countLimit>». Supprimez les pipelines inutilisés.

PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK

SQLSTATE : 42000

Cellules trouvées contenant une installation %pip qui ne se trouvent pas en haut du notebook pour « <notebookPath> »

Déplacez toutes les cellules d’installation %pip au début du notebook.

PY4J_BLOCKED_API

SQLSTATE : non assigné

Vous utilisez une API Python qui n’est pas prise en charge dans l’environnement actuel.

Consultez la documentation Databricks pour obtenir des alternatives.

<additionalInfo>

QUERY_BASED_CONNECTOR_SOURCE_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans l’appel d’API <sourceName> . Type d’API source : <qbcSourceApiType>.

Essayez d’actualiser le tableau de destination. Si le problème persiste, veuillez envoyer un ticket.

QUERY_BASED_INGESTION_CONNECTOR_ERROR

SQLSTATE : 0A000

Une erreur s’est produite dans le connecteur d’ingestion basé sur une requête pour <sourceName>.

Pour plus d’informations, voir QUERY_BASED_INGESTION_CONNECTOR_ERROR

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE : 0A000

Le recours au jeu de données Pipelines déclaratifs Spark Lakeflow <identifier> en dehors de la définition de requête du jeu de données, comme par exemple dans l'annotation @dlt.table, n'est pas pris en charge. Lisez-le à la place à l’intérieur de la définition de requête du jeu de données.

REFRESH_INITIATED_FROM_INVALID_WORKSPACE

SQLSTATE : 42000

L’actualisation doit être lancée dans l’espace de travail <homeWorkspaceId>, où la ressource a été créée.

L’actualisation a été tentée dans l’espace de travail <userWorkspaceId>.

REFRESH_MODE_ALREADY_EXISTS

SQLSTATE : 42710

Impossible d’ajouter <type> à une table qui a <existingType>déjà . Veuillez supprimer le programme existant ou utiliser ALTER TABLE...ALTER <type> pour le modifier.

REQUIRED_PARAM_NOT_FOUND

SQLSTATE : 42000

Le paramètre <param> obligatoire est introuvable.

RESERVED_KEYWORD_IN_USE_CATALOG

SQLSTATE : 42000

USE CATALOG '<reservedKeyword>' est illégal car '<reservedKeyword>' est un mot clé réservé dans les pipelines déclaratifs Spark Lakeflow.

RESERVED_KEYWORD_IN_USE_SCHEMA

SQLSTATE : 42000

USE SCHEMA '<reservedKeyword>' est illégal car '<reservedKeyword>' est un mot-clé réservé dans les pipelines déclaratifs Spark Lakeflow.

LES RESSOURCES SONT EN COURS D'APPROVISIONNEMENT

SQLSTATE : 42000

Les ressources du pipeline sont en cours d'approvisionnement pour le pipeline « <pipelineId> ».

RESSOURCE_EN_LECTURE_SEULE_DANS_L’ESPACE_DE_TRAVAIL

SQLSTATE : 42501

<resourceType> '<resourceName>' a été désigné en lecture seule dans l’espace de travail actuel.

RESTAURER_PIPELINE_NON_SUPPRIMÉ

SQLSTATE : 42000

Le pipeline '<pipelineId>' n’est pas supprimé. La restauration s’applique uniquement aux pipelines supprimés.

RESTAURATION_CHAÎNE_DÉSACTIVÉE

SQLSTATE : 42000

RestorePipeline n’est pas activé pour le type de pipeline <pipelineType>

Contactez le support Databricks pour obtenir de l’aide sur la restauration du pipeline «<pipelineId> ».

ROOT_PATH_NOT_FOUND

SQLSTATE : 42000

Impossible d’accéder au chemin racine '<rootPath>'. Vérifiez que vous disposez des privilèges d’accès requis.

RUN_AS_USER_NOT_FOUND

SQLSTATE : 28000

L’exécution spécifiée en tant qu’utilisateur «<runAsUserId> » pour la mise à jour n’existe pas dans l’espace de travail.

SAAS_CONNECTION_ERROR

SQLSTATE : KD000

Échec de la connexion à la <sourceName> source. Code d’erreur : <saasConnectionErrorCode>.

Pour plus d’informations , consultez SAAS_CONNECTION_ERROR

SAAS_CONNECTOR_DUPLICATE_DATA

SQLSTATE : 42000

Données en double trouvées dans la table <tableName>. Type de source : <sourceName>.

Pour plus d’informations , consultez SAAS_CONNECTOR_DUPLICATE_DATA

SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS

SQLSTATE : 42000

Include_columns non valide spécifié pour la table <qualifiedTableName>. Raison: <reason>

CONFIGURATION_DE_CLÉ_PRIMAIRE_INVALIDE_DE_SAAS_CONNECTOR

SQLSTATE : 42000

Configuration de clé primaire non valide pour la table <qualifiedTableName>. Raison: <reason>

ÉCHEC D'AUTHENTIFICATION MUTUELLE DE SAAS_CONNECTOR

SQLSTATE : KD000

Cette session n’a pas pu être mutuellement authentifiée pour une utilisation avec <sourceName>. Type d’API source : <saasSourceApiType>. Code d’erreur : <saasSourceApiErrorCode>.

Vérifiez que le certificat client et la clé privée sont une paire valide et approuvée par <sourceName>.

SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED

SQLSTATE : KD000

Le jeton d’actualisation de la connexion <connectionName> a expiré. Modifiez la connexion, ré-authentifiez et réexécutez votre pipeline.

SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SQLSTATE : 42KD4

Une modification de schéma s’est produite dans la table <tableName> de la source <sourceName>.

Pour plus d’informations, consultez SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans l’appel d’API <sourceName> . Type d’API source : <saasSourceApiType>. Code d’erreur : <saasSourceApiErrorCode>.

Essayez d’actualiser le tableau de destination. Si le problème persiste, veuillez envoyer un ticket.

SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE : KD000

Échec de l’échange de jeton OAuth pour la connexion UC : <connectionName>.

Cela peut être dû à des problèmes liés à vos informations d’identification UC. Vérifiez le suivi des erreurs, modifiez la connexion UC, ré-authentifiez et réexécutez le pipeline. Si l’erreur persiste, déposez un ticket.

SAAS_CONNECTOR_UNSUPPORTED_ERROR

SQLSTATE : 0A000

Une erreur non prise en charge s’est produite dans la source de données <sourceName>.

Pour plus d’informations, consultez SAAS_CONNECTOR_UNSUPPORTED_ERROR

SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT

SQLSTATE : 42KD4

Nous avons détecté des modifications de schéma incompatibles lors de l’initialisation du pipeline :

<details>

Effectuez une actualisation complète sur les tables affectées.

SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR

SQLSTATE : 42KD4

Erreur rencontrée lors de la création d’une entrée pour l’analyse partielle. Une mise à jour de pipeline ne sera pas créée.

Vérifiez le journal des événements et corrigez les problèmes en conséquence.

SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS

SQLSTATE : 42KD4

Le schéma analysé de la table source (<table>)a divergé de son schéma attendu.

Réessayez la mise à jour du pipeline et vérifiez si le problème est résolu.

Si ce problème persiste, effectuez une actualisation complète sur les tables mentionnées ci-dessus.

Schéma attendu :

<expectedSchema>

Schéma réel :

<actualSchema>

SAAS_UC_CONNECTION_INACCESSIBLE

SQLSTATE : 08000

La connexion <connectionName> fournie est inaccessible. Vérifiez la connexion et réessayez.

Pour plus d’informations, consultez SAAS_UC_CONNECTION_INACCESSIBLE

SCHEMA_SPEC_EMPTY_CATALOG

SQLSTATE : 3D000

SchemaSpec a une chaîne vide dans le champ catalogue.

Supprimez la chaîne vide ou ajoutez le nom du catalogue. (Si ce schéma n’appartient pas à un catalogue dans la source, ne définissez pas le champ.)

Détails des spécifications de schéma :

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE : 3F000

SchemaSpec a une chaîne vide dans le champ de schéma.

Supprimez la chaîne vide ou ajoutez le nom du schéma. (Si cette table n’appartient pas à un schéma dans la source, ne définissez pas le champ.)

Détails des spécifications de schéma :

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE : 42000

Au moins un catalogue source et un schéma source doivent être présents. Mais les deux sont vides.

Détails des spécifications de schéma :

<schemaSpec>

SEQUENCE_BY_COLUMN_NOT_FOUND

SQLSTATE : 42703

La définition du pipeline inclut la(les) colonne(s) sequence_by (<columnNames>) qui n’existent pas dans la table <qualifiedTableName> de la source <sourceType>. Supprimez ces colonnes du champ sequence_by.

POLITIQUE_BUDGÉTAIRE_SANS_SERVEUR_ET_POLITIQUE_D'UTILISATION_DEUX_FOIS_RÉGLÉE

SQLSTATE : 42000

Impossible de définir les deux budget_policy_id et usage_policy_id. Veuillez supprimer budget_policy_id.

SERVERLESS_BUDGET_POLICY_BAD_REQUEST

SQLSTATE : 42000

La stratégie budgétaire fournie avec l’ID « <budgetPolicyId> » ne peut pas être utilisée dans cet espace de travail en raison des contraintes de liaison de l’espace de travail de la stratégie.

SERVERLESS_BUDGET_POLICY_IS_INVALID

SQLSTATE : 42000

La politique de budget sans serveur avec l'ID '<budgetPolicyId>' n’est pas valide.

SERVERLESS_BUDGET_POLICY_MISSING

SQLSTATE : 42000

La politique de budget sans serveur avec l’ID '<budgetPolicyId>' n’existe pas.

SERVERLESS_BUDGET_POLICY_NOT_ENABLED

SQLSTATE : 0A000

La stratégie de budget serverless n’est pas activée, contactez le support Databricks.

SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT

SQLSTATE : 0A000

La stratégie de budget serverless n’est pas activée pour ce compte. L’utilisateur ne peut pas spécifier de stratégie budgétaire pour ce pipeline. L’administrateur de compte doit essayer de s'inscrire via le portail de l'aperçu des fonctionnalités. Si le problème persiste, contactez le support Databricks.

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE

SQLSTATE : 42000

La stratégie de budget serverless ne peut pas être affectée à un pipeline serverless.

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE

SQLSTATE : 42000

La stratégie de budget serverless n’est pas prise en charge pour le type de pipeline <pipelineType>.

SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED

SQLSTATE : 42000

L’utilisateur n’a pas l’autorisation d’utiliser une stratégie de budget serverless avec l’ID « <budgetPolicyId> ».

SERVERLESS_NOT_AVAILABLE

SQLSTATE : 0A000

Le calcul serverless n’est pas disponible. Pour plus d’informations, contactez Databricks.

SERVERLESS_NOT_ENABLED

SQLSTATE : 0A000

Vous ne pouvez pas utiliser de calcul sans serveur avec les pipelines déclaratifs Spark Lakeflow. Contactez Databricks pour activer cette fonctionnalité pour votre espace de travail.

SERVERLESS_NOT_ENABLED_FOR_USER

SQLSTATE : 0A000

Le calcul serverless n’est pas activé pour l’appelant. Contactez l’administrateur de votre espace de travail pour activer cette fonctionnalité.

SERVERLESS_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE : 0A000

Le calcul serverless n’est pas disponible pour cet espace de travail et/ou cette région. Pour plus d’informations, contactez Databricks.

SERVERLESS_REQUIRED

SQLSTATE : 42000

Vous devez utiliser le calcul sans serveur dans cet espace de travail.

SERVICENOW_CONNECTION_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

Pour plus d’informations , consultez SERVICENOW_CONNECTION_ERROR

SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

À ce stade, le pipeline d’ingestion ne peut pas ingérer la table «<tableName> », car la clé de curseur d’une ligne contient un champ vide.

Pour continuer à exécuter votre pipeline, supprimez cette table. Si l’erreur persiste, déposez un ticket.

SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

Échec de la connexion à l’instance ServiceNow. L’instance semble être en veille prolongée ou inactive.

Connectez-vous à votre portail d’administration ServiceNow et attendez un certain temps jusqu’à ce que l’instance se réveille complètement.

Si l’erreur persiste, déposez un ticket.

SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

Échec de la connexion à l’instance ServiceNow. L’instance est hors connexion.

Connectez-vous à votre portail d’administration ServiceNow et attendez un certain temps jusqu’à ce que l’instance restaure.

Si l’erreur persiste, déposez un ticket.

SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

Désolé... Nous n’avons pas pu interroger le schéma de la table «<tableName> ». La table n’existe pas dans le compte ServiceNow pour cet utilisateur.

Vérifiez le nom de la table pour toutes les fautes de frappe et vérifiez que l’utilisateur dispose des autorisations nécessaires pour accéder à la table.

Si l’erreur persiste, déposez un ticket.

SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

Échec de la connexion à l’instance ServiceNow. L’instance a des restrictions de contrôle d’accès aux adresses IP.

Pour résoudre ce problème, désactivez les restrictions d’adresse IP en accédant à ServiceNow >> Tous >>Sécurité système >> Contrôle d’accès d’adresse IP ou utilisez des adresses IP stables serverless

Si l’erreur persiste, déposez un ticket.

SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

URL de point de terminaison d’API ServiceNow non valide détectée. La structure d’URL ne correspond pas au format ServiceNow attendu.

Vérifiez la configuration de l’instance ServiceNow dans les informations d’identification de connexion UC.

Pour plus de détails, consultez SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

Cela se produit souvent lorsque la récupération des données d’une table prend trop de temps. Pour commencer, collaborez avec votre administrateur ServiceNow pour activer l’indexation sur la colonne de curseur.

La colonne de curseur est sélectionnée dans la liste suivante, dans l’ordre de disponibilité et de préférence : sys_updated_on (premier choix), sys_created_on (deuxième choix), sys_archived (troisième choix)

Pour obtenir des instructions sur l’activation de l’indexation dans ServiceNow, consultez ici : https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.

Nous vous recommandons également d’augmenter le délai d’expiration de requête de l’API REST à plus de 60 secondes pour permettre plus de temps d’extraction d’enregistrements.

Ensuite, réessayez votre pipeline d’ingestion. Si le problème persiste, déposez un ticket.

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

Lors de l’extraction du schéma de table avec des privilèges non administrateur, le "internal_type" des colonnes du schéma de la table n’est pas accessible.

Pour résoudre ce problème, accordez des autorisations de lecture sur la table « sys_glide_object » à l’utilisateur actuel.

Si l’erreur persiste, déposez un ticket.

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow lors de l’extraction du schéma de table.

Deux types de données en conflit ont été trouvés pour le champ «<fieldName> » : «<firstDataType> » et «<secondDataType> ».

Pour continuer à exécuter votre pipeline, supprimez cette table. Si l’erreur persiste, déposez un ticket.

SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans ServiceNow. Type d’API source : <saasSourceApiType>.

Pour plus d’informations , consultez SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE : 0AKLT

ALTER <commandTableType> ... SET TBLPROPERTIES n’est pas pris en charge. Pour modifier les propriétés de la table, modifiez la définition d’origine et exécutez une mise à jour.

SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE : KD000

L’ingestion de l’objet <objName> est incomplète, car le travail de requête de l’API Salesforce a pris trop de temps, a échoué ou a été annulé manuellement.

Pour plus de détails, consultez SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND

SQLSTATE : KD000

L’ingestion de l’objet <objName> a échoué, car le travail de requête d’API en bloc Salesforce est introuvable.

Cela est probablement dû au fait que le travail a été supprimé dans l’interface utilisateur Salesforce ou qu’il a été plus de 7 jours depuis la dernière mise à jour du pipeline, après quoi Salesforce supprime automatiquement le travail

Pour déclencher une nouvelle tâche par lots, effectuez l'opération FULL REFRESH sur la table de destination spécifique.

SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED

SQLSTATE : KD000

Une erreur s’est produite dans l’appel d’API Salesforce : limite d’API dépassée

Attendez que vos limites d’API soient réinitialisées. Essayez ensuite d’actualiser la table de destination.

Si l’erreur persiste, déposez un ticket.

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED

SQLSTATE : KD000

L’ingestion de l’objet <objName> est incomplète, car la création du travail de requête d’API en bloc Salesforce a échoué. Code d’erreur : <saasSourceApiErrorCode>.

<actionText>.

SFDC_CONNECTOR_MALFORMED_RECORDS

SQLSTATE : KD000

L’ingestion de l’objet Salesforce «<objName> » a échoué, car Salesforce <saasSourceApiType> a retourné des enregistrements mal formés.

Pour plus d’informations, consultez le stacktrace.

Vérifiez les données dans Salesforce et réexécutez le pipeline.

SINKS_NOT_SUPPORTED_IN_SEG

SQLSTATE : 0A000

Les récepteurs dans les pipelines déclaratifs Spark Lakeflow ne sont pas pris en charge dans les espaces de travail activés pour le contrôle de sortie sans serveur. Les cibles des pipelines déclaratifs Spark pris en charge sont Kafka et Delta.

Les récepteurs suivants, non pris en charge, ont été trouvés : <sinkNames> ; leurs formats correspondants sont : <sinkFormats>.

SOURCE_TABLE_NOT_MATERIALIZED

SQLSTATE : 42704

Désolé... Nous n’avons pas pu lire le jeu de données dépendant «<sourceTableName> », car il n’est pas matérialisé. Exécutez l’intégralité du pipeline pour matérialiser tous les jeux de données dépendants.

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND

SQLSTATE : 42000

Chemin de définition de l’élément de graphe '<graphElementName>' introuvable. Contactez le support Databricks.

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL

SQLSTATE : 42000

Aucun chemin de définition de pipeline n’est disponible dans le contexte d’exécution SQL Spark actuel. Contactez le support Databricks.

SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR

SQLSTATE : 42000

La définition de flux n’est pas prise en charge. Contactez le support Databricks. Commande : <defineFlowCommand>

SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE

SQLSTATE : 42000

Le type de sortie '<outputType>' n’est pas pris en charge dans Spark Connect. Contactez le support Databricks.

STANDALONE_PRIVATE_MVST_NOT_SUPPORTED

SQLSTATE : 0A000

La création d’une MV/ST autonome PRIVATE n’est pas prise en charge. Supprimez le PRIVATE modificateur

START_PYTHON_REPL_TIMED_OUT (Démarrage de la console interactive Python a expiré)

SQLSTATE : 53000

Délai d’expiration en attendant que le REPL Python démarre. Il a fallu plus de <timeoutSeconds> secondes.

STREAMING_TARGET_NOT_DEFINED

SQLSTATE : 42P01

Impossible de trouver la table <target> cible pour la <command> commande. La table <target> cible n’est pas définie dans le pipeline.

SYNCED_TABLE_USER_ERROR

SQLSTATE : 42000

Erreur utilisateur du pipeline de table synchronisée.

Pour plus d’informations , consultez SYNCED_TABLE_USER_ERROR

TABLE_CHANGED_DURING_OPERATION

SQLSTATE : 55019

La table <tableName> a été modifiée en dehors de cette transaction, et cette transaction a été annulée. Réessayez l’opération.

TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY

SQLSTATE : 42887

Mise à jour du pipeline : <pipelineId> a détecté une chaîne cyclique de contraintes de clé étrangère : <tables>.

TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED

SQLSTATE : 42000

TableSpec est manquant dans le catalogue source et/ou le schéma source.

Détails des spécifications du tableau :

<tableSpec>

TABLE_SPEC_EMPTY_CATALOG

SQLSTATE : 3D000

TableSpec a une chaîne vide dans le champ catalogue.

Supprimez la chaîne vide ou ajoutez le nom du catalogue. (Si cette table n’appartient pas à un catalogue dans la source, ne définissez pas le champ.)

Détails des spécifications du tableau :

<tableSpec>

TABLE_SPEC_EMPTY_SCHEMA

SQLSTATE : 3F000

TableSpec a une chaîne vide dans le champ de schéma.

Supprimez la chaîne vide ou ajoutez le nom du schéma. (Si cette table n’appartient pas à un schéma dans la source, ne définissez pas le champ.)

Détails des spécifications du tableau :

<tableSpec>

TABLE_SPEC_EMPTY_TABLE

SQLSTATE : 42601

Le nom de la table est vide. Indiquez un nom de table.

Détails des spécifications du tableau :

<tableSpec>

TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE

SQLSTATE : 42KD4

L’évolution du schéma ne peut pas être activée en raison de métadonnées manquantes. Déclenchez une actualisation complète.

Raison : le jeton de table d’instantanés doit être défini quand l’évolution du schéma est activée.

CANALISATION_SUPPRIMÉE_DANS_L'ESPACE_DE_TRAVAIL

SQLSTATE : 42000

Impossible de lancer le pipeline, car le pipeline est mis à la corbeille ou supprimé.

TRIGGER_INTERVAL_VALUE_INVALID

SQLSTATE : 22003

L’intervalle de déclencheur doit être une durée positive, la valeur acceptable maximale est de 2 147 483 647 secondes. Reçu : <actual> secondes.

DÉCLENCHEUR_NON_ACTIVÉ

SQLSTATE : 0A000

Les déclencheurs ne sont pas activés pour cet espace de travail. Activez les déclencheurs de table dans la page Aperçus.

TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED

SQLSTATE : 0A000

La source <source> est une vue qui lit à partir d'un emplacement de fichier, et cela n'est actuellement pas pris en charge par le trigger.

TRIGGER_REQUEST_SERIALIZATION_ERROR

SQLSTATE : 54000

Un problème s’est produit lors du traitement de votre demande. Contactez le support Databricks.

TYPE_SÉCURISABLE_DE_DÉCLENCHEUR_NON_SUPPORTÉ

SQLSTATE : 0A000

Échec de l’installation du déclencheur : type de table non pris en charge. Consultez la documentation relative aux types pris en charge.

TRIGGER_SOURCE_TYPE_NOT_SUPPORTED

SQLSTATE : 0A000

La source <source> avec type <type> n’est actuellement pas prise en charge par le déclencheur.

TRIGGER_STATE_SERIALIZATION_ERROR

SQLSTATE : 54000

Un problème s’est produit lors du traitement de votre demande. Contactez le support Databricks.

Limite_de_table_des_déclencheurs_dépassée

SQLSTATE : 54000

Échec de la configuration du déclencheur : le déclencheur inclut plus de tables que la limite autorisée. Consultez la documentation pour plus d’informations sur les limites de table et sur la façon de résoudre ce problème.

TYPE_DE_TABLE_NON_SUPPORTÉE_PAR_LE_DÉCLENCHEUR

SQLSTATE : 0A000

Échec de l’installation du déclencheur : type de table non pris en charge. Consultez la documentation relative aux types pris en charge.

UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE : 0AKD0

L’effacement du champ de schéma cible dans n’est pas autorisé pour les pipelines UC. Raison : <reason>.

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE : 22023

Le rôle IAM pour l'identifiant de stockage n'était pas auto-assumant.

Vérifiez la confiance de votre rôle et les stratégies IAM pour vous assurer que votre rôle IAM peut s’assumer conformément à la documentation des informations d’identification de stockage du catalogue Unity.

UC_NOT_ENABLED

SQLSTATE : 0A000

L’utilisation du catalogue UC dans les pipelines déclaratifs Lakeflow Spark n’est pas activée.

UC_PIPELINE_CANNOT_PUBLISH_TO_HMS

SQLSTATE : 42000

Les pipelines compatibles UC ne peuvent pas publier sur le metastore Hive. Choisissez un autre catalogue cible.

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE : 0AKD0

Le champ de schéma cible est requis pour les pipelines UC. Raison : <reason>.

UNABLE_TO_INFER_TABLE_SCHEMA

SQLSTATE : 42KD9

Impossible de déduire le schéma de la table <tableName> à partir de ses flux en amont.

Modifiez les flux qui écrivent dans cette table pour rendre leurs schémas compatibles.

Schéma déduit jusqu’à présent :

<inferredDataSchema>

Schéma incompatible :

<incompatibleDataSchema>

UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR

SQLSTATE : 42501

Erreur inattendue lors de la vérification des autorisations de schéma pour le pipeline <pipelineId>. Contactez le support Databricks.

INCOMPATIBILITÉ_D'UNIFORME_NE_PEUT_PAS_ÊTRE_PARAMÉTRÉ_AVEC_ROW_FILTERS_OU_COLUMN_MASKS

SQLSTATE : 42000

La compatibilité uniforme ne peut pas être définie sur des vues matérialisées ou des tables de diffusion en continu qui ont un filtre de lignes ou des masques de colonne appliqués.

UNITY_CATALOG_INITIALIZATION_FAILED

SQLSTATE : 56000

Une erreur s’est produite avec le catalogue Unity lors de la configuration du pipeline sur le cluster <clusterId>.

Vérifiez que votre configuration de catalogue Unity est correcte et que les ressources requises (par exemple, catalogue, schéma) existent et sont accessibles.

Vérifiez également que le cluster dispose des autorisations appropriées pour accéder au catalogue Unity.

Détails : <ucErrorMessage>

UNRESOLVED_SINK_PATH

SQLSTATE : 22KD1

Impossible de résoudre le chemin de stockage du récepteur <identifier> . Contactez le support Databricks.

UNRESOLVED_TABLES_FOR_MAINTENANCE

SQLSTATE : 55000

Les tableaux suivants ont été trouvés dans la définition du pipeline, mais ils n’ont pas pu être résolus pendant la maintenance. Exécutez une exécution de mise à jour de pipeline avec la dernière définition de pipeline pour matérialiser toutes les tables de la définition du pipeline et débloquer la maintenance, ou contactez le support Databricks si le problème persiste.

<unresolvedTableIdentifiersSet>

UNRESOLVED_TABLE_PATH

SQLSTATE : 22KD1

Impossible de résoudre le chemin de stockage de la table <identifier> . Contactez le support Databricks.

UNSUPPORTED_ALTER_COMMAND

SQLSTATE : 0A000

ALTER <commandTableType> ... <command> n’est pas pris en charge.

UNSUPPORTED_CHANNEL_FOR_DPM

SQLSTATE : 0A000

Canal non pris en charge pour le mode de publication directe. Canal « CURRENT » ou « PREVIEW » attendu, mais « PREVIOUS » reçu

UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE

SQLSTATE : 0A000

<command> uniquement pris en charge lorsque le mode de publication directe du pipeline déclaratif Spark est activé

UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION

SQLSTATE : 0A000

'<command>' n’est pas pris en charge dans la définition de requête. Déplacez la commande en dehors de la définition de requête. S’il s’agit d’un pipeline déclaratif Spark en Python, déplacez le « <command> » en dehors du décorateur @dlt.table()/@dlt.view(). S’il s’agit d’un pipeline déclaratif Spark en Scala, déplacez le «<command> » en dehors de la méthode « query ».

UNSUPPORTED_CUSTOM_DBR_VERSION

SQLSTATE : 42000

La version DBR personnalisée '<v>' n’est pas prise en charge dans les espaces de travail SHIELD et HIPAA. Une des [<supportedDbrVersions>] attendues

APERÇU_D'UN_SCHÉMA_PERSONNALISÉ_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

La préversion privée du schéma personnalisé est désactivée.

Créez un pipeline avec le mode de publication par défaut, à l’aide du champ « schéma »

Dans la spécification du pipeline, transférez les jeux de données de ce pipeline vers le nouveau pipeline.

Activation_de_la_prévisualisation_de_schéma_personnalisé_non_pris_en_charge

SQLSTATE : 0A000

La préversion privée du schéma personnalisé est désactivée et vous ne pouvez pas ajouter l’aperçu à un pipeline.

Supprimez <sparkConfKeys> de la configuration du pipeline.

UNSUPPORTED_DBR_VERSION

SQLSTATE : 42000

La version DBR '<v>' n’est pas prise en charge. Une des [<supportedDbrVersions>] attendues

UNSUPPORTED_FEATURE_FOR_WORKSPACE

SQLSTATE : 0A000

<featureName> n’est pas pris en charge dans votre espace de travail. Contactez le support Databricks pour activer cette fonctionnalité pour votre espace de travail.

UNSUPPORTED_LANGUAGE

SQLSTATE : 0A000

Désolé... Nous n’avons pas pu charger <language> le bloc-notes «<notebookPath> ». Seuls les notebooks <supportedLanguages> sont pris en charge actuellement.

UNSUPPORTED_LIBRARY_FILE_TYPE

SQLSTATE : 0A000

Le fichier à <path> ne porte pas le suffixe .py ou .sql. Seuls les fichiers Python et SQL sont pris en charge dans les pipelines.

UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE

SQLSTATE : 0A000

Langue <language> non prise en charge pour le notebook <path>. Seuls Python et SQL sont pris en charge dans les pipelines

UNSUPPORTED_LIBRARY_OBJECT_TYPE

SQLSTATE : 0A000

L’objet inclus à l’emplacement <path> est de type <objectType>, qui n’est pas pris en charge. Actuellement, seuls les notebooks et les fichiers peuvent être utilisés en tant que bibliothèques. Pour résoudre ce problème, supprimez l’objet non pris en charge ou mettez à jour les bibliothèques configurées pour ce pipeline afin que seuls les types d’objets pris en charge soient inclus.

UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE

SQLSTATE : 0A000

Définition de pipeline d’ingestion managée non valide, type de source non pris en charge : <sourceType>.

TYPE_DE_MISE_À_JOUR_MULTIPLE_NON_PRIS_EN_CHARGE

SQLSTATE : 0A000

Les opérations "valider uniquement", "explorer uniquement" et "rembobiner les mises à jour" sont mutuellement exclusifs. Au maximum un doit être défini.

UNSUPPORTED_REWIND

SQLSTATE : 0A000

Les opérations de rembobinage ne sont pas encore activées pour cet espace de travail.

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE : 0A000

Le type <ingestionType> d’ingestion fourni n’est pas pris en charge.

Contactez le support Databricks si ce problème persiste.

UNSUPPORTED_SPARK_SQL_COMMAND

SQLSTATE : 0A000

'<command>' n’est pas pris en charge dans l’API spark.sql(« ... ») de Lakeflow Spark Declarative Pipelines en Python. Commande prise en charge : <supportedCommands>.

UNSUPPORTED_SQL_STATEMENT

SQLSTATE : 0A000

Instruction SQL non prise en charge pour <datasetType> '<datasetName> : <operation> n’est pas prise en charge.

UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE

SQLSTATE : 42000

Seuls DBSQL pipelines peuvent avoir une définition mise à jour.

USE_CATALOG_IN_HMS

SQLSTATE : 0A000

USE CATALOG uniquement pris en charge dans le pipeline déclaratif Spark prenant en charge l’UC

VIEW_TEXT_NOT_SAVED_IN_UC

SQLSTATE : 42000

Impossible d’actualiser la table <tableName> , car elle n’a pas de requête enregistrée dans le catalogue Unity. Contactez le support Databricks.

WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED

SQLSTATE : KD000

Une erreur s’est produite dans Workday HCM. Type d’API source : <saasSourceApiType>.

Échec de l’extraction du lot à l’offset «<offset> ».

Essayez d’actualiser le tableau de destination. Si le problème persiste, veuillez envoyer un ticket.

WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les rapports Workday. Type d’API source : <saasSourceApiType>.

Désolé... Nous n’avons pas pu extraire les données du rapport «<reportUrl> ». Le client OAuth n'a pas un accès suffisant aux autorisations pour récupérer le rapport.

Pour résoudre ce problème, vérifiez que le client OAuth a les étendues nécessaires configurées dans Workday.

Si l’erreur persiste, déposez un ticket.

WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les rapports Workday. Type d’API source : <saasSourceApiType>.

Le rapport Workday '<reportUrl>' attend le paramètre '<missingParam>'.

Vérifiez que tous les paramètres du rapport sont inclus dans l’URL ; vous pouvez vérifier la configuration du rapport Workday pour identifier les paramètres obligatoires.

Si le problème persiste, déposez un ticket.

WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les rapports Workday. Type d’API source : <saasSourceApiType>.

L’URL du rapport '<reportUrl>' est incorrecte. Vérifiez les fautes de frappe dans l’URL de base ou le nom du rapport pour résoudre le problème.

Si le problème persiste, déposez un ticket.

WORKDAY_REPORTS_CONNECTOR_REPORT_SIZE_EXCEEDED_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les rapports Workday. Type d’API source : <saasSourceApiType>.

La taille du rapport avec l’URL «<reportUrl> » est supérieure à 2 Go. Vérifiez que la taille du rapport ne dépasse pas cette limite.

Si le problème persiste, déposez un ticket.

WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les rapports Workday. Type d’API source : <saasSourceApiType>.

Pour plus de détails, consultez WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

WORKDAY_REPORT_URL_EMPTY

SQLSTATE : 42000

L’URL du rapport Workday est vide. Au moins un rapport doit être fourni.

WORKSPACE_QUOTA_EXCEEDED

SQLSTATE : 54000

Impossible de démarrer la mise à jour «<updateId> », car il existe déjà des<maxActiveUpdates> pipelines actifs en cours d’exécution dans cet espace de travail.

Installation

ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND

SQLSTATE : non assigné

Le fichier YAML de l’environnement de base est manquant. Vérifiez que le fichier existe dans le chemin d’accès spécifié.

Description : Se produit lorsque le fichier YAML de l’environnement de base requis est introuvable à l’emplacement attendu.

Action suggérée : vérifiez que le fichier YAML de l’environnement de base existe dans le chemin d’accès spécifié et réessayez l’installation.

ERROR_BASE_ENVIRONMENT_FILE_READ

SQLSTATE : non assigné

Échec de la lecture du fichier d’environnement de base en raison d’une syntaxe ou d’un format incorrect du fichier YAML. Passez en revue le contenu du fichier.

Description : se produit lorsque le fichier YAML de l’environnement de base contient des erreurs de syntaxe ou de format.

Action suggérée : Validez et corrigez la syntaxe YAML dans le fichier d’environnement, puis réessayez l’installation.

ERROR_CONNECTION_REFUSED (Connexion refusée)

SQLSTATE : non assigné

Impossible de se connecter au référentiel de packages. Vérifiez la connectivité réseau, les paramètres de pare-feu ou la disponibilité des référentiels.

Description : Se produit lorsque pip ne peut pas établir une connexion au référentiel de package distant en raison de problèmes réseau, de restrictions de pare-feu ou de temps d’arrêt du référentiel.

Action suggérée : vérifiez la connectivité réseau, vérifiez les paramètres du pare-feu ou du proxy, vérifiez que l’URL du référentiel est accessible et réessayez ultérieurement si le référentiel peut être temporairement indisponible.

ERROR_CORE_PACKAGE_VERSION_CHANGE

SQLSTATE : non assigné

Le package installé n’est pas compatible avec les packages de base Databricks. Alignez les versions du package avec les versions de bibliothèque préinstallées et réessayez les installations.

Description : Se produit lorsqu’une version de dépendance principale Databricks (par exemple, pyspark) est modifiée.

Action suggérée : alignez les versions de package installées avec les bibliothèques préinstallées et réessayez l’installation.

ERREUR_PACKAGE_CRAN_NON_DISPONIBLE

SQLSTATE : non assigné

Le package CRAN n’est pas disponible pour la version R préinstallée sur ce calcul.

Description : se produit lorsqu’un package R n’est pas publié pour la version R installée sur le calcul.

Action suggérée : basculer vers un calcul avec une version R compatible ou choisir une autre version de package.

ERROR_DBFS_DISABLED

SQLSTATE : non assigné

L’accès racine DBFS public est désactivé. Utilisez un autre stockage.

Description : se produit lors de la tentative d’installation de bibliothèques à partir de DBFS, mais la racine DBFS publique est désactivée dans l’espace de travail.

Action suggérée : utilisez d’autres emplacements de stockage tels que les volumes UC, les fichiers d’espace de travail ou le stockage distant.

ERROR_DIRECTORY_NOT_INSTALLABLE

SQLSTATE : non assigné

Le répertoire n’est pas installé en raison d’une structure de package Python non valide. Vérifiez que le répertoire est correctement configuré.

Description : se produit lorsque l’installation pip est exécutée sur un répertoire sans structure de package Python valide.

Action suggérée : vérifiez que le répertoire contient setup.py ou pyproject.toml et réessayez, ou empaquetez-le en tant que wheel.

Erreur: INSTALLATION_DUPLIQUÉE

SQLSTATE : non assigné

Détection d'une installation de paquet en double. Essayez de supprimer l’entrée de package dupliquée pour le package et de redémarrer le cluster.

Description : se produit lorsque le même package est déjà installé sur le cluster et qu’une installation en double est tentée.

Action suggérée : supprimez les entrées du package en double et redémarrez le cluster.

ERREUR_FONCTIONNALITÉ_DÉSACTIVÉE

SQLSTATE : non assigné

Les volumes catalogue Unity sont désactivés dans l’espace de travail. Contactez l’administrateur de l’espace de travail pour activer cette fonctionnalité.

Description : se produit lorsque les volumes catalogue Unity sont désactivés dans l’espace de travail, ce qui empêche l’installation des volumes UC.

Action suggérée : contactez l’administrateur de votre espace de travail pour activer les volumes de catalogue Unity ou utilisez un autre stockage.

ERROR_HASH_MISMATCH

SQLSTATE : non assigné

Incompatibilité d'empreinte de paquet détectée. Le hachage du package téléchargé ne correspond pas à son hachage attendu.

Description : se produit lorsque le hachage d’un package téléchargé ne correspond pas à son hachage attendu.

Action suggérée : réessayez l’installation, redémarrez le cluster et/ou déplacez de grandes installations de package vers les fichiers d’espace de travail, les volumes UC ou un dépôt PyPI privé.

ERREUR_FICHIER_INVALIDE

SQLSTATE : non assigné

Impossible d’installer le fichier spécifié en raison d’un type de fichier incorrect. Vérifiez que vous utilisez le type de fichier valide et pris en charge.

Description : se produit lorsque le fichier de bibliothèque spécifié ne peut pas être installé en raison d’un type ou d’un format de fichier incorrect.

Action suggérée : utilisez un type de fichier de bibliothèque pris en charge (par exemple, wheel, jar) et vérifiez la validité du chemin d’accès.

ERREUR_EXIGENCE_INVALIDE

SQLSTATE : non assigné

Syntaxe incorrecte ou entrées incorrectes dans les dépendances de fichier ou de package requises. Vérifiez et corrigez le contenu des dépendances de fichier et de package requises.

Description : Format d’exigence non valide ou incorrect détecté dans votre fichier de configuration requise ou dans les spécifications de dépendance d’un package.

Action suggérée : utilisez le format correct (par exemple, « library-name==version ») dans les fichiers requis, vérifiez que les formats de dépendance de package sont valides et vérifiez les fautes de frappe ou les spécificateurs de version non pris en charge.

ERREUR_POINT_D'ENTRÉE_SCRIPT_INVALIDE

SQLSTATE : non assigné

Point d’entrée de script non valide. Vérifiez les points d’entrée du package ou le fichier setup.py.

Description : se produit lorsque le point d’entrée de script de console spécifié n’existe pas dans les métadonnées du package.

Action suggérée : vérifiez le nom du point d’entrée dans setup.py ou pyproject.toml, ou contactez le gestionnaire de maintenance du package.

ERREUR_CONFIGURATION_DE_STOCKAGE_INVALIDE

SQLSTATE : non assigné

Valeur de configuration de stockage non valide détectée pour le compte de stockage cloud. Vérifiez la configuration du stockage, les paramètres du compte et les informations d’identification.

Description : se produit lorsque la configuration du compte de stockage cloud est malformée ou incorrecte.

Action suggérée : corrigez la configuration de stockage du compte et réessayez l’installation.

ERREUR_ENTRÉE_UTILISATEUR_INVALIDE

SQLSTATE : non assigné

Syntaxe ou arguments de package non valides fournis. Vérifiez que les options d’entrée et d’installation de la bibliothèque sont valides.

Description : se produit lorsque pip est appelé avec des options ou arguments non valides.

Action suggérée : vérifiez les options pip et la syntaxe de commande, corrigez l’entrée et réessayez l’installation.

ERREUR_ROUE_INVALIDE

SQLSTATE : non assigné

Fichier de roue endommagé, mal formé ou non valide détecté. Vérifiez le fichier wheel ou réessayez l’installation.

Description : se produit lorsque pip rencontre un fichier roue endommagé, incomplet ou mal formé lors de l’installation.

Action suggérée : effacer le cache pip, re-télécharger ou reconstruire le fichier wheel, la réinstaller et vérifier son intégrité avant de réessayer.

ERROR_JAR_EVICTED

SQLSTATE : non assigné

Le package JAR a été supprimé par le programme de résolution en raison de conflits de version. Résolvez les conflits de version de dépendance.

Description : se produit lorsque la résolution de dépendances Maven supprime un fichier jar en raison de conflits de version avec d’autres dépendances.

Action suggérée : résolvez les conflits dans votre configuration de dépendance ou utilisez des remplacements de version explicites.

ERROR_MAVEN_LIBRARY_RESOLUTION

SQLSTATE : non assigné

Impossible de résoudre les coordonnées de la bibliothèque Maven. Vérifiez les détails de la bibliothèque, l’accès au référentiel ou la disponibilité du référentiel Maven.

Description : Se produit lorsque Maven ne peut pas trouver ou résoudre la bibliothèque spécifiée en raison de coordonnées incorrectes, de problèmes réseau ou de temps d’arrêt du référentiel.

Action suggérée : vérifiez le format groupId :artifactId :version, vérifiez les URL et les informations d’identification du référentiel, essayez d’autres référentiels ou réessayez ultérieurement si le référentiel peut être temporairement indisponible.

ERREUR_AUCUNE_DISTRIBUTION_CORRESPONDANTE

SQLSTATE : non assigné

Impossible de télécharger ou d’accéder aux ressources de stockage cloud spécifiées, généralement en raison de configurations incorrectes, de dépendances manquantes ou de problèmes de connectivité. Veuillez consulter la configuration du stockage cloud.

Description : se produit lorsque le cluster ne peut pas télécharger ou installer des fichiers de bibliothèque à partir du stockage cloud, généralement en raison de configurations incorrectes, de dépendances manquantes ou de problèmes réseau.

Action suggérée : vérifiez que les URI de stockage cloud sont corrects, que les informations d’identification sont valides et que tous les proxys réseau ou bibliothèques requis sont correctement configurés, puis réessayez l’installation.

ERROR_NO_SUCH_FILE_OR_DIRECTORY

SQLSTATE : non assigné

Le fichier de bibliothèque n’existe pas ou l’utilisateur n’a pas l’autorisation de lire le fichier de bibliothèque. Vérifiez si le fichier de bibliothèque existe et que l’utilisateur dispose des autorisations appropriées pour accéder au fichier.

Description : se produit lorsque le fichier spécifié est manquant ou inaccessible au chemin donné pendant l’installation de la bibliothèque.

Action suggérée : vérifiez que le fichier existe au niveau du chemin spécifié, corrigez le chemin d’accès ou chargez le fichier manquant et vérifiez les autorisations appropriées.

ERREUR_OPÉRATION_NON_SUPPORTÉE

SQLSTATE : non assigné

L’installation de la bibliothèque n’est pas prise en charge pour ce type de fichier à partir du système de fichiers demandé. Vérifiez le type de bibliothèque et reportez-vous au guide utilisateur sur la bibliothèque prise en charge sur le calcul actuel.

Description : se produit lorsque le système de fichiers cible, le type de fichier ou le type de calcul ne prend pas en charge l’opération demandée pendant l’installation.

Action suggérée : utilisez un système de fichiers, un type de fichier ou un type de calcul pris en charge, ou ajustez la cible d’installation à un emplacement pris en charge.

ERREUR_PERMISSION_REFUSÉE

SQLSTATE : non assigné

L’utilisateur n’a pas l’autorisation suffisante pour installer le package. Vérifiez les droits d’accès au fichier et au répertoire pour l’utilisateur.

Description : se produit lorsque l’utilisateur d’installation ne dispose pas de l’autorisation de lire ou d’écrire un fichier ou un répertoire pendant l’installation.

Action suggérée : vérifiez et accordez des autorisations appropriées sur l’annuaire cible ou contactez votre administrateur système.

Erreur de Configuration PIP

SQLSTATE : non assigné

L'utilisateur a essayé d'installer une bibliothèque Python, mais le fichier de configuration pip au niveau du cluster ou de l'espace de travail contient des erreurs de syntaxe ou est incorrectement formé. Vérifiez et corrigez le fichier de configuration pip.

Description : se produit lorsque le fichier de configuration de pip comporte des erreurs de syntaxe ou est mal formé.

Action suggérée : corrigez les erreurs de syntaxe dans le fichier de configuration pip, supprimez le fichier de configuration pour utiliser les paramètres par défaut, redémarrez le cluster et réessayez l’installation.

Erreur de restauration du REPL Python (ERROR_PYTHON_REPL_RESTORE_FAILURE)

SQLSTATE : non assigné

Échec de la restauration REPL Python après l’installation du package.

Description : Se produit généralement lorsque les packages Python principaux sont mis à jour de manière à ce qu’ils interrompent l’environnement d’exécution pendant la restauration.

Action suggérée : passez en revue les packages récemment installés et les packages d’installation compatibles avec les valeurs par défaut de l’environnement Databricks, telles que numpy, pandas, pyspark et d’autres bibliothèques standard. Vérifiez que les versions sont compatibles avec votre version de Databricks Runtime. En cas d’échec, contactez le support Databricks.

ERROR_REQUIREMENTS_FILE_INSTALLATION - Erreur d'installation du fichier de configuration

SQLSTATE : non assigné

Les fichiers requirements.txt qui contiennent un volume de Unity Catalog ou une référence de fichier d’espace de travail ne sont pas pris en charge sur les clusters non compatibles avec Unity Catalog. Utilisez un cluster compatible UC pour installer requirements.txt qui fait référence à un volume UC ou à un fichier de workspace.

Description : se produit lorsque requirements.txt inclut des volumes UC ou des références de fichiers d’espace de travail sur un cluster non activé par UC.

Action suggérée : utilisez un cluster compatible UC pour le fichier requirements.txt qui fait référence aux fichiers de l’espace de travail ou aux fichiers UC, ou supprimez ces références.

ERROR_REQUIRE_HASHES

SQLSTATE : non assigné

Hachages manquants lorsque pip est exécuté en mode --require-hashes et une exigence n’a pas de hachage. Répondez aux exigences de hachage ou désactivez la vérification du hachage.

Description : se produit lorsque pip est exécuté en mode --require-hashes et qu’une exigence n’a pas de hachage.

Action suggérée : ajoutez des hachages pour tous les packages dans requirements.txt ou supprimez l’indicateur --require-hashes.

ERROR_RESTART_PYTHON

SQLSTATE : non assigné

Échec du redémarrage du processus Python. Cela peut être dû à la mise à jour de la version d’un package qui est en conflit avec les bibliothèques runtime préinstallées. Vérifiez et alignez les dépendances de package et leurs versions.

Description : Se produit lorsque l’environnement Python ne peut pas être redémarré après l’installation de la bibliothèque, souvent en raison de conflits entre les packages installés et les bibliothèques Databricks Runtime préinstallées.

Action suggérée : aligner les versions de package installées avec les bibliothèques Databricks Runtime préinstallées pour éviter les conflits et les erreurs de redémarrage de Python.

ERREUR_RESTART_SCALA

SQLSTATE : non assigné

Échec du redémarrage du processus Scala. Cela peut être dû à une incompatibilité de version Scala dans les fichiers JARs scala (par exemple, en exécutant 2.12 jar sur un noyau 2.13). Vérifiez et alignez les versions Scala.

Description : se produit lorsque l’environnement Scala ne peut pas être redémarré, souvent en raison de conflits d’incompatibilité de version Scala dans les jars scalaires.

Action suggérée : aligner les versions jar scala avec la version scala du noyau pour éviter les conflits et les erreurs de redémarrage Scala.

ERROR_S3_FORBIDDEN - Accès refusé à S3

SQLSTATE : non assigné

Accès refusé à la ressource S3. Vérifiez les autorisations IAM et les stratégies de compartiment.

Description : les informations d’identification AWS du cluster ne disposent pas des autorisations suffisantes pour accéder à la ressource S3 spécifiée.

Action suggérée : vérifiez et mettez à jour les stratégies de compartiment S3 ou les rôles IAM pour accorder l’accès en lecture nécessaire au cluster.

ERROR_SCALA_INSTALLATION

SQLSTATE : non assigné

Échec de l’installation des dépendances Java en raison de problèmes d’autorisation ou de fichiers manquants.

Description : se produit lorsque les dépendances Java ne peuvent pas être installées, souvent en raison de chemins d’accès, d’URL ou d’autorisations de fichier insuffisantes.

Action suggérée : vérifiez les chemins d’accès et les URL du fichier, vérifiez les autorisations appropriées et réessayez l’installation.

ERROR_SETUP_PY_FAILURE

SQLSTATE : non assigné

Les setup.py du package Python ne s’exécutaient pas correctement en raison de problèmes de compatibilité, de dépendances manquantes ou d’erreurs de configuration. Vérifiez le fichier d’installation de vos dépendances.

Description : se produit lorsque le script setup.py du package échoue en raison de problèmes de compatibilité, de dépendances manquantes ou d’erreurs de configuration.

Action suggérée : mettre à jour les versions du package, installer les dépendances manquantes, remplacer les packages déconseillés et vérifier le script setup.py.

ERREUR_VIOLATION_SSL

SQLSTATE : non assigné

Pip a rencontré des problèmes de négociation SSL ou de vérification de certificat. Passez en revue les configurations et certificats SSL sur votre calcul ou espace de travail.

Description : se produit lorsque pip rencontre des problèmes d'établissement de la connexion SSL ou de vérification de certificat lors de la connexion à des dépôts de paquets.

Action suggérée : vérifiez que les certificats SSL sont valides, configurez les hôtes approuvés dans pip ou vérifiez le paramètre SSL réseau.

ERROR_UC_ASSET_NOT_FOUND

SQLSTATE : non assigné

Objet Unity Catalogue introuvable. Vérifiez que le catalogue, le schéma et le volume existent.

Description : se produit lorsque le volume, le catalogue ou le schéma du catalogue Unity spécifié n’existe pas ou est inaccessible

Action suggérée : vérifiez que le chemin de l’objet Catalogue Unity est correct et que l’objet existe dans votre compte.

ERREUR_TYPE_DE_BIBLIOTHÈQUE_NON_PRIS_EN_CHARGE

SQLSTATE : non assigné

Le type de bibliothèque n’est pas pris en charge sur ce calcul. Vérifiez les bibliothèques prises en charge pour le type de calcul.

Description : se produit lors de la tentative d’installation d’un type de bibliothèque qui n’est pas compatible avec le calcul sélectionné.

Action suggérée : utilisez un type de bibliothèque pris en charge pour ce calcul ou basculez vers un calcul qui prend en charge ce libraryType.

ERREUR_VERSION_PYTHON_NON_PRIS_EN_CHARGE

SQLSTATE : non assigné

La bibliothèque Python n’est pas compatible avec la version Python sur ce calcul. Utilisez un calcul avec une version de Python compatible.

Description : Se produit quand la contrainte d’un python_requires package ne correspond pas à la version python en cours d’exécution sur le calcul.

Action suggérée : installez une version de package qui prend en charge la version actuelle de Python ou modifiez la version de calcul.

ERROR_UNSUPPORTED_SSL_ENABLED: Erreur - SSL non pris en charge activé

SQLSTATE : non assigné

L’installation échoue lorsque la configuration spark.ssl.enabled est activée, ce qui n’est pas pris en charge pour l’installation de la bibliothèque. Désactivez la configuration SSL et redémarrez le cluster.

Description : se produit lorsque la configuration spark.ssl.enabled est activée, qui n’est pas prise en charge pour l’installation de la bibliothèque.

Action suggérée : désactivez la configuration SSL (par exemple, définissez spark.ssl.enabled=false ou set spark.databricks.libraries.ignoreSSL=true) et redémarrez le cluster.

ERROR_USER_NOT_FOUND_IN_WORKSPACE

SQLSTATE : non assigné

L’installation de la bibliothèque a échoué, car l’utilisateur n’a pas été trouvé dans l’espace de travail. Cela se produit généralement lorsqu’un utilisateur a été supprimé de l’espace de travail, mais que son jeton est toujours utilisé.

Description : se produit lorsque le jeton d’accès d’un utilisateur est en cours d’utilisation, mais que l’utilisateur n’existe plus dans l’espace de travail spécifié.

Action suggérée : vérifiez que l’utilisateur a accès à l’espace de travail ou mettez à jour la configuration du cluster pour utiliser les informations d’identification d’un utilisateur valides.

ERROR_VOLUME_PERMISSION_DENIED

SQLSTATE : non assigné

Autorisations insuffisantes sur le volume catalogue Unity. Vérifiez les droits d’accès au volume UC ou demandez l’accès au propriétaire du volume UC.

Description : se produit lorsque l’utilisateur ne dispose pas d’autorisations sur le volume UC spécifié.

Action suggérée : demandez des autorisations READ sur le volume catalogue Unity auprès du propriétaire ou de l’administrateur du volume.

ERROR_WHEEL_BUILD

SQLSTATE : non assigné

Pip n’a pas pu construire la roue en raison de dépendances de build manquantes ou d’erreurs. Vérifiez le contenu et les dépendances du package de roue.

Description : se produit lorsque pip ne parvient pas à générer une roue pour le package en raison de dépendances ou d’erreurs de build manquantes.

Action suggérée : vérifiez que les outils de compilation et les en-têtes sont installés ou installez une wheel précompilée avec --no-binary.

ERREUR_INSTALLATION_ROUE

SQLSTATE : non assigné

La roue n’est pas compatible avec le calcul actuel en raison d’une incompatibilité de balise de plateforme ou d’un fichier de roue non valide. Vérifiez le contenu du package de roue, les dépendances et leur compatibilité avec le calcul.

Description : se produit lorsque le fichier wheel n’est pas valide ou que les balises de plateforme ne correspondent pas.

Action suggérée : utilisez une roue conçue pour la plateforme actuelle ou régénérez la roue avec les balises appropriées.

ERREUR_STOCKAGE_CLOUD_INSTALLATION

SQLSTATE : non assigné

Impossible de télécharger ou d’accéder aux ressources de stockage cloud spécifiées, généralement en raison de problèmes de configuration ou de connectivité incorrects. Passez en revue la configuration du stockage cloud.

Description : se produit lorsque le calcul ne peut pas télécharger ou installer des fichiers de bibliothèque à partir du stockage cloud, généralement en raison de problèmes de configuration ou de réseau incorrects.

Action suggérée : vérifiez que les URI de stockage cloud sont corrects, que les informations d’identification sont valides et que tous les proxys réseau ou bibliothèques requis sont correctement configurés, puis réessayez l’installation.

FAULT_DBR_VERSION_EOS

SQLSTATE : non assigné

La version de Databricks Runtime sur l'instance de calcul a atteint sa fin de support et n’est plus maintenue. Utilisez une version du runtime Databricks prise en charge.

Description : se produit lorsque la bibliothèque est installée sur une version databricks Runtime qui ne reçoit plus de mises à jour ou de prise en charge.

Action suggérée : Mettez à niveau le cluster vers une version de Databricks Runtime prise en charge et réessayez l’installation.

VALIDATION_DU_SONDEUR_D_ERREURS_LISTE_D_AUTORISATION

SQLSTATE : non assigné

L’installation de la bibliothèque est bloquée car elle manque de la liste d'autorisation. Cela peut se produire si une bibliothèque est supprimée de la liste autorisée après avoir été ajoutée à un cluster. Vérifiez la liste verte de bibliothèque, demandez à l’administrateur d’ajouter des bibliothèques à la liste verte ou de supprimer des packages non autorisés du cluster.

Description : Se produit lorsqu'une ou plusieurs bibliothèques demandées ne sont pas approuvées dans la liste d'autorisation du metastore et sont empêchées d'être installées. Cela peut également se produire si une bibliothèque a été précédemment autorisée mais supprimée ultérieurement de la liste verte.

Action suggérée : vérifiez la liste verte du metastore, demandez à votre administrateur d’ajouter les bibliothèques manquantes à la liste verte ou de supprimer des bibliothèques non autorisées du cluster.

The term "FAULT_POLLER_DBR_UNSUPPORTED" remains unchanged, as it is a technical error code likely used consistently across systems and does not require French translation.

SQLSTATE : non assigné

La version de Databricks Runtime sur le cluster a atteint sa fin de prise en charge et n’est plus prise en charge. Utilisez une version du runtime Databricks prise en charge.

Description : se produit lorsque la bibliothèque est installée sur une version databricks Runtime qui ne reçoit plus de mises à jour ou de prise en charge.

Action suggérée : modifiez le cluster pour utiliser une version de Databricks Runtime prise en charge et réessayez l’installation.

FORMAT_DE_STOCKAGE_NON_PRIS_EN_CHARGE_PAR_BIBLIOTHÈQUE_DE_SONDAGE_DE_FAILURE

SQLSTATE : non assigné

La version de Databricks Runtime sélectionnée peut ne pas prendre en charge certains formats de stockage de bibliothèque, tels que les chemins gs:// ou abfss://. Mettez à niveau Databricks Runtime ou reportez-vous au guide utilisateur concernant les fonctionnalités de différentes versions de Databricks Runtime.

Description : se produit lorsque la version de Databricks Runtime ne prend pas en charge le format ou le protocole de stockage de bibliothèque spécifié.

Action suggérée : utilisez un schéma de stockage pris en charge ou effectuez une mise à niveau vers une version databricks Runtime qui prend en charge le format de stockage souhaité.

FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR

SQLSTATE : non assigné

L’installation de la bibliothèque nécessite le catalogue Unity, mais Unity Catalog n’est pas disponible dans le cluster ou l’espace de travail. Contactez l’administrateur de l’espace de travail pour activer cette fonctionnalité.

Description : se produit lorsqu’une installation de bibliothèque nécessite le catalogue Unity, mais que le catalogue Unity n’est pas disponible dans l’espace de travail.

Action suggérée : demander l’administration pour activer le catalogue Unity dans votre espace de travail ou utiliser un cluster prenant en charge le catalogue Unity.

ÉCHEC_D'ACCÈS_AU_STOCKAGE

SQLSTATE : non assigné

Impossible d’accéder aux ressources de stockage cloud en raison de problèmes d’informations d’identification, de réseau ou d’autorisation. Vérifiez la configuration de l’accès au stockage cloud.

Description : se produit lorsque le calcul ne peut pas accéder aux ressources de stockage cloud en raison des problèmes d’informations d’identification, de réseau ou d’autorisation.

Action suggérée : vérifiez les informations d’identification de stockage, la connectivité réseau et les autorisations d’accès, puis réessayez l’installation.

Miscellaneous

ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION

SQLSTATE : non assigné

Version de DBR <abacDBRMajorVersion>. <abacDBRMinorVersion> ou version ultérieure est requise pour interroger la table <tableFullName>, car elle est protégée par une politique ABAC.

AZURE_ENTRA_CREDENTIALS_MISSING

SQLSTATE : non assigné

Informations d’identification Azure Entra (également appelées Azure Active Directory) manquantes.

Vérifiez que vous êtes connecté avec votre compte Entra

ou avoir configuré un jeton d’accès personnel (PAT) Azure DevOps dans l’intégration Git des paramètres > utilisateur.

Si vous n’utilisez pas de PAT et que vous utilisez Azure DevOps avec l’API Repos,

vous devez utiliser un jeton d’accès Azure Entra.

Consultez https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token les étapes d’acquisition d’un jeton d’accès Azure Entra.

<pickOrCreateNewCredential>

AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE

SQLSTATE : non assigné

Une erreur s’est produite avec vos informations d’identification Azure Entra (Azure Active Directory). Essayez de vous déconnecter d’

Entra (https://portal.azure.com) et de vous reconnecter.

Vous pouvez également visiter Paramètres utilisateur > Intégration Git pour définir

un jeton d’accès personnel Azure DevOps.

<pickOrCreateNewCredential>

AZURE_ENTRA_LOGIN_ERROR

SQLSTATE : non assigné

Une erreur s’est produite avec vos informations d’identification Azure Active Directory. Essayez de vous déconnecter d’

Azure Active Directory (https://portal.azure.com), puis de vous reconnecter.

<pickOrCreateNewCredential>

AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR

SQLSTATE : non assigné

Une erreur s’est produite avec l’identité de charge de travail Azure avec l’exception Azure : <azureWorkloadIdentityExceptionMessage>

CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED

SQLSTATE : non assigné

La génération d’informations d’identification pour le partage delta de salle propre ne peut pas être demandée.

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE : non assigné

Le <securableName> sécurisable avec le type <securableType> et le genre <securableKind> est managé par le système de salle blanche, l’utilisateur n’y a pas accès.

CONSTRAINT_ALREADY_EXISTS

SQLSTATE : non assigné

La contrainte portant le nom <constraintName> existe déjà, choisissez un autre nom.

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE : non assigné

La contrainte <constraintName> n’existe pas.

COULD_NOT_READ_REMOTE_REPOSITORY

SQLSTATE : non assigné

Impossible de lire le référentiel distant (<repoUrl>).

L'identifiant <credentialName> (<credentialId>) a été utilisé<because>.

Ce fournisseur d’informations d’identification Git est <gitCredentialProvider> et e-mail/nom d’utilisateur est <gitCredentialUsername>.

Accédez à votre fournisseur Git distant pour vous assurer que :

  1. Votre URL de dépôt Git distante est valide.

  2. Votre jeton d’accès personnel ou mot de passe d’application dispose de l’accès correct au dépôt.

<pickOrCreateNewCredential>

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE : non assigné

Impossible de résoudre l’hôte pour <repoUrl>.

L'identifiant <credentialName> (<credentialId>) a été utilisé<because>.

Ce fournisseur d’informations d’identification Git est <gitCredentialProvider> et e-mail/nom d’utilisateur est <gitCredentialUsername>.

CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED

SQLSTATE : non assigné

Le paramètre beginning_of_time ne peut pas être true.

CSMS_CONTINUATION_TOKEN_EXPIRED

SQLSTATE : non assigné

Le jeton de continuation a expiré. Cause : <msg>

CSMS_CREDENTIAL_NAME_MISSING

SQLSTATE : non assigné

Le nom des informations d’identification est manquant dans la requête

CSMS_FILE_EVENTS_VALIDATION_USER_ERROR

SQLSTATE : non assigné

Échec de la validation des événements de fichier pour l’opération <operation>: <message>

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE : non assigné

Jeton de continuation non valide. Cause : <msg>

CSMS_INVALID_FILE_EVENTS_QUEUE

SQLSTATE : non assigné

<missingField> est manquant dans <queueType> la demande

CSMS_INVALID_MAX_OBJECTS

SQLSTATE : non assigné

Valeur <value> non valide pour le paramètre max_objects, valeur attendue dans [<minValue>, <maxValue>]

CSMS_INVALID_SUBSCRIPTION_ID

SQLSTATE : non assigné

ID d’abonnement non valide. Cause : <msg>

CSMS_INVALID_URI_FORMAT

SQLSTATE : non assigné

Format d’URI non valide. Volume attendu (par exemple, « /Volumes/catalog/schema/volume ») ou chemin de stockage cloud (par exemple, « s3 ://some-uri »)

CSMS_KAFKA_TOPIC_MISSING

SQLSTATE : non assigné

Doit fournir une rubrique Kafka

CSMS_LOCATION_ERROR

SQLSTATE : non assigné

Impossible de lister les objets Il existe des problèmes sur l’emplacement à résoudre. Détails : <msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE : non assigné

Aucun emplacement trouvé pour l’URI <path>

CSMS_METASTORE_ID_MISSING

SQLSTATE : non assigné

Vous devez fournir l’UUID du metastore

CSMS_METASTORE_RESOLUTION_FAILED

SQLSTATE : non assigné

Impossible de déterminer un metastore pour la requête.

CSMS_RÉSOUDRE_IDENTIFIANT_CREDENTIEL_ÉCHEC

SQLSTATE : non assigné

Échec de la résolution de l'ID pour l'identifiant : <credentialName>

CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED

SQLSTATE : non assigné

CSMS n’a pas pu résoudre le nom de la partition locale

CSMS_SERVICE_DISABLED

SQLSTATE : non assigné

Le service est désactivé

CSMS_SHARD_NAME_MISSING_IN_REQUEST

SQLSTATE : non assigné

Le nom de shard est manquant dans une requête RPC vers CSMS

CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST

SQLSTATE : non assigné

Les credentials de stockage n'existent pas.

ID_ABONNEMENT_CSMS_MANQUANT_DANS_LA_REQUÊTE

SQLSTATE : non assigné

L’ID d’abonnement est manquant dans la demande.

CSMS_SUBSCRIPTION_NOT_FOUND

SQLSTATE : non assigné

Abonnement avec ID <id> introuvable.

CSMS_UNITY_CATALOG_DISABLED

SQLSTATE : non assigné

Le catalogue Unity est désactivé pour cet espace de travail

CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND

SQLSTATE : non assigné

Entité de catalogue Unity introuvable. Vérifiez que le catalogue, le schéma, le volume et/ou l’emplacement externe existent.

CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST

SQLSTATE : non assigné

L’emplacement externe du catalogue Unity n’existe pas.

CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP

SQLSTATE : non assigné

L’URI se chevauche avec d’autres volumes

CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST

SQLSTATE : non assigné

Impossible de déterminer un metastore pour la requête. Le metastore n’existe pas

Accès basé sur le chemin du catalogue Unity à la table avec filtre non autorisé

SQLSTATE : non assigné

L’URI pointe vers une table avec un filtre de ligne ou un masque de colonne. L’accès par chemin d’accès à cette table n’est pas permis.

CSMS_UNITY_CATALOG_PERMISSION_DENIED

SQLSTATE : non assigné

Autorisation refusée

CSMS_UNITY_CATALOG_RATE_LIMITED

SQLSTATE : non assigné

La limite de requêtes a été dépassée. Réessayez après un certain temps.

CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST

SQLSTATE : non assigné

La table catalogue Unity n’existe pas.

CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST

SQLSTATE : non assigné

Le volume de Unity Catalog n'existe pas.

CSMS_FILE_EVENTS_QUEUE_NON_SUPPORTÉE

SQLSTATE : non assigné

File d’attente d’événements de fichier inconnu dans la demande

CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE

SQLSTATE : non assigné

Le type <resourceType> de ressource managé n’est pas pris en charge

CSMS_UNSUPPORTED_SECURABLE

SQLSTATE : non assigné

Objet sécurisable non pris en charge

CSMS_URI_MISSING

SQLSTATE : non assigné

Doit fournir l’URI

CSMS_URI_TOO_LONG

SQLSTATE : non assigné

L’URI fourni est trop long. La longueur maximale autorisée est <maxLength>.

CSMS_USER_CONTEXT_MISSING_IN_REQUEST

SQLSTATE : non assigné

Le contexte utilisateur est manquant dans une requête RPC vers CSMS

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE : non assigné

Le stockage par défaut Databricks n’est pas accessible à l’aide du calcul classique. Utilisez le calcul serverless pour accéder aux données dans le stockage par défaut

GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS

SQLSTATE : non assigné

L’opération a échoué, car les informations d’identification de l’application GitHub liées n’ont pas pu être actualisées.

Réessayez ou accédez à l’intégration Git dans les paramètres utilisateur > et essayez de reconnecter votre compte de fournisseur Git.

Si le problème persiste, envoyez un ticket de support.

<pickOrCreateNewCredential>

GITHUB_APP_CREDENTIALS_NO_ACCESS

SQLSTATE : non assigné

Le lien vers votre compte GitHub ne permet pas d'accès. Pour corriger cette erreur :

  1. Un administrateur du référentiel doit aller à https://github.com/apps/databricks/installations/new et installer l’application GitHub Databricks sur le référentiel.

Un propriétaire de compte GitHub peut également installer l’application sur le compte pour donner accès aux dépôts du compte.

  1. Si l’application est déjà installée, disposez d’un administrateur pour s’assurer que s’ils utilisent l’accès délimité avec l’option « Sélectionner uniquement les référentiels », ils ont inclus l’accès à ce référentiel en le sélectionnant.

Pour plus d’informations, consultez cette section https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app .

<pickOrCreateNewCredential>

GITHUB_APP_EXPIRED_CREDENTIALS

SQLSTATE : non assigné

Les informations d’identification de l’application GitHub liées ont expiré après 6 mois d’inactivité.

Accédez aux Paramètres utilisateur > Intégration Git, puis essayez de relier vos informations d’identification.

Si le problème persiste, envoyez un ticket de support.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT

SQLSTATE : non assigné

Le lien vers votre compte GitHub ne permet pas d'accès. Pour corriger cette erreur :

  1. L’utilisateur GitHub <gitCredentialUsername> devrait se rendre à https://github.com/apps/databricks/installations/new et installer l’application sur le compte <gitCredentialUsername> pour autoriser l’accès.

  2. Si l’utilisateur <gitCredentialUsername> a déjà installé l’application et qu’il utilise l’accès délimité avec l’option « Sélectionner uniquement les référentiels », il doit s’assurer qu’il a inclus l’accès à ce référentiel en le sélectionnant.

Pour plus d’informations, consultez cette section https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app .

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_ORGANIZATION

SQLSTATE : non assigné

Le lien vers votre compte GitHub ne permet pas d'accès. Pour corriger cette erreur :

  1. Un propriétaire de l'organisation GitHub <organizationName> doit se rendre sur https://github.com/apps/databricks/installations/new et y installer l'application sur l'organisation <organizationName> pour permettre l'accès.

  2. Si l'application est déjà installée au sein de l'organisation GitHub <organizationName>, assurez-vous qu'un propriétaire de cette organisation vérifie, si vous utilisez l'accès limité avec l'option « Sélectionner uniquement les dépôts », qu'ils ont inclus l'accès à ce dépôt en le sélectionnant.

Pour plus d’informations, consultez cette section https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app .

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT

SQLSTATE : non assigné

Le lien vers votre compte GitHub ne permet pas d'accès. Pour corriger cette erreur :

  1. Rendez-vous sur https://github.com/apps/databricks/installations/new, puis installez l'application sur votre compte <gitCredentialUsername> pour autoriser l'accès.

  2. Si l’application est déjà installée et que vous utilisez l’accès délimité avec l’option « Sélectionner uniquement les référentiels », vérifiez que vous avez inclus l’accès à ce référentiel en le sélectionnant.

Pour plus d’informations, consultez cette section https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app .

<pickOrCreateNewCredential>

GIT_CLUSTER_NOT_READY

SQLSTATE : non assigné

Le cluster Git n’est pas prêt.

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE : non assigné

Informations d’identification du fournisseur Git non valides pour l’URL <repoUrl>du référentiel.

L'identifiant <credentialName> (<credentialId>) a été utilisé<because>.

Ce fournisseur d’informations d’identification Git est <gitCredentialProvider> et e-mail/nom d’utilisateur est <gitCredentialUsername>.

Accédez à votre fournisseur Git distant pour vous assurer que :

  1. Vous avez entré l’adresse e-mail ou le nom d’utilisateur utilisateur Git approprié avec vos informations d’identification du fournisseur Git.

  2. Votre jeton dispose de l’accès correct au dépôt.

  3. Votre jeton n’a pas expiré.

  4. Si vous avez activé l’authentification unique avec votre fournisseur Git, veillez à autoriser votre jeton.

<pickOrCreateNewCredential>

GIT_CREDENTIAL_INVALID_PAT

SQLSTATE : non assigné

Informations d’identification du jeton d’accès personnel du fournisseur Git non valides pour l’URL <repoUrl>du référentiel.

L'identifiant <credentialName> (<credentialId>) a été utilisé<because>.

Ce fournisseur d’informations d’identification Git est <gitCredentialProvider> et e-mail/nom d’utilisateur est <gitCredentialUsername>.

Accédez à votre fournisseur Git distant pour vous assurer que :

  1. Vous avez entré l’adresse e-mail ou le nom d’utilisateur utilisateur Git approprié avec vos informations d’identification du fournisseur Git.

  2. Votre jeton dispose de l’accès correct au dépôt.

  3. Votre jeton n’a pas expiré.

  4. Si vous avez activé l’authentification unique avec votre fournisseur Git, veillez à autoriser votre jeton.

<pickOrCreateNewCredential>

.

GIT_CREDENTIAL_MISSING

SQLSTATE : non assigné

Aucune information d’identification Git n’est configurée, mais une information d’identification est requise pour ce référentiel (<repoUrl>).

Accédez à Paramètres utilisateur > Intégration Git pour configurer vos identifiants Git.

GIT_CREDENTIAL_NO_WRITE_PERMISSION

SQLSTATE : non assigné

Accès en écriture au <gitCredentialProvider> référentiel (<repoUrl>) non accordé.

L'identifiant <credentialName> (<credentialId>) a été utilisé<because>.

Ce fournisseur d’informations d’identification Git est <gitCredentialProvider> et e-mail/nom d’utilisateur est <gitCredentialUsername>.

Vérifiez que vous disposez d'un accès en écriture à ce référentiel distant.<gitCredentialUsername>

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE : non assigné

Fournisseur d’informations d’identification Git incorrect pour le référentiel.

Vous n’avez pas d’identifiants Git avec un fournisseur Git (<repositoryGitProvider>) qui correspondent à ceux du fournisseur Git <repoUrl> du référentiel.

Accédez aux paramètres utilisateur > intégration Git pour créer un nouvel identifiant pour le fournisseur Git <repositoryGitProvider>.

NOM_DE_FICHIER_GIT_TROP_LONG

SQLSTATE : non assigné

Le ou les noms de fichiers ou de dossiers dans le chemin d’accès <path> dépassent le <maxComponentBytes>nombre maximal d’octets par composant.

Les systèmes unix prennent uniquement en charge jusqu’à <maxComponentBytes> bytes par nom de fichier ou de dossier.

Infractions : <violations>

Pour continuer, raccourcissez le ou les composants incriminés.

GIT_PROVIDER_INFO_MISSING

SQLSTATE : non assigné

Les informations du fournisseur Git sont manquantes ou vides.

Ajoutez les informations d’identification Git et réessayez.

Si le problème persiste, envoyez un ticket de support.

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE : non assigné

Le cluster proxy Git n’est pas prêt.

GIT_PROXY_CONNECTION_FAILED

SQLSTATE : non assigné

Échec de la connexion au proxy Git, vérifiez si le proxy Git est opérationnel.

Erreur : <error>

GIT_SECRET_IN_CODE

SQLSTATE : non assigné

Secrets trouvés dans la validation. Détail : <secretDetail>. Pour corriger cette erreur :

Supprimez le secret et réessayez de valider.

Si le problème persiste, envoyez un ticket de support.

GIT_STALE_REMOTE_REFS

SQLSTATE : non assigné

Récupération Git terminée, mais impossible de mettre à jour les références distantes obsolètes en raison de conflits de chemins d'accès du système de fichiers (par exemple, branches supprimées ou 'feature' vs 'feature/sub').

Erreur Git : <gitErrorMessage>

HIERARCHICAL_NAMESPACE_NOT_ENABLED

SQLSTATE : non assigné

Le compte de stockage Azure n’a pas d’espace de noms hiérarchique activé.

INVALID_FIELD_LENGTH

SQLSTATE : 54000

<rpcName> <fieldName> trop long. La longueur maximale est de <maxLength> caractères.

INVALID_PARAMETER_VALUE

SQLSTATE : 22023

<msg>

Pour plus d’informations , consultez INVALID_PARAMETER_VALUE

JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND

SQLSTATE : non assigné

Infrastructure des tâches : La sortie de l’exécution de tâche pour la tâche avec runId et orgId <runId><orgId> est introuvable.

JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND

SQLSTATE : non assigné

Cadre des tâches : l'état d'exécution de la tâche avec runId <runId> et orgId <orgId> est introuvable.

JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST

SQLSTATE : non assigné

RPC ClientConfig pour tâche avec ID <taskId> n’existe pas.

JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST

SQLSTATE : non assigné

La tâche avec ID <taskId> n’existe pas.

JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK

SQLSTATE : non assigné

Registre des tâches : JobTask non pris en charge ou inconnu avec la classe <taskClassName>.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE

SQLSTATE : non assigné

L’accès basé sur le chemin à une table <tableFullName> de clones peu profondes externe n’est pas pris en charge. Utilisez plutôt des noms de tables pour accéder au clone peu profond.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC

SQLSTATE : non assigné

La table Fabric située à l’URL « <url> » est introuvable. Utilisez la REFRESH FOREIGN CATALOG commande pour remplir les tables Fabric.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES

SQLSTATE : non assigné

Accès basé sur le chemin d’accès à la table <tableFullName> avec un filtre de ligne ou un masque de colonne non pris en charge.

PERMISSION_DENIED

SQLSTATE : non assigné

<principalName> n’a pas <msg> sur <resourceType> '<resourceName>'.

REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE : non assigné

Impossible d'analyser la demande d'objet de suppression : <invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE : non assigné

Impossible de supprimer l’objet <resourceName> qui n’est pas dans la corbeille

REDASH_PERMISSION_DENIED

SQLSTATE : non assigné

Impossible de trouver ou d’avoir l’autorisation d’accéder à la ressource <resourceId>

REDASH_QUERY_NOT_FOUND

SQLSTATE : non assigné

Impossible de trouver la ressource à partir de l’ID de requête <queryId>

REDASH_QUERY_SNIPPET_CREATION_FAILED

SQLSTATE : non assigné

Impossible de créer un extrait de requête

REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED

SQLSTATE : non assigné

Le quota pour le nombre d’extraits de requête a été atteint. Le quota actuel est <quota>.

REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE

SQLSTATE : non assigné

Le déclencheur <trigger> spécifié est déjà utilisé par un autre extrait de requête dans cet espace de travail.

REDASH_RESOURCE_NOT_FOUND

SQLSTATE : non assigné

La ressource <resourceName> demandée n’existe pas

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE : non assigné

Impossible d'analyser la demande d'objet de suppression : <invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE : non assigné

Impossible de restaurer l’objet <resourceName> qui n’est pas dans la corbeille

REDASH_TRASH_OBJECT_ALREADY_IN_TRASH

SQLSTATE : non assigné

Impossible de corbeiller l’objet déjà corbeille <resourceName>

REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME

SQLSTATE : non assigné

Impossible de générer le nom de ressource à partir de l’ID <id>

REDASH_VISUALIZATION_CREATION_FAILED

SQLSTATE : non assigné

Impossible de créer une visualisation

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE : non assigné

Impossible de trouver la visualisation <visualizationId>

REDASH_VISUALIZATION_QUOTA_EXCEEDED

SQLSTATE : non assigné

Le quota pour le nombre de visualisations sur la requête <query_id> a été atteint. Le quota actuel est <quota>.

REPOSITORY_URL_NOT_FOUND

SQLSTATE : non assigné

Référentiel distant (<repoUrl>) introuvable.

L'identifiant <credentialName> (<credentialId>) a été utilisé<because>.

Ce fournisseur d’informations d’identification Git est <gitCredentialProvider> et e-mail/nom d’utilisateur est <gitCredentialUsername>.

Accédez à votre fournisseur Git distant pour vous assurer que :

  1. Votre URL de dépôt Git distante est valide.

  2. Votre jeton d’accès personnel ou mot de passe d’application dispose de l’accès correct au dépôt.

<pickOrCreateNewCredential>

RESOURCE_ALREADY_EXISTS

SQLSTATE : 42710

<resourceType> '<resourceIdentifier>' existe déjà

RESOURCE_DOES_NOT_EXIST

SQLSTATE : 42704

<resourceType> '<resourceIdentifier>' n’existe pas.

ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE : non assigné

Requête sur la table <tableFullName> avec un filtre de ligne ou un masque de colonne non pris en charge sur les clusters affectés.

ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING

SQLSTATE : non assigné

La table <tableFullName> est partagée avec Delta Sharing et ne peut pas utiliser la sécurité des lignes et des colonnes.

SERVICE_TEMPORARILY_UNAVAILABLE

SQLSTATE : non assigné

Le <serviceName> service est temporairement en cours de maintenance. Réessayez plus tard.

TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE

SQLSTATE : non assigné

La table <tableFullName> ne peut pas avoir à la fois des vues matérialisées en ligne/colonne et matérialisées en ligne.

TOO_MANY_ROWS_TO_UPDATE

SQLSTATE : non assigné

Trop de lignes à mettre à jour, annulation de la mise à jour.

UC_ABAC_UNSUPPORTED_TABLE_TYPE

SQLSTATE : non assigné

Les stratégies ABAC ne sont pas prises en charge pour le type <tableType> de table.