Nie można wykonać polecenia <statementType>, ponieważ wartości DEFAULT nie są obsługiwane podczas dodawania nowych kolumn do wcześniej istniejącego docelowego źródła danych z dostawcą tabel: "<dataSource>".
Nie można przeanalizować danych wyjściowych modelu przy rzutowaniu do zdefiniowanego typu zwrotu: "<dataType>", odpowiedź JSON: "<responseString>". Zaktualizuj element returnType, aby był zgodny z zawartością typu reprezentowanego przez kod JSON odpowiedzi, a następnie ponów próbę zapytania.
Rzeczywiste dane wyjściowe modelu mają więcej niż jedną kolumnę "<responseString>". Jednak określony typ zwracany["<dataType>"] ma tylko jedną kolumnę. Zaktualizuj wartość returnType tak, aby zawierała taką samą liczbę kolumn jak dane wyjściowe modelu, a następnie ponów próbę zapytania.
BŁĄD ŻĄDANIA HTTP FUNKCJI AI (AI_FUNCTION_HTTP_REQUEST_ERROR)
Funkcja sztucznej inteligencji: "<functionName>" wymaga prawidłowego ciągu <format> dla parametru responseFormat, ale znaleziono następujący format odpowiedzi: "<invalidResponseFormat>". Wyjątek: <errorMessage>
Nie można ocenić funkcji SQL "<functionName>", ponieważ podany argument <invalidValue> ma wartość "<invalidDataType>", ale obsługiwane są tylko następujące typy: <supportedDataTypes>. Zaktualizuj wywołanie funkcji, aby podać argument typu ciągu i ponowić próbę zapytania.
Funkcja sztucznej inteligencji: "<functionName>" nie obsługuje następującego typu jako typu zwracanego: "<typeName>". Zwracany typ musi być prawidłowym typem SQL zrozumiałym dla katalizatora i obsługiwanym przez funkcję sztucznej inteligencji. Bieżące obsługiwane typy obejmują: <supportedValues>
Oczekiwano, że typ zadania punktu końcowego ma być "Czat" dla strukturalnej obsługi danych wyjściowych, ale znaleziono "<taskType>" dla punktu końcowego "<endpointName>".
Niepowodzenie w materializacji zapytania funkcji SQL vector_search z typu spark <dataType> do obiektów scala-native podczas kodowania żądania z błędu: <errorMessage>.
vector_search funkcja SQL o rozmiarze num_results większym niż <maxLimit> nie jest obsługiwana. Limit został określony jako <requestedLimit>. Spróbuj ponownie z num_results <= \<maxLimit\>
Nie można zmienić <scheduleType> w tabeli bez istniejącego harmonogramu lub wyzwalacza. Przed podjęciem próby jego zmiany dodaj harmonogram lub wyzwalacz do tabeli.
Nazwa <name> jest niejednoznaczna w zagnieżdżonym CTE.
Ustaw <config> na wartość "CORRECTED", aby nazwa zdefiniowana w wewnętrznym złożonym wyrażeniu tabelarycznym (CTE) miała pierwszeństwo. Jeśli ustawisz ją na "LEGACY", zewnętrzne definicje CTE będą miały pierwszeństwo.
Funkcja <functionName> zawiera parametr <parameterName> na pozycji <pos>, który wymaga stałego argumentu. Oblicz argument <sqlExpr> oddzielnie i przekaż wynik jako stałą.
Użycie wartości domyślnych nie jest obsługiwane w przypadku włączeniarescuedDataColumn. Można spróbować usunąć to sprawdzenie, ustawiając wartość spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue na false, ale wartości domyślne nie będą się stosować i wartości null będą nadal używane.
Nie można przekonwertować <avroPath> Avro na <sqlPath> SQL, ponieważ oryginalny zakodowany typ danych jest <avroType>, jednak próbujesz odczytać pole jako <sqlType>, co doprowadziłoby do nieprawidłowej odpowiedzi.
Aby zezwolić na odczytywanie tego pola, włącz konfigurację SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
Poświadczenia połączenia BigQuery muszą być określone za pomocą parametru "GoogleServiceAccountKeyJson" lub wszystkich trzech parametrów: "projectId", "OAuthServiceAcctEmail", "OAuthPvtKey".
ALTER TABLE (ALTER|CHANGE) COLUMN nie można zmienić porządku sortowania typów/podtypów kolumn zasobnika, ale znaleziono kolumnę zasobnika <columnName> w tabeli <tableName>.
CANNOT_ALTER_PARTITION_COLUMN (Nie można zmienić kolumny partycji)
Aby ponownie przypisać kolumnę czasu zdarzenia, należy zdefiniować znacznik czasowy. Nie można odnaleźć definicji limitu w zapytaniu przesyłanym strumieniowo.
Nie można przekonwertować <protobufColumn> Protobuf na <sqlColumn> SQL, ponieważ schemat jest niezgodny (protobufType = <protobufType>, sqlType = <sqlType>).
Nie można przekonwertować typu wiadomości Protobuf na typ SQL
Nie można przekonwertować <sqlColumn> SQL na <protobufColumn> Protobuf, ponieważ schemat jest niezgodny (protobufType = <protobufType>, sqlType = <sqlType>).
Nie można przekonwertować SQL <sqlColumn> na Protobuf <protobufColumn>, ponieważ <data> nie znajduje się w zdefiniowanych wartościach dla typu wyliczeniowego: <enumString>.
Nie można nawiązać połączenia z zdalną bazą danych <jdbcDialectName>. Sprawdź informacje o połączeniu i poświadczenia, np. host, port, użytkownik, hasło i opcje bazy danych. ** Jeśli uważasz, że informacje są poprawne, sprawdź konfigurację sieci obszaru roboczego i upewnij się, że nie ma ograniczeń ruchu wychodzącego do hosta. Sprawdź również, czy host nie blokuje połączeń przychodzących z sieci, w której wdrożono klastry Spark obszaru roboczego. ** Szczegółowy komunikat o błędzie: <causeErrorMessage>.
Nie można nawiązać połączenia z zdalną bazą danych <jdbcDialectName>. Sprawdź informacje o połączeniu i poświadczenia, np. host, port, użytkownik, hasło i opcje bazy danych. ** Jeśli uważasz, że informacje są poprawne, zezwól na ruch przychodzący z Internetu do hosta, ponieważ używasz obliczeń w modelu bezserwerowym. Jeśli zasady sieciowe nie zezwalają na przychodzący ruch internetowy, użyj bezserwerowych obliczeń lub skontaktuj się z przedstawicielem usługi Databricks, aby dowiedzieć się więcej o bezserwerowej sieci prywatnej. ** Szczegółowy komunikat o błędzie: <causeErrorMessage>.
Przekształcenia i akcje zestawu danych mogą być wywoływane tylko przez sterownik, a nie wewnątrz innych przekształceń zestawu danych; na przykład dataset1.map(x => dataset2.values.count() * x) jest nieprawidłowy, ponieważ nie można wykonać akcji przekształcania wartości i liczby w ramach przekształcenia dataset1.map. Aby uzyskać więcej informacji, zobacz SPARK-28702.
Nie można scalić niezgodnych typów danych <left> i <right>. Sprawdź typy danych scalonych kolumn i upewnij się, że są one zgodne. W razie potrzeby rozważ rzutowanie kolumn do zgodnych typów danych przed podjęciem próby scalenia.
Nie można przeanalizować liczby dziesiętnej. Upewnij się, że dane wejściowe są prawidłową liczbą z opcjonalnymi separatorami dziesiętnymi lub przecinkami.
Nie można przeanalizować <intervalString>. Upewnij się, że podana wartość jest w prawidłowym formacie definiowania interwału. Możesz odwołać się do dokumentacji dotyczącej poprawnego formatu. Jeśli problem będzie się powtarzać, sprawdź dokładnie, czy wartość wejściowa nie ma wartości null lub jest pusta i spróbuj ponownie.
Nie można rozpoznać ciągu typu hive: <fieldType>, kolumna: <fieldName>. Określony typ danych dla pola nie może zostać rozpoznany przez usługę Spark SQL. Sprawdź typ danych określonego pola i upewnij się, że jest to prawidłowy typ danych Spark SQL. Zapoznaj się z dokumentacją platformy Spark SQL, aby uzyskać listę prawidłowych typów danych i ich format. Jeśli typ danych jest poprawny, upewnij się, że używasz obsługiwanej wersji usługi Spark SQL.
Nie można rozwiązać <targetString>.* przy podanych kolumnach wejściowych <columns>. Sprawdź, czy określona tabela lub struktura istnieje i jest dostępna w kolumnach wejściowych.
NIE MOŻNA PRZYWRÓCIĆ UPRAWNIEŃ DLA ŚCIEŻKI (CANNOT_RESTORE_PERMISSIONS_FOR_PATH)
Nie można załadować kodeka serializacji Kryo. Serializacji Kryo nie można używać w kliencie Spark Connect. Użyj serializacji Java, podaj niestandardowy koder lub zamiast tego użyj klasycznego Spark.
Sprawdzanie poprawności połączenia <jdbcDialectName> nie jest obsługiwane. Skontaktuj się z pomocą techniczną usługi Databricks w przypadku alternatywnych rozwiązań lub ustaw wartość "spark.databricks.testConnectionBeforeCreation" na wartość "false", aby pominąć testowanie połączeń przed utworzeniem obiektu połączenia.
Nie można rzutować wartości <expression> typu <sourceType> do <targetType>, ponieważ jest źle sformułowana. Popraw wartość zgodnie ze składnią lub zmień jej typ docelowy. Użyj try_cast, aby tolerować źle sformułowane dane wejściowe i zwracać NULL zamiast tego.
Nie można rzutować wartości <value> typu <sourceType> do <targetType> z powodu przepełnienia. Użyj try_cast, aby tolerować przepełnienie i zwracać NULL zamiast tego.
Nie można przypisać wartości typu <sourceType> do kolumny typu <targetType> lub zmiennej <columnName> z powodu przepełnienia. Użyj try_cast wartości wejściowej, aby tolerować przepełnienie i zwracać NULL zamiast tego.
Nie można odnaleźć bloku punktu kontrolnego <rddBlockId>!
Albo funkcja wykonawcza, która pierwotnie wskazuje tę partycję, nie jest już aktywna, albo oryginalny RDD jest niepersistowany.
Jeśli ten problem będzie się powtarzać, rozważ użycie rdd.checkpoint() zamiast lokalnych punktów kontrolnych, które jest wolniejsze, ale bardziej odporne na błędy.
Nieprawidłowa nazwa do odwołania się do <type> wewnątrz czystej strefy. Użyj nazwy <type>wewnątrz czystego pomieszczenia zgodnie z formatem [catalog].[schema].[<type>].
Jeśli nie masz pewności, jakiej nazwy użyć, możesz uruchomić polecenie "SHOW ALL IN CLEANROOM [clean_room]" i użyć wartości w kolumnie "name".
Odebrano powiadomienie o pliku: <filePath> ale już nie istnieje. Upewnij się, że pliki nie są usuwane przed ich przetworzeniem. Aby kontynuować przesyłanie strumieniowe, możesz ustawić konfigurację platformy Spark SQL <config> na true.
Nie można rozpoznać masek kolumn w <tableName>, ponieważ wystąpiła niezgodność między maskami kolumn przejętymi z zasad i maskami kolumn zdefiniowanymi jawnie. Aby kontynuować, wyłącz kontrolę dostępu opartą na atrybutach (ABAC) i skontaktuj się z pomocą techniczną usługi Databricks.
Instrukcja <statementType> próbowała przypisać zasady maski kolumn do kolumny zawierającej co najmniej dwie inne przywoływane kolumny na liście USING COLUMNS o tej samej nazwie <columnName>, która jest nieprawidłowa.
Nie można usunąć <statementType> <columnName> z tabeli <tableName>, ponieważ odwołuje się do niej polityka maski kolumn dla kolumny <maskedColumn>. Właściciel tabeli musi usunąć lub zmienić tę politykę przed kontynuowaniem.
Ta instrukcja próbowała przypisać zasady maski kolumn do kolumny, a lista USING COLUMNS zawierała nazwę <columnName> z wieloma częściami nazw, co jest nieprawidłowe.
Używanie stałej jako parametru w zasadach maski kolumn nie jest obsługiwane. Zaktualizuj polecenie SQL, aby usunąć stałą z definicji maski kolumny, a następnie ponów próbę polecenia.
Nie można wykonać polecenia <statementType>, ponieważ przypisywanie zasad maski kolumn nie jest obsługiwane dla docelowego źródła danych z dostawcą tabel: "<provider>".
Nie można wykonać <operation> dla tabeli <tableName>, ponieważ zawiera co najmniej jedną zasadę maskowania kolumn z wyrażeniami podzapytania, które nie są jeszcze obsługiwane. Aby kontynuować, skontaktuj się z właścicielem tabeli, aby zaktualizować zasady maski kolumn.
Nieoczekiwany przecinek przed definicją ograniczenia/ograniczeń. Upewnij się, że klauzula ograniczenia nie rozpoczyna się od przecinka, gdy kolumny (i oczekiwania) nie są zdefiniowane.
Komentarz do połączenia nie jest jeszcze zaimplementowany
Komparator zwrócił NULL dla porównania między <firstValue> a <secondValue>.
Powinna zwracać dodatnią liczbę całkowitą dla wartości "większe niż", 0 dla wartości "equal" i ujemną liczbę całkowitą dla wartości "less than".
Aby przywrócić przestarzałe zachowanie, w którym NULL jest traktowana jako 0 (równa), należy ustawić wartość "spark.sql.legacy.allowNullComparisonResultInArraySort" na wartość "true".
Kolejne wystąpienie tego zapytania [id: <queryId>] zostało właśnie uruchomione przez jednoczesną sesję [istniejący identyfikator runId: <existingQueryRunId> nowy identyfikator runId: <newQueryRunId>].
BŁĄD: Za mało miejsc dla jednoczesnego planowania (CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT)
Minimalna liczba wolnych miejsc wymaganych w klastrze wynosi <numTasks>, jednak klaster ma tylko <numSlots> wolnych miejsc. Zapytanie zostanie zatrzymane lub zakończy się niepowodzeniem. Zwiększ rozmiar klastra, aby kontynuować.
Określony dostawca <provider> jest niespójny z istniejącym dostawcą katalogu <expectedProvider>. Użyj polecenia "USING <expectedProvider>" i spróbuj ponownie wykonać polecenie .
Nie można przekonwertować wartości <str> (<fmt>) na <targetType>, ponieważ jest źle sformułowana. Popraw wartość zgodnie ze składnią lub zmień jej format. Użyj <suggestion>, aby tolerować źle sformułowane dane wejściowe i zwracać NULL zamiast tego.
Podczas kopiowania do tabeli delty wykryto niezgodność schematu (Tabela: <table>).
Może to wskazywać na problem z danymi przychodzącymi lub schemat tabeli delty może być automatycznie ewoluowany zgodnie z przychodzącymi danymi przez ustawienie:
COPY_OPTIONS ('mergeSchema' = 'true')
Różnica schematu:
<schemaDiff>
Format pliku źródłowego nieobsługiwany dla kopiowania.
Format plików źródłowych musi być jednym z plików CSV, JSON, AVRO, ORC, PARQUET, TEXT lub BINARYFILE. Używanie COPY INTO jako źródła w tabelach Delta nie jest obsługiwane, ponieważ zduplikowane dane mogą być pozyskiwane po operacjach OPTIMIZE. Tę kontrolę można wyłączyć, uruchamiając polecenie SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false.
Nie można CREATE lub REFRESH zmaterializować widoków lub tabel przesyłania strumieniowego z określonym ASYNC. Usuń ASYNC z instrukcji CREATE albo REFRESH lub użyj REFRESH ASYNC, aby asynchronicznie odświeżyć istniejące zmaterializowane widoki lub tabele strumieniowe.
Nie można ustawić opcji CSV enforceSchema w przypadku używania rescuedDataColumn, lub failOnUnknownFields, ponieważ kolumny są odczytywane według nazwy, a nie według kolejności.
Nie można odnaleźć źródła danych: <provider>. Upewnij się, że nazwa dostawcy jest poprawna, a pakiet jest poprawnie zarejestrowany i zgodny z wersją platformy Spark.
Schemat tabeli źródła danych nie jest zgodny z oczekiwanym schematem. Jeśli używasz interfejsu API DataFrameReader.schema lub tworzenia tabeli, unikaj określania schematu.
Przetwarzanie obiektu <objName> jest niedokończone, ponieważ zadanie zapytania interfejsu API Salesforce trwało zbyt długo, nie powiodło się lub zostało ręcznie anulowane.
Aby spróbować ponownie, możesz ponownie uruchomić cały potok lub odświeżyć tę konkretną tabelę docelową. Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie. Identyfikator zadania: <jobId>. Stan zadania: <jobStatus>.
Wystąpił błąd w wywołaniu interfejsu API <sourceName>. Typ źródłowego interfejsu API: <apiType>. Kod błędu: <errorCode>.
Czasami może się to zdarzyć, gdy osiągnięto limit interfejsu API <sourceName>. Jeśli limit interfejsu API nie został przekroczony, spróbuj ponownie uruchomić łącznik. Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
Możliwe, że pliki bazowe zostały zaktualizowane. Możesz jawnie unieważnić pamięć podręczną na platformie Spark, uruchamiając polecenie "REFRESH TABLE tableName" w języku SQL lub tworząc ponownie zaangażowany zestaw danych/ramkę danych. Jeśli pamięć podręczna dysku jest nieaktualna lub pliki bazowe zostały usunięte, możesz ręcznie unieważnić pamięć podręczną dysku, uruchamiając ponownie klaster.
Słowo kluczowe DEFAULT w MERGE, INSERT, UPDATElub SET VARIABLE polecenia nie może być bezpośrednio przypisane do kolumny docelowej, ponieważ było częścią wyrażenia.
Na przykład: UPDATE SET c1 = DEFAULT jest dozwolona, ale UPDATE T SETc1 =domyślne + 1 jest niedozwolone.
Nie można wykonać polecenia <statementType>, ponieważ wartości DEFAULT nie są obsługiwane dla docelowego źródła danych z dostawcą tabel: "<dataSource>".
Dzielenie według zera. Użyj try_divide, aby obsłużyć przypadek, gdy dzielnik wynosi 0 i zwrócić zamiast tego NULL. W razie potrzeby ustaw <config> na wartość "false", aby pominąć ten błąd.
Źródło danych <format> nie obsługuje zapisywania pustych ani zagnieżdżonych pustych schematów. Upewnij się, że schemat danych zawiera co najmniej jedną kolumnę.
Niektóre partycje w temacie Kafka zgłaszają dostępny offset, który jest mniejszy niż offset końcowy podczas wykonywania zapytania z wyzwalaczem Trigger.AvailableNow. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
ostatnie przesunięcie: <latestOffset>, przesunięcie końcowe: <endOffset>
W przypadku źródła danych Kafka z Trigger.AvailableNow, offset końcowy powinien mieć niższy lub równy offset dla każdej partycji tematu niż wstępnie pobrany offset. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
Błąd podczas odczytywania danych avro — napotkano nieznany odcisk palca: <fingerprint>, nie ma pewności, jakiego schematu użyć.
Może się tak zdarzyć, jeśli po uruchomieniu kontekstu platformy Spark zarejestrowano dodatkowe schematy.
This specific context does not warrant a translated output. Therefore, it is suitable to leave it untranslated. However, if it were necessary for a specific context, it could be accompanied by a translation like "Dziennik zdarzeń wymaga wspólnej obliczeń" for descriptive purposes.
Nie można odczytać zapytań dotyczących dzienników zdarzeń z klastra przypisanego lub współdzielonego bez izolacji. Zamiast tego należy użyć klastra standardowego (wcześniej współdzielonego) lub magazynu Databricks SQL warehouse.
Nie można rozpoznać nazwy kolumny/pola <objectName> w klauzuli EXCEPT. Czy chodziło o jedną z następujących czynności: [<objectList>]?
Uwaga: kolumny zagnieżdżone w klauzuli EXCEPT mogą nie zawierać kwalifikatorów (nazwa tabeli, nazwa kolumny struktury nadrzędnej itp.) podczas rozszerzania struktury; spróbuj usunąć kwalifikatory, jeśli są używane z kolumnami zagnieżdżonymi.
Za mało pamięci, aby skompilować relację emisji <relationClassName>. Rozmiar relacji = <relationSize>. Całkowita ilość pamięci używanej przez to zadanie = <taskMemoryUsage>. Metryki menedżera pamięci egzekutora: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>. [sparkPlanId: <sparkPlanId>] Wyłącz przesyłanie zbiorcze dla tego zapytania za pomocą polecenia "set spark.sql.autoBroadcastJoinThreshold=-1" lub użyj wskazówki, aby wymusić połączenie typu shuffle join.
Za mało pamięci do przechowywania relacji transmisji <relationClassName>. Rozmiar relacji = <relationSize>. StorageLevel = <storageLevel>. [sparkPlanId: <sparkPlanId>] Wyłącz przesyłanie zbiorcze dla tego zapytania za pomocą polecenia "set spark.sql.autoBroadcastJoinThreshold=-1" lub użyj wskazówki, aby wymusić połączenie typu shuffle join.
Klauzula USING tego polecenia EXECUTE IMMEDIATE zawierała wiele argumentów z tym samym aliasem (<aliases>), który jest nieprawidłowy; Zaktualizuj polecenie , aby określić unikatowe aliasy, a następnie spróbuj ponownie.
Błąd w trakcie uruchamiania „REFRESH FOREIGN <scope> <name>”. Nie można bezpośrednio odświeżyć fabryki <scope>, użyj polecenia "REFRESH FOREIGN CATALOG <catalogName>", aby odświeżyć katalog fabryki.
Wykonywanie zapytań dotyczących źródła danych <source> w obliczeniach bezserwerowych jest niedozwolone. W obliczeniach bezserwerowych obsługiwane są tylko źródła danych <allowlist>.
Funkcja <function> wymaga nazwanych parametrów. Brakujące nazwy parametrów: <exprs>. Zaktualizuj wywołanie funkcji, aby dodać nazwy dla wszystkich parametrów, np. <function>(param_name => ...).
Kolumna nie może mieć zarówno wartości domyślnej, jak i wyrażenia generacji, ale kolumna <colName> ma wartość domyślną: (<defaultValue>) i wyrażenie generowania: (<genExpr>).
Nieprawidłowe wywołanie <function>; tylko prawidłowe szkice HLL są akceptowane jako dane wejściowe (takie jak te generowane przez funkcję hll_sketch_agg).
Szkice mają różne wartości lgConfigK: <left> i <right>. Ustaw parametr allowDifferentLgConfigK na wartość true, aby wywołać <function> z różnymi wartościami lgConfigK.
Wystąpił błąd podczas próby rozwiązania zapytania lub polecenia przy użyciu zarówno starszego analizatora arytmetyki stałoprzecinkowej, jak i modułu jednoprzebiegowego rozwiązywania.
<operator> można wykonywać tylko w tabelach z zgodnymi typami kolumn. Kolumna <columnOrdinalNumber> tabeli <tableOrdinalNumber> jest typem <dataType1>, który nie jest zgodny z <dataType2> w tej samej kolumnie pierwszej tabeli.<hint>.
Zapytanie SQL widoku <viewName> ma niezgodny schemat zmiany, a kolumny <colName> nie można rozwiązać. Spodziewano się <expectedNum> kolumn nazwanych <colName>, ale otrzymano <actualCols>.
Spróbuj ponownie utworzyć widok, uruchamiając polecenie: <suggestion>.
Indeks <indexValue> jest poza granicami. Tablica ma <arraySize> elementów. Użyj funkcji SQL get(), aby tolerować dostęp do elementu w nieprawidłowym indeksie i zwracać NULL zamiast tego.
Indeks <indexValue> jest poza granicami. Tablica ma <arraySize> elementów. Użyj try_element_at, aby tolerować dostęp do elementu w nieprawidłowym indeksie i zamiast tego zwracać NULL.
Błąd składniowy w nazwie atrybutu: <name>. Sprawdź, czy backticks występują w parach, ciąg cytowany jest pełną częścią nazwy i używaj backticków tylko wewnątrz cytowanych części nazw.
Wybierz dokładnie jedną z następujących metod uwierzytelniania:
Podaj nazwę poświadczeń usługi Databricks (<serviceCredential>) (jako opcję strumienia Spark lub jako zmienną środowiskową klastra).
Podaj zarówno klucz dostępu platformy AWS (<awsAccessKey>), jak i klucz SecretAccessKey (<awsSecretKey>) do używania kluczy platformy AWS.
Nie podaj ani kluczy platformy AWS, ani poświadczeń usługi Databricks, aby użyć domyślnego łańcucha dostawców poświadczeń platformy AWS na potrzeby uwierzytelniania Kinesis.
Źródło danych <datasource> nie może zapisać kolumny <columnName>, ponieważ jego nazwa zawiera niektóre znaki, które nie są dozwolone w ścieżkach plików. Użyj aliasu, aby zmienić jego nazwę.
Funkcji current_recipient można używać tylko w instrukcji CREATE VIEW lub instrukcji ALTER VIEW w celu zdefiniowania widoku wyłącznie do udostępniania w Unity Catalogu.
Znaleziono nieprawidłowy koder wyrażeń. Oczekuje się wystąpienia ExpressionEncoder, ale otrzymano <encoderType>. Aby uzyskać więcej informacji, zobacz<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html".
Prawidłowy zakres dla sekund to [0, 60] (włącznie), ale podana wartość jest <secAndMicros>. Aby uniknąć tego błędu, użyj try_make_timestamp, która zwraca NULL w przypadku błędu.
Jeśli nie chcesz używać domyślnej wersji znacznika czasu sesji tej funkcji, użyj try_make_timestamp_ntz lub try_make_timestamp_ltz.
Błąd podczas interpretacji '<input>' jako interwału. Upewnij się, że podana wartość jest w prawidłowym formacie definiowania interwału. Możesz odwołać się do dokumentacji dotyczącej poprawnego formatu.
Nie można dodać interwału do daty, ponieważ jego część mikrosekund nie jest równa 0. W razie potrzeby ustaw <ansiConfig> na wartość "false", aby pominąć ten błąd.
Wykryto nieprawidłowy typ rekordu JSON podczas wnioskowania wspólnego schematu w trybie <failFastMode>. Oczekiwano typu STRUCT, ale znaleziono <invalidType>.
INVALID_JSON_ROOT_FIELD (nieprawidłowe pole główne JSON)
<joinType>
JOIN z korelacją LATERAL nie jest dozwolona, ponieważ podzapytanie OUTER nie może być skorelowane z partnerem dołączania. Usuń korelację LATERAL lub zamiast tego użyj INNERJOINlub OUTERJOIN LEFT.
Literał liczbowy <rawStrippedQualifier> znajduje się poza prawidłowym zakresem dla <typeName> z minimalną wartością <minValue> i maksymalną wartością <maxValue>. Dostosuj odpowiednio wartość.
Nie można rzutować wartości <value> na typ danych <dataType> dla kolumny partycji <columnName>. Upewnij się, że wartość jest zgodna z oczekiwanym typem danych dla tej kolumny partycji.
Oczekiwany format to "SET", "SET klucz" lub "SET klucz=wartość". Jeśli chcesz uwzględnić znaki specjalne w kluczu lub uwzględnić średnik w wartości, użyj cudzysłowów odwrotnych, np. SET key=value.
Argument <name> w sql() jest nieprawidłowy. Rozważ zastąpienie go literałem SQL lub funkcjami konstruktora kolekcji, takimi jak map(), array(), struct().
Nie można utworzyć obiektu trwałego <objName> typu <obj>, ponieważ odwołuje się do obiektu tymczasowego <tempObjName> typu <tempObj>. Utwórz obiekt tymczasowy <tempObjName> trwały lub utwórz obiekt trwały <objName> tymczasowy.
Strefa czasowa: <timeZone> jest nieprawidłowa. Strefa czasowa musi być identyfikatorem strefy opartej na regionie lub przesunięciem czasowym. Identyfikatory regionów muszą mieć postać "obszar/miasto", na przykład "Ameryka/Los_Angeles". Przesunięcia stref czasowych muszą mieć format "(+|-)HH", "(+|-)HH:mm" lub "(+|-)HH:mm:ss", np. "-08", "+01:00" lub "-13:33:33" i muszą znajdować się w zakresie od -18:00 do +18:00. "Z" i "UTC" są akceptowane jako synonimy dla "+00:00".
Składnik zapisywania źródła danych wygenerował nieprawidłową liczbę komunikatów zatwierdzenia. Oczekiwano dokładnie jednej wiadomości zatwierdzenia od każdego zadania, ale otrzymano <detail>.
Minimalny pobrany identyfikator fragmentu z Kinesis (<fetchedShardId>)
jest mniejszy niż minimalnie śledzony identyfikator „shardId” (<trackedShardId>).
Jest to nieoczekiwane i występuje, gdy strumień Kinesis zostanie usunięty i utworzony ponownie o tej samej nazwie,
i zapytanie przesyłane strumieniowo przy użyciu tego strumienia Kinesis jest ponownie uruchamiane przy użyciu istniejącej lokalizacji punktu kontrolnego.
Uruchom ponownie zapytanie przesyłane strumieniowo z nową lokalizacją punktu kontrolnego lub utwórz strumień o nowej nazwie.
W przypadku fragmentu o numerze <shard>, ostatni rekord odczytany z Kinesis w poprzednich pobraniach ma numer sekwencji <lastSeqNum>,
który jest większy niż rekord odczytany w aktualnym pobieraniu z numerem sekwencji <recordSeqNum>.
Jest to nieoczekiwane i może wystąpić, gdy przy inicjalizacji pozycji początkowej ponawiania próby lub kolejnego pobierania wystąpi błąd, co może spowodować zduplikowanie rekordów w dalszym etapie.
Aby odczytać ze strumieni Kinesis, należy skonfigurować jedną z opcji (ale nie obie) streamName lub streamARN jako rozdzielaną przecinkami listę nazw strumieni/ARN-ów.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS (Brak opcji dla konsumenta źródła Kinesis z zarejestrowanymi konsumentami)
Aby odczytywać strumienie Kinesis z zarejestrowanymi consumerami, nie należy konfigurować opcji consumerName ani consumerNamePrefix, ponieważ nie zostaną one zastosowane.
Niezgodność liczby zarejestrowanych identyfikatorów klientów źródła Kinesis
Liczba zarejestrowanych identyfikatorów konsumentów powinna być równa liczbie strumieni Kinesis, ale jest <numConsumerIds> identyfikatorów konsumentów i <numStreams> strumieni.
Rejestrowany konsument źródła Kinesis nie został znaleziony.
Nie można odnaleźć zarejestrowanego konsumenta <consumerId> podanego dla streamARN <streamARN>. Zweryfikuj, czy zarejestrowałeś użytkownika, lub nie podawaj opcji registeredConsumerId.
Nie można nazwać tabeli zarządzanej jako <identifier>, ponieważ jej skojarzona lokalizacja <location> już istnieje. Wybierz inną nazwę tabeli lub usuń istniejącą lokalizację jako pierwszą.
Część partycji w tematach Kafka została utracona podczas uruchamiania zapytania z użyciem Trigger.AvailableNow. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
partycje tematyczne dla najnowszego przesunięcia: <tpsForLatestOffset>, partycje tematyczne dla końcowego przesunięcia: <tpsForEndOffset>
Źle sformułowane komunikaty Avro są wykrywane w deserializacji komunikatów. Tryb analizowania: <mode>. Aby przetworzyć źle sformułowaną wiadomość Avro na wynik null, ustaw opcję 'mode' jako 'PERMISSIVE'.
Nie można <refreshType> materializować widoku, ponieważ powstał przed wprowadzeniem identyfikatora pipelineId. Aby włączyć <refreshType>, usuń i ponownie utwórz zmaterializowany widok.
nie można utworzyć zmaterializowanego widoku <name> za pomocą zapytania strumieniowego. Użyj CREATE [OR REFRESH] <st> lub usuń słowo kluczowe STREAM w klauzuli FROM, aby przekształcić tę relację w zapytanie wsadowe zamiast tego.
Źródło danych Kafka w Trigger.AvailableNow powinno zapewniać te same partycje tematów od wstępnie pobranego przesunięcia do przesunięcia końcowego dla każdej mikropartii. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
partycje tematów dla wstępnie pobranych offsetów: <tpsForPrefetched>, partycje tematów dla ostatecznych offsetów: <tpsForEndOffset>.
Nazwa bazy danych nie jest określona w wykazie sesji w wersji 1. Upewnij się, że podczas interakcji z wykazem w wersji 1 podaj prawidłową nazwę bazy danych.
Czas operacji upłynął, ale nie skonfigurowano czasu trwania limitu. Aby ustawić limit czasu przetwarzania bazujący na czasie, użyj "GroupState.setTimeoutDuration()" w "mapGroupsWithState" lub "flatMapGroupsWithState". W przypadku limitu czasu opartego na czasie zdarzenia użyj funkcji "GroupState.setTimeoutTimestamp()" i określ watermark przy użyciu funkcji "Dataset.withWatermark()".
Specyfikacja okna nie jest zdefiniowana w klauzuli WINDOW dla <windowName>. Aby uzyskać więcej informacji na temat klauzul WINDOW, zobacz "<docroot>/sql-ref-syntax-qry-select-window.html".
<clause1> i <clause2> nie mogą współistnieć w tym samym operatorze potoku SQL z użyciem "|>". Rozdziel wiele klauzul wyników na oddzielne operatory potoku, a następnie ponów próbę ponownego uruchomienia zapytania.
Nazwane parametry nie są obsługiwane dla funkcji <functionName>. Proszę spróbować ponownie wykonać zapytanie z argumentami pozycyjnymi do wywołania funkcji.
Nie można wywołać funkcji <functionName>, ponieważ nazwane odwołania argumentów nie są obsługiwane. W tym przypadku odniesienie do nazwanego argumentu było <argument>.
Zagnieżdżone polecenia EXECUTE IMMEDIATE nie są dozwolone. Upewnij się, że podane zapytanie SQL (<sqlString>) nie zawiera innego polecenia EXECUTE IMMEDIATE.
Jeśli w instrukcji NOT MATCHED [BY TARGET istnieje więcej niż jedna klauzula MERGE], tylko ostatnia klauzula NOT MATCHED [BY TARGET] może pominąć warunek.
<functionName> pojawia się tutaj jako wyrażenie skalarne, ale funkcja została zdefiniowana jako funkcja tabeli. Zaktualizuj zapytanie, aby przenieść wywołanie funkcji do klauzuli FROM lub ponownie zdefiniować <functionName> jako funkcję skalarną.
Not applicable in this case, as translating identifiers like these typically remain in their original form unless noted otherwise for specific technical or programming use cases.
<functionName> pojawia się w tym miejscu jako funkcja tabeli, ale funkcja została zdefiniowana jako funkcja skalarna. Zaktualizuj zapytanie, aby przenieść wywołanie funkcji poza klauzulą FROM lub ponownie zdefiniować <functionName> jako funkcję tabeli.
NULL wartość pojawiła się w polu bez wartości null: <walkedTypePath>Jeśli schemat jest wywnioskowany z krotki Scala/klasy przypadków lub klasy Java bean, spróbuj użyć scala.Option[_] lub innych typów dopuszczających wartości null (takich jak java.lang.Integer zamiast int/scala.Int).
Po df.mergeInto konieczne jest wykonanie co najmniej jednej z instrukcji whenMatched/whenNotMatched/whenNotMatchedBySource.
BRAK_ZEWNĘTRZNEJ_LOKALIZACJI_DLA_ŚCIEŻKI
SQLSTATE: brak przypisania
Nie odnaleziono lokalizacji zewnętrznej nadrzędnej dla ścieżki "<path>". Utwórz lokalizację zewnętrzną w jednej ze ścieżek nadrzędnych, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
Nie można odnaleźć <catalystFieldPath> w schemacie Protobuf.
BRAK_LOKALIZACJI_MAGAZYNOWANIA_DLA_TABELI
SQLSTATE: brak przypisania
Nie znaleziono lokalizacji magazynu dla tabeli "<tableId>" podczas generowania poświadczeń tabeli. Sprawdź typ tabeli i adres URL lokalizacji tabeli, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
Nie można odnaleźć katalogu "<catalog>". Sprawdź nazwę wykazu, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
NO_SUCH_CLEANROOM_EXCEPTION (Brak takiego pomieszczenia sterylnego)
SQLSTATE: brak przypisania
Czysty pokój "<cleanroom>" nie istnieje. Sprawdź, czy nazwa czystego pokoju jest poprawna i pasuje do nazwy prawidłowego istniejącego pomieszczenia, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
Brak takiej lokalizacji zewnętrznej (NO_SUCH_EXTERNAL_LOCATION_EXCEPTION)
SQLSTATE: brak przypisania
Lokalizacja zewnętrzna "<externalLocation>" nie istnieje. Sprawdź, czy nazwa lokalizacji zewnętrznej jest poprawna, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
BRAK_TAKIEGO_METASKLEPU_EXCEPTION
SQLSTATE: brak przypisania
Nie można odnaleźć magazynu metadanych. Poproś administratora konta o przypisanie magazynu metadanych do bieżącego obszaru roboczego, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: brak przypisania
Dostawca zasobu "<providerName>" nie istnieje. Sprawdź, czy nazwa dostawcy udostępniania jest napisana poprawnie i pasuje do nazwy prawidłowego, istniejącego dostawcy, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SUCH_RECIPIENT_EXCEPTION (Brak takiego odbiorcy)
SQLSTATE: brak przypisania
Odbiorca "<recipient>" nie istnieje. Sprawdź, czy nazwa adresata jest poprawnie wpisana i pasuje do nazwy prawidłowego istniejącego adresata, a następnie ponów próbę kwerendy lub polecenia ponownie.
Brak wyjątku o nazwie NO_SUCH_SHARE_EXCEPTION
SQLSTATE: brak przypisania
Udział "<share>" nie istnieje. Sprawdź, czy nazwa udziału jest poprawnie wpisana i odpowiada nazwie istniejącego prawidłowego udziału, a następnie ponów próbę zapytania lub polecenia.
Nie znaleziono danych uwierzytelniających magazynu (NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION)
SQLSTATE: brak przypisania
Poświadczenie magazynu "<storageCredential>" nie istnieje. Sprawdź, czy nazwa poświadczeń magazynu jest poprawnie wpisana i pasuje do nazwy prawidłowego istniejącego poświadczenia magazynu, a następnie ponów próbę zapytania lub polecenia.
NO_SUCH_USER_EXCEPTION (Brak takiego użytkownika)
SQLSTATE: brak przypisania
Użytkownik "<userName>" nie istnieje. Sprawdź, czy użytkownik, któremu udzielono uprawnień lub zmiany własności, jest poprawnie wpisany i pasuje do nazwy prawidłowego istniejącego użytkownika, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
<operator> można wykonać tylko na danych wejściowych o tej samej liczbie kolumn, ale pierwsze dane wejściowe mają kolumny <firstNumColumns>, a dane wejściowe <invalidOrdinalNum> mają <invalidNumColumns> kolumny.
Liczba wartości (<partitionNumber>) nie jest zgodna z rozmiarem schematu (<partitionSchemaSize>): wartości są <partitionValues>, schemat jest <partitionSchema>, ścieżka pliku jest <urlEncodedPath>.
Ponownie zmaterializuj tabelę lub skontaktuj się z właścicielem.
Ekspresja transformacji partycji nie znajduje się w partycji.
Wyrażenie bez grupowania <expr> jest podawane jako argument dla operatora potoku |>AGGREGATE, ale nie zawiera funkcji agregującej; zaktualizuj go, aby uwzględnić funkcję agregacji, a następnie spróbuj wykonać zapytanie ponownie.
Funkcja agregująca <expr> nie jest dozwolona przy korzystaniu z operatora potoku | w klauzuli><clause>; użyj operatora potoku | w klauzuli>AGGREGATE zamiast tego.
Parametr <parameterName> jest definiowany w trybie parametru <parameterMode>. Parametr OUT i INOUT nie można pominąć podczas wywoływania procedury i dlatego nie obsługują wyrażenia DEFAULT. Aby kontynuować, usuń klauzulę DEFAULT lub zmień tryb parametru na IN.
Klasy języka Java nie są obsługiwane w przypadku <protobufFunction>. Skontaktuj się z pomocą techniczną usługi Databricks, aby uzyskać informacje o opcjach alternatywnych.
Nie można wywołać funkcji <functionName> SQL, ponieważ źródło danych Protobuf nie jest załadowane.
Uruchom ponownie zadanie lub sesję z załadowanym pakietem "spark-protobuf", na przykład przy użyciu argumentu –packages w wierszu polecenia, a następnie ponów próbę wykonania zapytania lub polecenia.
Nieprawidłowy element UnsafeRow do dekodowania do pubSubMessageMetadata, żądany schemat proto to: <protoSchema>. Dane wejściowe UnsafeRow mogą być uszkodzone: <unsafeRow>.
Brak informacji uwierzytelniających - PS_MISSING_AUTH_INFO
Klastry trybu dostępu w warstwie Standardowa (dawniej tryb dostępu współdzielonego) nie obsługują uwierzytelniania z profilami wystąpień. Podaj poświadczenia do strumienia bezpośrednio za pomocą metody .option().
Wystąpił błąd podczas próby utworzenia subskrypcji <subId> na temat <topicId>. Sprawdź, czy istnieją wystarczające uprawnienia do utworzenia subskrypcji i spróbuj ponownie.
Nie można uzyskać dostępu do tabeli, do której odwołuje się odwołanie, ponieważ wcześniej przypisana maska kolumn jest obecnie niezgodna ze schematem tabeli; aby kontynuować, skontaktuj się z właścicielem tabeli, aby zaktualizować zasady:
Nie można uzyskać dostępu do tabeli, do której odwołuje się odwołanie, ponieważ wcześniej przypisane zasady zabezpieczeń na poziomie wiersza są obecnie niezgodne ze schematem tabeli; aby kontynuować, skontaktuj się z właścicielem tabeli, aby zaktualizować zasady:
Możliwe, że pliki bazowe zostały zaktualizowane. Możesz jawnie unieważnić pamięć podręczną na platformie Spark, uruchamiając polecenie "REFRESH TABLE tableName" w języku SQL lub tworząc ponownie zaangażowany zestaw danych/ramkę danych.
Znaleziono odwołanie cykliczne w schemacie Protobuf, którego nie można przetworzyć przez platformę Spark domyślnie: <fieldDescriptor>. Spróbuj ustawić opcję recursive.fields.max.depth od 1 do 10. Przechodzenie poza 10 poziomów rekursji nie jest dozwolone.
Nie można ocenić funkcji <functionName> SQL z powodu braku możliwości analizowania wyniku JSON z zdalnej odpowiedzi HTTP; komunikat o błędzie to <errorMessage>. Zapoznaj się z dokumentacją interfejsu API: <docUrl>. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
Nie można ocenić funkcji <functionName> SQL z powodu braku możliwości przetworzenia nieoczekiwanej zdalnej odpowiedzi HTTP; komunikat o błędzie to <errorMessage>. Zapoznaj się z dokumentacją interfejsu API: <docUrl>. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
Żądanie zdalne nie powiodło się po ponowieniu próby <N> razy; ostatni kod błędu HTTP, który zakończył się niepowodzeniem, został <errorCode>, a komunikat został <errorMessage>
Nie udało się ocenić funkcji SQL <functionName>, ponieważ <errorMessage>. Sprawdź wymagania w <docUrl>. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
Nie można wywołać rutyny <routineName>, ponieważ parametr o nazwie <parameterName> jest wymagany, ale wywołanie rutyny nie podało wartości. Zaktualizuj rutynowe wywołanie, aby podać wartość argumentu (pozycjonalnie w indeksie <index> lub według nazwy) i ponów próbę zapytania.
Nie można odnaleźć rutyny <routineName>. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana do schematu i katalogu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym schematem i wykazem.
Aby tolerować błąd na etapie upuszczania, użyj DROP ...
IF EXISTS.
Nie można utworzyć funkcji <routineName>, ponieważ określona nazwa klasy „<className>” jest zarezerwowana dla systemu. Zmień nazwę klasy i spróbuj ponownie.
Nie można rozpoznać filtrów wierszy w <tableName>, ponieważ wystąpiła niezgodność między filtrami wierszy dziedziczonych z zasad i jawnie zdefiniowanymi filtrami wierszy. Aby kontynuować, wyłącz kontrolę dostępu opartą na atrybutach (ABAC) i skontaktuj się z pomocą techniczną usługi Databricks.
Instrukcja <statementType> próbowała przypisać zasady zabezpieczeń na poziomie wiersza do tabeli, ale co najmniej dwie przywoływane kolumny miały taką samą nazwę <columnName>, co jest nieprawidłowe.
Nie można zablokować <statementType> <columnName> z tabeli <tableName>, ponieważ jest odwoływana w zasadzie zabezpieczeń na poziomie wiersza. Właściciel tabeli musi usunąć lub zmienić tę politykę przed kontynuowaniem.
Ta instrukcja próbowała przypisać zasady zabezpieczeń na poziomie wiersza do tabeli, ale przywoływane kolumny <columnName> miały wiele części nazw, co jest nieprawidłowe.
Używanie stałej jako parametru w zasadach zabezpieczeń na poziomie wiersza nie jest obsługiwane. Zaktualizuj polecenie SQL, aby usunąć stałą z definicji filtru wierszy, a następnie ponów próbę polecenia.
Nie można wykonać polecenia <statementType>, ponieważ przypisywanie zasad zabezpieczeń na poziomie wiersza nie jest obsługiwane dla docelowego źródła danych z dostawcą tabel: "<provider>".
Nie można dodać <scheduleType> do tabeli, która ma już <existingScheduleType>. Upuść istniejący harmonogram lub użyj ALTER TABLE ...
ALTER <scheduleType> ... aby go zmienić.
Nie można wykonać <commandType> polecenia z co najmniej jednym nieszyfrowanym odwołaniem do funkcji SECRET; Zaszyfruj wynik każdego takiego wywołania funkcji za pomocą AES_ENCRYPT i spróbuj ponownie wykonać polecenie
Nie można wykonać operacji rodziny kolumn =<operationName> z nieprawidłową nazwą =<colFamilyName>. Nazwa rodziny kolumn nie może być pusta, zawierać spacji na początku lub na końcu, lub zawierać zastrzeżonego słowa kluczowego 'default'.
SCHEMAT KOLUMN RODZINNYCH W SKLEPIE STANU JEST NIEKOMPATYBILNY
Nieprawidłowa liczba liczb porządkowych =<numOrderingCols> dla enkodera skanowania zakresu. Liczba liczb porządkowych nie może być równa zero ani większa niż liczba kolumn schematu.
Nieprawidłowa liczba kolumn prefiksu =<numPrefixCols> dla kodera skanującego prefiksy. Kolumny prefiksu nie mogą być zerowe ani większe lub równe liczbie kolumn schematu.
Nie można zmienić <configName> z <oldConfig> na <newConfig> między ponownymi uruchomieniami. Ustaw <configName> na <oldConfig>lub uruchom ponownie przy użyciu nowego katalogu punktu kontrolnego.
Nie można zmienić <stateVarName> na <newType> między ponownym uruchomieniem zapytania. Ustaw <stateVarName> na <oldType>lub uruchom ponownie przy użyciu nowego katalogu punktu kontrolnego.
Liczba ewolucji schematu stanu <numSchemaEvolutions> przekracza maksymalną liczbę ewolucji schematu stanu, <maxSchemaEvolutions>, dozwoloną dla tej rodziny kolumn.
Problemowa rodzina kolumn: <colFamilyName>
Ustaw wartość "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" na wyższą liczbę lub przywróć modyfikacje schematu stanu
Nie znaleziono zaksięgowanej partii, lokalizacja punktu kontrolnego: <checkpointLocation>. Upewnij się, że zapytanie zostało uruchomione i zatwierdzone przed zatrzymaniem dowolnego mikrobajta.
Nie można odczytać metadanych operatora dla checkpointLocation=<checkpointLocation> i batchId=<batchId>.
Plik nie istnieje lub plik jest uszkodzony.
Uruchom ponownie zapytanie przesyłania strumieniowego, aby skonstruować metadane operatora i zgłosić je odpowiednim społecznościom lub dostawcom, jeśli błąd będzie się powtarzać.
Nie można odczytać schematu stanu. Plik nie istnieje lub plik jest uszkodzony. opcje: <sourceOptions>.
Uruchom ponownie zapytanie przesyłania strumieniowego, aby skonstruować schemat stanu i zgłosić je odpowiednim społecznościom lub dostawcom, jeśli błąd będzie się powtarzać.
Dziennik przesunięcia dla <batchId> nie istnieje, lokalizacja punktu kontrolnego: <checkpointLocation>.
Określ identyfikator wsadu, który jest dostępny do zapytania — możesz zapytać o dostępne identyfikatory wsadowe przy użyciu źródła danych dotyczących metadanych stanu.
Metadane nie są dostępne dla dziennika przesunięcia dla <batchId>, lokalizacja punktu kontrolnego: <checkpointLocation>.
Wydaje się, że punkt kontrolny działa tylko ze starszymi wersjami platformy Spark. Uruchom zapytanie przesyłania strumieniowego z najnowszą wersją Sparka, aby Spark skonstruował metadane stanu.
Nazwa operatora stanowego przesyłania strumieniowego nie jest zgodna z operatorem w metadanych stanu. Może się tak zdarzyć, gdy użytkownik dodaje/usuwa/zmienia stanowy operator istniejącego zapytania przesyłania strumieniowego.
Operatory stanowe w metadanych: [<OpsInMetadataSeq>]; Operatory stanowe w bieżącej partii: [<OpsInCurBatchSeq>].
Tabela przesyłania strumieniowego <tableName> może być utworzona tylko na podstawie zapytania przesyłania strumieniowego. Dodaj słowo kluczowe STREAM do klauzuli FROM, aby przekształcić tę relację w zapytanie strumieniowe.
Wiersz wejściowy nie ma oczekiwanej liczby wartości wymaganych przez schemat danych.
<expected> pola są wymagane, o ile <actual> wartości są dostarczone.
Suma limitu i offsetu przekracza maksymalną wartość INT
Suma klauzuli LIMIT i klauzuli OFFSET nie może być większa niż maksymalna 32-bitowa wartość całkowita (2 147 483 647), ale znaleziono limit = <limit>, przesunięcie = <offset>.
Nie można utworzyć tabeli lub widoku <relationName>, ponieważ już istnieje.
Wybierz inną nazwę, upuść istniejący obiekt, dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące obiekty, dodać klauzulę OR REPLACE, aby zastąpić istniejący zmaterializowany widok lub dodać klauzulę OR REFRESH, aby odświeżyć istniejącą tabelę przesyłania strumieniowego.
Nie można <action> funkcji użytkownika zdefiniowanej przez SQL <functionName> przy użyciu argumentów TABLE, ponieważ ta funkcjonalność nie została jeszcze zaimplementowana.
Nie można ewaluować funkcji tabeli <functionName>, ponieważ jej metadane tabeli to <requestedMetadata>, a wywołanie funkcji to <invalidFunctionCallProperty>.
NIEPRAWIDŁOWE METADANE WYMAGANE DLA FUNKCJI ZWRACAJĄCEJ TABELĘ
Polecenia: <commandName> nie są obsługiwane dla zasobów obliczeniowych katalogu Unity w architekturze bezserwerowej. Zamiast tego należy użyć zasobu obliczeniowego ze standardowym lub dedykowanym trybem dostępu.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE (polecenie UC nieobsługiwane w trybie współdzielonego dostępu)
Polecenia <commandName> nie są obsługiwane w przypadku zasobów obliczeniowych Unity Catalog w trybie standardowego dostępu (wcześniej udostępnionym). Zamiast tego użyj trybu dedykowanego dostępu.
klauzula LOCATION musi być obecna dla woluminu zewnętrznego. Sprawdź składnię "CREATE EXTERNAL VOLUME ...
LOCATION ... do tworzenia woluminu zewnętrznego.
Kwerenda nie powiodła się, ponieważ próbowała odwołać się do tabeli <tableName>, ale nie mogła tego zrobić: <failureReason>. Zaktualizuj tabelę <tableName>, aby upewnić się, że jest ona w stanie aktywnej aprowizacji, a następnie spróbuj ponownie wykonać zapytanie.
Tworzenie tabeli w Unity Catalog ze schematem plików <schemeName> nie jest obsługiwane.
Zamiast tego utwórz połączenie federacyjnego źródła danych przy użyciu polecenia CREATE CONNECTION dla tego samego dostawcy tabel, a następnie utwórz katalog na podstawie połączenia z poleceniem CREATE FOREIGN CATALOG, aby odwołać się do tabel w tym miejscu.
Federacja UC Hive Metastore - widok między katalogami nieobsługiwany
Widok federacji metastore Hive nie obsługuje zależności pomiędzy wieloma katalogami. Widok <view> w katalogu federacji Hive Metastore musi używać zależności z katalogu hive_metastore lub spark_catalog, ale jego zależność <dependency> znajduje się w innym katalogu <referencedCatalog>. Zaktualizuj zależności, aby spełnić to ograniczenie, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
Zależności <viewName> są rejestrowane jako <storedDeps>, podczas gdy są analizowane jako <parsedDeps>. Prawdopodobnie wystąpiło to przez niewłaściwe użycie interfejsu API innego niż SQL. Zależności w środowisku Databricks Runtime można naprawić, uruchamiając ALTER VIEW <viewName> AS <viewText>.
Przekroczono ogólny limit <maxNumUdfs> funkcji UDF dla zapytania (ograniczony podczas publicznego podglądu). Znaleziono <numUdfs>. Funkcje zdefiniowane przez użytkownika to: <udfNames>.
Nie można ocenić funkcji tabeli zdefiniowanej przez użytkownika, ponieważ jej metoda "analyze" zwróciła żądaną kolumnę OrderingColumn, której wyrażenie nazwy kolumny zawiera niepotrzebny alias <aliasName>; Usuń ten alias, a następnie spróbuj ponownie wykonać zapytanie.
Nie można ocenić funkcji tabeli zdefiniowanej przez użytkownika, ponieważ jej metoda "analyze" zwróciła żądane wyrażenie "select" (<expression>), które nie zawiera odpowiedniego aliasu; Zaktualizuj udTF, aby określić tam alias, a następnie spróbuj ponownie wykonać zapytanie.
Znaleziono parametr niezwiązany: <name>. Proszę poprawić args i podać mapowanie parametru na literał SQL lub na funkcje konstruktora kolekcji, takie jak map(), array(), struct().
Nie można wywołać rutyny <routineName>, ponieważ zawiera argumenty pozycyjne po nazwanym argumencie przypisanym do <parameterName>; przestaw je tak, aby argumenty pozycyjne były pierwsze, a następnie ponownie spróbuj zapytania.
Nie można wywołać procedury <routineName>, ponieważ wywołanie procedury zawiera nazwane odwołanie do argumentu o nazwie <argumentName>, ale ta procedura nie zawiera żadnej sygnatury zawierającej argument o tej nazwie. Czy masz na myśli jedną z następujących czynności? [<proposal>].
Statystyka <stats> nie jest rozpoznawana. Prawidłowe statystyki obejmują wartości count, count_distinct, approx_count_distinct, mean, stddev, min, maxoraz wartości percentylowe. Percentyl musi być wartością liczbową, po której następuje%" w zakresie od 0% do 100%.
Parametr funkcji "ocrText" musi zostać NULL lub pominięty po określeniu opcji "metadataModel". Określona opcja "metadataModel" wyzwala wyodrębnianie metadanych, gdzie podany element "ocrText" jest zabroniony.
Nie można użyć typu char/varchar w schemacie tabeli.
Jeśli chcesz, aby Spark traktował je jako typ string, jak w Spark 3.0 i wcześniejszych wersjach, ustaw wartość "spark.sql.legacy.charVarcharAsString" na "true".
Wspólny element nadrzędny ścieżki źródłowej i sourceArchiveDir powinien być zarejestrowany w UC.
Jeśli zostanie wyświetlony ten komunikat o błędzie, prawdopodobnie zarejestrujesz ścieżkę źródłową i element sourceArchiveDir w różnych lokalizacjach zewnętrznych.
Proszę umieścić je w jednej lokalizacji zewnętrznej.
Tworzenie tabeli zarządzanej <tableName> przy użyciu <dataSource> źródła danych nie jest obsługiwane. Musisz użyć DELTA źródła danych lub utworzyć tabelę zewnętrzną przy użyciu CREATE EXTERNAL TABLE <tableName> ...
USING <dataSource> ...
Tabela <tableName> ma zasady zabezpieczeń na poziomie wiersza lub maskę kolumny, która pośrednio odwołuje się do innej tabeli z zasadami zabezpieczeń na poziomie wiersza lub maską kolumny; nie jest to obsługiwane. Sekwencja wywołań: <callSequence>
Nieobsługiwana transformacja partycji: <transform>. Obsługiwane przekształcenia to identity, bucketi clusterBy. Upewnij się, że wyrażenie przekształcenia używa jednego z tych elementów.
<outputMode> tryb wyjściowy nie jest obsługiwany dla <statefulOperator> w przypadku strumieniowego przesyłania ram danych/zestawów danych bez ustawionego watermarku.
Funkcja <function> używa następujących funkcji, które wymagają nowszej wersji środowiska uruchomieniowego usługi Databricks: <features>. Aby uzyskać szczegółowe informacje, zapoznaj się z <docLink>.
Używasz nieztypizowanej funkcji UDF w języku Scala, która nie ma informacji o typie wejściowym.
Platforma Spark może ślepo przekazać wartość null do zamknięcia języka Scala z argumentem typu pierwotnego, a zamknięcie zobaczy domyślną wartość typu Języka Java dla argumentu o wartości null, np. udf((x: Int) => x, IntegerType), wynik wynosi 0 dla danych wejściowych o wartości null. Aby pozbyć się tego błędu, możesz:
użyj typowanych interfejsów API funkcji UDF Scala (bez parametru typu zwrotnego), np. udf((x: Int) => x).
użyj interfejsów Java UDF API, np. udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), jeśli wszystkie typy wejściowe są nieprymitywne.
ustaw wartość "spark.sql.legacy.allowUntypedScalaUDF" na wartość "true" i użyj tego interfejsu API z ostrożnością.
Nie można odnaleźć <variableName> zmiennej. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana do schematu i katalogu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym schematem i wykazem.
Aby tolerować błąd podczas upuszczania, użyj DROP VARIABLE IF EXISTS.
Nie można zbudować wariantu większego niż <sizeLimit> w <functionName>.
Unikaj dużych ciągów wejściowych do tego wyrażenia (na przykład dodaj wywołania funkcji w celu sprawdzenia rozmiaru wyrażenia i przekonwertuj je na NULL najpierw, jeśli jest zbyt duży).
Nie udało się zmienić sortowania kolumny <column>, ponieważ posiada indeks filtru Bloom. Proszę zachować istniejące sortowanie lub usunąć indeks filtru Blooma, a następnie spróbować ponownie polecenia, aby zmienić sortowanie.
Nie można zmienić sortowania kolumny <column>, ponieważ jest to kolumna klastrowania. Zachowaj istniejące sortowanie lub zmień kolumnę na kolumnę bez klastrowania za pomocą polecenia ALTER TABLE, a następnie spróbuj ponownie wykonać polecenie, aby zmienić sortowanie.
Niedozwolona operacja: ALTER TABLE RENAME TO nie jest dozwolona dla zarządzanych tabel Delta w usłudze S3, ponieważ spójność ostateczna w usłudze S3 może uszkodzić dziennik transakcji Delta. Jeśli nalegasz na to i upewniasz się, że nigdy wcześniej nie było tabeli Delta o nowej nazwie <newName>, możesz to włączyć, ustawiając <key> na wartość true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED (Funkcja ustawiania tabeli klastrowania nie jest dozwolona)
Nie można włączyć funkcji tabeli <tableFeature> przy użyciu ALTER TABLE SET TBLPROPERTIES. Użyj CREATE LUB REPLACE TABLE CLUSTER BY, aby utworzyć tabelę Delta z grupowaniem.
Nie można zmienić typu danych <column> z <from> na <to>. Ta zmiana zawiera usunięcia kolumn i dodatki, dlatego są niejednoznaczne. Wprowadź te zmiany indywidualnie przy użyciu ALTER TABLE [ADD | DROP | RENAME] COLUMN.
Operacja "<opName>" nie jest dozwolona, gdy tabela ma włączone śledzenie zmian danych (CDF) i przeszła zmiany schematu przy użyciu DROP COLUMN lub RENAME COLUMN.
Błąd OutOfMemoryError wystąpił podczas pisania indeksów filtrów bloom dla następujących kolumn: <columnsWithBloomFilterIndices>.
Możesz zmniejszyć ilość pamięci indeksów filtru blooma, wybierając mniejszą wartość opcji "numItems", większą wartość opcji "fpp" lub indeksując mniej kolumn.
Ta tabela jest skonfigurowana tak, aby zezwalała tylko na dołączanie. Jeśli chcesz zezwolić na aktualizacje lub usunięcia, użyj polecenia "ALTER TABLE<table_name>SET TBLPROPERTIES (<config>=false)".
<Command> nie można nadpisać lub usunąć właściwości tabeli znacznika czasu podczas zatwierdzania, ponieważ skoordynowane zatwierdzenia są włączone w tej tabeli i zależą od nich. Usuń je ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") z klauzuli TBLPROPERTIES, a następnie ponów próbę polecenia ponownie.
<Command> nie może zastąpić konfiguracji zatwierdzeń skoordynowanych dla istniejącej tabeli docelowej. Usuń je ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") z klauzuli TBLPROPERTIES, a następnie ponów próbę polecenia ponownie.
Nie można przywrócić tabeli do sygnatury czasowej (<requestedTimestamp>), ponieważ jest ona wcześniejsza niż najwcześniejsza dostępna wersja. Użyj znacznika czasu po (<earliestTimestamp>).
Nie można przywrócić tabeli do znacznika czasu (<requestedTimestamp>), ponieważ jest on późniejszy niż najnowsza dostępna wersja. Użyj znacznika czasu przed (<latestTimestamp>)
NIE MOŻNA USTAWIĆ SKOORDYNOWANYCH ZALEŻNOŚCI KOMITÓW DELTA
<Command> nie można ustawić właściwości tabeli znaczników czasu podczas zatwierdzania razem z koordynowanymi zatwierdzeniami, ponieważ te drugie zależą od tych pierwszych i ustalają je wewnętrznie. Usuń je ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") z klauzuli TBLPROPERTIES, a następnie ponów próbę polecenia ponownie.
Podczas włączania "unity-catalog" jako koordynatora operacji zatwierdzania, nie można ustawić konfiguracji "<configuration>" z polecenia. Usuń go z klauzuli TBLPROPERTIES, a następnie ponów próbę ponownego uruchomienia polecenia.
Podczas włączania „unity-catalog” jako koordynatora transakcji, nie można ustawić konfiguracji „<configuration>” z konfiguracji SparkSession. Usuń jego ustawienia, uruchamiając spark.conf.unset("<configuration>"), a następnie ponów próbę ponownego uruchomienia polecenia.
NIE MOŻNA WYŁĄCZYĆ SKOORDYNOWANYCH ZATWIERDZEŃ_DELTA
ALTER nie może wyłączyć konfiguracji zatwierdzeń skoordynowanych. Aby obniżyć poziom tabeli z skoordynowanych zatwierdzeń, spróbuj ponownie przy użyciu ALTER TABLE[table-name]DROP FEATURE ‘coordinatedCommits-preview’.
Nie można zapisać wartości typu <sourceType> w kolumnie typu <targetType><columnName> z powodu przepełnienia.
Użyj try_cast wartości wejściowej, aby tolerować przepełnienie i zwracać NULL zamiast tego.
W razie potrzeby ustaw <storeAssignmentPolicyFlag> na wartość "LEGACY", aby pominąć ten błąd, lub ustaw <updateAndMergeCastingFollowsAnsiEnabledFlag> na wartość true, aby przywrócić stare zachowanie i postępować zgodnie z <ansiEnabledFlag> w UPDATE i MERGE.
Pobieranie zmian tabeli między wersją <start> a <end> nie powiodło się z powodu niekompatybilnej zmiany schematu.
Schemat odczytu w wersji <readSchema>to <readVersion>, ale znaleźliśmy niekompatybilną zmianę schematu w wersji <incompatibleVersion>.
Jeśli to możliwe, należy wykonać zapytanie o zmianę tabeli oddzielnie od wersji <start> do <incompatibleVersion> — 1 i od wersji <incompatibleVersion> do <end>.
Nie można odnaleźć <filePath> pliku, do którego odwołuje się dziennik transakcji. Taka sytuacja może wystąpić, gdy dane zostały ręcznie usunięte z systemu plików, raczej niż przy użyciu instrukcji tabeli DELETE. To żądanie wydaje się dotyczyć funkcji Change Data Feed. Jeśli tak jest, ten błąd może wystąpić, gdy plik z danymi o zmianach znajduje się poza okresem przechowywania i został usunięty w wyniku działania polecenia VACUUM. Aby uzyskać więcej informacji, zobacz <faqPath>
Plik (<fileName>) nie został całkowicie skopiowany. Oczekiwany rozmiar pliku: <expectedSize>, znaleziono: <actualSize>. Aby kontynuować operację, pomijając kontrolę rozmiaru pliku, ustaw <config> na wartość false.
Nie można zakończyć elementu <phaseOutType> w tabeli przy użyciu funkcji tabeli <tableFeatureToAdd> (przyczyna: <reason>). Spróbuj ponownie polecenia OPTIMIZE.
Przejście tabeli Delta z klastrowaniem Liquid do tabeli partycjonowanej nie jest dozwolone w operacji: <operation>, jeśli istniejąca tabela ma niepuste kolumny klastrowania.
Uruchom ALTER TABLE CLUSTER BY NONE, aby najpierw usunąć kolumny klastrowania.
If using the term in Polish is beneficial for clarity: KLASTROWANIE_DELTA_Z_DYNAMICZNYM_NADPISYWANIEM_PARTYCJI. If leaving the term in English is standard and appropriate for the context: DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE.
CLUSTER BY dla klastrowania Liquid obsługuje maksymalnie <numColumnsLimit> kolumn klastrowania, ale tabela ma <actualNumColumns> kolumn klastrowania. Usuń dodatkowe kolumny klastrowania.
Nie można jednocześnie określić klastrowania i grupowania. Usuń CLUSTERED BY INTO BUCKETS/bucketBy, jeśli chcesz utworzyć tabelę Delta z klastrowaniem.
Nie można określić klastrowania i partycjonowania. Usuń PARTITIONED BY / partitionBy / partitionedBy, jeśli chcesz utworzyć tabelę delty z klastrowaniem.
Maksymalna właściwość identyfikatora kolumny (<prop>) w tabeli z włączoną mapowaniem kolumny jest <tableMax>, która nie może być mniejsza niż maksymalny identyfikator kolumny dla wszystkich pól (<fieldMax>).
Nie można odnaleźć kolumny "<targetCol>" tabeli docelowej z kolumn INSERT: <colNames>.
INSERT klauzula musi określać wartość dla wszystkich kolumn tabeli docelowej.
Odnaleziono zagnieżdżony typ NullType w kolumnie <columName>, która jest typu <dataType>. Funkcja Delta nie obsługuje zapisywania wartości NullType w typach złożonych.
ConcurrentDeleteDeleteException: ta transakcja próbowała usunąć co najmniej jeden plik, który został usunięty (na przykład <file>) przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
ConcurrentDeleteReadException: ta transakcja próbowała odczytać co najmniej jeden plik, który został usunięty (na przykład <file>) przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
ConcurrentTransactionException: ten błąd występuje, gdy wiele zapytań przesyłanych strumieniowo używa tego samego punktu kontrolnego do zapisania w tej tabeli. Czy uruchomiłeś wiele wystąpień tego samego zapytania przesyłania strumieniowego w tym samym czasie?<conflictingCommit>
ConcurrentWriteException: Współbieżna transakcja zapisywała nowe dane od czasu odczytania tabeli przez bieżącą transakcję. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zobacz <docLink>.
There are no improvements needed; leave it unchanged as "DELTA_CONFLICT_SET_COLUMN."
Podczas <command>nie można ustawić konfiguracji "<configuration>" z polecenia . Usuń go z klauzuli TBLPROPERTIES, a następnie ponów próbę ponownego uruchomienia polecenia.
Opcja zastąpienia konfiguracji DELTA nie jest obsługiwana w tej sesji
Podczas <command>nie można ustawić konfiguracji „<configuration>” w konfiguracjach SparkSession. Usuń jego ustawienia, uruchamiając spark.conf.unset("<configuration>"), a następnie ponów próbę ponownego uruchomienia polecenia.
Kolumna <columnName> ma typ danych <columnType> i nie można jej zmienić na typ danych <dataType>, ponieważ ta kolumna jest przywoływane przez następujące ograniczenia kontrolne:
Nie można usunąć nieistniejących ograniczeń <constraintName> z tabeli <tableName>. Aby uniknąć zgłaszania błędu, podaj parametr IF EXISTS lub ustaw konfigurację sesji SQL <config> na <confValue>.
Nie znaleziono informacji o partycji w katalogu dla tabeli <tableName>. Czy uruchomiłeś polecenie "MSCK REPAIR TABLE" na swojej tabeli, aby wyszukać partycje?
Nie można włączyć funkcji tabeli <tableFeature> przy użyciu TBLPROPERTIES. Użyj CREATE LUB REPLACE TABLE CLUSTER BY, aby utworzyć tabelę Delta z grupowaniem.
Nie można odnaleźć <filePath> pliku, do którego odwołuje się dziennik transakcji. Ten plik Parquet może zostać usunięty zgodnie z zasadami przechowywania danych Delty.
Domyślny czas przechowywania danych delty: <logRetentionPeriod>. Czas modyfikacji pliku Parquet: <modificationTime>. Czas usunięcia pliku formatu Parquet: <deletionTime>. Usunięto wersję Delta: <deletionVersion>.
Tryb nadpisywania partycji dynamicznych jest określany przez konfigurację sesji lub opcje zapisu, ale jest wyłączony przez spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
Nie można włączyć funkcji tabeli <feature>, ponieważ wymaga nowszej wersji protokołu czytnika (bieżąca <current>). Rozważ uaktualnienie wersji protokołu czytnika tabeli do wersji <required>lub do wersji obsługującej funkcje tabel czytnika. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zobacz <docLink>.
Nie można włączyć funkcji tabeli <feature>, ponieważ wymaga nowszej wersji protokołu zapisywania (bieżąca <current>). Rozważ uaktualnienie wersji protokołu zapisywania tabeli do <required>lub do wersji obsługującej funkcje tabeli zapisywania. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zobacz <docLink>.
Nie można odnaleźć <filePath> pliku, do którego odwołuje się dziennik transakcji. Dzieje się tak, gdy dane zostały ręcznie usunięte z systemu plików, zamiast użycia instrukcji tabeli DELETE. Aby uzyskać więcej informacji, zobacz <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND (Plik lub katalog DELTA nie znaleziono)
Kolumna <columnName> ma typ danych <columnType> i nie można jej zmienić na typ danych <dataType>, ponieważ ta kolumna jest przywoływane przez następujące wygenerowane kolumny:
Kolumna <currentName> to wygenerowana kolumna lub kolumna używana przez wygenerowaną kolumnę. Typ danych jest <currentDataType> i nie można go przekonwertować na typ danych <updateDataType>
Nieprawidłowa liczba pojemników: <invalidBucketCount>. Liczba zasobników powinna być liczbą dodatnią, będącą potęgą liczby 2 i wynosić co najmniej 8. Zamiast tego można użyć <validBucketCount>.
Znaleziono kolumny partycji zawierające nieprawidłowe znaki wśród znaków „,;{}()nt=”. Proszę zmienić nazwę na nazwę kolumn partycji. Tę kontrolę można wyłączyć, ustawiając spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), jednak nie jest to zalecane, ponieważ inne funkcje Delta mogą nie działać prawidłowo.
Nieobsługiwana wersja protokołu delta: tabela "<tableNameOrPath>" wymaga wersji czytnika <readerRequired> i wersji składnika zapisywania <writerRequired>, ale ta wersja usługi Databricks obsługuje wersje czytników <supportedReaders> i wersji składników zapisywania <supportedWriters>. Uaktualnij do nowszej wersji.
Jeśli nigdy go nie usunięto, prawdopodobnie zapytanie pozostaje opóźnione. Usuń punkt kontrolny, aby ponownie uruchomić od podstaw. Aby uniknąć ponownego wystąpienia tego problemu, możesz zaktualizować zasady przechowywania tabeli Delta.
MetadataChangedException: metadane tabeli delty zostały zmienione przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
Ta tabela ma włączoną funkcję <featureName>, która wymaga obecności akcji CommitInfo w każdym zatwierdzeniu. Jednak w wersji <version>brakuje akcji CommitInfo.
Ta tabela ma włączoną funkcję <featureName>, która wymaga obecności znacznika commitTimestamp w akcji CommitInfo. Jednak to pole nie zostało ustawione w wersji zatwierdzenia <version>.
Podczas <command>obie konfiguracje zatwierdzeń koordynowanych ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") są ustawione w poleceniu lub żadna z nich. Brak: "<configuration>". Określ tę konfigurację w klauzuli TBLPROPERTIES lub usuń inną konfigurację, a następnie spróbuj ponownie wykonać polecenie.
Podczas <command>, w konfiguracjach SparkSession są ustawione albo obie konfiguracje zatwierdzeń koordynowanych ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview"), albo żadna. Brak: "<configuration>". Ustaw tę konfigurację w usłudze SparkSession lub usuń konfigurację inną, a następnie ponów próbę ponownego uruchomienia polecenia.
Typ pola <nestType> zawiera ograniczenie <parent> dla NOT NULL. Delta nie obsługuje ograniczeń NOT NULL zagnieżdżonych w tablicach lub mapach. Aby pominąć ten błąd i dyskretnie zignorować określone ograniczenia, ustaw <configKey> = true.
Ustawienie koordynatora zatwierdzania na wartość "<nonUcCoordinatorName>" z polecenia nie jest obsługiwane, ponieważ tabele zarządzane przez UC mogą mieć tylko "katalog-unity" jako koordynatora zatwierdzania. Zmień ją na "unity-catalog" lub usuń wszystkie właściwości tabeli Zatwierdzenia skoordynowane z klauzuli TBLPROPERTIES, a następnie ponów próbę ponownego uruchomienia polecenia.
Koordynator zatwierdzeń DELTA_NON_UC nie jest obsługiwany w sesji
Ustawienie koordynatora zatwierdzeń na wartość „<nonUcCoordinatorName>” z konfiguracji SparkSession nie jest obsługiwane, ponieważ tabele zarządzane przez Unity Catalog mogą mieć jako koordynatora zatwierdzeń tylko „unity-catalog”. Zmień go na „unity-catalog”, uruchamiając spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog"), lub usuń wszystkie właściwości tabeli Koordynowane zatwierdzenia z konfiguracji SparkSession, uruchamiając spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>"), a następnie ponów próbę wykonania polecenia.
Nie można dodać pola zagnieżdżonego bez wartości null do nadrzędnego, który może przyjmować wartość null. Ustaw odpowiednio wartość null kolumny nadrzędnej.
<operation> polecenie w widoku tymczasowym odwołujące się do tabeli delty zawierającej wygenerowane kolumny nie jest obsługiwane. Uruchom polecenie <operation> bezpośrednio na tabeli Delta
Nie można uaktualnić tylko wersji protokołu czytnika do korzystania z funkcji tabeli. Aby kontynuować, wersja protokołu zapisywania musi być co najmniej <writerVersion>. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zobacz <docLink>.
Nie można przypisać identyfikatorów wierszy bez statystyk liczby wierszy.
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
Nie można odnaleźć <filePath> pliku, do którego odwołuje się dziennik transakcji. Taka sytuacja może wystąpić, gdy dane zostały ręcznie usunięte z systemu plików, raczej niż przy użyciu instrukcji tabeli DELETE. Ta tabela wydaje się być płytkim klonem, jeśli tak jest, ten błąd może wystąpić, gdy oryginalna tabela, z której sklonowano tę tabelę, usunęła plik, którego klon nadal używa. Jeśli chcesz, aby klony były niezależne od oryginalnej tabeli, użyj klonowania DEEP.
Nieprawidłowa nazwa do odwołania się na <type> w zasobie współdzielonym. Możesz użyć nazwy <type>w udziale zgodnie z formatem [schema].[<type>], albo możesz również użyć oryginalnej pełnej nazwy tabeli w formacie [catalog].[schema].[>typ>].
Jeśli nie masz pewności, jakiej nazwy użyć, możesz uruchomić polecenie "SHOW ALL IN SHARE [share]" i znaleźć nazwę <type> do usunięcia: kolumna "name" jest nazwą <type>wewnątrz udziału, a kolumna "shared_object" jest oryginalną pełną nazwą <type>.
Wykryto usunięte dane (na przykład <removedFile>) z przesyłanego strumieniowo źródła w wersji <version>. Obecnie nie jest to obsługiwane. Jeśli chcesz zignorować usunięcia, ustaw opcję "ignoreDeletes" na wartość "true". Tabelę źródłową można znaleźć w ścieżce <dataPath>.
Wykryto aktualizację danych (na przykład <file>) w tabeli źródłowej w wersji <version>. Obecnie nie jest to obsługiwane. Jeśli dzieje się to regularnie i możesz pominąć zmiany, ustaw opcję "skipChangeCommits" na wartość "true". Jeśli chcesz, aby aktualizacja danych została odzwierciedlona, uruchom ponownie to zapytanie przy użyciu nowego katalogu punktu kontrolnego lub wykonaj pełne odświeżanie, jeśli używasz biblioteki DLT. Jeśli potrzebujesz obsłużyć te zmiany, przełącz się na MVs. Tabelę źródłową można znaleźć w ścieżce <dataPath>.
Wykryliśmy co najmniej jedną zmianę schematu nieaddytywnego (<opType>) między wersją Delta <previousSchemaChangeVersion> a <currentSchemaChangeVersion> w źródle przesyłania strumieniowego Delta.
Sprawdź, czy chcesz ręcznie propagować zmiany schematu do tabeli ujścia, zanim przejdziemy do przetwarzania strumienia przy użyciu finalizowanego schematu w <currentSchemaChangeVersion>.
Po naprawieniu schematu tabeli ujścia lub podjęciu decyzji, że nie ma potrzeby naprawiania, można ustawić (jedną z) następujących konfiguracji SQL w celu odblokowania zmian schematu nie addytywnego i kontynuowania przetwarzania strumienia.
Aby odblokować ten konkretny strumień tylko dla tej serii zmian schematu: ustaw <allowCkptVerKey> = <allowCkptVerValue>.
Aby odblokować dla tego strumienia: ustaw <allowCkptKey> = <allowCkptValue>
Aby odblokować wszystkie strumienie: ustaw <allowAllKey> = <allowAllValue>.
Alternatywnie, jeśli to ma zastosowanie, możesz zastąpić <allowAllMode> z <opSpecificMode> w konfiguracji SQL, aby odblokować strumień tylko dla tego rodzaju zmiany schematu.
Sprawdź mapowanie kolumn w transmisji Delta - brak zrzutu.
Nie można uzyskać migawki dziennika Delta dla początkowej wersji podczas sprawdzania zmian schematu mapowania kolumn. Wybierz inną wersję początkową lub wymuś włączenie odczytu strumieniowego na własne ryzyko przez ustawienie "<config>" na wartość "true".
Wykryto konflikt lokalizacji schematu "<loc>" podczas przesyłania strumieniowego z tabeli lub tabel położonych w lokalizacji "<table>".
Inny strumień może ponownie używać tej samej lokalizacji schematu, która nie jest dozwolona.
Proszę podać nową unikatową ścieżkę schemaTrackingLocation lub streamingSourceTrackingId jako opcję dla czytnika dla jednego ze strumieni z tej tabeli.
If we were to translate for clarity: "LOKALIZACJA_SCHEMATU_STREAMING_NIE_POD_KONTROLĄ_PUNKTU_REKONTROLI"
Otherwise, keep: "DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT" (if staying faithful to technical norms).
Obecnie funkcja DeltaTable.forPath obsługuje tylko klucze konfiguracji hadoop zaczynające się od <allowedPrefixes>, ale otrzymano <unsupportedOptions>.
<path>: Nie można odtworzyć stanu w wersji <version>, ponieważ dziennik transakcji został obcięty z powodu ręcznego usunięcia lub zasad przechowywania dziennika (<logRetentionKey>=<logRetention>) i zasad przechowywania punktów kontrolnych (<checkpointRetentionKey>=<checkpointRetention>)
Wsparcie dla operacji TRUNCATE na podzielonych tabelach w DELTA nie jest obsługiwane
Spodziewano się kolumn partycji <expectedColsSize>: <expectedCols>, ale znaleziono kolumny <parsedColsSize>: <parsedCols> podczas analizy nazwy pliku: <path>
CONVERT do DELTA wywołano z użyciem schematu partycji innego niż schemat partycji wywnioskowany z katalogu, unikaj podawania schematu, aby schemat partycji można było wybrać z katalogu.
schemat partycji katalogu:
<catalogPartitionSchema>
udostępniony schemat partycji:
<userPartitionSchema>
Lokalizacja zgodności DELTA_UNIFORM nie może zostać zmieniona.
Odnaleziono kolumny używające nieobsługiwanych typów danych: <dataTypeList>. Możesz ustawić wartość "<config>" na wartość "false", aby wyłączyć sprawdzanie typu. Wyłączenie tego sprawdzania typów może umożliwić użytkownikom tworzenie nieobsługiwanych tabel Delta i powinno być używane tylko podczas próby odczytywania lub zapisywania tabel legacy.
Nieobsługiwana funkcja odczytu Delta: tabela "<tableNameOrPath>" wymaga funkcji tabeli wymaganych do odczytu, które nie są obsługiwane przez tę wersję usługi Databricks: <unsupported>. Aby uzyskać więcej informacji na temat zgodności funkcji usługi Delta Lake, zapoznaj się z <link>.
Nieobsługiwana funkcja zapisu Delta: tabela "<tableNameOrPath>" wymaga funkcji zapisu tabeli, które nie są obsługiwane przez tę wersję usługi Databricks: <unsupported>. Aby uzyskać więcej informacji na temat zgodności funkcji usługi Delta Lake, zapoznaj się z <link>.
Funkcje tabel skonfigurowane w następujących konfiguracjach platformy Spark lub właściwościach tabeli delta nie są rozpoznawane przez tę wersję usługi Databricks: <configs>.
Aktualizowanie zagnieżdżonych pól jest obsługiwane tylko w przypadku obiektu StructType, ale próbujesz zaktualizować pole <columnName>, które jest typu: <dataType>.
Polecenie "GENERATE symlink_format_manifest" nie jest obsługiwane w wersjach tabel z wektorami usuwania.
Aby utworzyć wersję tabeli bez wektorów usuwania, uruchom „REORG TABLE tabela APPLY (PURGE)”. Następnie uruchom ponownie polecenie "GENERATE".
Upewnij się, że żadne równoczesne transakcje nie dodają ponownie wektorów usuwania między REORG a GENERATE.
Jeśli musisz regularnie generować manifesty lub nie możesz zapobiec współbieżnym transakcjom, rozważ wyłączenie wektorów usuwania w tej tabeli, używając polecenia „ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)”.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT (Explanation note or additional context in Polish, if applicable, might be helpful for clarity in a localized context.)
Generowanie manifestu nie jest obsługiwane w przypadku tabel korzystających z mapowania kolumn, ponieważ zewnętrzne narzędzia do odczytu nie mogą odczytać tych tabel Delta. Aby uzyskać więcej informacji, zobacz dokumentację usługi Delta.
Nie można wykonać operacji na tej tabeli, ponieważ zastosowano nieobsługiwaną zmianę typu. Pole <fieldName> zostało zmienione z <fromType> na <toType>.
ZMIANA TYPU NIEOBSŁUGIWANA NA KOLUMNACH Z INDEKSEM FILTRA BLOOM'A
Próbujesz wykonać operacje zapisu w tabeli, która została zarejestrowana u koordynatora zatwierdzeń <coordinatorName>. Jednak żadna implementacja tego koordynatora nie jest dostępna w bieżącym środowisku i zapisy bez koordynatora nie są dozwolone.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES (niewspierana operacja zapisu do przykładów tabeli)
Widok zdefiniowany za pomocą funkcji current_recipient służy tylko do udostępniania i może być odpytywany tylko po stronie adresata danych. Dostarczony zabezpieczany element z identyfikatorem <securableId> nie jest widokiem Delta Sharing.
DELTA_UDOSTĘPNIANIE_TYPU_ZMIENNEGO_NIEOBSŁUGIWANE
SQLSTATE: brak przypisania
Rodzaj zabezpieczalny <securableKind> nie obsługuje zmienności w Delta Sharing.
Podany rodzaj zabezpieczania <securableKind> nie obsługuje akcji rotacji tokenu zainicjowanej przez usługę Marketplace.
Typ autoryzacji DS nie jest dostępny
SQLSTATE: brak przypisania
<dsError>: Typ uwierzytelniania jest niedostępny w jednostce dostawcy <providerEntity>.
DS_CDF_NIE_JEST_WŁĄCZONY
SQLSTATE: brak przypisania
<dsError>: Nie można uzyskać dostępu do zestawienia zmian danych dla <tableName>. CDF nie jest włączone w oryginalnej tabeli delta. Skontaktuj się z dostawcą danych.
DS_CDF_NOT_SHARED
SQLSTATE: brak przypisania
<dsError>: Nie można uzyskać dostępu do zestawienia zmian danych dla <tableName>. CDF nie jest udostępniany w tabeli. Skontaktuj się z dostawcą danych.
DS_CDF_RPC_NIEPRAWIDŁOWY_PARAMETR
SQLSTATE: brak przypisania
<dsError>: <message>
Błąd uwierzytelniania klienta dla bazy danych DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: brak przypisania
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: brak przypisania
<dsError>: <message>
BŁĄD WYMIANY TOKENA DS_KLIENT_OAUTH
SQLSTATE: brak przypisania
<dsError>: <message>
WYMIANA_TOKENÓW_DS_KLIENT_OAUTH_NIEAUTORYZOWANA
SQLSTATE: brak przypisania
<dsError>: <message>
DS_CLOUD_VENDOR_NIEDOSTĘPNY
SQLSTATE: brak przypisania
<dsError>: Dostawca chmury jest tymczasowo niedostępny dla <rpcName>, spróbuj ponownie.<traceId>
Polecenie materializacji danych DS zakończyło się niepowodzeniem
SQLSTATE: brak przypisania
<dsError>: zadanie materializacji danych <runId> z organizacji <orgId> nie powiodło się za pomocą polecenia <command>
Polecenie materializacji danych DS nieobsługiwane
SQLSTATE: brak przypisania
<dsError>: zadanie materializacji danych uruchomione <runId> z organizacji <orgId> nie obsługuje polecenia <command>
<dsError>: Nie można odnaleźć właściwej przestrzeni nazw dla utworzenia materializacji dla <tableName>. Skontaktuj się z dostawcą danych, aby rozwiązać ten problem.
<dsError>: Nie udało się wygenerować tokenu tożsamości zadania dla dostawcy O2D OIDC: <message>.
NIEZGODNOŚĆ ARGUMENTÓW PAGINACJI I ZAPYTANIA
SQLSTATE: brak przypisania
<dsError>: niezgodność argumentów stronicowania lub zapytania.
DS_KOLUMNY_PARTYCJI_ZMIENIONE_NAZWY
SQLSTATE: brak przypisania
<dsError>: Kolumna partycji [<renamedColumns>] zmieniona w udostępnionej tabeli. Skontaktuj się z dostawcą danych, aby rozwiązać ten problem.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: brak przypisania
<dsError>: Możesz zapytanie o dane tabeli od wersji <startVersion>.
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: brak przypisania
<dsError>: wystąpił przekroczenie limitu czasu podczas przetwarzania <queryType> na <tableName> po aktualizacji <numActions> w iteracji <numIter>.<progressUpdate> <suggestion> <traceId>
Nie można udzielić uprawnień na <securableType> dla grupy wygenerowanej przez system <principal>.
Podróż w czasie niedozwolona
SQLSTATE: brak przypisania
<dsError>: Zapytanie dotyczące podróży w czasie nie jest dozwolone, chyba że historia jest udostępniana w <tableName>. Skontaktuj się z dostawcą danych.
<dsError>: nieznany identyfikator zapytania <queryID> dla <schema>.
<table> z witryny Share <share>.
Nieznany status zapytania
SQLSTATE: brak przypisania
<dsError>: Nieznany stan zapytania dla identyfikatora zapytania <queryID> dla <schema>.
<table> z witryny Share <share>.
DS_UNKNOWN_RPC
SQLSTATE: brak przypisania
<dsError>: Nieznany rpc <rpcName>.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: brak przypisania
<dsError>: wersja czytnika protokołu delta <tableReaderVersion> jest wyższa niż <supportedReaderVersion> i nie może być obsługiwana na serwerze udostępniania delta.
DS_NIEOBSŁUGIWANE_FUNKCJE_TABELI_DELTA
SQLSTATE: brak przypisania
<dsError>: funkcje tabeli <tableFeatures> znajdują się w tabeli\<versionStr\> \<historySharingStatusStr\> \<optionStr\>
<dsError>: nie udało się pobrać <schema>.
<table> z usługi Share <share>, ponieważ tabela typu [<tableType>] nie jest obecnie obsługiwana w protokole Delta Sharing.
BŁĄD_KONTEKSTU_UŻYTKOWNIKA
SQLSTATE: brak przypisania
<dsError>: <message>
Funkcje udostępniania DS_VIEW są niedozwolone
SQLSTATE: brak przypisania
<dsError>: następujące funkcje: <functions> nie są dozwolone w zapytaniu udostępniania widoku.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: brak przypisania
<dsError>: domena <workspaceId> obszaru roboczego nie jest ustawiona.
WORKSPACE_DS_NIE_ZNALEZIONO
SQLSTATE: brak przypisania
<dsError>: nie znaleziono obszaru roboczego <workspaceId>.
Tryb ewolucji schematu <addNewColumnsMode> nie jest obsługiwany w przypadku określenia schematu. Aby użyć tego trybu, możesz podać schemat za pomocą cloudFiles.schemaHints zamiast tego.
Moduł automatycznego ładowania nie może usunąć przetworzonych plików, ponieważ nie ma uprawnień do zapisu w katalogu źródłowym.
<reason>
Aby naprawić, możesz:
Udziel uprawnień do zapisu w katalogu źródłowym lub
Ustaw wartość cleanSource na wartość "OFF"
Możesz również odblokować strumień, ustawiając parametr SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors na wartość "true".
Wystąpił błąd podczas próby wywnioskowania schematu partycji tabeli. Masz tę samą kolumnę zduplikowaną w ścieżkach danych i partycji. Aby zignorować wartość partycji, podaj kolumny partycji jawnie przy użyciu: .option("cloudFiles).<partitionColumnsKey>", "{comma-separated-list}")
Nie można wnioskować schematu, gdy ścieżka wejściowa <path> jest pusta. Spróbuj uruchomić strumień, gdy w ścieżce wejściowej znajdują się pliki lub określ schemat.
Nie można utworzyć subskrypcji: <subscriptionName>. Subskrypcja o tej samej nazwie już istnieje i jest skojarzona z innym tematem: <otherTopicName>. Tematem, którego sobie życzysz, jest <proposedTopicName>. Usuń istniejącą subskrypcję lub utwórz subskrypcję z nowym sufiksem zasobu.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC - Nie udało się utworzyć tematu Pub/Sub
Nie można utworzyć tematu: <topicName>. Temat o tej samej nazwie już istnieje.
<reason> Usuń istniejący temat lub spróbuj ponownie za pomocą innego sufiksu zasobu
Nie udało się usunąć powiadomienia z identyfikatorem <notificationId> w kubełku <bucketName> dla tematu <topicName>. Spróbuj ponownie lub ręcznie usuń powiadomienie za pośrednictwem konsoli GCP.
Nie można rozwijać schematu bez dziennika schematu.
The translation of such error codes usually remains as-is because they are often referenced in technical contexts exactly as they appear. However, if the context allows and there's a need to explain it in Polish for better user understanding, a potential translation could describe this code, such as "BŁĄD: Nie znaleziono dostawcy" for informational purposes.
Otrzymano zbyt wiele tagów zasobów dla zasobu GCP (<num>). Maksymalna liczba tagów na jeden zasób wynosi <maxNum>, ponieważ tagi zasobów są przechowywane jako etykiety GCP zasobów, a określone tagi usługi Databricks zużywają część tego przydziału etykietowego.
CloudFiles to źródło przesyłania strumieniowego. Proszę użyć spark.readStream zamiast spark.read. Aby wyłączyć to sprawdzanie, ustaw <cloudFilesFormatValidationEnabled> na wartość false.
Metoda cloud_files akceptuje dwa wymagane parametry ciągu: ścieżkę do załadowania i format pliku. Opcje czytnika plików muszą być podane w mapie ciągu klucz-wartość. np. cloud_files("path", "json", map("option1", "value1")). Odebrano: <params>
Aby użyć pliku "cloudFiles" jako źródła przesyłania strumieniowego, podaj format pliku z opcją "cloudFiles.format" i użyj polecenia .load(), aby utworzyć ramkę danych. Aby wyłączyć to sprawdzanie, ustaw <cloudFilesFormatValidationEnabled> na wartość false.
Nieprawidłowy klucz tagu zasobu dla zasobu GCP: <key>. Klucze muszą zaczynać się od małej litery, mieć długość od 1 do 63 znaków i zawierać tylko małe litery, cyfry, podkreślenia (_) i łączniki (-).
Nieprawidłowa wartość tagu zasobu dla zasobu GCP: <value>. Wartości muszą mieć długość od 0 do 63 znaków i muszą zawierać tylko małe litery, cyfry, podkreślenia (_) i łączniki (-).
Polecono, aby Auto Loader zignorował istniejące pliki w lokalizacji zewnętrznej, ustawiając parametr includeExistingFiles na wartość false. Usługa zarządzania zdarzeniami plików nadal odkrywa istniejące pliki w lokalizacji zewnętrznej. Spróbuj ponownie po zakończeniu zdarzeń zarządzania plikami, gdy wszystkie pliki w lokalizacji zewnętrznej zostaną odnalezione.
Używasz Auto Loader ze zdarzeniami plików zarządzanych, ale wydaje się, że zewnętrzna lokalizacja ścieżki wejściowej '<path>' nie ma włączonych zdarzeń plików lub ścieżka wejściowa jest nieprawidłowa. Proszę poprosić administratora Databricks o włączenie zdarzeń plikowych w zewnętrznej lokalizacji dla Państwa ścieżki wejściowej.
Używasz Auto Loader z zarządzaniem zdarzeniami plików, ale nie masz dostępu do lokalizacji zewnętrznej lub woluminu na ścieżkę wejściową „<path>”, lub ścieżka wejściowa jest nieprawidłowa. Poproś administratora usługi Databricks o udzielenie uprawnień do odczytu dla lokalizacji zewnętrznej lub woluminu lub podaj prawidłową ścieżkę wejściową w istniejącej lokalizacji zewnętrznej lub woluminie.
Automatyczne ładowanie ze zarządzanymi zdarzeniami plików jest dostępne tylko na platformie Databricks bezserwerowej. Aby kontynuować, przenieś obciążenie robocze do Databricks w trybie bezserwerowym lub wyłącz opcję cloudFiles.useManagedFileEvents.
Określ schemat przy użyciu metody .schema(), jeśli ścieżka nie jest dostarczana do źródła CloudFiles podczas korzystania z trybu powiadamiania o pliku. Alternatywnie, aby moduł automatycznego ładowania wywnioskował schemat, podaj ścieżkę podstawową w metodzie .load().
Nowe kolumny partycji zostały wywnioskowane z plików: [<filesList>]. Podaj wszystkie kolumny partycji w schemacie lub podaj listę kolumn partycji, dla których chcesz wyodrębnić wartości przy użyciu: .option("cloudFiles.partitionColumns", "{rozdzielane przecinkami-list|empty-string}")
Wystąpił błąd podczas próby wywnioskowania schematu partycji bieżącej partii plików. Podaj kolumny partycji jawnie przy użyciu: .option("cloudFiles).<partitionColumnOption>", "{comma-separated-list}")
Okresowe wypełnianie nie jest obsługiwane, jeśli wypełnianie asynchroniczne jest wyłączone. Możesz włączyć asynchroniczne wypełnianie/wyświetlanie listy katalogów, ustawiając spark.databricks.cloudFiles.asyncDirListing na true
Nie można utworzyć usług powiadomień: sufiks zasobu może zawierać tylko znaki alfanumeryczne, łączniki (-), podkreślenia (_), kropki (.), tyldy (~) plus znaki (+) i znaki procentowe (<percentSign>).
Nie można utworzyć powiadomienia dla tematu: <topic> z prefiksem: <prefix>. Istnieje już temat o tej samej nazwie z innym prefiksem: <oldPrefix>. Spróbuj użyć innego sufiksu zasobu do instalacji lub usuń istniejącą konfigurację.
Nie udało się głębokie klonowanie schematu dziennika CF
Do uzyskiwania dostępu do plików SFTP wymagany jest klaster z włączoną obsługą interfejsu użytkownika. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
Źródło plików w chmurze obsługuje tylko ścieżki S3, Azure Blob Storage (wasb/wasbs), Azure Data Lake Gen1 (adl) i Gen2 (abfs/abfss) w tej chwili. ścieżka: '<path>', rozpoznano identyfikator URI: '<uri>'
Funkcja cloud_files_state akceptuje parametr typu string, który reprezentuje katalog punktów kontrolnych strumienia cloudFiles lub wieloczęściową nazwę tabeli (tableName) identyfikującą tabelę przesyłania strumieniowego, oraz opcjonalny drugi parametr całkowity reprezentujący wersję punktu kontrolnego, aby załadować stan. Drugi parametr może być również "najnowszy", aby odczytać najnowszy punkt kontrolny. Odebrano: <params>
Otrzymano zdarzenie zmiany nazwy katalogu dla ścieżki <path>, ale nie możemy wydajnie wyświetlić tego katalogu. Aby strumień mógł być kontynuowany, ustaw opcję cloudFiles.ignoreDirRenames na true i rozważ włączenie regularnego uzupełniania przy użyciu elementu cloudFiles.backfillInterval, aby te dane mogły zostać przetworzone.
Funkcja SQL "cloud_files" do utworzenia strumieniowego źródła danych za pomocą Auto Loader jest obsługiwana tylko w potoku DLT. Zobacz więcej szczegółów na stronie:
Nieobsługiwana wersja dziennika: maksymalna obsługiwana wersja to v\<maxVersion\>, ale napotkana wersja to v\<version\>. Plik dziennika został utworzony przez nowszą wersję DBR i nie można go odczytać w tej wersji. Uaktualnij.
Odczytywanie z tabeli delty nie jest obsługiwane w tej składni. Jeśli chcesz korzystać z danych z Delta, zapoznaj się z dokumentacją: odczytaj tabelę Delta (<deltaDocLink>) lub odczytaj tabelę Delta jako źródło strumienia (<streamDeltaDocLink>). Źródło przesyłania strumieniowego z Delta jest już zoptymalizowane pod kątem przyrostowego pobierania danych.
W zapytaniach nie można zwracać typów danych GEOGRAPHY i GEOMETRY. Użyj jednego z następujących wyrażeń SQL, aby przekonwertować je na standardowe formaty wymiany: <projectionExprs>.
Kolumna <columnName> powoduje konflikt z inną kolumną o tej samej nazwie, ale z lub bez spacji końcowych (na przykład istniejąca kolumna o nazwie ``<columnName>). Zmień nazwę kolumny na inną.
Poświadczenia połączenia nie są obsługiwane dla połączenia z tabelą online
SQLSTATE: brak przypisania
Nieprawidłowe żądanie pobrania poświadczeń na poziomie połączenia dla połączenia typu <connectionType>. Takie poświadczenia są dostępne tylko dla zarządzanych połączeń PostgreSQL.
TYP_POŁĄCZENIA_NIEAKTYWNY
SQLSTATE: brak przypisania
Typ połączenia "<connectionType>" nie jest włączony. Włącz połączenie, aby go używać.
Dane typu Delta Sharing Securable <securableKindName> są tylko do odczytu i nie można ich tworzyć, modyfikować ani usuwać.
DOSTĘP ZEWNĘTRZNY WYŁĄCZONY W METASKLEPIE
SQLSTATE: brak przypisania
Odmowa udzielania poświadczeń dla środowisk innych niż Databricks Compute jest spowodowana wyłączeniem dostępu do danych zewnętrznych dla magazynu metadanych <metastoreName>. Skontaktuj się z administratorem magazynu metadanych, aby włączyć konfigurację dostępu do danych zewnętrznych w magazynie metadanych.
DOSTĘP ZEWNĘTRZNY NIE DOZWOLONY DLA TABELI
SQLSTATE: brak przypisania
Nie można uzyskać dostępu do tabeli o identyfikatorze <tableId> spoza środowiska obliczeniowego usługi Databricks, ponieważ jego rodzaj jest <securableKind>. Dostęp do typów tabel można uzyskać zewnętrznie tylko "TABLE_EXTERNAL", "TABLE_DELTA_EXTERNAL" i "TABLE_DELTA".
Uprawnienie EXTERNAL USE SCHEMA nie ma zastosowania do tej jednostki <assignedSecurableType> i może być przypisane tylko do schematu lub katalogu. Usuń uprawnienie z obiektu <assignedSecurableType> i przypisz go do schematu lub wykazu.
ZAPIS_ZEWNETRZNY_NIEDOZWOLONY_DLA_TABELI
SQLSTATE: brak przypisania
Nie można zapisać tabeli o identyfikatorze <tableId> spoza środowiska obliczeniowego usługi Databricks, ponieważ jego rodzaj jest <securableKind>. Tylko rodzaje tabel "TABLE_EXTERNAL" i "TABLE_DELTA_EXTERNAL" można zapisywać zewnętrznie.
Lokalizacja przechowywania dla katalogu zagranicznego typu <catalogType> będzie używana do rozładowywania danych i nie może być ustawiona jako tylko do odczytu.
Przekroczono limit zabezpieczalnego nakładania
SQLSTATE: brak przypisania
Liczba <resourceType>dla ścieżki wejściowej <url> przekracza dozwolony limit (<overlapLimit>) dla nakładających się HMS-ów <resourceType>.
INVALID_RESOURCE_NAME_DELTA_SHARING
SQLSTATE: brak przypisania
Żądania Delta Sharing nie są obsługiwane przy użyciu nazw zasobów
NIEPRAWIDŁOWY_TYP_JEDNOSTKI_NAZWA_ZASOBU
SQLSTATE: brak przypisania
Podana nazwa zasobu odnosi się do typu jednostki <provided>, ale oczekiwano <expected>.
INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE: brak przypisania
Podana nazwa zasobu odwołuje się do magazynu metadanych, który nie znajduje się w zakresie bieżącego żądania
NAKŁADANIE_SIĘ_LOKACJI
SQLSTATE: brak przypisania
Ścieżka wejściowa URL '<path>' pokrywa się z <overlappingLocation> w wywołaniu '<caller>'.
<conflictingSummary>.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE: brak przypisania
Katalog główny przechowywania dla katalogu zewnętrznego Redshift musi być usługą AWS S3.
TYP_OBIEKTU_NIE_OBSLUGUJE_FEDERACJI_LAKEHOUSE
SQLSTATE: brak przypisania
Element zabezpieczany z typem <securableKind> nie obsługuje "Lakehouse Federation".
TYP_CHRONIONEGO_NIEAKTYWNY
SQLSTATE: brak przypisania
Zabezpieczalny typ „<securableKind>” nie jest włączony. Jeśli jest to zabezpieczalny rodzaj związany z funkcją w wersji próbnej, włącz go w ustawieniach przestrzeni roboczej.
TYP_SECURE_NIE_OBSŁUGUJE_FEDERACJI_LAKEHOUSE
SQLSTATE: brak przypisania
Obiekt możliwy do zabezpieczenia z typem <securableType> nie obsługuje federacji Lakehouse.
LICZBA_KOLUMN_TABELI_ŹRÓDŁOWEJ_PRZEKRACZA_LIMIT
SQLSTATE: brak przypisania
Tabela źródłowa zawiera więcej niż <columnCount> kolumn. Zmniejsz liczbę kolumn do <columnLimitation> lub mniej.
Autoryzowanie <actionName> nie jest obsługiwane; Sprawdź, czy wywołany RPC jest implementowany dla tego typu zasobu
Odmowa uprawnień do utworzenia połączenia HMS.
SQLSTATE: brak przypisania
Nie można utworzyć połączenia dla wbudowanego magazynu metadanych hive, ponieważ użytkownik: <userId> nie jest administratorem obszaru roboczego: <workspaceId>
Nie można zmienić nazwy kolumny tabeli <originalLogicalColumn>, ponieważ jest ona używana do filtrowania partycji w <sharedTableName>. Aby kontynuować, możesz usunąć tabelę z udziału, zmienić nazwę kolumny, a następnie udostępnić ją ponownie z żądanymi kolumnami filtrującymi partycje. Może to jednak spowodować przerwanie zapytania przesyłania strumieniowego dla odbiorcy.
Tworzenie dzieci w klastrze UC zabronione dla nieflagowego klastra UC
SQLSTATE: brak przypisania
Nie można utworzyć <securableType> "<securable>" w obszarze <parentSecurableType> "<parentSecurable>", ponieważ żądanie nie pochodzi z klastra UC.
BŁĄD_DOSTĘPU_DO_PAMIECI_CHMUROWEJ_UC
SQLSTATE: brak przypisania
Nie można uzyskać dostępu do magazynu w chmurze: <errMsg> exceptionTraceId=<exceptionTraceId>
UC_KONFLIKTOWE_OPCJE_PODŁĄCZENIA
SQLSTATE: brak przypisania
Nie można utworzyć połączenia z opcjami uwierzytelniania nazwy użytkownika/hasła i uwierzytelniania oauth. Wybierz jeden.
Istnieje połączenie UC dla poświadczenia
SQLSTATE: brak przypisania
Poświadczenie "<credentialName>" ma co najmniej jedno połączenie zależne. Możesz użyć opcji wymuszania, aby kontynuować aktualizowanie lub usuwanie poświadczeń, ale połączenia korzystające z tego poświadczenia mogą już nie działać.
Połączenie straciło ważność z powodu wygasłego tokenu dostępu
SQLSTATE: brak przypisania
Token dostępu skojarzony z połączeniem wygasł. Zaktualizuj połączenie, aby ponownie uruchomić przepływ OAuth, aby pobrać token.
Połączenie wygasło - odśwież token
SQLSTATE: brak przypisania
Token odświeżania skojarzony z połączeniem wygasł. Zaktualizuj połączenie, aby ponownie uruchomić przepływ OAuth, aby pobrać nowy token.
UC_POŁĄCZENIE_W_STANIE_NIEUDANE
SQLSTATE: brak przypisania
Połączenie jest w stanie FAILED. Zaktualizuj połączenie przy użyciu prawidłowych poświadczeń, aby go ponownie uaktywnić.
BRAK_TOKENU_ODŚWIEŻENIA_W_UCZENIE
SQLSTATE: brak przypisania
Nie ma tokenu odświeżania skojarzonego z połączeniem. Zaktualizuj integrację klienta OAuth u dostawcy tożsamości, aby zwrócić tokeny odświeżania, a następnie zaktualizuj lub ponownie utwórz połączenie, aby ponownie uruchomić przepływ OAuth i pobrać niezbędne tokeny.
UC_POŁĄCZENIE_WYMIANA_OAUTH_NIEPOWODZENIE
SQLSTATE: brak przypisania
Wymiana tokenu OAuth nie powiodła się z kodem stanu HTTP <httpStatus>. Zwrócona odpowiedź serwera lub komunikat o wyjątku to: <response>
SKOORDYNOWANE_ZATWIERDZENIA_NIE_WŁĄCZONE
SQLSTATE: brak przypisania
Obsługa zatwierdzeń skoordynowanych nie jest włączona. Skontaktuj się z pomocą techniczną usługi Databricks.
Nie można utworzyć <securableType> „<securableName>”, ponieważ znajduje się on w <parentSecurableType> „<parentSecurableName>”, który nie jest aktywny. Usuń element nadrzędny zabezpieczany i utwórz ponownie element nadrzędny.
UC_CREDENTIAL_ACCESS_CONNECTOR_BŁĄD_PARSOWANIA
SQLSTATE: brak przypisania
Nie można przeanalizować podanego identyfikatora łącznika dostępu: <accessConnectorId>. Sprawdź jego formatowanie i spróbuj ponownie.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN (Brak możliwości uzyskania tokenu weryfikacyjnego)
SQLSTATE: brak przypisania
Nie można uzyskać tokenu usługi AAD w celu przeprowadzenia weryfikacji uprawnień w chmurze na łączniku dostępu. Spróbuj ponownie wykonać akcję.
Zarejestrowanie poświadczeń wymaga roli współautora dla odpowiedniego łącznika dostępu z identyfikatorem <accessConnectorId>. Skontaktuj się z administratorem konta.
Typ poświadczeń "<credentialType>" nie jest obsługiwany dla celu "<credentialPurpose>".
Odmowa dostępu do poświadczeń UC
SQLSTATE: brak przypisania
Tylko administrator konta może utworzyć lub zaktualizować poświadczenia przy użyciu typu <storageCredentialType>.
POLITYKA_ZAUFANIA_UC_CREDENTIAL_JEST_OTWARTA
SQLSTATE: brak przypisania
Zasady zaufania roli IAM, umożliwiające konto usługi Databricks przejęcie roli, powinny wymagać identyfikatora zewnętrznego. Skontaktuj się z administratorem konta, aby dodać warunek identyfikatora zewnętrznego. To zachowanie ma na celu ochronę przed problemem Confused Deputy https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
Podmioty usługi nie mogą używać uprawnienia CREATE_STORAGE_CREDENTIAL do rejestrowania zarządzanych tożsamości. Aby zarejestrować tożsamość zarządzaną, przypisz jednostce usługi rolę administratora konta.
UC_CREDENTIAL_PRZESTRZEŃ_ROBOCZA_API_ZABRONIONA
SQLSTATE: brak przypisania
Tworzenie lub aktualizowanie poświadczeń przez osobę inną niż administrator konta nie jest obsługiwane w interfejsie API na poziomie konta. Proszę zamiast tego używać API na poziomie przestrzeni roboczej.
Jednolite metadane można aktualizować tylko w tabelach Delta z włączoną jednorodnością.
LIMIT_GŁĘBOKOŚCI_ZALEŻNOŚCI_PRZEKROCZONY
SQLSTATE: brak przypisania
<resourceType> "<ref>" głębokość przekracza dopuszczalny limit (lub zawiera odwołanie cykliczne).
UC_ZALEŻNOŚĆ_NIE_ISTNIEJE
SQLSTATE: brak przypisania
<resourceType> "<ref>" jest nieprawidłowy, ponieważ jeden z podstawowych zasobów nie istnieje. <cause>
Odmowa uprawnień dla UC_DEPENDENCY_PERMISSION_DENIED
SQLSTATE: brak przypisania
<resourceType> "<ref>" nie ma wystarczających uprawnień do wykonania, ponieważ właściciel jednego z zasobów bazowych nie przeszedł sprawdzenia autoryzacji. <cause>
UC_DUPLIKAT_POŁĄCZENIA
SQLSTATE: brak przypisania
Połączenie o nazwie "<connectionName>" z tym samym adresem URL już istnieje. Poproś właściciela o uprawnienie do korzystania z tego połączenia zamiast tworzenia duplikatu.
TWORZENIE_DUPlKATU_KATALOGU_TKANIN
SQLSTATE: brak przypisania
Podjęto próbę utworzenia katalogu Fabric z adresem URL „<storageLocation>”, który odpowiada istniejącemu katalogowi, co jest niedozwolone.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
SQLSTATE: brak przypisania
Przypisanie tagu z kluczem <tagKey> już istnieje
JD_ENTITY_NIE_MA_ODPOWIADAJĄCEGO_ONLINE_KLASTRA
SQLSTATE: brak przypisania
Jednostka <securableType> <entityId> nie ma odpowiedniego klastra online.
UC_PRZEKROCZONO_MAKSYMALNY_LIMIT_PLIKÓW
SQLSTATE: brak przypisania
Istnieje więcej niż pliki <maxFileResults>. Określ [max_results], aby ograniczyć liczbę zwracanych plików.
Operacja lokalizacji zewnętrznej niedozwolona.
SQLSTATE: brak przypisania
Nie można <opName> <extLoc> <reason>.
<suggestion>.
Tworzenie wykazu obcego dla typu połączenia "<connectionType>" nie jest obsługiwane. Tego rodzaju połączenia można używać wyłącznie do tworzenia zarządzanych potoków przetwarzania danych. Aby uzyskać więcej informacji, zapoznaj się z dokumentacją usługi Databricks.
Można pobrać tylko poświadczenia typu READ dla tabel obcych.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH - Niezgodność długości kolumny dziecka klucza obcego
SQLSTATE: brak przypisania
Kolumny podrzędne i nadrzędne klucza obcego <constraintName> mają różne wymiary.
NIEDOPASOWANIE_KOLUMNY_KLUCZA_OBCEGO
SQLSTATE: brak przypisania
Kolumny nadrzędne klucza obcego nie są zgodne z kolumnami podrzędnymi klucza podstawowego, na które się odwołują. Kolumny nadrzędne klucza obcego to (<parentColumns>) i kolumny podrzędne klucza podstawowego to (<primaryKeyChildColumns>).
Niezgodność typu kolumny klucza obcego
SQLSTATE: brak przypisania
Typ kolumny podrzędnej klucza obcego jest niezgodny z typem kolumny nadrzędnej. Kolumna podrzędna klucza obcego <childColumnName> ma typ <childColumnType>, a kolumna nadrzędna <parentColumnName> ma typ <parentColumnType>.
UC_GCP_NIEPRAWIDŁOWY_KLUCZ_PRYWATNY
SQLSTATE: brak przypisania
Odmowa dostępu. Przyczyna: klucz prywatny konta usługi jest nieprawidłowy.
Klucz prywatny OAuth konta serwera Google musi być prawidłowym obiektem JSON z wymaganymi polami. Upewnij się, że dostarczasz kompletny plik JSON wygenerowany w sekcji „KLUCZE” na stronie szczegółów konta usługi.
Nieprawidłowy format klucza prywatnego JSON w GCP - brakujące pola
SQLSTATE: brak przypisania
Klucz prywatny OAuth konta serwera Google musi być prawidłowym obiektem JSON z wymaganymi polami. Upewnij się, że pełny plik JSON został wygenerowany z sekcji „KEYS” na stronie szczegółów konta usługi. Brakuje pól oznaczonych jako <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: brak przypisania
Rola IAM dla tego poświadczenia magazynu została uznana za nieumożliwiającą samodzielnego przyjęcia. Sprawdź zaufanie roli i zasady tożsamości i zarządzania dostępem, aby upewnić się, że rola IAM może przejąć siebie zgodnie z dokumentacją poświadczeń magazynowych katalogu Unity.
UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE: brak przypisania
Nie można zatwierdzić <tableName>: lokalizacja metadanych <baseMetadataLocation> została zmieniona z <catalogMetadataLocation>.
UC_ICEBERG_NIEPRAWIDŁOWA_TABELA_COMMIT
SQLSTATE: brak przypisania
Nie można wykonać zatwierdzenia w zarządzanej tabeli Iceberg na tabeli niezarządzanej Iceberg: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE: brak przypisania
Brak wymaganych pól podanych informacji o zatwierdzeniu zarządzanego Iceberg.
NieprawidłoweIdentyfikatory_UC
SQLSTATE: brak przypisania
<type> <name> nie ma identyfikatora <wrongId>. Ponów próbę wykonania operacji.
UC_INVALID_ACCESS_DBFS_ENTITY
SQLSTATE: brak przypisania
Nieprawidłowy dostęp do <securableType> <securableName> w katalogu federacyjnym <catalogName>. <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
SQLSTATE: brak przypisania
Nieprawidłowy identyfikator konta cloudflare.
UC_NIEPRAWIDŁOWE_HASŁO_CHMURA
SQLSTATE: brak przypisania
Nieprawidłowy dostawca usług w chmurze poświadczeń "<cloud>". Dozwolony dostawca usług w chmurze ‘<allowedCloud>’.
UC_NIEPRAWIDŁOWA_WARTOŚĆ_CELU_UWIERZYTELNIENIA
SQLSTATE: brak przypisania
Nieprawidłowa wartość "<value>" dla przeznaczenia poświadczeń. Dozwolone wartości "<allowedValues>".
UC_NIEPRAWIDŁOWY_PRZEJŚCIE_CREDENCJI
SQLSTATE: brak przypisania
Nie można zaktualizować połączenia z <startingCredentialType> do <endingCredentialType>. Jedynym prawidłowym przejściem jest połączenie oparte na nazwie użytkownika/haśle z połączeniem opartym na tokenie OAuth.
UC_NIEPRAWIDŁOWY_CIĄG_CRON_FABRIC
SQLSTATE: brak przypisania
Nieprawidłowy ciąg cron. Znaleziono: ‘<cronString>’ z błędem analizy składni: ‘<message>’
Nieprawidłowa zarządzana tabela bezpośredniego dostępu <tableName>. Upewnij się, że definicje tabeli źródłowej i potoku nie są zdefiniowane.
Nieprawidłowa pusta lokalizacja magazynowa UC
SQLSTATE: brak przypisania
Nieoczekiwana pusta lokalizacja magazynowa dla oznaczenia <securableType> „<securableName>” w katalogu „<catalogName>”. Aby naprawić ten błąd, uruchom polecenie DESCRIBE SCHEMA <catalogName>.
<securableName> i odśwież tę stronę.
Nie można zaktualizować <securableType> "<securableName>", ponieważ jest własnością grupy wewnętrznej. Aby uzyskać dodatkowe informacje, skontaktuj się z pomocą techniczną usługi Databricks.
W odpowiedzi z serwera tokenów brakuje pola <missingField>. Zwrócona odpowiedź serwera to: <response>
Status przydzielenia do metastore UC jest nieprawidłowy.
SQLSTATE: brak przypisania
'<metastoreAssignmentStatus>' nie można przypisać. Obsługiwane są tylko MANUALLY_ASSIGNABLE i AUTO_ASSIGNMENT_ENABLED.
UC_METASTORE_CERTYFIKACJA_NIE_AKTYWOWANA
SQLSTATE: brak przypisania
Certyfikacja magazynu metadanych nie jest włączona.
UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND
SQLSTATE: brak przypisania
Nie można pobrać magazynu metadanych do mapowania fragmentów bazy danych dla identyfikatora magazynu metadanych <metastoreId> z powodu błędu wewnętrznego. Skontaktuj się z pomocą techniczną usługi Databricks.
Metastore <metastoreId> ma <numberManagedOnlineCatalogs> zarządzany katalog online. Usuń je jawnie, a następnie ponów próbę usunięcia magazynu metadanych.
Nie można zdefiniować danych uwierzytelniających głównego magazynu metadanych podczas aktualizowania lokalizacji głównej magazynu metadanych. Poświadczenie zostanie pobrane z zewnętrznej lokalizacji nadrzędnej metastore.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID (nieprawidłowe usunięcie głównego katalogu magazynu)
SQLSTATE: brak przypisania
Nie udało się usunąć lokalizacji głównej magazynu metadanych. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_NIEPRAWIDŁOWE
SQLSTATE: brak przypisania
Główny <securableType> magazynu metadanych nie może być tylko do odczytu.
Aktualizacja głównego katalogu metadanych jest nieprawidłowa
SQLSTATE: brak przypisania
Nie można zaktualizować katalogu głównego magazynu metadanych po jego skonfigurowaniu.
NIEWAŻNY_STAN_MODELU_UC
SQLSTATE: brak przypisania
Nie można wygenerować tymczasowych poświadczeń<opName>dla wersji modelu <modelVersion> ze stanem <modelVersionStatus>. '<opName>' poświadczenia można wygenerować tylko dla wersji modelu ze stanem <validStatus>
Brak identyfikatora organizacji w kontekście
SQLSTATE: brak przypisania
Podjęto próbę uzyskania dostępu do identyfikatora organizacji (lub identyfikatora obszaru roboczego), ale brak kontekstu.
Katalog_Online_Nie_Można_Zmieniać
SQLSTATE: brak przypisania
Żądanie <rpcName> aktualizuje <fieldName>. Użyj zakładki 'obliczenia' sklepu online, aby zmodyfikować inne elementy niż komentarz, właściciel i isolationMode katalogu online.
PRZEKROCZONY_LIMIT_KATALOGU_ONLINE
SQLSTATE: brak przypisania
Nie można utworzyć więcej niż <quota> sklepów online w metasklepie, a już istnieje <currentCount>. Być może nie masz dostępu do żadnych istniejących sklepów online. Skontaktuj się z administratorem magazynu metadanych, aby uzyskać dostęp lub uzyskać dalsze instrukcje.
Katalogi indeksów online muszą być <action> za pośrednictwem interfejsu API /vector-search.
UC_ONLINE_INDEX_CATALOG_NIEZMIENNE
SQLSTATE: brak przypisania
Żądanie <rpcName> aktualizuje <fieldName>. Użyj interfejsu API /vector-search, aby zmodyfikować wszystko oprócz komentarza, właściciela i trybu izolacji katalogu indeksów online.
Przekroczono limit katalogu indeksu online UC.
SQLSTATE: brak przypisania
Nie można utworzyć więcej niż <quota> katalogów indeksów online w magazynie metadanych, a już istnieje <currentCount>. Być może nie masz dostępu do żadnych istniejących katalogów indeksów online. Skontaktuj się z administratorem magazynu metadanych, aby uzyskać dostęp lub uzyskać dalsze instrukcje.
UC_ONLINE_INDEX_INVALID_CRUD
SQLSTATE: brak przypisania
Indeksy online muszą być <action> za pośrednictwem interfejsu API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD - Nieprawidłowa operacja CRUD w sklepie online
SQLSTATE: brak przypisania
Sklepy internetowe muszą być <action> za pośrednictwem zakładki obliczeniowej sklepu online.
UC_ONLINE_NAZWA_KOLUMNY_TABELI_ZBYT_DŁUGA
SQLSTATE: brak przypisania
Nazwa kolumny tabeli źródłowej <columnName> jest za długa. Maksymalna długość to <maxLength> znaków.
Kolumna <columnName> nie może być używana jako kolumna klucza podstawowego tabeli online, ponieważ nie jest częścią istniejącego ograniczenia PRIMARY KEY tabeli źródłowej. Aby uzyskać szczegółowe informacje, zobacz <docLink>
Klucz szeregu czasowego UC_ONLINE_TABLE nie występuje w kluczu głównym tabeli źródłowej.
SQLSTATE: brak przypisania
Kolumna <columnName> nie może być używana jako klucz szeregów czasowych tabeli online, ponieważ nie jest to kolumna szeregów czasowych w istniejącym ograniczeniu PRIMARY KEY tabeli źródłowej. Aby uzyskać szczegółowe informacje, zobacz <docLink>
Nie można utworzyć więcej niż <quota> tabel online na tabelę źródłową.
Dostęp do widoku online zabroniony
SQLSTATE: brak przypisania
Uzyskiwanie dostępu do zasobów <resourceName> wymaga użycia bezserwerowego magazynu SQL Warehouse. Upewnij się, że magazyn używany do wykonywania zapytania lub wyświetlania wykazu baz danych w interfejsie użytkownika jest bezserwerowy. Aby uzyskać szczegółowe informacje, zobacz <docLink>
Limit na ciągłe przeglądanie online został przekroczony.
SQLSTATE: brak przypisania
Nie można utworzyć więcej niż <quota> ciągłych widoków online w sklepie online, a już istnieje <currentCount>. Być może nie masz dostępu do żadnych istniejących widoków online. Skontaktuj się z administratorem sklepu online, aby uzyskać dostęp lub uzyskać dalsze instrukcje.
Widok online UC nie obsługuje DMK
SQLSTATE: brak przypisania
<tableKind> nie można utworzyć w lokalizacji magazynu przy użyciu kluczy zarządzanych usługi Databricks. Wybierz inny schemat/katalog w lokalizacji magazynu bez szyfrowania za pomocą kluczy zarządzanych przez usługę Databricks.
Widok online nieprawidłowego katalogu
SQLSTATE: brak przypisania
Nieprawidłowy katalog <catalogName> o typie <catalogKind>, aby utworzyć w nim <tableKind>.
<tableKind> można utworzyć tylko w katalogach typów: <validCatalogKinds>.
UC_ONLINE_VIEW_NIEPRAWIDŁOWY_SCHEMAT
SQLSTATE: brak przypisania
Nieprawidłowy schemat <schemaName> z rodzajem <schemaKind> do utworzenia <tableKind> wewnątrz.
<tableKind> można utworzyć tylko w ramach schematów typu: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE: brak przypisania
Kolumna <columnName> typu <columnType> nie może być używana jako kolumna czasu TTL. Dozwolone typy są <supportedTypes>.
UC_POZA_DOZWOLONYM_ZAKRESEM_ŚCIEŻEK
SQLSTATE: brak przypisania
Błąd ścieżki autoryzacji. Lokalizacja <securableType><location> nie jest zdefiniowana w zatwierdzonych ścieżkach dla katalogu: <catalogName>. Poproś właściciela wykazu o dodanie ścieżki do listy autoryzowanych ścieżek zdefiniowanych w wykazie.
UC_NAKŁADAJĄCE_SIĘ_AUTORYZOWANE_ŚCIEŻKI
SQLSTATE: brak przypisania
Opcja "authorized_paths" zawiera nakładające się ścieżki: <overlappingPaths>. Upewnij się, że każda ścieżka jest unikatowa i nie przecina się z innymi na liście.
Niedopasowanie paginacji i argumentów zapytania UC
SQLSTATE: brak przypisania
Argument zapytania "<arg>" ma ustawioną wartość "<received>", która różni się od wartości użytej w pierwszym wywołaniu stronicowania ("<expected>')
ŚCIEŻKA_ZBYT_DŁUGA
SQLSTATE: brak przypisania
Ścieżka wejściowa jest za długa. Dozwolona długość: <maxLength>. Długość danych wejściowych: <inputLength>. Dane wejściowe: <path>...
Limit współbieżności dla bazy danych w metasklepie został przekroczony.
SQLSTATE: brak przypisania
Zbyt wiele żądań do bazy danych z magazynu metadanych <metastoreId>. Spróbuj ponownie później.
Klucz główny na kolumnie umożliwiającej wartości NULL
SQLSTATE: brak przypisania
Nie można utworzyć klucza podstawowego <constraintName>, ponieważ jego kolumny podrzędne <childColumnNames> mogą przyjmować wartość null. Zmień wartość null kolumny i spróbuj ponownie.
UC_PRZEKROCZENIE_CZASU_ŻĄDANIA
SQLSTATE: brak przypisania
Ta operacja trwała zbyt długo.
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE: brak przypisania
Nazwa głównego zasobnika magazynu S3 zawierająca kropki nie jest obsługiwana przez Katalog Unity: <uri>
UC_SCHEMA_PUSTA_LOKALIZACJA_MAGAZYNOWA
SQLSTATE: brak przypisania
Nieoczekiwana pusta lokalizacja magazynu schematu „<schemaName>” w katalogu „<catalogName>”. Upewnij się, że schemat używa schematu ścieżki <validPathSchemesListStr>.
Usługa UC tymczasowo niedostępna
SQLSTATE: brak przypisania
Wystąpił tymczasowy problem podczas przetwarzania żądania. Spróbuj ponownie za kilka chwil. Jeśli problem będzie się powtarzać, skontaktuj się z pomocą techniczną.
Problem z parsowaniem danych uwierzytelniających wtyczki UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR
SQLSTATE: brak przypisania
Nie można przeanalizować podanego identyfikatora łącznika dostępu: <accessConnectorId>. Sprawdź jego formatowanie i spróbuj ponownie.
ODMOWA UPRAWNIEŃ DO UTWORZENIA KREDYTU DO PRZECHOWYWANIA W DBFS_ROOT
SQLSTATE: brak przypisania
Nie można utworzyć poświadczenia magazynu dla DBFS root, ze względu na to, że użytkownik: <userId> nie jest administratorem obszaru roboczego: <workspaceId>
Poświadczenie dla głównego magazynu DBFS w bieżącym obszarze roboczym nie jest jeszcze obsługiwane
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED (UC magazyn poświadczeń DBFS główny obszar roboczy wyłączony)
SQLSTATE: brak przypisania
Katalog główny DBFS nie jest włączony dla obszaru roboczego <workspaceId>
UC_STORAGE_CREDENTIAL_NIE UDAŁO SIĘ UZYSKAĆ TOKENA WALIDACJI
SQLSTATE: brak przypisania
Nie można uzyskać tokenu usługi AAD w celu przeprowadzenia weryfikacji uprawnień w chmurze na łączniku dostępu. Spróbuj ponownie wykonać akcję.
NIEWAŻNE UPRAWNIENIA CHMUR DLA UC_STORAGE_CREDENTIAL
SQLSTATE: brak przypisania
Zarejestrowanie poświadczeń magazynu wymaga roli współtwórcy za pośrednictwem odpowiedniego łącznika dostępu z identyfikatorem <accessConnectorId>. Skontaktuj się z administratorem konta.
Odmowa dostępu do poświadczeń pamięci.
SQLSTATE: brak przypisania
Tylko administrator konta może utworzyć lub zaktualizować poświadczenie magazynu o typie <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN (brak tokenu walidacji dla poświadczeń serwisu)
SQLSTATE: brak przypisania
Brak tokenu weryfikacji dla jednostki usługi. Podaj prawidłowy token Entra ID o zakresie ARM w nagłówku żądania "X-Databricks-Azure-SP-Management-Token" i ponów próbę. Aby uzyskać szczegółowe informacje, zobaczhttps://docs.databricks.com/api/workspace/storagecredentials
Zasady zaufania roli IAM, umożliwiające konto usługi Databricks przejęcie roli, powinny wymagać identyfikatora zewnętrznego. Skontaktuj się z administratorem konta, aby dodać warunek identyfikatora zewnętrznego. To zachowanie ma na celu ochronę przed problemem Confused Deputy https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
Poświadczenie pamięci masowej nieobsługiwane dla usługodawcy bez uprawnień
SQLSTATE: brak przypisania
Jednostki usługi nie mogą używać przywileju CREATE_STORAGE_CREDENTIAL do rejestrowania tożsamości zarządzanych. Aby zarejestrować tożsamość zarządzaną, przypisz jednostce usługi rolę administratora konta.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: brak przypisania
Lokalizacja <location> nie znajduje się w katalogu głównym systemu plików DBFS, dlatego nie możemy utworzyć poświadczenia magazynowania <storageCredentialName>.
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE: brak przypisania
Tworzenie lub aktualizowanie poświadczeń magazynu przez osobę, która nie jest administratorem konta, nie jest obsługiwane w interfejsie API na poziomie konta. Zamiast tego użyj interfejsu API na poziomie obszaru roboczego.
Nieobsługiwane uprawnienia grupowe w przestrzeni roboczej systemu
SQLSTATE: brak przypisania
Nie można udzielić uprawnień na <securableType> dla grupy wygenerowanej przez system <principal>.
PRZYPISANIE_TAGU_Z_KLUCZEM_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Przypisanie tagu z kluczem <tagKey> nie istnieje
UC_NIEOBSŁUGIWANA_ŚCIEŻKA_BAZOWA_POŁĄCZENIA_HTTP
SQLSTATE: brak przypisania
Podano nieprawidłową ścieżkę podstawową, ścieżka podstawowa powinna być podobna do /api/resources/v1. Nieobsługiwana ścieżka: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
SQLSTATE: brak przypisania
Podana nazwa hosta jest nieprawidłowa, nazwa hosta powinna być w formacie podobnym dohttps://www.databricks.com, bez końcówki ścieżki. Nieobsługiwany host: <host>
NIEOBSŁUGIWANY_ZNAK_LATYŃSKI_W_ŚCIEŻCE
SQLSTATE: brak przypisania
Obsługiwane są tylko podstawowe znaki łacińskie/łacina-1 ASCII w ścieżkach lokalizacji, woluminach i tabelach. Nieobsługiwana ścieżka: <path>
Aktualizacja UC jest zabroniona dla chronionego zasobu konfiguracyjnego
SQLSTATE: brak przypisania
Nie można zaktualizować <securableType><securableName>, ponieważ jest on właśnie przydzielany.
Konflikt zapisu UC
SQLSTATE: brak przypisania
<type> <name> zostało zmodyfikowane przez inne żądanie. Ponów próbę wykonania operacji.
ŻĄDANIE KOORDYNOWANYCH KOMITETÓW ZEWNĘTRZNYCH W JEDNOLITYM KATALOGU ODRZUCONE
SQLSTATE: brak przypisania
Żądanie wykonania operacji commit/getCommits dla tabeli "<tableId>" spoza środowiska obliczeniowego z włączonym katalogiem Unity usługi Databricks jest odrzucane z przyczyn bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
Żądanie utworzenia tabeli tymczasowej zewnętrznej w Unity Catalog zostało odrzucone.
SQLSTATE: brak przypisania
Żądanie utworzenia tabeli tymczasowej "<tableFullName>" spoza środowiska obliczeniowego z włączonym katalogiem Unity Databricks zostało odrzucone ze względów bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
Próba utworzenia tabeli zewnętrznej dla nie-zewnętrznej tabeli w katalogu UNITY została odrzucona.
SQLSTATE: brak przypisania
Żądanie utworzenia tabeli wewnętrznej "<tableFullName>" spoza środowiska obliczeniowego obsługującego katalog Unity w Databricks zostało odrzucone w celu zapewnienia bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
Odmowa generowania poświadczeń ścieki w UNITY_CATALOG_EXTERNAL.
SQLSTATE: brak przypisania
Żądanie wygenerowania poświadczeń dostępu dla ścieżki "<path>" spoza środowiska obliczeniowego z włączonym katalogiem Unity usługi Databricks zostało odrzucone ze względów bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
ODMOWA PRZYZNANIA UPRAWNIEŃ DO GENEROWANIA DANYCH UWIERZYTELNIAJĄCYCH W TABELI W UNITY CATALOG EXTERNAL
SQLSTATE: brak przypisania
Żądanie wygenerowania poświadczeń dostępu dla tabeli "<tableId>" spoza środowiska obliczeniowego obsługiwanego przez Unity Catalog usługi Databricks zostaje odrzucone w celu zapewnienia bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
If more context is given about the use, the translation or explanation can be fine-tuned. Without specific instructions or context indicating the necessity to translate, it is reasonable not to translate the term and leave it as is in environments where the specific technical term is recognized.
SQLSTATE: brak przypisania
Żądanie uzyskania zagranicznych poświadczeń dla zabezpieczeń spoza środowiska obliczeniowego obsługiwanego przez Databricks Unity Catalog zostaje odrzucone ze względów bezpieczeństwa.
Żądanie zaktualizowania migawek metadanych spoza środowiska obliczeniowego z obsługą Unity Catalog w Databricks jest odrzucane ze względów bezpieczeństwa.
Pisanie poświadczeń nieobsługiwane dla zarządzanej tabeli online starszego typu.
SQLSTATE: brak przypisania
Nieprawidłowe żądanie uzyskania uprawnień do zapisu dla zarządzanej tabeli online w wykazie online.
Obszar roboczy jest nieprawidłowo skonfigurowany: musi znajdować się w tym samym regionie co główny zasobnik magazynu obszaru roboczego platformy AWS.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: brak przypisania
Nazwa zasobnika magazynu jest nieprawidłowa.
FILES_API_AWS_KMS_KEY_WYŁĄCZONY
SQLSTATE: brak przypisania
Skonfigurowane klucze usługi KMS w celu uzyskania dostępu do zasobnika magazynu są wyłączone w usłudze AWS.
DOSTĘP_DO_API_PLIKÓW_AWS_NIEAUTORYZOWANY
SQLSTATE: brak przypisania
Dostęp do zasobu platformy AWS jest nieautoryzowany.
KONTO_AZURE_API_PLIKI_JEST_WYŁĄCZONE
SQLSTATE: brak przypisania
Konto przechowywania jest wyłączone na platformie Azure.
PlikAPI_KontenerAzureNieIstnieje
SQLSTATE: brak przypisania
Kontener platformy Azure nie istnieje.
DOSTĘP DO AZURE FILES API ZABRONIONY
SQLSTATE: brak przypisania
Dostęp do kontenera magazynu jest zabroniony przez platformę Azure.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: brak przypisania
Platforma Azure odpowiedziała, że obecnie istnieje dzierżawa zasobu. Spróbuj ponownie później.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: brak przypisania
Konto, do którego próbujesz uzyskać dostęp, nie ma wystarczających uprawnień do wykonania tej operacji.
NIEPRAWIDŁOWA_NAZWA_KONTA_STORAGE_AZURE_FILES_API
SQLSTATE: brak przypisania
Nie można uzyskać dostępu do konta magazynu na platformie Azure: nieprawidłowa nazwa konta magazynu.
Uwierzytelnianie za pomocą klucza w plikach API Azure jest niedozwolone.
SQLSTATE: brak przypisania
Magazyn kluczy nie został znaleziony na platformie Azure. Sprawdź ustawienia kluczy zarządzanych przez klienta.
PLIK_API_AZURE_KEY_VAULT_KLUCZ_NIE_ZNALEZIONO
SQLSTATE: brak przypisania
Nie można odnaleźć klucza usługi Azure Key Vault na platformie Azure. Sprawdź ustawienia kluczy zarządzanych przez klienta.
KLUCZ AZURE W SKRZYNI NIE ZNALEZIONY
SQLSTATE: brak przypisania
Magazyn kluczy nie został znaleziony na platformie Azure. Sprawdź ustawienia kluczy zarządzanych przez klienta.
Brak połączenia z FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: brak przypisania
Nie można odnaleźć poświadczenia tożsamości zarządzanej Azure z konektorem dostępu. Może to być spowodowane tym, że mechanizmy kontroli dostępu do adresów IP odrzuciły twoje żądanie.
Przekroczenie czasu operacji FILES_API_AZURE
SQLSTATE: brak przypisania
Nie można ukończyć operacji w dozwolonym czasie.
Ścieżka pliku API Azure jest nieprawidłowa
SQLSTATE: brak przypisania
Żądana ścieżka jest nieprawidłowa dla platformy Azure.
Stan wewnętrzny jednostki magazynu został zmodyfikowany od momentu zainicjowania przekazywania, np. dlatego, że ścieżka pliku nie wskazuje tej samej bazowej lokalizacji magazynu w chmurze. Przejdź do rozpoczęcia nowej sesji wysyłania.
CZĘŚCI NIETRAJLUJĄCE O RÓŻNYCH ROZMIARACH W WIELOCZĘŚCIOWYM PRZESYŁANIU PLIKÓW ZA POMOCĄ API
SQLSTATE: brak przypisania
Części przesyłane w ramach sesji przesyłania wieloczęściowego muszą mieć taki sam rozmiar dla plików przechowywanych w <cloud_storage_provider>, z wyjątkiem ostatniej części, która może być mniejsza.
Rozmiar części przesyłania wieloczęściowego przez FILES_API poza zakresem
SQLSTATE: brak przypisania
Rozmiar części przekazanych w ramach sesji przekazywania wieloczęściowego musi mieścić się w granicach podanych w odpowiedzi otrzymanej po zainicjowaniu przekazywania.
SESJA_PRZESYŁANIA_WIELOCZĘŚCIOWEGO_NIE_ZNALEZIONA
SQLSTATE: brak przypisania
Nie można odnaleźć sesji przesyłania. Mogła zostać przerwana lub ukończona.
Niezamówiona lista części przesyłania wieloczęściowego API plików
SQLSTATE: brak przypisania
Lista części musi być uporządkowana według numeru części, ale nie została uporządkowana.
API plików nie jest włączone dla miejsca
SQLSTATE: brak przypisania
API plików dla <place> nie jest włączone dla tego obszaru roboczego/konta
Podana ścieżka nie jest obsługiwana przez interfejs API plików. Upewnij się, że podana ścieżka nie zawiera wystąpień sekwencji '../' lub './'. Upewnij się, że podana ścieżka nie używa wielu kolejnych ukośników (np. "///").
GENEROWANIE_URL_API_PLIKÓW_WYŁĄCZONE
SQLSTATE: brak przypisania
Generowanie wstępnie podpisanego adresu URL nie jest włączone dla <cloud>.
FILES_API_TYP_WOLUMINU_NIEOBSŁUGIWANY
SQLSTATE: brak przypisania
Interfejs API plików nie jest obsługiwany dla <volume_type>.
FILES_API_WORKSPACE_ZOSTAŁ_ANULOWANY
SQLSTATE: brak przypisania
Obszar roboczy został odwołany.
WORKSPACE_API_PLIKI_NIE_ZNALEZIONO
SQLSTATE: brak przypisania
Konfiguracja przechowywania dla tego obszaru roboczego jest niedostępna.
Nie można zmienić <type> w tabeli bez istniejącego harmonogramu lub wyzwalacza. Przed podjęciem próby jego zmiany dodaj harmonogram lub wyzwalacz do tabeli.
Funkcjonalność od COLUMNS do UPDATE jest dostępna w wersji zapoznawczej i nie jest aktywowana dla Twojego obszaru roboczego. Skontaktuj się z przedstawicielem usługi Databricks, aby dowiedzieć się więcej o tej funkcji i uzyskać dostęp do prywatnej wersji zapoznawczej.
Nowe kolumny (<columnNames>) są dodawane do pola include_columns w definicji rurociągu dla tabeli <qualifiedTableName>. Odśwież całą tabelę, aby uniknąć potencjalnej utraty danych lub usunąć te kolumny z include_columns.
NIE MOŻNA WYKLUCZYĆ NIEISTNIEJĄCEJ KOLUMNY
SQLSTATE: brak przypisania
Definicja ciągu przetwarzania wyklucza kolumny (<columnNames>), które nie istnieją w źródle <qualifiedTableName>w tabeli <sourceType>. Usuń te kolumny z pola exclude_columns.
NIE MOŻNA ODSEPAROWAĆ WYMAGANEJ KOLUMNY
SQLSTATE: brak przypisania
Definicja potoku nie zawiera wymaganych kolumn (<columnNames>) w tabeli <qualifiedTableName> źródła <sourceType> na potrzeby zasilenia. Dodaj je do include_columns lub usuń je z exclude_columns.
NIE MOŻNA UWZGLĘDNIĆ NIEISTNIEJĄCEJ KOLUMNY
SQLSTATE: brak przypisania
Definicja pipeline zawiera kolumny (<columnNames>), które nie istnieją w tabeli <qualifiedTableName> dla źródła <sourceType>. Usuń te kolumny z pola include_columns.
NIE MOŻNA WCZYTAĆ TABELI BEZ KLUCZA GŁÓWNEGO
SQLSTATE: brak przypisania
Tabela <qualifiedTableName> w źródle <sourceType> nie ma klucza podstawowego.
Określ klucz podstawowy w konfiguracji łącznika, aby wczytać tabelę, jeśli istnieje.
NIE MOŻNA USUNĄĆ KOLUMNY Z WYKLUCZONYCH KOLUMN
SQLSTATE: brak przypisania
Kolumny (<columnNames>) są usuwane z pola exclude_columns w definicji procesu dla tabeli <qualifiedTableName>. Wykonaj pełne odświeżenie tabeli, aby uniknąć potencjalnej utraty danych, lub dodaj te kolumny z powrotem do exclude_columns.
NIEMOŻLIWOŚĆ_USTAWIENIA_KATALOGU_DLA_HMS_PIPELINE
SQLSTATE: brak przypisania
Nie można dodać katalogu do istniejącego potoku z określoną lokalizacją magazynu. Jeśli chcesz użyć UC, utwórz nowy potok i skonfiguruj katalog.
Istniejąca lokalizacja magazynu: "<storageLocation>"
Żądany katalog: "<catalog>"
NIE MOŻNA OKREŚLIĆ OBA STOSOWANIA I WYKLUCZENIA KOLUMN
SQLSTATE: brak przypisania
Definicja potoku określa zarówno „include_columns”, jak i „exclude_columns” dla <identifier>. Usuń jeden z nich.
NIE MOŻNA ZAKTUALIZOWAĆ KOLUMN KLASTROWANIA
SQLSTATE: brak przypisania
Nie można zaktualizować kolumn klastrowania dla tabeli <tableName>, ponieważ używa kolumn partycji. Tabela może używać kolumn partycji lub kolumn klastrowania, ale nie obu tych kolumn.
Aby przełączać się między klastrowaniem płynnym a partycjonowaniem, uruchom pełne odświeżenie tej tabeli.
Nie można zaktualizować kolumn partycji
SQLSTATE: brak przypisania
Nie można zaktualizować kolumn partycji dla tabeli przesyłania strumieniowego <tableName>.
Bieżący: <existingPartitionColumns>,
Żądane: <requestedPartitionColumns>
Aby zastosować tę zmianę partycji, rozpocznij pełne odświeżenie tej tabeli oraz wszystkich innych tabel przesyłania strumieniowego, które zaktualizowały kolumny partycji.
Możesz też przywrócić tę zmianę, aby nadal używać istniejących kolumn partycji.
NIE MOŻNA ZAKTUALIZOWAĆ SCHEMATU TABELI
SQLSTATE: brak przypisania
Nie można scalić bieżących i nowych schematów dla tabeli <tableName>.
Aby kontynuować tę zmianę schematu, możesz wyzwolić pełne odświeżenie tej tabeli.
W zależności od przypadku użycia i zmian schematu może być możliwe usunięcie zmiany schematu — możesz zaktualizować zapytania, aby schemat wyjściowy był zgodny z istniejącym schematem (np. jawnie rzutując kolumny na poprawny typ danych).
NIE MOŻNA PISAĆ DO NIEAKTYWNYCH KOLUMN
SQLSTATE: brak przypisania
Poniższe tabele w miejscu docelowym mają nieaktywne kolumny, które powodują konflikt z bieżącymi tabelami źródłowymi:
<details>
Te kolumny pozostają nieaktywne w tabelach docelowych, ponieważ zostały one wcześniej usunięte z tabel źródłowych.
Aby kontynuować aktualizację, wykonaj FULL REFRESH w tabelach lub upuść te nieaktywne kolumny z tabel docelowych za pomocą polecenia ALTER TABLE DROP COLUMN i ponów próbę aktualizacji.
NIE MOŻNA ZAPISYWAĆ DO NIEAKTYWNYCH TABEL
SQLSTATE: brak przypisania
Następujące tabele w miejscu docelowym są nieaktywne i powodują konflikt z bieżącymi tabelami źródłowymi: <tables>.
Te tabele pozostają nieaktywne, ponieważ zostały one wcześniej usunięte ze źródła lub niezaznaczone w łączniku.
Aby kontynuować aktualizację, wykonaj FULL REFRESH w tabelach lub usuń te nieaktywne tabele z lokalizacji docelowej w Eksploratorze Katalogu lub za pomocą polecenia DROP TABLE i ponów próbę aktualizacji.
NIE MOŻNA PISAĆ DO TABEL OCZEKUJĄCYCH NA ZRESETOWANIE
SQLSTATE: brak przypisania
Poniższe tabele w docelowej lokalizacji nie są poprawnie resetowane przy wcześniejszym pełnym odświeżeniu: <tables>.
Uruchom pełne odświeżanie, aby je przywrócić.
SPECYFIKACJA_KATALOGU_NIEOBSŁUGIWANA
SQLSTATE: brak przypisania
CatalogSpecs nie są obecnie obsługiwane przez łączniki bazy danych. Usuń specyfikację katalogu.
Komunikacja utracona ze sterownikiem. Klaster <clusterId> był niedostępny przez <timeoutSeconds> sekund.
NIE ZNALEZIONO KOLUMNY DO AKTUALIZACJI
SQLSTATE: brak przypisania
Kolumna <column> określona w COLUMNS DO UPDATE nie została odnaleziona w źródłowej ramce danych.
Nie udało się przerwać poprzedniej aktualizacji podczas równoczesnego uaktualniania.
SQLSTATE: brak przypisania
Rozpoczęto aktualizację "<upgradedUpdateId>" dla uaktualnienia, ale nie można zatrzymać poprzedniej aktualizacji "<oldUpdateId>".
Ten błąd jest prawdopodobnie przejściowy. Potok zostanie automatycznie wznowiony, a problem powinien sam się rozwiązać.
Zgłoś ten błąd do usługi Databricks, jeśli nadal widzisz ten sam problem.
Dekorator_zbioru_danych_zastosowany_dwukrotnie
SQLSTATE: brak przypisania
Zestaw danych <datasetName> już istnieje. Upewnij się, że funkcja zapytania została oznaczona jedynie jako widok lub tabela jeden raz.
ZBIÓR_DANYCH_NIE_ZDEFINIOWANY
SQLSTATE: brak przypisania
Nie można odczytać zestawu danych "<datasetName>". Ten zestaw danych nie jest zdefiniowany w pipeline'u.
Jeśli ta tabela jest zarządzana przez inny potok, nie używaj dlt.read / dlt.readStream do odczytywania tabeli ani nie poprzedzaj nazwy słowem kluczowym LIVE.
Nie można usunąć SCHEDULE w tabeli bez istniejącego harmonogramu lub wyzwalacza.
Konfiguracja zduplikowanego tabeli dla INGESJI
SQLSTATE: brak przypisania
Konfiguracja potoku pozyskiwania zawiera zduplikowane tabele. Upewnij się, że każda tabela jest unikatowa.
PUSTE_OBIEKTY_KONFIGURACJI_POBIERANIA
SQLSTATE: brak przypisania
Obiekty konfiguracji zbierania danych są puste.
FUNKCJA WYBIERANIA DZIENNIKA ZDARZEŃ NIE JEST OBSŁUGIWANA
SQLSTATE: brak przypisania
Publikowanie dziennika zdarzeń w Unity Catalog nie jest obsługiwane dla tego przepływu danych. Jeśli jest to nieoczekiwane, skontaktuj się z pomocą techniczną usługi Databricks.
NIE UDAŁO SIĘ UTWORZYĆ DZIENNIKA ZDARZEŃ
SQLSTATE: brak przypisania
Nie udało się utworzyć potoku (id=<pipelineId>) dziennika zdarzeń z identyfikatorem <eventLogIdentifier>. Aby uzyskać więcej informacji, zobacz wyjątek poniżej.
Nie udało się zaktualizować dziennika zdarzeń
SQLSTATE: brak przypisania
Nie udało się zaktualizować potoku (id=<pipelineId>) na identyfikator w dzienniku zdarzeń <newEventLogIdentifier> z widocznością <newVisibility>. Aby uzyskać więcej informacji, zobacz wyjątek poniżej.
ZMIANA_SCHEMATU_PRZEPŁYWU
SQLSTATE: brak przypisania
Usługa Flow <flowName> została zakończona, ponieważ napotkała zmianę schematu podczas wykonywania.
Zmiana schematu jest zgodna z istniejącym schematem docelowym, a kolejne uruchomienie przepływu może zostać wznowione przy użyciu nowego schematu.
Nieprawidłowy schemat „<schemaName>” określony w ustawieniach przepływu danych. Przyczyna: <reason>.
NIEPRAWIDŁOWY_FORMAT_INTERWAŁU_WYZWALACZA
SQLSTATE: brak przypisania
Konfiguracja interwału wyzwalacza określona w <configurationType> jest nieprawidłowa
Odwołanie na żywo poza definicją zapytania w trybie klasycznym
SQLSTATE: brak przypisania
Odwoływanie się do zestawów danych przy użyciu schematu wirtualnego LIVE poza definicją zapytania zestawu danych (tj. adnotacją @dlt.table) nie jest obsługiwane.
ŻYWA_REFERENCJA_POZA_DEFINICJĄ_ZAPYTANIA_DPM
SQLSTATE: brak przypisania
Odwoływanie się do zestawów danych przy użyciu LIVE schematu wirtualnego <identifier> poza definicją zapytania zestawu danych (tj. adnotacją @dlt.table) nie jest obsługiwane.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
SQLSTATE: brak przypisania
Odwoływanie się do zestawów danych przy użyciu schematu wirtualnego LIVE w interfejsie spark.sql(...) nie może być wywoływane poza definicją zapytania zestawu danych (tj. adnotacją @dlt.table). Może być wywoływana tylko w ramach definicji zapytania zestawu danych.
Osiągnięto maksymalną liczbę ponownych prób. Liczba ponownych prób:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
Operacja w MetaStore przekroczyła limit czasu
SQLSTATE: brak przypisania
Operacje związane z aktualizowaniem informacji magazynu metadanych dla <tableName> trwały dłużej niż <timeout>.
Ten problem może być przejściowy lub może wskazywać na błędy w skonfigurowanym kliencie magazynu metadanych. Spróbuj ponownie uruchomić pipeline i zgłosić problem, jeśli będzie się powtarzać.
BRAK_UPRAWNIEŃ_DO_TWORZENIA_SCHEMATU
SQLSTATE: brak przypisania
Użytkownik "<userName>" nie ma uprawnień do tworzenia schematu w katalogu <catalogName>
BRAK_UPRAWNIEŃ_DO_TWORZENIA_TABEL
SQLSTATE: brak przypisania
Użytkownik „<userName>” nie ma uprawnień do tworzenia tabeli w schemacie <schemaName>.
BRAKUJE_URUCHOM_JAKO_UŻYTKOWNIK
SQLSTATE: brak przypisania
Nie określono użytkownika do uruchomienia aktualizacji.
Nie można odnaleźć potoku docelowego <pipelineId>. Upewnij się, że jesteś w tym samym obszarze roboczym co potok, jesteś właścicielem potoku oraz że potok został uruchomiony co najmniej raz.
Przeniesiono tabelę między potokami - docelowy potok nie jest w nowej architekturze.
Kanał docelowy <pipelineId> nie korzysta z trybu bezpośredniego publikowania. Przenoszenie tabeli między potokami wymaga, aby zarówno potoki źródłowe, jak i docelowe były w trybie bezpośredniego publikowania.
Nie można odnaleźć potoku źródłowego <pipelineId>zarządzającego tabelą <tableName>. Upewnij się, że jesteś w tym samym obszarze roboczym co potok, jesteś właścicielem potoku, a potok jest uruchamiany co najmniej raz.
Potok źródłowy <pipelineId>, zarządzający tabelą <tableName>, nie używa trybu publikowania bezpośredniego. Przeniesienie tabeli pomiędzy potokami wymaga, aby potoki źródłowe i docelowe znajdowały się w Trybie Bezpośredniej Publikacji.
Nie możesz wykonać tej operacji, ponieważ nie jesteś właścicielem potoku źródłowego <pipelineId>zarządzającej tabelą <tableName>. Tylko właściciele mogą przenosić tabelę między potokami.
Potok źródłowy <pipelineId>, który zarządza tabelą <tableName>, nie jest standardowym potokiem. Obsługujemy tylko przenoszenie tabel między standardowymi potokami.
Tabela "<tableName>" jest już zarządzana przez potok <otherPipelineId>.
Jeśli chcesz, aby tabela „<tableName>” była obsługiwana przez ten potok —
Usuń tabelę z pipeline'u „<otherPipelineId>”.
Uruchom pełną aktualizację odświeżania dla tego pipeline'u.
Jeśli chcesz kontynuować zarządzanie tabelą z wielu potoków, wyłącz tę kontrolę, ustawiając konfigurację pipelines.tableManagedByMultiplePipelinesCheck.enabled na false w ustawieniach swojej potokowej konfiguracji.
Nie jest to zalecane, ponieważ operacje współbieżne na tabeli mogą konfliktować ze sobą i prowadzić do nieoczekiwanych wyników.
Oczekuje się, że potoki będą mieć co najmniej jedną zdefiniowaną tabelę, ale w Twoim potoku nie znaleziono żadnych tabel.
Sprawdź, czy zostały dołączone oczekiwane pliki źródłowe i czy kod źródłowy zawiera definicje tabeli (np. CREATE <mv> w kodzie SQL, @dlt.table w kodzie python).
Należy pamiętać, że tylko tabele są uwzględniane w tym sprawdzeniu. Ten błąd może również wystąpić, jeśli uwzględnisz w potoku tylko widoki lub przepływy.
Nie można utworzyć lub uruchomić klastra, ponieważ organizacja nie ma żadnych środowisk roboczych. Skontaktuj się z pomocą techniczną usługi Databricks.
Analiza_nieodwracalna_rur_wciągająca
SQLSTATE: brak przypisania
Przetwarzanie potokowe nie powiodło się w analizie tabel źródłowych (<tables>) z powodu błędów, których nie można ponowić, po częściowym przetwarzaniu.
Nie zostanie utworzona nowa aktualizacja przepływu. Sprawdź dziennik zdarzeń i odpowiednio rozwiąż problemy.
Odwoływanie się do zestawu danych DLT <identifier> poza definicją zapytania zestawu danych (tj. adnotacją @dlt.table) nie jest obsługiwane. Przeczytaj go zamiast tego wewnątrz definicji zapytania zestawu danych.
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Wykryto nieprawidłowy adres URL punktu końcowego interfejsu API usługi ServiceNow. Struktura adresu URL nie jest zgodna z oczekiwanym formatem usługi ServiceNow.
Sprawdź konfigurację instancji ServiceNow w poświadczeniach połączenia UC.
ALTER <commandTableType> ...
SET TBLPROPERTIES nie jest obsługiwana. Aby zmodyfikować właściwości tabeli, zmień oryginalną definicję i uruchom aktualizację.
Przetwarzanie obiektu <objName> jest niedokończone, ponieważ zadanie zapytania interfejsu API Salesforce trwało zbyt długo, nie powiodło się lub zostało ręcznie anulowane.
Przetwarzanie obiektu <objName> nie zostało zakończone, ponieważ utworzenie zadania zapytania Bulk API usługi Salesforce nie udało się. Kod błędu: <saasSourceApiErrorCode>.
<actionText>.
ZLEWY_NIEOBSŁUGIWANE_W_SEG
SQLSTATE: brak przypisania
DLT sinks nie są obsługiwane w przestrzeniach roboczych bez dostępu do Internetu. Znaleziono następujące zlewy: <sinkNames>
PRZEKROCZONY CZAS OCZEKIWANIA NA START PYTHON REPL
SQLSTATE: brak przypisania
Limit czasu podczas oczekiwania na uruchomienie środowiska REPL języka Python. Trwało więcej niż <timeoutSeconds> sekund.
CEL_STREAMINGU_NIEZDEFINIOWANY
SQLSTATE: brak przypisania
Nie można odnaleźć tabeli docelowej <target> dla polecenia <command>. Tabela docelowa <target> nie jest zdefiniowana w potoku.
WYMAGANE_ZARÓWNO_KATALOG_JAK_I_SCHEMAT_TABELI
SQLSTATE: brak przypisania
W TableSpec brakuje jednego z katalogu źródłowego i/lub schematu źródłowego.
Szczegóły specyfikacji tabeli:
<tableSpec>
SPECYFIKACJA_TABLICY_PUSTY_KATALOG
SQLSTATE: brak przypisania
TabelaSpec ma pusty ciąg w polu wykazu.
Usuń pusty ciąg lub dodaj nazwę wykazu. (Jeśli ta tabela nie należy do wykazu w źródle, nie ustawiaj pola).
Szczegóły specyfikacji tabeli:
<tableSpec>
Specyfikacja tabeli: pusty schemat
SQLSTATE: brak przypisania
TabelaSpec ma pusty ciąg w polu schematu.
Usuń pusty ciąg lub dodaj nazwę schematu. (Jeśli ta tabela nie należy do schematu w źródle, nie ustawiaj pola).
<source> źródło typu <type> nie jest obecnie obsługiwane przez wyzwalacz.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
SQLSTATE: brak przypisania
Wyczyszczenie pola schematu docelowego nie jest dozwolone dla potoków UC. Przyczyna: <reason>.
SCHEMAT_DOCELOWY_WYMAGANY
SQLSTATE: brak przypisania
Pole schematu docelowego jest wymagane dla potoków UC. Przyczyna: <reason>.
NIEOCZEKIWANY_BŁĄD_UPRAWNIEŃ_SCHEMATU_RUROCIĄGU
SQLSTATE: brak przypisania
Nieoczekiwany błąd podczas sprawdzania uprawnień schematu dla potoku <pipelineId>. Skontaktuj się z pomocą techniczną usługi Databricks.
NIEOZNACZONA_ŚCIEŻKA_DOCELOWA
SQLSTATE: brak przypisania
Nie można ustalić ścieżki przechowywania dla ujścia <identifier>. Skontaktuj się z pomocą techniczną usługi Databricks.
Nierozpoznana_Ścieżka_Tabeli
SQLSTATE: brak przypisania
Nie można odnaleźć ścieżki przechowywania dla tabeli <identifier>. Skontaktuj się z pomocą techniczną usługi Databricks.
NIEOBSŁUGIWANY_KANAŁ_DLA_DPM
SQLSTATE: brak przypisania
Nieobsługiwany kanał dla trybu publikowania bezpośredniego. Oczekiwano kanału "CURRENT" lub "PREVIEW", lecz otrzymano "PREVIOUS"
NIEOBSŁUGIWANE_POLECENIE_W_NIE_DPM_KANALE
SQLSTATE: brak przypisania
<command> obsługiwane tylko wtedy, gdy tryb publikowania bezpośredniego jest włączony w potoku DLT
NIEOBSŁUGIWANA_KOMENDA_W_DEFINICJI_ZAPYTANIA
SQLSTATE: brak przypisania
'<command>' nie jest obsługiwany w definicji zapytania. Przenieś polecenie poza definicję zapytania. Jeśli jest to potok DLT w języku Python, przenieś „<command>” na zewnątrz dekoratora @dlt.table(/@dlt.view(). Jeśli jest to potok DLT w języku Scala, przenieś oznaczenie "<command>" poza metodę "query".
<featureName> nie jest obsługiwane w twoim obszarze roboczym. Skontaktuj się z pomocą techniczną usługi Databricks, aby włączyć tę funkcję dla obszaru roboczego.
Nieautoryzowany podmiot udostępniania Delta w czystym pomieszczeniu
SQLSTATE: brak przypisania
Nie można zażądać generowania poświadczeń do zabezpieczania wymiany danych w chronionej przestrzeni.
Odmowa uprawnień do ukrytego zabezpieczonego elementu w czystym pomieszczeniu
SQLSTATE: brak przypisania
Zabezpieczone <securableName> o typie <securableType> i rodzaju <securableKind> jest systemem czystego pomieszczenia zarządzanym, do którego użytkownik nie ma dostępu.
OGRANICZENIE_JUŻ_ISTNIEJE
SQLSTATE: brak przypisania
Ograniczenie o nazwie <constraintName> już istnieje, wybierz inną nazwę.
OGRANICZENIE_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Ograniczenie <constraintName> nie istnieje.
COULD_NOT_READ_REMOTE_REPOSITORY (Nie można odczytać zdalnego repozytorium)
SQLSTATE: brak przypisania
Nie można odczytać repozytorium zdalnego (<repoUrl>).
Przejdź do zdalnego dostawcy usługi Git, aby upewnić się, że:
Zdalny adres URL repozytorium Git jest prawidłowy.
Osobisty token dostępu lub hasło aplikacji mają prawidłowy dostęp do repozytorium.
NIE_MOŻNA_ROZWIĄZAĆ_HOSTA_REPOZYTORIUM
SQLSTATE: brak przypisania
Nie można rozpoznać hosta dla <repoUrl>.
CSMS_NIEOBSŁUGIWANE_POCZĄTEK_CZASU
SQLSTATE: brak przypisania
Parametr beginning_of_time nie może być prawdziwy.
TOKEN_KONTYNUACJI_CSMS_WYGASŁ
SQLSTATE: brak przypisania
Nie można odnaleźć żądanych obiektów dla tokenu kontynuacji.
CSMS_NIEWAŻNY_TOKEN_KONTYNUACJI
SQLSTATE: brak przypisania
Token kontynuacji jest nieprawidłowy. Przyczyna: <msg>
CSMS_NIEPRAWIDŁOWA_MAKSYMALNA_LICZBA_OBIEKTÓW
SQLSTATE: brak przypisania
Nieprawidłowa wartość <value> dla parametru max_objects, oczekiwana wartość w [<minValue>, <maxValue>]
CSMS_BŁĘDNY_FORMAT_URI
SQLSTATE: brak przypisania
Nieprawidłowy format identyfikatora URI. Oczekiwano woluminu (np. "/Volumes/catalog/schema/volume") lub ścieżki magazynu w chmurze (np. "s3://some-uri")
Brak tematu Kafka: CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: brak przypisania
Musi podać temat platformy Kafka
CSMS_LOCATION_ERROR
SQLSTATE: brak przypisania
Nie można wyświetlić listy obiektów. Istnieją problemy z lokalizacją, którą należy rozwiązać. Szczegóły: <msg>
LOKALIZACJA CSMS NIEZNANA
SQLSTATE: brak przypisania
Nie odnaleziono lokalizacji dla identyfikatora URI <path>
CSMS_NIEPOWODZENIE_ROZWIĄZYWANIA_METASKLEPU
SQLSTATE: brak przypisania
Nie można określić magazynu metadanych dla żądania.
CSMS_SERVICE_DISABLED (Usługa CSMS wyłączona)
SQLSTATE: brak przypisania
Usługa jest wyłączona
Nie znaleziono jednostki w katalogu Unity
SQLSTATE: brak przypisania
Nie znaleziono encji Unity Catalog. Upewnij się, że istnieje katalog, schemat, wolumin i/lub lokalizacja zewnętrzna.
Katalog metadanych CSMS_UNITY_CATALOG nie istnieje
SQLSTATE: brak przypisania
Nie można określić magazynu metadanych dla żądania. Magazyn metadanych nie istnieje
CSMS_UNITY_CATALOG_PERMISSION_DENIED (Odmowa dostępu z powodu braku uprawnień do katalogu Unity)
SQLSTATE: brak przypisania
Odmowa uprawnień
CSMS_UNITY_CATALOG_TABLE_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Tabela katalogu Unity nie istnieje.
CSMS_UNITY_CATALOG_WOLUMEN_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Wolumin katalogu Unity nie istnieje.
"Brakuje URI w systemie CSMS"
SQLSTATE: brak przypisania
Musi podać identyfikator URI
CSMS_URI_ZBYT_DŁUGI
SQLSTATE: brak przypisania
Podany identyfikator URI jest za długi. Maksymalna dozwolona długość to <maxLength>.
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: brak przypisania
Nie można uzyskać dostępu do magazynu domyślnego usługi Databricks przy użyciu klasycznego środowiska obliczeniowego. Użyj bezserwerowych zasobów obliczeniowych, aby uzyskać dostęp do danych w magazynie domyślnym
APLIKACJA_GITHUB_NIE_MOŻE_ODŚWIEŻYĆ_CREDENCJALI
SQLSTATE: brak przypisania
Operacja nie powiodła się, ponieważ nie można odświeżyć połączonych poświadczeń aplikacji GitHub.
Spróbuj ponownie lub przejdź do Ustawień użytkownika integracji Git > i spróbuj ponownie połączyć konto dostawcy Git.
Jeśli problem będzie się powtarzać, utwórz bilet pomocy technicznej.
Kredencje aplikacji GitHub - brak dostępu
SQLSTATE: brak przypisania
Link do Twojego konta GitHub nie jest dostępny. Aby naprawić ten błąd:
Alternatywnie właściciel konta usługi GitHub może zainstalować aplikację na koncie w celu udzielenia dostępu do repozytoriów konta.
Jeśli aplikacja jest już zainstalowana, administrator powinien upewnić się, że w przypadku korzystania z dostępu o określonym zakresie i opcji "Tylko wybierz repozytoria", zapewniono dostęp do tego repozytorium, wybierając je.
Jeśli użytkownik <gitCredentialUsername> już zainstalowaną aplikację i korzysta z dostępu o określonym zakresie z opcją "Tylko wybierz repozytoria", powinien upewnić się, że uwzględnił dostęp do tego repozytorium, wybierając je.
Jeśli problem będzie się powtarzać, utwórz bilet pomocy technicznej.
Instalacja_aplikacji_GitHub_w_organizacji
SQLSTATE: brak przypisania
Link do twojego konta GitHub nie zapewnia dostępu. Aby naprawić ten błąd:
Właściciel organizacji usługi GitHub <organizationName> powinien przejść dohttps://github.com/apps/databricks/installations/new i zainstalować aplikację w organizacji <organizationName>, aby zezwolić na dostęp.
Jeśli aplikacja jest już zainstalowana w organizacji GitHub <organizationName>, właściciel tej organizacji powinien upewnić się, że w przypadku korzystania z dostępu o określonym zakresie z opcją „Tylko wybierz repozytoria” włączono dostęp do tego repozytorium poprzez jego wybranie.
Jeśli aplikacja jest już zainstalowana i korzystasz z dostępu w zakresie repozytoriów z opcją "Tylko wybierz repozytoria", upewnij się, że dodałeś dostęp do tego repozytorium, wybierając je.
Rejestr zadań: Nieobsługiwane lub nieznane zadanie z klasą <taskClassName>.
Dostęp oparty na ścieżce nie jest obsługiwany dla zewnętrznego płytkiego klonu
SQLSTATE: brak przypisania
Dostęp na podstawie ścieżki do zewnętrznej tabeli płytkiego klonowania <tableFullName> nie jest obsługiwany. Proszę używać nazw tabel, aby uzyskać dostęp do płytkiego klonu zamiast tego.
DOSTĘP OPARTY NA ŚCIEŻCE NIEOBSŁUGIWANY DLA FABRYKI
SQLSTATE: brak przypisania
Nie można odnaleźć tabeli fabric pod adresem URL "<url>". Użyj polecenia REFRESH FOREIGN CATALOG, aby wypełnić tabele Fabric.
DOSTĘP OPARTY NA ŚCIEŻCE NIE JEST OBSŁUGIWANY DLA TABEL Z POLITYKAMI DOSTĘPU DO WIERSZY I KOLUMN
SQLSTATE: brak przypisania
Dostęp oparty na ścieżkach do tabeli <tableFullName> z filtrem wierszy lub maską kolumny nie jest obsługiwany.
Odmowa dostępu
SQLSTATE: brak przypisania
Użytkownik nie ma <msg> w <resourceType> '<resourceName>'.
Since this is a technical identifier, no alterations were made to the text as translating it could lead to potential functional issues in a technical or software context. However, a note could be added elsewhere for user guidance if needed. Thus, no improved translation is necessary.
SQLSTATE: brak przypisania
Nie można przeanalizować żądania obiektu usuwania: <invalidInputMsg>
REDASH_USUŃ_OBIEKT_NIE_W_KOSZU
SQLSTATE: brak przypisania
Nie można usunąć obiektu <resourceName>, ponieważ nie znajduje się w koszu.
REDASH_UPRAWNIENIA_ODRZUCONE
SQLSTATE: brak przypisania
Nie można odnaleźć lub uzyskać uprawnień do zasobu <resourceId>
ZAPYTANIE_REDASH_NIE_ZNALEZIONE
SQLSTATE: brak przypisania
Nie można odnaleźć zasobu z identyfikatora zapytania <queryId>
TWORZENIE_FRAGMENTU_ZAPYTANIA_REDASH_NIEUDANE
SQLSTATE: brak przypisania
Nie można utworzyć nowego fragmentu kodu zapytania
(If contextual explanation is needed) Limit zapytań Redash został przekroczony
SQLSTATE: brak przypisania
Osiągnięto limit liczby fragmentów zapytania. Bieżący limit przydziału jest <quota>.
Azure HPC to specjalnie utworzona funkcja chmury dla obciążeń HPC i sztucznej inteligencji przy użyciu wiodących procesorów i połączeń między firmami HPC klasy InfiniBand w celu zapewnienia najlepszej wydajności aplikacji, skalowalności i wartości. Usługa Azure HPC umożliwia użytkownikom odblokowanie innowacji, produktywności i elastyczności biznesowej dzięki szerokiej gamie technologii HPC i sztucznej inteligencji, które mogą być dynamicznie przydzielane w miarę zmian potrzeb biznesowych i technicznych. Ta