@azure/search-documents package
Klasy
| AzureKeyCredential |
Poświadczenie oparte na kluczu statycznym, które obsługuje aktualizowanie bazowej wartości klucza. |
| GeographyPoint |
Reprezentuje punkt geograficzny we współrzędnych globalnych. |
| IndexDocumentsBatch |
Klasa używana do wykonywania operacji wsadowych z wieloma dokumentami do indeksu. |
| KnowledgeRetrievalClient |
Klasa używana do wykonywania operacji na bazie wiedzy. |
| SearchClient |
Klasa używana do wykonywania operacji względem indeksu wyszukiwania, w tym wykonywania zapytań dotyczących dokumentów w indeksie, a także dodawania, aktualizowania i usuwania. |
| SearchIndexClient |
Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksów, & synonimami. |
| SearchIndexerClient |
Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksatorów, źródłami danych & zestawami umiejętności. |
| SearchIndexingBufferedSender |
Klasa używana do wykonywania buforowanych operacji względem indeksu wyszukiwania, w tym dodawania, aktualizowania i usuwania. |
Interfejsy
| AIServices |
Parametry dla usług AI. |
| AIServicesAccountIdentity |
Konto wieloregionalne zasobu usługi Azure AI, przypisane do zestawu umiejętności. |
| AIServicesAccountKey |
Klucz konta zasobu usługi Azure AI, powiązany z zestawem umiejętności, do wykorzystania z poddomeną tego zasobu. |
| AnalyzeRequest |
Określa niektóre składniki tekstowe i analityczne używane do dzielenia tego tekstu na tokeny. |
| AnalyzeResult |
Wynik testowania analizatora tekstu. |
| AnalyzedTokenInfo |
Informacje o tokenie zwróconym przez analizator. |
| AsciiFoldingTokenFilter |
Konwertuje znaki alfabetyczne, liczbowe i symboliczne Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (bloku Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| AutocompleteItem |
Wynik żądań autouzupełniania. |
| AutocompleteRequest |
Parametry dopasowania rozmytego i inne zachowania zapytań autouzupełniania. |
| AutocompleteResult |
Wynik zapytania autouzupełniania. |
| AzureActiveDirectoryApplicationCredentials |
Poświadczenia zarejestrowanej aplikacji utworzonej dla usługi wyszukiwania używane do uwierzytelnionego dostępu do kluczy szyfrowania przechowywanych w usłudze Azure Key Vault. |
| AzureBlobKnowledgeSource |
Konfiguracja źródła wiedzy Azure Blob Storage. |
| AzureBlobKnowledgeSourceParameters |
Parametry źródła wiedzy Azure Blob Storage. |
| AzureBlobKnowledgeSourceParams |
Określa parametry środowiska uruchomieniowego dla źródła wiedzy obiektu blob platformy Azure |
| AzureMachineLearningVectorizer |
Określa punkt końcowy Azure Machine Learning wdrożony za pomocą katalogu modeli Azure AI Foundry do generowania osadzenia wektorowego ciągu zapytania. |
| AzureOpenAIEmbeddingSkill |
Umożliwia wygenerowanie wektora osadzania dla danego tekstu wejściowego przy użyciu zasobu Azure OpenAI. |
| AzureOpenAIParameters |
Określa parametry nawiązywania połączenia z zasobem usługi Azure OpenAI. |
| AzureOpenAIVectorizer |
Zawiera parametry specyficzne dla używania usługi Azure Open AI na potrzeby wektoryzacji w czasie wykonywania zapytań. |
| BM25Similarity |
Funkcja klasyfikacji oparta na algorytmie podobieństwa okapi BM25. BM25 to algorytm podobny do tf-IDF, który obejmuje normalizację długości (kontrolowaną przez parametr "b"), a także nasycenie częstotliwości terminów (kontrolowane przez parametr "k1"). |
| BaseAzureMachineLearningVectorizerParameters |
Określa właściwości wspólne dla wszystkich typów uwierzytelniania wektoryzatora AML. |
| BaseCharFilter |
Typ podstawowy filtrów znaków. |
| BaseCognitiveServicesAccount |
Typ podstawowy opisujący dowolny zasób usługi Azure AI dołączony do zestawu umiejętności. |
| BaseDataChangeDetectionPolicy |
Typ podstawowy zasad wykrywania zmian danych. |
| BaseDataDeletionDetectionPolicy |
Typ podstawowy zasad wykrywania usuwania danych. |
| BaseKnowledgeBaseActivityRecord |
Typ podstawowy dla rekordów aktywności. Śledzi szczegóły wykonania, czas i błędy dotyczące operacji bazy wiedzy. |
| BaseKnowledgeBaseMessageContent |
Określa typ treści wiadomości. |
| BaseKnowledgeBaseModel |
Określa parametry połączenia dla modelu, które mają być używane do planowania zapytania. |
| BaseKnowledgeBaseReference |
Typ podstawowy dla referencji. |
| BaseKnowledgeRetrievalReasoningEffort |
Podstawowy typ wysiłku rozumowania. |
| BaseKnowledgeSource |
Reprezentuje definicję źródła wiedzy. |
| BaseKnowledgeSourceParams |
Typ bazowy dla parametrów wykonawczych źródła wiedzy. |
| BaseKnowledgeSourceVectorizer |
Określa metodę wektoryzacji stosowaną w modelu osadzania źródeł wiedzy. |
| BaseLexicalAnalyzer |
Typ podstawowy analizatorów. |
| BaseLexicalNormalizer |
Typ podstawowy normalizowania. |
| BaseLexicalTokenizer |
Typ podstawowy tokenizatorów. |
| BaseScoringFunction |
Typ podstawowy funkcji, które mogą modyfikować wyniki dokumentu podczas klasyfikowania. |
| BaseSearchIndexerDataIdentity |
Abstrakcyjny typ podstawowy tożsamości danych. |
| BaseSearchIndexerSkill |
Typ podstawowy umiejętności. |
| BaseSearchRequestOptions |
Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania. |
| BaseSimilarityAlgorithm |
Typ podstawowy algorytmów podobieństwa. Algorytmy podobieństwa służą do obliczania wyników, które są związane z zapytaniami do dokumentów. Im wyższa ocena, tym bardziej istotne jest, aby dokument był przeznaczony dla tego konkretnego zapytania. Te wyniki są używane do klasyfikacji wyników wyszukiwania. |
| BaseTokenFilter |
Typ podstawowy filtrów tokenów. |
| BaseVectorQuery |
Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego. |
| BaseVectorSearchAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań. |
| BaseVectorSearchCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań. |
| BaseVectorSearchVectorizer |
Zawiera szczegółowe informacje dotyczące metody wektoryzacji, która ma być używana w czasie zapytania. |
| BinaryQuantizationCompression |
Zawiera opcje konfiguracji specyficzne dla binarnej metody kompresji kwantyzacji używanej podczas indeksowania i wykonywania zapytań. |
| ChatCompletionResponseFormat |
Określa, w jaki sposób odpowiedź modelu językowego powinna być serializowana. Wartość domyślna to "text". |
| ChatCompletionResponseFormatJsonSchemaProperties |
Właściwości formatu odpowiedzi na schemat JSON. |
| ChatCompletionSchema |
Obiekt definiujący niestandardowy schemat, którego model będzie używał do tworzenia struktury danych wyjściowych. |
| ChatCompletionSkill |
Umiejętność, która wywołuje model językowy za pośrednictwem punktu końcowego Chat Completions Azure AI Foundry. |
| CjkBigramTokenFilter |
Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| ClassicSimilarity |
Starszy algorytm podobieństwa, który używa implementacji TFIDFSimilarity Lucene tf-IDF. Ta odmiana TF-IDF wprowadza normalizację długości dokumentu statycznego, a także koordynujące czynniki, które karują dokumenty, które częściowo pasują tylko do wyszukiwanych zapytań. |
| ClassicTokenizer |
Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| CognitiveServicesAccountKey |
Klucz konta w wielu regionach zasobu usługi Azure AI dołączony do zestawu umiejętności. |
| CommonGramTokenFilter |
Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy są nakładane. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| CommonModelParameters |
Typowe parametry modelu językowego dla uzupełniania czatu. W przypadku pominięcia zostaną użyte wartości domyślne. |
| CompletedSynchronizationState |
Reprezentuje stan ukończenia ostatniej synchronizacji. |
| ComplexField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
| ConditionalSkill |
Umiejętność umożliwiająca scenariusze wymagające operacji logicznej w celu określenia danych do przypisania do danych wyjściowych. |
| ContentUnderstandingSkill |
Umiejętność wykorzystująca Azure AI Content Understanding do przetwarzania i wydobywania uporządkowanych wniosków z dokumentów, umożliwiając wzbogacone, przeszukiwalne treści dla ulepszonego indeksowania i wyszukiwania dokumentów. |
| ContentUnderstandingSkillChunkingProperties |
Steruje kardynalnością dzielenia zawartości na fragmenty. |
| CorsOptions |
Definiuje opcje kontrolowania współużytkowania zasobów między źródłami (CORS) dla indeksu. |
| CreateKnowledgeBaseOptions | |
| CreateKnowledgeSourceOptions | |
| CreateOrUpdateAliasOptions |
Opcje operacji tworzenia lub aktualizowania aliasu. |
| CreateOrUpdateIndexOptions |
Opcje operacji tworzenia/aktualizowania indeksu. |
| CreateOrUpdateKnowledgeBaseOptions | |
| CreateOrUpdateKnowledgeSourceOptions | |
| CreateOrUpdateSkillsetOptions |
Opcje tworzenia/aktualizowania operacji zestawu umiejętności. |
| CreateOrUpdateSynonymMapOptions |
Opcje operacji tworzenia/aktualizowania synonimu. |
| CreateorUpdateDataSourceConnectionOptions |
Opcje operacji tworzenia/aktualizowania źródła danych. |
| CreateorUpdateIndexerOptions |
Opcje operacji tworzenia/aktualizowania indeksatora. |
| CustomAnalyzer |
Umożliwia przejęcie kontroli nad procesem konwertowania tekstu na tokeny z możliwością indeksowania/wyszukiwania. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z jednego wstępnie zdefiniowanego tokenizera i co najmniej jednego filtru. Tokenizer jest odpowiedzialny za podzielenie tekstu na tokeny i filtry modyfikowania tokenów emitowanych przez tokenizatora. |
| CustomEntity |
Obiekt zawierający informacje o znalezionych dopasowaniach i powiązanych metadanych. |
| CustomEntityAlias |
Obiekt złożony, który może służyć do określania alternatywnych pisowni lub synonimów nazwy jednostki głównej. |
| CustomEntityLookupSkill |
Umiejętność szuka tekstu z niestandardowej, zdefiniowanej przez użytkownika listy wyrazów i fraz. |
| CustomLexicalNormalizer |
Umożliwia skonfigurowanie normalizacji dla pól możliwych do filtrowania, sortowania i tworzenia aspektów, które domyślnie działają z ścisłym dopasowaniem. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z co najmniej jednego filtru, który modyfikuje przechowywany token. |
| DefaultCognitiveServicesAccount |
Pusty obiekt reprezentujący domyślny zasób usługi Azure AI dla zestawu umiejętności. |
| DeleteAliasOptions |
Opcje operacji usuwania aliasu. |
| DeleteDataSourceConnectionOptions |
Opcje operacji usuwania źródła danych. |
| DeleteIndexOptions |
Opcje operacji usuwania indeksu. |
| DeleteIndexerOptions |
Opcje operacji usuwania indeksatora. |
| DeleteKnowledgeBaseOptions | |
| DeleteKnowledgeSourceOptions | |
| DeleteSkillsetOptions |
Opcje usuwania operacji zestawu umiejętności. |
| DeleteSynonymMapOptions |
Opcje usuwania operacji synonimów. |
| DictionaryDecompounderTokenFilter |
Rozkłada złożone wyrazy znalezione w wielu językach niemieckich. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| DistanceScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie odległości od lokalizacji geograficznej. |
| DistanceScoringParameters |
Udostępnia wartości parametrów funkcji oceniania odległości. |
| DocumentDebugInfo |
Zawiera informacje debugowania, których można użyć do dalszego eksplorowania wyników wyszukiwania. |
| DocumentExtractionSkill |
Umiejętność wyodrębniania zawartości z pliku w potoku wzbogacania. |
| DocumentIntelligenceLayoutSkill |
Umiejętność wyodrębniania informacji o zawartości i układzie (jako znaczników markdown) za pośrednictwem usług Azure AI z plików w potoku wzbogacania. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Steruje kardynalnością dzielenia zawartości na fragmenty. |
| EdgeNGramTokenFilter |
Generuje n-gramy danego rozmiaru, zaczynając od przodu lub z tyłu tokenu wejściowego. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| EdgeNGramTokenizer |
Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| ElisionTokenFilter |
Usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| EntityLinkingSkill |
Przy użyciu interfejsu API analizy tekstu wyodrębnia połączone jednostki z tekstu. |
| EntityRecognitionSkill |
Rozpoznawanie jednostek analizy tekstu. |
| EntityRecognitionSkillV3 |
Przy użyciu interfejsu API analizy tekstu wyodrębnia jednostki różnych typów z tekstu. |
| ExhaustiveKnnParameters |
Zawiera parametry specyficzne dla wyczerpującego algorytmu KNN. |
| ExtractiveQueryAnswer |
Wyodrębnia kandydatów odpowiedzi z zawartości dokumentów zwracanych w odpowiedzi na zapytanie wyrażone jako pytanie w języku naturalnym. |
| ExtractiveQueryCaption |
Wyodrębnia podpisy z pasujących dokumentów, które zawierają fragmenty istotne dla zapytania wyszukiwania. |
| FacetResult |
Pojedynczy zasobnik wyniku zapytania aspektowego. Raportuje liczbę dokumentów z wartością pola należącą do określonego zakresu lub z określoną wartością lub interwałem. |
| FieldMapping |
Definiuje mapowanie między polem w źródle danych a polem docelowym w indeksie. |
| FieldMappingFunction |
Reprezentuje funkcję, która przekształca wartość ze źródła danych przed indeksowaniem. |
| FreshnessScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie wartości pola daty i godziny. |
| FreshnessScoringParameters |
Udostępnia wartości parametrów funkcji oceniania świeżości. |
| GenerativeQueryRewrites |
Wygeneruj alternatywne terminy zapytania, aby zwiększyć kompletność żądania wyszukiwania. |
| GetDocumentOptions |
Opcje pobierania pojedynczego dokumentu. |
| GetKnowledgeBaseOptions | |
| GetKnowledgeSourceOptions | |
| GetKnowledgeSourceStatusOptions | |
| HighWaterMarkChangeDetectionPolicy |
Definiuje zasady wykrywania zmian danych, które przechwytują zmiany na podstawie wartości kolumny wysokiego znacznika wody. |
| HnswParameters |
Zawiera parametry specyficzne dla algorytmu hnsw. |
| ImageAnalysisSkill |
Umiejętność analizująca pliki obrazów. Wyodrębnia bogaty zestaw funkcji wizualnych na podstawie zawartości obrazu. |
| IndexDocumentsClient |
Klient indeksowania dokumentów |
| IndexDocumentsOptions |
Opcje modyfikowania operacji wsadowej indeksu. |
| IndexDocumentsResult |
Odpowiedź zawierająca stan operacji dla wszystkich dokumentów w żądaniu indeksowania. |
| IndexedOneLakeKnowledgeSource |
Konfiguracja dla źródła wiedzy OneLake. |
| IndexedOneLakeKnowledgeSourceParameters |
Parametry źródła wiedzy OneLake. |
| IndexedOneLakeKnowledgeSourceParams |
Określa parametry środowiska uruchomieniowego dla indeksowanego źródła wiedzy OneLake |
| IndexerExecutionResult |
Reprezentuje wynik pojedynczego wykonywania indeksatora. |
| IndexingParameters |
Reprezentuje parametry wykonywania indeksatora. |
| IndexingParametersConfiguration |
Słownik właściwości konfiguracji specyficznych dla indeksatora. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
| IndexingResult |
Stan operacji indeksowania dla pojedynczego dokumentu. |
| IndexingSchedule |
Reprezentuje harmonogram wykonywania indeksatora. |
| InputFieldMappingEntry |
Mapowanie pól wejściowych dla umiejętności. |
| KeepTokenFilter |
Filtr tokenu, który przechowuje tylko tokeny z tekstem zawartym na określonej liście wyrazów. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| KeyAuthAzureMachineLearningVectorizerParameters |
Określa właściwości nawiązywania połączenia z wektoryzatorem AML przy użyciu klucza uwierzytelniania. |
| KeyPhraseExtractionSkill |
Umiejętność, która korzysta z analizy tekstu na potrzeby wyodrębniania kluczowych fraz. |
| KeywordMarkerTokenFilter |
Oznacza terminy jako słowa kluczowe. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| KeywordTokenizer |
Emituje całe dane wejściowe jako pojedynczy token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| KnowledgeBase | |
| KnowledgeBaseAgenticReasoningActivityRecord |
Reprezentuje rekord działania wnioskowania agentycznego. |
| KnowledgeBaseAzureBlobReference |
Reprezentuje dokumentację Azure Blob Storage. |
| KnowledgeBaseAzureOpenAIModel |
Określa zasób usługi Azure OpenAI używany do planowania zapytań. |
| KnowledgeBaseErrorAdditionalInfo |
Dodatkowe informacje o błędzie zarządzania zasobami. |
| KnowledgeBaseErrorDetail |
Szczegóły błędu. |
| KnowledgeBaseIndexedOneLakeReference |
Reprezentuje indeksowany dokument OneLake. |
| KnowledgeBaseMessage |
Obiekt stylu komunikatu w języku naturalnym. |
| KnowledgeBaseMessageImageContent |
Typ wiadomości obrazu. |
| KnowledgeBaseMessageImageContentImage |
Treści obrazowe. |
| KnowledgeBaseMessageTextContent |
Typ wiadomości tekstowej. |
| KnowledgeBaseModelWebSummarizationActivityRecord |
Reprezentuje rekord aktywności streszczającej LLM w sieci. |
| KnowledgeBaseRetrievalRequest |
Kontrakt wejściowy dla żądania pobrania. |
| KnowledgeBaseRetrievalResponse |
Kontrakt wyjściowy dla odpowiedzi pobierania. |
| KnowledgeBaseSearchIndexReference |
Reprezentuje dokumentację usługi Azure Search. |
| KnowledgeBaseWebReference |
Reprezentuje odniesienie do dokumentu sieci Web. |
| KnowledgeRetrievalClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
| KnowledgeRetrievalIntent |
Zamierzone zapytanie do wykonania bez planowania zapytań modelowych. |
| KnowledgeRetrievalMinimalReasoningEffort |
Uruchamiaj wyszukiwanie wiedzy przy minimalnym wysiłku związanym z rozumowaniem. |
| KnowledgeRetrievalSemanticIntent |
Zamiar zapytania semantycznego. |
| KnowledgeSourceAzureOpenAIVectorizer |
Określa zasób usługi Azure OpenAI używany do wektoryzacji ciągu zapytania. |
| KnowledgeSourceIngestionParameters |
Konsoliduje wszystkie ogólne ustawienia pozyskiwania dla źródeł wiedzy. |
| KnowledgeSourceReference |
Odniesienie do źródła wiedzy. |
| KnowledgeSourceStatistics |
Informacje statystyczne o historii synchronizacji źródeł wiedzy. |
| KnowledgeSourceStatus |
Reprezentuje stan i historię synchronizacji źródła wiedzy. |
| KnowledgeSourceSynchronizationError |
Reprezentuje błąd indeksowania na poziomie dokumentu napotkany podczas synchronizacji źródeł wiedzy. |
| LanguageDetectionSkill |
Umiejętność, która wykrywa język tekstu wejściowego i zgłasza pojedynczy kod języka dla każdego dokumentu przesłanego na żądanie. Kod języka jest sparowany z wynikiem wskazującym pewność analizy. |
| LengthTokenFilter |
Usuwa wyrazy, które są za długie lub za krótkie. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| LimitTokenFilter |
Ogranicza liczbę tokenów podczas indeksowania. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| ListKnowledgeBasesOptions | |
| ListKnowledgeSourcesOptions | |
| ListSearchResultsPageSettings |
Argumenty pobierania następnej strony wyników wyszukiwania. |
| LuceneStandardAnalyzer |
Standardowy analizator Apache Lucene; Składa się z standardowego tokenizatora, małe litery filtru i filtru zatrzymania. |
| LuceneStandardTokenizer |
Podział tekstu zgodnie z regułami segmentacji tekstu Unicode. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| MagnitudeScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie wielkości pola liczbowego. |
| MagnitudeScoringParameters |
Dostarcza wartości parametrów do funkcji oceniania wielkości. |
| MappingCharFilter |
Filtr znaków, który stosuje mapowania zdefiniowane za pomocą opcji mapowania. Dopasowanie jest chciwe (najdłuższe dopasowanie wzorca w danym punkcie wygrywa). Zastąpienie może być pustym ciągiem. Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene. |
| MergeSkill |
Umiejętność scalania dwóch lub większej liczby ciągów w jeden ujednolicony ciąg z opcjonalnym ogranicznikiem zdefiniowanym przez użytkownika oddzielającym każdą część składnika. |
| MicrosoftLanguageStemmingTokenizer |
Dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza liczbę wyrazów do ich podstawowych formularzy. |
| MicrosoftLanguageTokenizer |
Dzieli tekst przy użyciu reguł specyficznych dla języka. |
| NGramTokenFilter |
Generuje n-gramy danego rozmiaru. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| NGramTokenizer |
Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| NativeBlobSoftDeleteDeletionDetectionPolicy |
Definiuje zasady wykrywania usuwania danych korzystające z natywnej funkcji usuwania nietrwałego usługi Azure Blob Storage na potrzeby wykrywania usuwania. |
| NoAuthAzureMachineLearningVectorizerParameters |
Określa właściwości nawiązywania połączenia z wektoryzatorem AML bez uwierzytelniania. |
| OcrSkill |
Umiejętność wyodrębniania tekstu z plików obrazów. |
| OutputFieldMappingEntry |
Mapowanie pól wyjściowych dla umiejętności. |
| PIIDetectionSkill |
Korzystając z interfejsu API analizy tekstu, wyodrębnia dane osobowe z tekstu wejściowego i umożliwia ich maskowanie. |
| PageSettings |
Opcje dla metody byPage |
| PagedAsyncIterableIterator |
Interfejs, który umożliwia iterację asynchronialną zarówno do ukończenia, jak i według strony. |
| PathHierarchyTokenizer |
Tokenizer dla hierarchii przypominających ścieżkę. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| PatternAnalyzer |
Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Ten analizator jest implementowany przy użyciu platformy Apache Lucene. |
| PatternCaptureTokenFilter |
Używa wyrażeń regularnych Języka Java do emitowania wielu tokenów — jednej dla każdej grupy przechwytywania w co najmniej jednym wzorze. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| PatternReplaceCharFilter |
Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene. |
| PatternReplaceTokenFilter |
Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| PatternTokenizer |
Tokenizer, który używa dopasowania wzorca wyrażeń regularnych do konstruowania unikatowych tokenów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| PhoneticTokenFilter |
Tworzenie tokenów dla dopasowań fonetycznych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| QueryAnswerResult |
Odpowiedź to fragment tekstowy wyodrębniony z zawartości najbardziej odpowiednich dokumentów pasujących do zapytania. Odpowiedzi są wyodrębniane z pierwszych wyników wyszukiwania. Kandydaci odpowiedzi są oceniani i wybierane są najważniejsze odpowiedzi. |
| QueryCaptionResult |
Podpisy są najbardziej reprezentatywnymi fragmentami z dokumentu stosunkowo do zapytania wyszukiwania.
Są one często używane jako podsumowanie dokumentu. Podpisy są zwracane tylko w przypadku zapytań typu |
| QueryResultDocumentSemanticField |
Opis pól, które zostały wysłane do procesu wzbogacania semantycznego, a także sposobu ich użycia |
| QueryResultDocumentSubscores |
Podział podscores między składnikami zapytania tekstowego i wektorowego dla tego dokumentu. Każde zapytanie wektorowe jest wyświetlane jako oddzielny obiekt w tej samej kolejności, w której zostały odebrane. |
| RescoringOptions |
Zawiera opcje rescoringu. |
| ResourceCounter |
Reprezentuje użycie i limit przydziału zasobu. |
| RetrieveOptions | |
| ScalarQuantizationCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji kwantyzacji skalarnej używanej podczas indeksowania i wykonywania zapytań. |
| ScalarQuantizationParameters |
Zawiera parametry specyficzne dla kwantyzacji skalarnych. |
| ScoringProfile |
Definiuje parametry indeksu wyszukiwania mającego wpływ na ocenianie w zapytaniach wyszukiwania. |
| SearchAlias |
Reprezentuje alias indeksu, który opisuje mapowanie z nazwy aliasu na indeks. Nazwa aliasu może być używana zamiast nazwy indeksu dla obsługiwanych operacji. |
| SearchClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API AI Search. |
| SearchDocumentsPageResult |
Odpowiedź zawierająca wyniki strony wyszukiwania z indeksu. |
| SearchDocumentsResult |
Odpowiedź zawierająca wyniki wyszukiwania z indeksu. |
| SearchDocumentsResultBase |
Odpowiedź zawierająca wyniki wyszukiwania z indeksu. |
| SearchIndex |
Reprezentuje definicję indeksu wyszukiwania, która opisuje pola i zachowanie wyszukiwania indeksu. |
| SearchIndexClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API AI Search. |
| SearchIndexFieldReference |
Referencja polowa dla indeksu wyszukiwania. |
| SearchIndexKnowledgeSource |
Źródło wiedzy przeznaczone dla indeksu wyszukiwania. |
| SearchIndexKnowledgeSourceParameters |
Parametry źródła wiedzy indeksu wyszukiwania. |
| SearchIndexKnowledgeSourceParams |
Określa parametry środowiska uruchomieniowego dla źródła wiedzy indeksu wyszukiwania |
| SearchIndexStatistics |
Statystyki dla danego indeksu. Statystyki są zbierane okresowo i nie mają gwarancji, że zawsze będą up-to-date. |
| SearchIndexer |
Reprezentuje indeksator. |
| SearchIndexerClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API AI Search. |
| SearchIndexerDataContainer |
Reprezentuje informacje o jednostce (takiej jak tabela Azure SQL lub kolekcja CosmosDB), które będą indeksowane. |
| SearchIndexerDataNoneIdentity |
Czyści właściwość tożsamości źródła danych. |
| SearchIndexerDataSourceConnection |
Reprezentuje definicję źródła danych, która może służyć do konfigurowania indeksatora. |
| SearchIndexerDataUserAssignedIdentity |
Określa tożsamość źródła danych do użycia. |
| SearchIndexerError |
Reprezentuje błąd indeksowania na poziomie elementu lub dokumentu. |
| SearchIndexerIndexProjection |
Definicja dodatkowych projekcji do pomocniczych indeksów wyszukiwania. |
| SearchIndexerIndexProjectionParameters |
Słownik właściwości konfiguracji specyficznych dla projekcji indeksu. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
| SearchIndexerIndexProjectionSelector |
Opis danych do przechowywania w wyznaczonym indeksie wyszukiwania. |
| SearchIndexerKnowledgeStore |
Definicja dodatkowych projekcji w obiektach blob platformy Azure, tabelach lub plikach wzbogaconych danych. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Klasa abstrakcyjna do współużytkowania właściwości między selektorami. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Definicja projekcji dla danych do przechowywania w usłudze Azure Files. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definicja projekcji dla danych do przechowywania w obiekcie blob platformy Azure. |
| SearchIndexerKnowledgeStoreParameters |
Słownik właściwości konfiguracji specyficznych dla magazynu wiedzy. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
| SearchIndexerKnowledgeStoreProjection |
Obiekt kontenera dla różnych selektorów projekcji. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Klasa abstrakcyjna do współużytkowania właściwości między selektorami. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Opis danych do przechowywania w tabelach platformy Azure. |
| SearchIndexerLimits |
Reprezentuje granice, które można zastosować do indeksatora. |
| SearchIndexerSkillset |
Lista umiejętności. |
| SearchIndexerStatus |
Reprezentuje bieżący stan i historię wykonywania indeksatora. |
| SearchIndexerWarning |
Reprezentuje ostrzeżenie na poziomie elementu. |
| SearchIndexingBufferedSenderOptions |
Opcje wyszukiwaniaIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Klucz szyfrowania zarządzany przez klienta w usłudze Azure Key Vault. Klucze, które tworzysz i którymi zarządzasz, mogą służyć do szyfrowania lub odszyfrowywania danych magazynowanych w usłudze Wyszukiwanie AI platformy Azure, takich jak indeksy i mapy synonimów. |
| SearchServiceStatistics |
Odpowiedź z żądania pobierania statystyk usługi. Jeśli to się powiedzie, obejmuje liczniki i limity poziomu usług. |
| SemanticConfiguration |
Definiuje określoną konfigurację, która ma być używana w kontekście możliwości semantycznych. |
| SemanticDebugInfo |
Opcje debugowania dla semantycznych zapytań wyszukiwania. |
| SemanticField |
Pole używane w ramach konfiguracji semantycznej. |
| SemanticPrioritizedFields |
Opisuje pola tytułów, zawartości i słów kluczowych, które mają być używane do semantycznego klasyfikowania, podpisów, wyróżnień i odpowiedzi. |
| SemanticSearch |
Definiuje parametry indeksu wyszukiwania mającego wpływ na możliwości semantyczne. |
| SemanticSearchOptions |
Definiuje opcje semantycznych zapytań wyszukiwania |
| SentimentSkill |
Analiza tekstu dodatnio-ujemna analiza tonacji, oceniana jako wartość zmiennoprzecinkowa w zakresie od zera do 1. |
| SentimentSkillV3 |
Korzystając z interfejsu API analizy tekstu, ocenia tekst bez struktury i dla każdego rekordu, udostępnia etykiety tonacji (takie jak "negatywne", "neutralne" i "pozytywne") na podstawie najwyższego wskaźnika ufności znalezionego przez usługę na poziomie zdania i dokumentu. |
| ServiceCounters |
Reprezentuje liczniki zasobów na poziomie usługi i limity przydziału. |
| ServiceLimits |
Reprezentuje różne limity poziomu usług. |
| ShaperSkill |
Umiejętność przekształcania danych wyjściowych. Tworzy typ złożony do obsługi pól złożonych (nazywanych również polami wieloczęściowym). |
| ShingleTokenFilter |
Tworzy kombinacje tokenów jako pojedynczy token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| SimpleField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
| SingleVectorFieldResult |
Wynik pojedynczego pola wektorowego. Both |
| SnowballTokenFilter |
Filtr, który wynika ze słów przy użyciu stemmeru wygenerowanego przez Śnieżkę. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| SoftDeleteColumnDeletionDetectionPolicy |
Definiuje zasady wykrywania usuwania danych, które implementują strategię usuwania nietrwałego. Określa, czy element powinien zostać usunięty na podstawie wartości wyznaczonej kolumny "usuwanie nietrwałe". |
| SplitSkill |
Umiejętność dzielenia ciągu na fragmenty tekstu. |
| SqlIntegratedChangeTrackingPolicy |
Definiuje zasady wykrywania zmian danych, które przechwytują zmiany przy użyciu funkcji zintegrowanego śledzenia zmian usługi Azure SQL Database. |
| StemmerOverrideTokenFilter |
Zapewnia możliwość zastępowania innych filtrów ściągnięcia za pomocą niestandardowego ściągnięcia opartego na słowniku. Wszystkie terminy oparte na słowniku będą oznaczone jako słowa kluczowe, aby nie były one stemmers w dół łańcucha. Należy umieścić przed wszelkimi filtrami macierzystymi. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
| StemmerTokenFilter |
Filtr macierzysty specyficzny dla języka. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. Zobacz https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
| StopAnalyzer |
Dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenu stopword. Ten analizator jest implementowany przy użyciu platformy Apache Lucene. |
| StopwordsTokenFilter |
Usuwa słowa zatrzymania ze strumienia tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
| SuggestDocumentsResult |
Odpowiedź zawierająca wyniki zapytania sugestii z indeksu. |
| SuggestRequest |
Parametry filtrowania, sortowania, dopasowywania rozmytego i innych sugestii dotyczących zachowań zapytań. |
| Suggester |
Definiuje sposób stosowania interfejsu API sugerowanego do grupy pól w indeksie. |
| SynchronizationState |
Reprezentuje bieżący stan trwającej synchronizacji, która obejmuje wiele przebiegów indeksatora. |
| SynonymMap |
Reprezentuje definicję mapy synonimów. |
| SynonymTokenFilter |
Pasuje do synonimów pojedynczych lub wieloznanych w strumieniu tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| TagScoringFunction |
Definiuje funkcję, która zwiększa wyniki dokumentów przy użyciu wartości ciągów pasujących do danej listy tagów. |
| TagScoringParameters |
Udostępnia wartości parametrów funkcji oceniania tagów. |
| TextResult |
Wynik BM25 lub klasyczny dla części tekstowej zapytania. |
| TextTranslationSkill |
Umiejętność tłumaczenia tekstu z jednego języka na inny. |
| TextWeights |
Definiuje wagi pól indeksu, dla których dopasowania powinny zwiększyć ocenianie w zapytaniach wyszukiwania. |
| TokenAuthAzureMachineLearningVectorizerParameters |
Określa właściwości nawiązywania połączenia z wektoryzatorem AML przy użyciu tożsamości zarządzanej. |
| TruncateTokenFilter |
Obcina terminy do określonej długości. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| UaxUrlEmailTokenizer |
Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| UniqueTokenFilter |
Filtruje tokeny z tym samym tekstem co poprzedni token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| VectorSearch |
Zawiera opcje konfiguracji związane z wyszukiwaniem wektorów. |
| VectorSearchOptions |
Definiuje opcje zapytań wyszukiwania wektorowego |
| VectorSearchProfile |
Definiuje kombinację konfiguracji do użycia z wyszukiwaniem wektorowym. |
| VectorizableImageBinaryQuery |
Parametry zapytania, które mają być używane do wyszukiwania wektorowego, gdy jest udostępniany zakodowany w formacie base 64 plik binarny obrazu, który musi zostać wektoryzowany. |
| VectorizableImageUrlQuery |
Parametry zapytania do użycia do wyszukiwania wektorowego, gdy podano adres URL reprezentujący wartość obrazu, która musi być wektoryzowana. |
| VectorizableTextQuery |
Parametry zapytania do użycia do wyszukiwania wektorowego, gdy zostanie podana wartość tekstowa, która musi zostać wektoryzowana. |
| VectorizedQuery |
Parametry zapytania do użycia do wyszukiwania wektorów po podaniu nieprzetworzonej wartości wektora. |
| VectorsDebugInfo |
"Zawiera informacje o debugowaniu specyficzne dla wyszukiwania wektorowego i hybrydowego.") |
| WebApiParameters |
Określa właściwości nawiązywania połączenia z wektoryzatorem zdefiniowanym przez użytkownika. |
| WebApiSkill |
Umiejętność, która może wywołać punkt końcowy internetowego interfejsu API, umożliwiając rozszerzenie zestawu umiejętności przez wywołanie kodu niestandardowego. |
| WebApiVectorizer |
Określa wektoryzator zdefiniowany przez użytkownika do generowania wektora osadzania ciągu zapytania. Integracja zewnętrznego wektoryzatora jest osiągana przy użyciu niestandardowego internetowego interfejsu API zestawu umiejętności. |
| WebKnowledgeSource |
Źródło wiedzy kierowane na wyniki w internecie. |
| WebKnowledgeSourceDomain |
Konfiguracja domeny źródła wiedzy sieci Web. |
| WebKnowledgeSourceDomains |
Konfiguracja zezwalania/blokowania domeny dla internetowego źródła wiedzy. |
| WebKnowledgeSourceParameters |
Parametry źródła wiedzy internetowej. |
| WebKnowledgeSourceParams |
Określa parametry środowiska uruchomieniowego dla internetowego źródła wiedzy |
| WordDelimiterTokenFilter |
Dzieli wyrazy na subwords i wykonuje opcjonalne przekształcenia w grupach podrzędnych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
Aliasy typu
| AIFoundryModelCatalogName |
Nazwa modelu osadzania z katalogu Azure AI Foundry, który zostanie wywołany. Znane wartości obsługiwane przez usługę
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| AliasIterator |
Iterator do wyświetlania listy aliasów, które istnieją w usłudze Search. Spowoduje to wykonanie żądań zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| AnalyzeTextOptions |
Opcje analizowania operacji tekstowej. |
| AutocompleteMode |
Określa tryb autouzupełniania. Wartość domyślna to "oneTerm". Użyj "twoTerms", aby uzyskać półpasiec i "oneTermWithContext", aby użyć bieżącego kontekstu do tworzenia terminów autouzupełniania. |
| AutocompleteOptions |
Opcje pobierania tekstu uzupełniania dla częściowego tekstu searchText. |
| AzureMachineLearningVectorizerParameters |
Określa właściwości nawiązywania połączenia z wektoryzatorem AML. |
| AzureOpenAIModelName |
Nazwa modelu Azure Open AI, który zostanie wywołany. Znane wartości obsługiwane przez usługę
text-embedding-ada-002: TextEmbeddingAda002 model. |
| BaseKnowledgeRetrievalIntent |
Alias dla KnowledgeRetrievalIntentUnion |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Zawiera możliwe przypadki charfilter. |
| CharFilterName |
Definiuje nazwy wszystkich filtrów znaków obsługiwanych przez wyszukiwarkę. Znane wartości obsługiwane przez usługęhtml_strip: filtr znaków, który próbuje usunąć konstrukcje HTML. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
| ChatCompletionExtraParametersBehavior |
Określa, jak Azure AI Foundry powinien obsługiwać 'extraParameters'. Wartość domyślna to "error". Znane wartości obsługiwane przez usługę
passThrough: przekazuje wszelkie dodatkowe parametry bezpośrednio do modelu. |
| ChatCompletionResponseFormatType |
Określa, w jaki sposób LLM powinien sformatować odpowiedź. Znane wartości obsługiwane przez usługę
tekst: Format odpowiedzi w formie tekstu zwykłego. |
| CjkBigramTokenFilterScripts |
Skrypty, które mogą być ignorowane przez CjkBigramTokenFilter. |
| CognitiveServicesAccount |
Zawiera możliwe przypadki dla konta CognitiveServicesAccount. |
| ComplexDataType |
Definiuje wartości parametru ComplexDataType. Możliwe wartości obejmują: "Edm.ComplexType", "Collection(Edm.ComplexType)" |
| ContentUnderstandingSkillChunkingUnit |
Steruje kardynalnością jednostki porcji. Domyślnie to 'postacie' Znane wartości obsługiwane przez usługęcharacters: Określa fragment według znaków. |
| ContentUnderstandingSkillExtractionOptions |
Steruje kardynalnością zawartości wyodrębnionej z dokumentu przez umiejętność. Znane wartości obsługiwane przez usługę
images: Określ, że zawartość obrazu ma zostać wyodrębniona z dokumentu. |
| ContinuablePage |
Interfejs opisujący stronę wyników. |
| CountDocumentsOptions |
Opcje wykonywania operacji licznika w indeksie. |
| CreateAliasOptions |
Opcje operacji tworzenia aliasu. |
| CreateDataSourceConnectionOptions |
Opcje tworzenia operacji źródła danych. |
| CreateIndexOptions |
Opcje tworzenia operacji indeksu. |
| CreateIndexerOptions |
Opcje tworzenia operacji indeksatora. |
| CreateSkillsetOptions |
Opcje tworzenia operacji zestawu umiejętności. |
| CreateSynonymMapOptions |
Opcje tworzenia operacji synonimów. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Zawiera możliwe przypadki dla elementu DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Zawiera możliwe przypadki dla elementu DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Opcje operacji usuwania dokumentów. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Steruje kardynalnością jednostki porcji. Domyślnie to 'postacie' Znane wartości obsługiwane przez usługęcharacters: Określa fragment według znaków. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Steruje kardynalnością zawartości wyodrębnionej z dokumentu przez umiejętność. Znane wartości obsługiwane przez usługę
images: Określ, że zawartość obrazu ma zostać wyodrębniona z dokumentu. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Głębokość nagłówków w danych wyjściowych języka Markdown. Wartość domyślna to h6. Znane wartości obsługiwane przez usługę
h1: Poziom nagłówka 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Steruje kardynalnością formatu wyjściowego. Wartość domyślna to "markdown". Znane wartości obsługiwane przez usługę
text: Określ format danych wyjściowych jako tekst. |
| DocumentIntelligenceLayoutSkillOutputMode |
Steruje kardynalnością danych wyjściowych generowanych przez umiejętności. Wartość domyślna to "oneToMany". Znane wartości obsługiwane przez usługęoneToMany: określ, że dane wyjściowe powinny być analizowane jako "oneToMany". |
| EdgeNGramTokenFilterSide |
Określa, z której strony danych wejściowych ma zostać wygenerowany n-gram. |
| EntityCategory |
Ciąg wskazujący, jakie kategorie jednostek mają zostać zwrócone. Znane wartości obsługiwane przez usługę
lokalizacja: Byty opisujące fizyczną lokalizację. |
| EntityRecognitionSkillLanguage |
Kody języków obsługiwane dla tekstu wejściowego przez EntityRecognitionSkill. Znane wartości obsługiwane przez usługę
ar: arabski |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla wyczerpującego algorytmu KNN używanego podczas wykonywania zapytań, które będą wykonywać wyszukiwanie siłowe w całym indeksie wektorów. |
| ExtractDocumentKey | |
| GetAliasOptions |
Opcje uzyskiwania operacji aliasu. |
| GetDataSourceConnectionOptions |
Opcje pobierania operacji źródła danych. |
| GetIndexOptions |
Opcje pobierania operacji indeksu. |
| GetIndexStatisticsOptions |
Opcje pobierania operacji statystyk indeksu. |
| GetIndexerOptions |
Opcje pobierania operacji indeksatora. |
| GetIndexerStatusOptions |
Opcje pobierania operacji stanu indeksatora. |
| GetServiceStatisticsOptions |
Opcje pobierania operacji statystyk usługi. |
| GetSkillSetOptions |
Opcje uzyskiwania operacji zestawu umiejętności. |
| GetSynonymMapsOptions |
Opcje pobierania operacji synonimów. |
| HnswAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu hnsw przybliżonych najbliższych sąsiadów używanych w czasie indeksowania. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Operacja, która ma zostać wykonana na dokumencie w partii indeksowania. |
| IndexDocumentsAction |
Reprezentuje akcję indeksu działającą w dokumencie. |
| IndexIterator |
Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| IndexNameIterator |
Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| IndexProjectionMode |
Definiuje zachowanie projekcji indeksu w odniesieniu do pozostałej części indeksatora. Znane wartości obsługiwane przez usługę
skipIndexingParentDocuments: dokument źródłowy zostanie pominięty podczas zapisywania w indeksie docelowym indeksatora. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Reprezentuje stan pojedynczego wykonania indeksatora. |
| IndexerResyncOption |
Opcje z różnymi typami danych uprawnień do indeksowania. Znane wartości obsługiwane przez usługęuprawnienia: indeksator do ponownego pozyskiwania wstępnie wybranych danych uprawnień ze źródła danych do indeksu. |
| IndexerStatus |
Reprezentuje ogólny stan indeksatora. |
| KeyPhraseExtractionSkillLanguage | |
| KnowledgeBaseActivityRecord |
Alias dla KnowledgeBaseActivityRecordUnion |
| KnowledgeBaseActivityRecordType |
Rodzaj rejestru aktywności. Znane wartości obsługiwane przez usługę
searchIndex: Wyszukiwanie aktywności wyszukiwania indeksu. |
| KnowledgeBaseIterator |
Iterator do wypisywania baz wiedzy istniejących w usłudze wyszukiwania. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| KnowledgeBaseMessageContent |
Alias dla KnowledgeBaseMessageContentUnion |
| KnowledgeBaseMessageContentType |
Typ treści wiadomości. Znane wartości obsługiwane przez usługę
tekst: Rodzaj treści wiadomości tekstowej. |
| KnowledgeBaseModel | |
| KnowledgeBaseModelKind |
Model sztucznej inteligencji, który ma być używany do planowania zapytań. Znane wartości obsługiwane przez usługęazureOpenAI: Wykorzystaj Azure otwarte modele AI do planowania zapytań. |
| KnowledgeBaseReference |
Alias dla KnowledgeBaseReferenceUnion |
| KnowledgeBaseReferenceType |
Typ odwołania. Znane wartości obsługiwane przez usługę
searchIndex: Wyszukaj indeks referencyjny dokumentu. |
| KnowledgeRetrievalIntentType |
Rodzaj konfiguracji bazy wiedzy, która ma być używana. Znane wartości obsługiwane przez usługęsemantyczne: Intencja zapytania semantycznego w języku naturalnym. |
| KnowledgeRetrievalReasoningEffortKind |
Ilość wysiłku do użycia podczas pobierania. Znane wartości obsługiwane przez usługęminimalne: Nie wykonuje żadnych selekcji źródeł, planowania zapytań ani wyszukiwania iteracyjnego. |
| KnowledgeRetrievalReasoningEffortUnion |
Alias dla KnowledgeRetrievalReasoningEffortUnion |
| KnowledgeSource | |
| KnowledgeSourceContentExtractionMode |
Opcjonalny tryb wyodrębniania zawartości. Wartość domyślna to "minimalny". Znane wartości obsługiwane przez usługę
minimalne: Usuwa tylko niezbędne metadane, odkładając większość przetwarzania treści. |
| KnowledgeSourceIterator |
Iterator do wypisywania źródeł wiedzy istniejących w usłudze wyszukiwania. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| KnowledgeSourceKind |
Rodzaj źródła wiedzy. Znane wartości obsługiwane przez usługę
searchIndex: źródło wiedzy, które odczytuje dane z indeksu wyszukiwania. |
| KnowledgeSourceParams |
Alias dla KnowledgeSourceParamsUnion |
| KnowledgeSourceSynchronizationStatus |
Bieżący stan synchronizacji źródła wiedzy. Znane wartości obsługiwane przez usługę
tworzenie: Źródło wiedzy jest udostępniane. |
| KnowledgeSourceVectorizer | |
| LexicalAnalyzer |
Zawiera możliwe przypadki analizatora. |
| LexicalAnalyzerName |
Definiuje nazwy wszystkich analizatorów tekstu obsługiwanych przez wyszukiwarkę. Znane wartości obsługiwane przez usługę
ar.microsoft: Microsoft analyzer for Arabski. |
| LexicalNormalizer |
Zawiera możliwe przypadki leksykalneNormalizer. |
| LexicalNormalizerName |
Definiuje nazwy wszystkich normalizatorów tekstu obsługiwanych przez wyszukiwarkę. Znane wartości obsługiwane przez usługę
asciifolding: konwertuje alfabetyczne, liczbowe i symboliczne znaki Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (blok Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| LexicalTokenizer |
Zawiera możliwe przypadki tokenizatora. |
| LexicalTokenizerName |
Definiuje nazwy wszystkich tokenizatorów obsługiwanych przez wyszukiwarkę. Znane wartości obsługiwane przez usługę
klasyczny: tokenizer oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| ListAliasesOptions |
Opcje operacji aliasów listy. |
| ListDataSourceConnectionsOptions |
Opcje operacji list źródeł danych. |
| ListIndexersOptions |
Opcje operacji indeksatorów listy. |
| ListIndexesOptions |
Opcje operacji indeksów listy. |
| ListSkillsetsOptions |
Opcje operacji zestawów umiejętności listy. |
| ListSynonymMapsOptions |
Opcje operacji synonimów listyMaps. |
| MarkdownHeaderDepth |
Określa maksymalną głębokość nagłówka, która będzie brana pod uwagę podczas grupowania zawartości markdown. Wartość domyślna to Znane wartości obsługiwane przez usługę
h1: wskazuje, że nagłówki do poziomu h1 będą brane pod uwagę podczas grupowania zawartości markdown. |
| MarkdownParsingSubmode |
Określa tryb podrzędny, który określi, czy plik markdown zostanie przeanalizowany w dokładnie jednym dokumencie wyszukiwania, czy w wielu dokumentach wyszukiwania. Wartość domyślna to Znane wartości obsługiwane przez usługę
oneToMany: wskazuje, że każda sekcja pliku markdown (do określonej głębokości) zostanie przeanalizowana w poszczególnych dokumentach wyszukiwania. Może to spowodować utworzenie wielu dokumentów wyszukiwania w jednym pliku markdown. Jest to domyślny tryb podrzędny. |
| MergeDocumentsOptions |
Opcje operacji scalania dokumentów. |
| MergeOrUploadDocumentsOptions |
Opcje operacji scalania lub przekazywania dokumentów. |
| MicrosoftStemmingTokenizerLanguage |
Lista języków obsługiwanych przez tokenizer języka Microsoft. |
| MicrosoftTokenizerLanguage |
Lista języków obsługiwanych przez tokenizator języka Microsoft. |
| NarrowedModel |
Zawęża typ modelu, aby uwzględnić tylko wybrane pola |
| OcrLineEnding |
Definiuje sekwencję znaków do użycia między wierszami tekstu rozpoznawanych przez umiejętności OCR. Wartość domyślna to "spacja". Znane wartości obsługiwane przez usługę
spacji: Linie są oddzielone pojedynczym znakiem spacji. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PhoneticEncoder |
Identyfikuje typ kodera fonetycznego, który ma być używany z filtrem PhoneticTokenFilter. |
| QueryAnswer |
Wartość określająca, czy odpowiedzi powinny być zwracane w ramach odpowiedzi wyszukiwania.
Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". Jeśli ustawiono wartość |
| QueryCaption |
Wartość określająca, czy podpisy powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". W przypadku ustawienia zapytanie zwraca podpisy wyodrębnione z kluczowych fragmentów w najwyżej sklasyfikowanych dokumentach. Gdy napisy są "wyodrębnione", wyróżnianie jest domyślnie włączone. Wartość domyślna to "none". |
| QueryDebugMode |
Włącza narzędzie do debugowania, którego można użyć do dalszego eksplorowania wyników wyszukiwania. Możesz włączyć wiele trybów debugowania jednocześnie, oddzielając je znakiem | znak, na przykład: semantic|queryRewrites. Znane wartości obsługiwane przez usługę
wyłączone: Nie zostaną zwrócone żadne informacje debugowania zapytania. |
| QueryRewrites |
Definiuje opcje ponownego zapisywania zapytań. |
| QueryType |
Określa składnię zapytania wyszukiwania. Wartość domyślna to "simple". Użyj wartości "pełna", jeśli zapytanie używa składni zapytania Lucene i "semantycznej", jeśli składnia zapytania nie jest potrzebna. Znane wartości obsługiwane przez usługę
Proste: Używa składni prostych zapytań do wyszukiwania. Wyszukiwany tekst jest interpretowany przy użyciu prostego języka zapytań, który zezwala na symbole, takie jak +, * i "". Zapytania są domyślnie oceniane we wszystkich polach z możliwością wyszukiwania, chyba że określono parametr searchFields. |
| RankingOrder |
Reprezentuje wynik, który ma być używany do sortowania dokumentów. Znane wartości obsługiwane przez usługę
BoostedRerankerScore: Ustawia porządek sortowania jako BoostedRerankerScore |
| RegexFlags | |
| ResetIndexerOptions |
Opcje resetowania operacji indeksatora. |
| RunIndexerOptions |
Opcje uruchamiania operacji indeksatora. |
| ScoringFunction |
Zawiera możliwe przypadki ocenianiaFunction. |
| ScoringFunctionAggregation |
Definiuje funkcję agregacji używaną do łączenia wyników wszystkich funkcji oceniania w profilu oceniania. |
| ScoringFunctionInterpolation |
Definiuje funkcję używaną do interpolacji zwiększania wyników w zakresie dokumentów. |
| ScoringStatistics |
Wartość określająca, czy chcemy obliczyć statystyki oceniania (takie jak częstotliwość dokumentu) globalnie w celu uzyskania bardziej spójnego oceniania lub lokalnie w celu uzyskania mniejszego opóźnienia. Wartość domyślna to "lokalna". Użyj wartości "global", aby zagregować statystyki punktacji globalnie przed oceną. Korzystanie z globalnych statystyk punktacji może zwiększyć opóźnienie zapytań wyszukiwania. |
| SearchField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
| SearchFieldArray |
Jeśli |
| SearchFieldDataType |
Definiuje wartości parametru SearchFieldDataType. Znane wartości obsługiwane przez usługę:Edm.String: wskazuje, że pole zawiera ciąg. Edm.Int32: wskazuje, że pole zawiera 32-bitową liczbę całkowitą ze znakiem. Edm.Int64: wskazuje, że pole zawiera 64-bitową liczbę całkowitą ze znakiem. Edm.Double: wskazuje, że pole zawiera liczbę zmiennoprzecinkową IEEE o podwójnej precyzji. Edm.Boolean: wskazuje, że pole zawiera wartość logiczną (prawda lub fałsz). Edm.DateTimeOffset: wskazuje, że pole zawiera wartość daty/godziny, w tym informacje o strefie czasowej. Edm.GeographyPoint: Wskazuje, że pole zawiera lokalizację geograficzną pod względem długości geograficznej i szerokości geograficznej. Edm.ComplexType: wskazuje, że pole zawiera jeden lub więcej złożonych obiektów, które z kolei mają pola podrzędne innych typów. Edm.Single: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pojedynczej precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Single). Edm.Half: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pół precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Half). Edm.Int16: Wskazuje, że pole zawiera 16-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Int16). Edm.SByte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.SByte). Edm.Byte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą bez znaku. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Byte). |
| SearchIndexAlias |
Wyszukaj obiekt aliasu. |
| SearchIndexerDataIdentity |
Zawiera możliwe przypadki elementu SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Zawiera możliwe przypadki umiejętności. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Iterator wyników wyszukiwania zapytania patykowego. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| SearchMode |
Określa, czy którykolwiek lub wszystkie wyszukiwane terminy muszą być dopasowane, aby dokument został uznany za zgodny. |
| SearchOptions |
Opcje zatwierdzania pełnego żądania wyszukiwania. |
| SearchPick |
Głęboko wybierz pola T przy użyciu prawidłowych ścieżek $select AI Search OData. |
| SearchRequestOptions |
Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Zawiera dokument znaleziony przez zapytanie wyszukiwania oraz skojarzone metadane. |
| SelectFields |
Tworzy unię prawidłowych ścieżek OData $select AI Search dla T przy użyciu przechodzenia po kolejności drzewa pola zakorzenionego w T. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticSearchResultsType |
Typ częściowej odpowiedzi, która została zwrócona dla żądania klasyfikacji semantycznej. Znane wartości obsługiwane przez usługę
baseResults: Wyniki bez żadnego wzbogacenia semantycznego ani zmiany rankingu. |
| SentimentSkillLanguage |
Kody języków obsługiwane dla tekstu wejściowego przez SentimentSkill. Znane wartości obsługiwane przez usługę
da: Duński |
| Similarity |
Alias dla SimilarityAlgorithmUnion |
| SimilarityAlgorithm |
Zawiera możliwe przypadki podobieństwa. |
| SnowballTokenFilterLanguage |
Język, który ma być używany dla filtru tokenów Snowball. |
| SplitSkillLanguage | |
| StemmerTokenFilterLanguage |
Język, który ma być używany dla filtru tokenu stemmer. |
| StopwordsList |
Identyfikuje wstępnie zdefiniowaną listę słów zatrzymania specyficznych dla danego języka. |
| SuggestNarrowedModel | |
| SuggestOptions |
Opcje pobierania sugestii na podstawie elementu searchText. |
| SuggestResult |
Wynik zawierający dokument znaleziony przez zapytanie sugestii oraz skojarzone metadane. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Reprezentuje klasy znaków, na których może działać filtr tokenów. |
| TokenFilter |
Zawiera możliwe przypadki tokenfiltru. |
| TokenFilterName |
Definiuje nazwy wszystkich filtrów tokenów obsługiwanych przez wyszukiwarkę. Znane wartości obsługiwane przez usługę
arabic_normalization: filtr tokenu, który stosuje arabski normalizator w celu normalizacji orthografii. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
| UnionToIntersection | |
| UploadDocumentsOptions |
Opcje operacji przekazywania dokumentów. |
| VectorEncodingFormat |
Format kodowania służący do interpretowania zawartości pola wektorowego. Znane wartości obsługiwane przez usługępakowaneBit: format kodowania reprezentujący bity pakowane w szerszy typ danych. |
| VectorFilterMode | |
| VectorQuery |
Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań. |
| VectorSearchCompressionKind |
Metoda kompresji używana do indeksowania i wykonywania zapytań. Znane wartości obsługiwane przez usługę
scalarQuantization: Scalar Quantization, typ metody kompresji. W kwantyzacji skalarnej wartości oryginalnych wektorów są kompresowane do węższego typu przez dyskretyzowanie i reprezentowanie każdego składnika wektora przy użyciu ograniczonego zestawu kwantyzowanych wartości, zmniejszając w ten sposób ogólny rozmiar danych. |
| VectorSearchCompressionRescoreStorageMethod |
Metoda przechowywania oryginalnych wektorów o pełnej precyzji używanych do ponownego oceniania i operacji indeksu wewnętrznego. Znane wartości obsługiwane przez usługę
preserveOriginals: Ta opcja powoduje zachowanie oryginalnych wektorów o pełnej precyzji. Wybierz tę opcję, aby uzyskać maksymalną elastyczność i najwyższą jakość skompresowanych wyników wyszukiwania. Zużywa to więcej miejsca do magazynowania, ale umożliwia ponownekorowanie i nadmierne próbkowanie. |
| VectorSearchCompressionTarget |
Skwantyzowany typ danych skompresowanych wartości wektorowych. Znane wartości obsługiwane przez usługęint8: 8-bitowa liczba całkowita ze znakiem. |
| VectorSearchVectorizer |
Zawiera opcje konfiguracji dotyczące sposobu wektoryzacji zapytań wektorów tekstowych. |
| VectorSearchVectorizerKind |
Metoda wektoryzacji, która ma być używana w czasie wykonywania zapytania. Znane wartości obsługiwane przez usługę
azureOpenAI: Generuj osadzanie przy użyciu zasobu usługi Azure OpenAI w czasie wykonywania zapytania. |
| VisualFeature | |
| WebApiSkills | |
Wyliczenia
| KnownAIFoundryModelCatalogName |
Nazwa modelu osadzania z katalogu Azure AI Foundry, który zostanie wywołany. |
| KnownAnalyzerNames |
Definiuje wartości AnalyzerName. Zobacz https://learn.microsoft.com/rest/api/searchservice/Language-support |
| KnownAzureOpenAIModelName |
Nazwa modelu Azure Open AI, który zostanie wywołany. |
| KnownBlobIndexerDataToExtract |
Określa dane do wyodrębnienia z usługi Azure Blob Storage i informuje indeksator, które dane mają zostać wyodrębnione z zawartości obrazu, gdy wartość "imageAction" jest ustawiona na wartość inną niż "none". Dotyczy to osadzonej zawartości obrazu w .PDF lub innej aplikacji albo plików obrazów, takich jak .jpg i .pngw obiektach blob platformy Azure. |
| KnownBlobIndexerImageAction |
Określa sposób przetwarzania osadzonych obrazów i plików obrazów w usłudze Azure Blob Storage. Ustawienie konfiguracji "imageAction" na dowolną wartość inną niż "none" wymaga, aby zestaw umiejętności był również dołączony do tego indeksatora. |
| KnownBlobIndexerPDFTextRotationAlgorithm |
Określa algorytm wyodrębniania tekstu z plików PDF w usłudze Azure Blob Storage. |
| KnownBlobIndexerParsingMode |
Reprezentuje tryb analizowania indeksowania ze źródła danych obiektów blob platformy Azure. |
| KnownCharFilterNames |
Definiuje wartości charFilterName. |
| KnownChatCompletionExtraParametersBehavior |
Określa, jak Azure AI Foundry powinien obsługiwać 'extraParameters'. Wartość domyślna to "error". |
| KnownChatCompletionResponseFormatType |
Określa, w jaki sposób LLM powinien sformatować odpowiedź. |
| KnownContentUnderstandingSkillChunkingUnit |
Steruje kardynalnością jednostki porcji. Wartość domyślna to "znaki" |
| KnownContentUnderstandingSkillExtractionOptions |
Steruje kardynalnością zawartości wyodrębnionej z dokumentu przez umiejętność. |
| KnownCustomEntityLookupSkillLanguage |
Kody języków obsługiwane dla tekstu wejściowego przez CustomEntityLookupSkill. |
| KnownDocumentIntelligenceLayoutSkillChunkingUnit |
Steruje kardynalnością jednostki porcji. Wartość domyślna to "znaki" |
| KnownDocumentIntelligenceLayoutSkillExtractionOptions |
Steruje kardynalnością zawartości wyodrębnionej z dokumentu przez umiejętność. |
| KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Głębokość nagłówków w danych wyjściowych języka Markdown. Wartość domyślna to h6. |
| KnownDocumentIntelligenceLayoutSkillOutputFormat |
Steruje kardynalnością formatu wyjściowego. Wartość domyślna to "markdown". |
| KnownDocumentIntelligenceLayoutSkillOutputMode |
Steruje kardynalnością danych wyjściowych generowanych przez umiejętności. Wartość domyślna to "oneToMany". |
| KnownEntityCategory |
Ciąg wskazujący, jakie kategorie jednostek mają zostać zwrócone. |
| KnownEntityRecognitionSkillLanguage |
Kody języków obsługiwane dla tekstu wejściowego przez EntityRecognitionSkill. |
| KnownImageAnalysisSkillLanguage |
Kody języków obsługiwane do wprowadzania przez ImageAnalysisSkill. |
| KnownImageDetail |
Ciąg wskazujący, które szczegóły specyficzne dla domeny mają być zwracane. |
| KnownIndexProjectionMode |
Definiuje zachowanie projekcji indeksu w odniesieniu do pozostałej części indeksatora. |
| KnownIndexerExecutionEnvironment |
Określa środowisko, w którym indeksator powinien być wykonywany. |
| KnownIndexerResyncOption |
Opcje z różnymi typami danych uprawnień do indeksowania. |
| KnownKeyPhraseExtractionSkillLanguage |
Kody języków obsługiwane dla tekstu wejściowego przez KeyPhraseExtractionSkill. |
| KnownKnowledgeBaseModelKind |
Model sztucznej inteligencji, który ma być używany do planowania zapytań. |
| KnownKnowledgeSourceKind |
Rodzaj źródła wiedzy. |
| KnownLexicalAnalyzerName |
Definiuje nazwy wszystkich analizatorów tekstu obsługiwanych przez wyszukiwarkę. |
| KnownLexicalNormalizerName |
Definiuje nazwy wszystkich normalizatorów tekstu obsługiwanych przez wyszukiwarkę. |
| KnownMarkdownHeaderDepth |
Określa maksymalną głębokość nagłówka, która będzie brana pod uwagę podczas grupowania zawartości markdown. Wartość domyślna to |
| KnownMarkdownParsingSubmode |
Określa tryb podrzędny, który określi, czy plik markdown zostanie przeanalizowany w dokładnie jednym dokumencie wyszukiwania, czy w wielu dokumentach wyszukiwania. Wartość domyślna to |
| KnownOcrLineEnding |
Definiuje sekwencję znaków do użycia między wierszami tekstu rozpoznawanych przez umiejętności OCR. Wartość domyślna to "spacja". |
| KnownOcrSkillLanguage |
Kody języków obsługiwane do wprowadzania przez OcrSkill. |
| KnownPIIDetectionSkillMaskingMode |
Ciąg wskazujący, który tryb maskingMode ma być używany do maskowania informacji osobistych wykrytych w tekście wejściowym. |
| KnownQueryDebugMode |
Włącza narzędzie do debugowania, którego można użyć do dalszego eksplorowania wyników wyszukiwania. Możesz włączyć wiele trybów debugowania jednocześnie, oddzielając je znakiem | znak, na przykład: semantic|queryRewrites. |
| KnownRankingOrder |
Reprezentuje wynik, który ma być używany do sortowania dokumentów. |
| KnownRegexFlags |
Definiuje flagę wyrażenia regularnego, którą można wykorzystać w analizatorze wzorców i tokenizatorze wzorców. |
| KnownSearchAudience |
Znane wartości dla grupy odbiorców wyszukiwania |
| KnownSearchFieldDataType |
Definiuje typ danych pola w indeksie wyszukiwania. |
| KnownSearchIndexerDataSourceType |
Definiuje typ źródła danych. |
| KnownSemanticErrorMode |
Pozwala użytkownikowi wybrać, czy wywołanie semantyczne powinno całkowicie zawiódć, czy też zwrócić częściowe wyniki. |
| KnownSemanticErrorReason |
Przyczyna, dla której zwrócono częściową odpowiedź dla żądania klasyfikacji semantycznej. |
| KnownSemanticSearchResultsType |
Typ częściowej odpowiedzi, która została zwrócona dla żądania klasyfikacji semantycznej. |
| KnownSentimentSkillLanguage |
Kody języków obsługiwane dla tekstu wejściowego przez SentimentSkill. |
| KnownSplitSkillLanguage |
Kody języków obsługiwane dla tekstu wejściowego przez SplitSkill. |
| KnownTextSplitMode |
Wartość wskazująca tryb podziału do wykonania. |
| KnownTextTranslationSkillLanguage |
Kody języków obsługiwane dla tekstu wejściowego przez TextTranslationSkill. |
| KnownTokenFilterNames |
Definiuje wartości TokenFilterName. |
| KnownTokenizerNames |
Definiuje wartości tokenizerName. |
| KnownVectorEncodingFormat |
Format kodowania służący do interpretowania zawartości pola wektorowego. |
| KnownVectorFilterMode |
Określa, czy filtry są stosowane przed czy po przeprowadzeniu wyszukiwania wektorowego. |
| KnownVectorQueryKind |
Rodzaj wykonywanego zapytania wektorowego. |
| KnownVectorSearchAlgorithmKind |
Algorytm używany do indeksowania i wykonywania zapytań. |
| KnownVectorSearchAlgorithmMetric |
Metryka podobieństwa, która ma być używana do porównań wektorowych. Zaleca się wybranie tej samej metryki podobieństwa, na której został wytrenowany model osadzania. |
| KnownVectorSearchCompressionKind |
Metoda kompresji używana do indeksowania i wykonywania zapytań. |
| KnownVectorSearchCompressionRescoreStorageMethod |
Metoda przechowywania oryginalnych wektorów o pełnej precyzji używanych do ponownego oceniania i operacji indeksu wewnętrznego. |
| KnownVectorSearchCompressionTarget |
Skwantyzowany typ danych skompresowanych wartości wektorowych. |
| KnownVectorSearchVectorizerKind |
Metoda wektoryzacji, która ma być używana w czasie wykonywania zapytania. |
| KnownVisualFeature |
Ciągi wskazujące, jakie typy funkcji wizualnych mają zostać zwrócone. |
Funkcje
| create |
Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS. |
| odata(Template |
Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:
Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://learn.microsoft.com/azure/search/search-query-odata-filter |
Zmienne
| DEFAULT_BATCH_SIZE | Domyślny rozmiar partii |
| DEFAULT_FLUSH_WINDOW | Domyślny interwał spłukiwania okna |
| DEFAULT_RETRY_COUNT | Domyślna liczba prób ponownie. |
Szczegóły funkcji
createSynonymMapFromFile(string, string)
Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametry
- name
-
string
Nazwa synonimuMap.
- filePath
-
string
Ścieżka pliku zawierającego synonimy (oddzielone przez nowe wiersze)
Zwraca
Promise<SynonymMap>
SynonimMap, obiekt
odata(TemplateStringsArray, unknown[])
Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:
import { odata } from "@azure/search-documents";
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://learn.microsoft.com/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametry
- strings
-
TemplateStringsArray
Tablica ciągów dla wyrażenia
- values
-
unknown[]
Tablica wartości wyrażenia
Zwraca
string
Szczegóły zmiennej
DEFAULT_BATCH_SIZE
Domyślny rozmiar partii
DEFAULT_BATCH_SIZE: number
Typ
number
DEFAULT_FLUSH_WINDOW
Domyślny interwał spłukiwania okna
DEFAULT_FLUSH_WINDOW: number
Typ
number
DEFAULT_RETRY_COUNT
Domyślna liczba prób ponownie.
DEFAULT_RETRY_COUNT: number
Typ
number