Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
O Azure AI Content Understanding é um serviço multimodal de IA que extrai conteúdo semântico de documentos, vídeos, áudio e ficheiros de imagem. Transforma conteúdos não estruturados em dados estruturados e legíveis por máquina, otimizados para geração aumentada por recuperação (RAG) e fluxos de trabalho automatizados.
Use a biblioteca cliente para compreensão de conteúdo Azure AI para:
- Extrair o conteúdo do documento - Extrair texto, tabelas, figuras, informações de layout e marcação estruturada de documentos (PDF, imagens com texto ou texto manuscrito, documentos do Office e mais)
- Transcrever e analisar áudio - Converter conteúdo áudio em transcrições pesquisáveis com informação de diarização e temporização do orador
- Analisar conteúdos de vídeo - Extrair fotogramas visuais, transcrever faixas de áudio e gerar resumos estruturados a partir de ficheiros de vídeo
- Analisadores pré-construídos - Utilizar analisadores pré-construídos prontos para produção em vários setores, incluindo finance e impostos (faturas, recibos, formulários fiscais), verificação de identidade (passaportes, cartas de condução), hipotecas e empréstimos (pedidos de empréstimo, avaliações), aquisições e contratos (ordens de compra, acordos) e utilidades (extratos de faturação)
- Criar analisadores personalizados - Construir analisadores específicos de domínio para necessidades especializadas de extração de conteúdos em todas as quatro modalidades (documentos, vídeo, áudio e imagens)
- Classificar documentos e vídeos - Categorizar e extrair automaticamente informação de documentos e vídeos por tipo
Ligações principais:
- Código-fonte
- Pacote (NPM)
- Documentação do produto
- Samples
Getting started
Ambientes atualmente suportados
- Versões LTS de Node.js
- Últimas versões do Safari, Chrome, Edge e Firefox.
Consulte a nossa política apoio para mais detalhes.
Pré-requisitos
- Uma subscrição Azure
- Um recurso Microsoft Foundry criado numa região suportada
Instale o pacote @azure/ai-content-understanding
Instale a biblioteca cliente Azure Content Understanding para JavaScript com npm:
npm install @azure/ai-content-understanding
Configure o seu recurso Microsoft Foundry
Antes de usar o Content Understanding SDK, precisa de configurar um recurso Microsoft Foundry e implementar os grandes modelos de linguagem necessários. A Content Understanding utiliza atualmente modelos OpenAI GPT (como gpt-4.1, gpt-4.1-mini e text-embedding-3-large).
Passo 1: Criar recurso Microsoft Foundry
Importante: Deve criar o seu recurso Microsoft Foundry numa região que suporte a Compreensão de Conteúdos. Para uma lista de regiões disponíveis, consulte Azure Content Understanding regional and language support.
- Siga os passos no quickstartAzure Compreensão de Conteúdos>
- Obtenha a URL do endpoint do seu recurso Foundry a partir do Azure Portal:
- Vai a Azure Portal
- Navegue até ao seu recurso Microsoft Foundry
- Vá a Chaves de Gestão>de Recursos e Endpoint
- Copie o URL Endpoint (tipicamente
https://<your-resource-name>.services.ai.azure.com/)
Importante: conceder permissões necessárias
Depois de criar o seu recurso Microsoft Foundry, deve atribuir-se o papel de Utilizador de Serviços Cognitivos para permitir chamadas de API para definir implementações de modelos por defeito:
- Vai a Azure Portal
- Navegue até ao seu recurso Microsoft Foundry
- Vá a Access Control (IAM) no menu esquerdo
- Clique em Adicionar>Adicionar atribuição de função
- Selecione o papel de Utilizador de Serviços Cognitivos
- Atribui-o a ti próprio (ou ao utilizador/principal do serviço que irá executar a aplicação)
Nota: Esta atribuição de função é obrigatória mesmo que seja o proprietário do recurso. Sem este papel, não poderá chamar a API de Compreensão de Conteúdo para configurar implementações de modelos para analisadores pré-construídos.
Passo 2: Implementar os modelos necessários
Importante: Os analisadores pré-construídos e personalizados requerem grandes implementações de modelos de linguagem. Deve implementar pelo menos estes modelos antes de usar analisadores pré-construídos e analisadores personalizados:
-
prebuilt-documentSearch, , , requeremprebuilt-imageSearcheprebuilt-audioSearchprebuilt-videoSearch - Outros analisadores pré-construídos como
prebuilt-invoice,prebuilt-receiptrequerem gpt-4.1 e text-embedding-3-large
Para implementar um modelo:
- No Microsoft Foundry, vá a Deployments>Deploy modelo>Deploy Deploy modelo base
- Procura e seleciona o modelo que queres implementar. Atualmente, analisadores pré-construídos requerem modelos como
gpt-4.1,gpt-4.1-mini, etext-embedding-3-large - Complete a implementação com as definições preferidas
- Note o nome de implementação que escolheu (por convenção, use o nome do modelo como nome de implementação, por exemplo,
gpt-4.1para ogpt-4.1modelo)
Repita este processo para cada modelo exigido pelos seus analisadores pré-construídos.
Para mais informações sobre a implementação de modelos, consulte Criar implementações de modelos no portal Microsoft Foundry.
Passo 3: Configurar implementações de modelos (necessárias para analisadores pré-construídos)
IMPORTANTE: Esta é uma configuração única segundo o recurso do Microsoft Foundry que mapeia os teus modelos implementados para os exigidos pelos analisadores pré-construídos e modelos personalizados. Se tiveres vários recursos do Microsoft Foundry, precisas de configurar cada um separadamente.
Precisas de configurar os mapeamentos de modelos predefinidos no teu recurso Microsoft Foundry. Isto pode ser feito programaticamente usando o SDK. A configuração mapeia os seus modelos implementados (atualmente gpt-4.1, gpt-4.1-mini e text-embedding-3-large) para os grandes modelos de linguagem exigidos pelos analisadores pré-construídos.
Para configurar implementações de modelos usando código, consulte o exemplo Update Defaults para um exemplo completo. Aqui está uma visão geral rápida:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
// Map your deployed models to the models required by prebuilt analyzers
const updatedDefaults = await client.updateDefaults({
modelDeployments: {
"gpt-4.1": process.env["GPT_4_1_DEPLOYMENT"]!,
"gpt-4.1-mini": process.env["GPT_4_1_MINI_DEPLOYMENT"]!,
"text-embedding-3-large": process.env["TEXT_EMBEDDING_3_LARGE_DEPLOYMENT"]!,
},
});
console.log("Model deployments configured successfully!");
Nota: A configuração é mantida no seu recurso Microsoft Foundry, por isso só precisa de executar isto uma vez por recurso (ou sempre que mudar os nomes das suas implementações).
Autenticar o cliente
Para autenticar o cliente, precisa do endpoint de recursos e credenciais do Microsoft Foundry. Pode usar uma chave API ou autenticação Microsoft Entra ID.
Usando DefaultAzureCredential
A forma mais simples de autenticar é usando DefaultAzureCredential, que suporta múltiplos métodos de autenticação e funciona bem tanto em ambientes de desenvolvimento local como de produção.
Para usar o fornecedor DefaultAzureCredential mostrado abaixo, ou outros fornecedores de credenciais fornecidos com o SDK Azure, por favor instale o pacote @azure/identity:
npm install @azure/identity
Usando ambientes Node.js e Node-like, você pode usar a classe DefaultAzureCredential para autenticar o cliente.
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const client = new ContentUnderstandingClient("<endpoint>", new DefaultAzureCredential());
Para ambientes de navegador, use o InteractiveBrowserCredential do pacote @azure/identity para autenticar.
import { InteractiveBrowserCredential } from "@azure/identity";
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
const credential = new InteractiveBrowserCredential({
tenantId: "<YOUR_TENANT_ID>",
clientId: "<YOUR_CLIENT_ID>",
});
const client = new ContentUnderstandingClient("<endpoint>", credential);
Utilização da chave API
Também pode autenticar-se usando uma chave API do seu recurso Microsoft Foundry:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { AzureKeyCredential } from "@azure/core-auth";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const apiKey = process.env["CONTENTUNDERSTANDING_KEY"]!;
const client = new ContentUnderstandingClient(endpoint, new AzureKeyCredential(apiKey));
Para obter a sua chave API:
- Vai a Azure Portal
- Navegue até ao seu recurso Microsoft Foundry
- Vá a Chaves de Gestão>de Recursos e Endpoint
- Copiar uma das Chaves (Chave1 ou Chave2)
Para mais informações sobre autenticação, consulte Azure Biblioteca cliente Identity.
Pacote JavaScript
Para usar essa biblioteca de cliente no navegador, primeiro você precisa usar um bundler. Para detalhes sobre como to do isto, consulte a nossa documentação de agrupamento.
Conceitos-chave
Analisadores pré-construídos
A Content Understanding fornece um conjunto rico de analisadores pré-construídos, prontos a usar sem qualquer configuração. Estes analisadores são alimentados por bases de conhecimento com milhares de exemplos reais de documentos, permitindo-lhes compreender a estrutura do documento e adaptar-se a variações de formato e conteúdo.
Os analisadores pré-construídos estão organizados em várias categorias:
-
Analisadores RAG - Otimizados para cenários de geração aumentada por recuperação, com análise semântica e extração por markdown. Estes analisadores devolvem a marcação e um parágrafo
Summarypara cada item de conteúdo:-
prebuilt-documentSearch- Extrai conteúdo de documentos (PDF, imagens, documentos do Office) com preservação de layout, deteção de tabelas, análise de figuras e saída estruturada de markdown. Otimizado para cenários RAG. -
prebuilt-imageSearch- Analisa imagens autónomas e devolve uma descrição de um parágrafo do conteúdo da imagem. Otimizado para compreensão de imagens e cenários de pesquisa. Para imagens que contenham texto (incluindo texto manuscrito), useprebuilt-documentSearch. -
prebuilt-audioSearch- Transcreve conteúdos áudio com diarização do orador, informação de temporização e resumos de conversas. Suporta transcrição multilíngue. -
prebuilt-videoSearch- Analisa conteúdo de vídeo com extração de fotogramas visuais, transcrição áudio e resumos estruturados. Proporciona alinhamento temporal do conteúdo visual e áudio e pode devolver múltiplos segmentos por vídeo.
-
-
Analisadores de extração de conteúdo - Foco em OCR e análise de layout (por exemplo,
prebuilt-read,prebuilt-layout) -
Analisadores base - Capacidades fundamentais de processamento de conteúdo utilizadas como analisadores pais para analisadores personalizados (por exemplo,
prebuilt-document,prebuilt-image,prebuilt-audio,prebuilt-video) - Analisadores específicos de domínio - Analisadores pré-configurados para categorias comuns de documentos, incluindo documentos financeiros (faturas, recibos, extratos bancários), documentos de identidade (passaportes, cartas de condução), formulários fiscais, documentos hipotecários e contratos, e utilidades (extratos de faturação)
-
Analisadores de utilidade - Ferramentas especializadas para geração de esquemas e extração de campo (por exemplo,
prebuilt-documentFieldSchema,prebuilt-documentFields)
Para uma lista completa dos analisadores pré-construídos disponíveis e as suas capacidades, consulte a documentação Analisadores pré-construídos.
Analisadores personalizados
Pode criar analisadores personalizados com esquemas de campo específicos para processamento multimodal de conteúdos (documentos, imagens, áudio, vídeo). Analisadores personalizados permitem-lhe extrair informação específica do domínio adaptada ao seu caso de uso.
Tipos de conteúdo
A API devolve diferentes tipos de conteúdo com base na entrada:
-
document- Para ficheiros de documentos (PDF, HTML, imagens, documentos Office como Word, Excel, PowerPoint e outros). Fornece informações básicas como o número de páginas e o tipo MIME. Recupere informações detalhadas, incluindo páginas, tabelas, figuras, parágrafos e muitas outras. -
audioVisual- Para ficheiros de áudio e vídeo. Fornece informações básicas como dados de temporização (horas de início/fim) e dimensões de frames (para vídeo). Recupere informações detalhadas, incluindo frases de transcrição, informações de tempos, e para vídeo, referências de frames-chave e muito mais.
Operações assíncronas
As operações de Compreensão de Conteúdo são operações assíncronas de longa duração. O fluxo de trabalho é:
- Iniciar a Análise - Iniciar a operação de análise (retorna imediatamente com a localização da operação)
- Inquérito para Resultados - Sonde o local da operação até a análise concluir
- Resultados do Processo - Extrair e mostrar os resultados estruturados
O SDK fornece tipos de pollers que gerem o sonding automaticamente ao usar pollUntilDone(). Para operações de análise, o SDK devolve um poller que fornece acesso ao ID da operação. Este ID de operação pode ser usado com getResultFile e deleteResult métodos.
Principais classes
-
ContentUnderstandingClient- O principal cliente para a análise de conteúdos, bem como para criar, gerir e configurar analisadores -
AnalysisResult- Contém os resultados estruturados de uma operação de análise, incluindo elementos de conteúdo, markdown e metadados
Segurança de roscas
Garantimos que todos os métodos de instância cliente são seguros para threads e independentes uns dos outros. Isto garante que a recomendação de reutilizar instâncias do cliente é sempre segura, mesmo entre threads.
Conceitos adicionais
Opções do cliente | Aceder à resposta | Operações de longa duração | Gestão de falhas | Diagnósticos | Vida útil do cliente
Exemplos
Pode familiarizar-se com diferentes APIs usando Samples.
Os exemplos demonstram:
- Configuração - Configurar os padrões de implementação de modelos para analisadores pré-construídos e analisadores personalizados
-
Extração de Conteúdo de Documentos - Extrair conteúdo estruturado de marcação a partir de PDFs e imagens usando
prebuilt-documentSearch, otimizado para aplicações RAG (geraçãoRetrieval-Augmented) -
Análise de Conteúdo Multimodal - Analisar conteúdos de URLs em todas as modalidades: extrair marcações e resumos de documentos, imagens, áudio e vídeo usando
prebuilt-documentSearch,prebuilt-imageSearch,prebuilt-audioSearch, eprebuilt-videoSearch -
Domain-Specific Análise - Extrair campos estruturados de faturas usando
prebuilt-invoice - Funcionalidades Avançadas de Documentos - Extrair gráficos, hiperligações, fórmulas e anotações de documentos
- Analisadores Personalizados - Criar analisadores personalizados com esquemas de campo para necessidades especializadas de extração
- Classificação de Documentos - Criar e usar classificadores para categorizar documentos
- Gestão de Analisadores - Obter, listar, atualizar, copiar e eliminar analisadores
- Gestão de Resultados - Recuperar ficheiros de resultados de análise de vídeo e eliminar resultados de análise
Extrair conteúdo de markdown de documentos
Use o prebuilt-documentSearch analisador para extrair conteúdo de markdown dos documentos:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
const documentUrl = "https://example.com/sample_invoice.pdf";
// Analyze document using prebuilt-documentSearch
const poller = client.analyze("prebuilt-documentSearch", [{ url: documentUrl }]);
const result = await poller.pollUntilDone();
// Extract markdown content
if (result.contents && result.contents.length > 0) {
const content = result.contents[0];
console.log("Markdown Content:");
console.log(content.markdown);
// Access document-specific properties
if (content.kind === "document") {
console.log(`Pages: ${content.startPageNumber} - ${content.endPageNumber}`);
}
}
Extrair campos estruturados das faturas
Use o prebuilt-invoice analisador para extrair campos de fatura estruturados:
import {
ContentUnderstandingClient,
type DocumentContent,
type ContentFieldUnion,
} from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
const invoiceUrl = "https://example.com/invoice.pdf";
// Analyze invoice using prebuilt-invoice analyzer
const poller = client.analyze("prebuilt-invoice", [{ url: invoiceUrl }]);
const result = await poller.pollUntilDone();
if (result.contents && result.contents.length > 0) {
const content = result.contents[0] as DocumentContent;
// Helper function to extract field values
const getFieldValue = (field: ContentFieldUnion | undefined): string | undefined => {
if (!field) return undefined;
if ("valueString" in field) return field.valueString;
if ("valueDate" in field) return field.valueDate;
if ("valueNumber" in field) return String(field.valueNumber);
return undefined;
};
// Extract invoice fields
const customerName = getFieldValue(content.fields?.["CustomerName"]);
const invoiceTotal = getFieldValue(content.fields?.["InvoiceTotal"]);
const invoiceDate = getFieldValue(content.fields?.["InvoiceDate"]);
console.log(`Customer Name: ${customerName ?? "(None)"}`);
console.log(`Invoice Total: ${invoiceTotal ?? "(None)"}`);
console.log(`Invoice Date: ${invoiceDate ?? "(None)"}`);
}
Consulte o diretório samples para exemplos completos.
Solução de problemas
Problemas comuns
Erro: "Access negado devido a chave de subscrição inválida ou endpoint da API errado"
- Verifica se a URL do teu endpoint está correta e inclui a barra final
- Certifique-se de que a sua chave API é válida ou que as credenciais do Microsoft Entra ID têm as permissões corretas
- Certifique-se de que tem atribuído o papel de Utilizador de Serviços Cognitivos à sua conta
Erro: "Implementação do modelo não encontrada" ou "Implementação padrão do modelo não configurada"
- Certifique-se de que implementou os modelos necessários (gpt-4.1, gpt-4.1-mini, text-embedding-3-large) no Microsoft Foundry
- Verifique se configurou as implementações de modelos por defeito (ver Configurar Implementações de Modelos)
- Verifica se os nomes das tuas implementações correspondem ao que configuraste nos valores definidos
Erro: "Operação falhada" ou timeout
- As operações de Compreensão de Conteúdo são assíncronas e podem demorar tempo a ser concluídas
- Certifique-se de que está a pesquisar corretamente os resultados usando
pollUntilDone()no objeto do poller - Verifique o estado da operação para mais detalhes sobre a falha
Exploração Florestal
Habilitar o registro em log pode ajudar a descobrir informações úteis sobre falhas. Para ver um log de solicitações e respostas HTTP, defina a variável de ambiente AZURE_LOG_LEVEL como info. Alternativamente, o registo pode ser ativado em tempo de execução chamando setLogLevel no @azure/logger:
import { setLogLevel } from "@azure/logger";
setLogLevel("info");
Para instruções mais detalhadas sobre como ativar registos, pode consultar o pacote @azure/logger docs.
Testes
Este SDK inclui testes abrangentes que podem ser executados em diferentes modos.
Início rápido
# Install dependencies
pnpm install
# Build the SDK
npx turbo build --filter=@azure/ai-content-understanding...
# Run tests in playback mode (no Azure resources needed)
pnpm test
Modos de Teste
- Modo de Reprodução (predefinido): Utiliza interações HTTP pré-gravadas, sem recursos Azure necessários
- Modo de Gravação: Corre contra serviços de Azure ao vivo e grava interações para reprodução futura
- Modo Live: Funciona contra serviços de Azure ao vivo sem gravação
Configuração do ambiente para testes em tempo real/de registo
Copiar
test/sample.envparatest/.env:cp test/sample.env test/.envEdite
test/.enve preencha os seus valores reais:-
CONTENTUNDERSTANDING_ENDPOINT: O seu endpoint de recurso Microsoft Foundry -
CONTENTUNDERSTANDING_KEY: A sua chave API (opcional se usar DefaultAzureCredential) - Nomes de implementação de modelos (necessários para analisadores pré-construídos)
-
Executar testes em modo de registo
Para registar novas interações de teste ou atualizar as existentes:
# Run tests in record mode
TEST_MODE=record pnpm test
Executar testes em modo de reprodução
Para executar testes sem recursos do Azure (usando interações pré-gravadas):
# Simply run tests (playback is the default mode)
pnpm test
# Or explicitly set playback mode
TEST_MODE=playback pnpm test
Fluxos de trabalho com âmbito de pacotes / mais rápidos
Constrói apenas este pacote e as suas dependências:
npx turbo build --filter=@azure/ai-content-understanding... --token 1Execute apenas testes de Node para iterações mais rápidas (saltar testes de navegador):
TEST_MODE=record pnpm test:node # or TEST_MODE=playback pnpm test:node
Variáveis de ambiente
Pode definir credenciais de várias formas:
Preferencial: Crie
test/.envcopiando e preenchendotest/sample.envos seus valoresPlano B: Coloque a
.envna raiz do pacote (mesmo diretório quepackage.json)Exportação de shell: Exporte credenciais diretamente no seu shell:
export CONTENTUNDERSTANDING_ENDPOINT="https://<your-resource>.services.ai.azure.com/" export CONTENTUNDERSTANDING_KEY="<your_key_here>" TEST_MODE=record pnpm test:node
Dicas de depuração
Ao executar testes em modo de gravação, observe as linhas de depuração impressas pelo sistema de teste:
DEBUG ENV ENDPOINT DEFINED: true
DEBUG ENV KEY DEFINED: true
Importante: NÃO comprometas chaves reais. Mantém
test/sample.envcomo modelo e certifica-tetest/.envde que está no teu.gitignore.
Testes de resolução de problemas
-
"a chave deve ser uma cadeia não vazia": O processo de teste não conseguiu encontrar o seu
CONTENTUNDERSTANDING_KEY. Certifique-setest/.envde que a raiz.envdo pacote está presente e contém a chave (ou exporte-a no seu shell) antes de executar testes. - "Pedido inválido" erros LRO: Assegure que o seu serviço/região suporta o analisador usado pelos testes e que o access de rede está disponível para entradas baseadas em URL.
Execução de Amostras Localmente
Os diretórios de exemplos são excluídos do espaço de trabalho pnpm para evitar conflitos de dependências. Para executar amostras com a versão de desenvolvimento local do pacote:
Nota: Ao correr
pnpm linkepnpm installdentro das pastas de samples, atualizam-se ficheiros locais comopackage.jsonepnpm-lock.yamlsob os diretórios de samples. Estas alterações são apenas para testes locais e não devem ser registadas. Se os modificares acidentalmente, usagit restore <path>para reverter.
Constrói o pacote:
npx turbo build --filter=@azure/ai-content-understanding...Liga o pacote local nos diretórios de exemplos:
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript pnpm link ../../../ cd ../javascript pnpm link ../../../Instale dependências nos diretórios de exemplos:
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript pnpm install cd ../javascript pnpm install
Alternativa (sem alterações package.json/lockfile)
Se quiseres usar o pacote local sem modificar a amostra package.json ou pnpm-lock.yaml, instala a partir de uma bola de alcatrão compacta sem guardar:
Constrói o pacote:
npx turbo build --filter=@azure/ai-content-understanding...Crie um alcatrão local:
cd sdk/contentunderstanding/ai-content-understanding pnpm pack --pack-destination /tmpInstale a bola de alcatrão nas amostras (sem gravação, sem ficheiro de bloqueio):
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript npm install --no-save --no-package-lock /tmp/azure-ai-content-understanding-*.tgz cd ../javascript npm install --no-save --no-package-lock /tmp/azure-ai-content-understanding-*.tgz
Análise de uma amostra
Depois de instalar as dependências, pode executar amostras individuais.
Configuração de variáveis de ambiente:
Copie o sample.env ficheiro para criar um .env ficheiro na raiz do diretório de exemplo. Execute os seguintes comandos a partir da raiz do pacote (sdk/contentunderstanding/ai-content-understanding):
# For TypeScript samples
cp sample.env samples/v1/typescript/.env
# For JavaScript samples
cp sample.env samples/v1/javascript/.env
Depois edita o .env ficheiro e preenche os teus valores reais:
CONTENTUNDERSTANDING_ENDPOINT=https://<your-resource>.services.ai.azure.com/
CONTENTUNDERSTANDING_KEY=<your-api-key>
Nota: O
.envficheiro deve estar na raiz da pasta de exemplo (ao mesmo nível quepackage.json), e não dentrosrc/de oudist/.
Exemplos de TypeScript:
cd samples/v1/typescript
npm run build
node dist/analyzeBinary.js
Exemplos de JavaScript:
cd samples/v1/javascript
node analyzeBinary.js
Para instruções completas de configuração e exemplos disponíveis, veja:
- Exemplos de TypeScript README
JavaScript README
Próximos passos
- Explore o diretório exemplos para exemplos completos de código
- Leia a documentação Azure AI Content Understanding para informações detalhadas sobre o serviço
Contributing
Se quiser contribuir para esta biblioteca, por favor leia o guia contribuição para saber mais sobre como construir e testar o código.
Projetos relacionados
Azure SDK for JavaScript