Partilhar via


Modelo de cheque bancário de Inteligência Documental

O modelo de cheque bancário Document Intelligence combina poderosos recursos de Reconhecimento Ótico de Caracteres (OCR) com modelos de aprendizado profundo para analisar e extrair dados de extratos bancários dos EUA. A API analisa cheques impressos; extrai informações importantes e retorna uma representação de dados JSON estruturada.

Caraterística versão Model ID
Verificar modelo • v4.0:2024-07-31 (pré-visualização) prebuilt-check.us

Verificar extração de dados

Um cheque é uma forma segura de transferir o montante da conta do beneficiário para a conta do destinatário. As empresas usam o cheque para pagar seus fornecedores como um documento assinado para instruir o banco para o pagamento. Veja como os dados, incluindo detalhes do cheque, detalhes da conta, montante, memorando, são extraídos do extrato bancário dos EUA. Você precisa dos seguintes recursos:

  • Uma assinatura do Azure — você pode criar uma gratuitamente

  • Uma instância de Document Intelligence no portal do Azure. Você pode usar o nível de preço gratuito (F0) para experimentar o serviço. Depois que o recurso for implantado, selecione Ir para o recurso para obter sua chave e o ponto de extremidade.

Captura de ecrã das chaves e da localização do ponto de extremidade no portal do Azure.

Estúdio de Inteligência de Documentação

Nota

O Document Intelligence Studio está disponível com APIs v3.1 e v3.0.

  1. Na página inicial do Document Intelligence Studio, selecione verificar.

  2. Você pode analisar a verificação de amostra ou fazer upload de seus próprios arquivos.

  3. Selecione o botão Executar análise e, se necessário, configure as opções Analisar :

    Captura de tela dos botões Executar análise e Analisar opções no Document Intelligence Studio.

Requisitos de entrada

  • Formatos de ficheiro suportados:

    Modelo PDF Imagem:
    JPEG/JPG, PNG, BMP, TIFF, , HEIF
    Microsoft Office:
    Word (DOCX), Excel (XLSX), PowerPoint (PPTX), HTML
    Lida
    Esquema ✔ (2024-07-31-pré-visualização, 2024-02-29-pré-visualização, 2023-10-31-pré-visualização)
    Documento Geral
    Pré-criado
    Extração personalizada
    Classificação personalizada ✔ (2024-07-31-pré-visualização, 2024-02-29-pré-visualização)
  • Para obter melhores resultados, forneça uma foto nítida ou uma digitalização de alta qualidade por documento.

  • Para PDF e TIFF, até 2.000 páginas podem ser processadas (com uma assinatura de nível gratuito, apenas as duas primeiras páginas são processadas).

  • O tamanho do arquivo para analisar documentos é de 500 MB para a camada paga (S0) e 4 MB para a camada gratuita (F0).

  • As dimensões da imagem devem estar entre 50 pixels x 50 pixels e 10.000 pixels x 10.000 pixels.

  • Se os seus PDFs forem bloqueados por uma palavra-passe, terá de remover o bloqueio antes da submetê-los.

  • A altura mínima do texto a ser extraído é de 12 pixels para uma imagem de 1024 x 768 pixels. Esta dimensão corresponde a cerca 8 de texto pontual a 150 pontos por polegada (DPI).

  • Para treinamento de modelo personalizado, o número máximo de páginas para dados de treinamento é 500 para o modelo de modelo personalizado e 50.000 para o modelo neural personalizado.

    • Para o treinamento do modelo de extração personalizado, o tamanho total dos dados de treinamento é de 50 MB para o modelo de modelo e 1 GB para o modelo neural.

    • Para treinamento de modelo de classificação personalizado, o tamanho total dos dados de treinamento é 1 GB com um máximo de 10.000 páginas. Para 2024-07-31-preview e posterior, o tamanho total dos dados de treinamento é 2 GB com um máximo de 10.000 páginas.

Idiomas e localidades suportados

Para obter uma lista completa dos idiomas suportados, consulte nossa página de suporte a idiomas de modelo pré-criados.

Extrações de campo

Para campos de extração de documentos suportados, consulte a página de esquema de modelo de verificação bancária em nosso repositório de exemplo do GitHub.

Localidades suportadas

A prebuilt-check.us versão 2024-07-31-preview suporta a localidade en-us .

Próximos passos