Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
L'OCR extrait du texte d'images, telles que des photos, des panneaux de rue et des produits dans des fichiers multimédias, afin de produire des analyses.
OCR extrait des insights du texte imprimé et manuscrit dans plus de 50 langues, y compris à partir d’une image avec du texte dans plusieurs langues. Pour plus d’informations, consultez les langues prises en charge par OCR.
Pour plus d’informations sur l’OCR, consultez la technologie OCR.
Cas d’usage de l’OCR
- Recherche approfondie d'images multimédias contenant des panneaux de signalisation, des noms de rues ou des plaques d'immatriculation de voitures, par exemple dans le cadre des forces de l'ordre.
- Extraire du texte d’images dans des fichiers multimédias, puis le traduire en plusieurs langues dans des étiquettes pour l’accessibilité, par exemple dans les médias ou le divertissement.
- Détection des noms de marque dans les images et leur étiquetage à des fins de traduction, par exemple dans la publicité et la personnalisation.
- Extraction de texte dans des images qui sont ensuite étiquetées et classées automatiquement pour l’accessibilité et l’utilisation future, par exemple pour générer du contenu dans une agence de presse.
- Extraction de texte dans des avertissements dans des instructions en ligne, puis traduction du texte en conformité avec les normes locales, par exemple, instructions d’apprentissage électronique pour l’utilisation de l’équipement.
Afficher le JSON d’insight avec le portail web
Après avoir téléchargé et indexé une vidéo, téléchargez des insights au format JSON à partir du portail web.
- Sélectionnez l’onglet Bibliothèque .
- Sélectionnez le média souhaité.
- Sélectionnez Télécharger, puis sélectionnez Insights (JSON). Le fichier JSON s’ouvre dans un nouvel onglet de navigateur.
- Recherchez la paire de clés décrite dans l’exemple de réponse.
Utilisation de l’API
- Utilisez une requête Get Video Index . Passez
&includeSummarizedInsights=false
. - Recherchez les paires de clés décrites dans l’exemple de réponse.
Exemple de réponse
"ocr": [
{
"id": 1,
"text": "2017 Ruler",
"confidence": 0.4365,
"left": 901,
"top": 3,
"width": 80,
"height": 23,
"angle": 0,
"language": "en-US",
"instances": [
{
"adjustedStart": "0:00:45.5",
"adjustedEnd": "0:00:46",
"start": "0:00:45.5",
"end": "0:00:46"
},
{
"adjustedStart": "0:00:55",
"adjustedEnd": "0:00:55.5",
"start": "0:00:55",
"end": "0:00:55.5"
}
]
},
{
"id": 2,
"text": "2017 Ruler postppu - PowerPoint",
"confidence": 0.4712,
"left": 899,
"top": 4,
"width": 262,
"height": 48,
"angle": 0,
"language": "en-US",
"instances": [
{
"adjustedStart": "0:00:44.5",
"adjustedEnd": "0:00:45",
"start": "0:00:44.5",
"end": "0:00:45"
}
]
}
Importante
Lisez la vue d’ensemble de la note de transparence pour toutes les fonctionnalités VI. Chaque analyse dispose également de sa propre note de transparence.
Notes OCR
- Video Indexer a une limite OCR de 50 000 mots par vidéo indexée. Une fois la limite atteinte, aucun résultat OCR supplémentaire n’est généré.
- Examinez attentivement la précision des résultats, pour promouvoir des détections plus précises, vérifier la qualité de l’image, les images de faible qualité peuvent affecter les insights détectés.
- Réfléchissez attentivement avant d'utiliser pour l'application de la loi. L’OCR peut mal lu ou ne pas détecter des parties du texte. Pour garantir des déterminations vi équitables et de haute qualité, associez l’automatisation basée sur OCR à la supervision humaine.
- Lors de l’extraction de texte manuscrit, évitez d’utiliser les résultats OCR des signatures difficiles à lire pour les humains et les machines. Une meilleure façon d’utiliser OCR consiste à l’utiliser pour détecter la présence d’une signature pour une analyse plus approfondie.
- N’utilisez pas l’OCR pour les décisions susceptibles d’avoir de graves répercussions négatives sur les individus ou les groupes. Les modèles Machine Learning qui extraient du texte peuvent entraîner une sortie de texte non détectée ou incorrecte. Les décisions basées sur une sortie incorrecte pourraient avoir de graves répercussions négatives qui doivent être évitées. Vous devez toujours inclure l’examen humain des décisions susceptibles d’avoir des répercussions graves sur les individus.
Composants OCR
Pendant la procédure OCR, les images texte d’un fichier multimédia sont traitées comme suit :
Composant | Définition |
---|---|
Fichier source | L’utilisateur charge le fichier source pour l’indexation. |
Modèle de lecture | Les images sont détectées dans le fichier multimédia et le texte, puis extraites et analysées par les services Azure AI. |
Obtenir le modèle de résultats de lecture | La sortie du texte extrait s’affiche dans un fichier JSON. |
Valeur de confiance | Le niveau de confiance estimé de chaque mot est calculé sous la forme d’une plage de 0 à 1. Le score de confiance représente la certitude dans la précision du résultat. Par exemple, une certitude de 82 % est représentée sous la forme d’un score de 0,82. |