Services Azure AI dans Azure Synapse Analytics
À l’aide des modèles pré-entraînés d’Azure AI services, vous pouvez enrichir vos données avec l’intelligence artificielle (IA) dans Azure Synapse Analytics.
Azure AI services aide les développeurs et les organisations à créer rapidement des applications intelligentes, de pointe, prêtes à être commercialisées et responsables avec des API et des modèles prêts à l’emploi, intégrés et personnalisables.
Vous pouvez utiliser un sous-ensemble d’Azure AI services avec vos données dans Synapse Analytics de plusieurs façons :
L'assistant « Azure AI services » de Synapse Analytics génère du code PySpark dans un bloc-notes Synapse qui se connecte à un avec les services Azure AI à l'aide des données d'une table Spark. Ensuite, à l’aide de modèles de Machine Learning préformés, le service vous permet d’ajouter l’intelligence artificielle à vos données. Pour plus d’informations, consultez l’Assistant d’analyse des sentiments et l’Assistant de détection d’anomalie.
Synapse Machine Learning (SynapseML) vous permet de créer des modèles analytiques et prédictifs puissants et hautement scalables à partir de diverses sources de données Spark. Synapse Spark fournit des bibliothèques SynapseML intégrées, dont synapse.ml.cognitive.
À partir du code PySpark généré par l’assistant, ou de l’exemple de code SynapseML fourni dans le tutoriel, vous pouvez écrire votre propre code pour utiliser d’autres Azure AI services avec vos données. Consultez Que sont les Azure AI services ? pour plus d’informations sur les services disponibles.
Bien démarrer
Le tutoriel Prérequis de l’utilisation d’Azure AI services dans Azure Synapse vous guide tout au long de la procédure à suivre avant d’utiliser Azure AI services dans Synapse Analytics.
Utilisation
Vision
- Décrire : fournit la description d’une image dans un langage lisible par l’homme (Scala, Python)
- Analyser (couleur, type d’image, visage, contenu pour adultes/osé) : analyse les fonctionnalités visuelles d’une image (Scala, Python)
- OCR : lit le texte d’une image (Scala, Python)
- Reconnaître le texte : lit le texte d’une image (Scala, Python)
- Miniature : génère une miniature de la taille spécifiée par l’utilisateur à partir de l’image (Scala, Python)
- Reconnaître le contenu spécifique à un domaine : reconnaît le contenu spécifique à un domaine (célébrité, point de repère) (Scala, Python)
- Balise : identifie la liste des mots pertinents pour l’image d’entrée (Scala, Python)
- Détecter : détecte les visages humains dans une image (Scala, Python)
- Vérifier : vérifie si deux visages appartiennent à une même personne ou si un visage appartient à une personne (Scala, Python)
- Identifier : trouve les correspondances les plus proches du visage d’une personne d’une requête spécifique dans un groupe de personnes (Scala, Python)
- Rechercher semblables : recherche des visages semblables au visage d’une requête dans une liste de visages (Scala, Python)
- Groupe : divise un groupe de visages en groupes disjoints en fonction de la similarité (Scala, Python)
Voix
- Reconnaissance vocale : transcrit des flux audio (Scala, Python)
- Transcription de conversation : transcrit les flux audio en transcriptions en direct avec des intervenants identifiés. (Scala, Python)
- Synthèse vocale : convertit le texte en audio réaliste (Scala, Python)
Langage
- Détection de langue : détecte la langue du texte d’entrée (Scala, Python)
- Extraction de phrases clés : identifie les points de discussion clés dans le texte d’entrée (Scala, Python)
- Reconnaissance d’entité nommée : identifie les entités connues et les entités nommées générales dans le texte d’entrée (Scala, Python)
- Analyse des sentiments : retourne un score compris entre 0 et 1 indiquant le sentiment dans le texte d’entrée (Scala, Python)
- Extraction d’entités médicales : extrait les entités et les relations médicales du texte. (Scala, Python)
Traduction
- Traduire : traduit un texte. (Scala, Python)
- Transliterate : convertit du texte dans une langue d’un script vers un autre script. (Scala, Python)
- Détecter : identifie la langue d’un texte. (Scala, Python)
- BreakSentence : identifie le positionnement des limites de phrases dans du texte. (Scala, Python)
- Recherche dans le dictionnaire : indique les autres traductions d’un mot et quelques expressions idiomatiques. (Scala, Python)
- Exemples de dictionnaire : fournit des exemples qui illustrent l’utilisation en contexte des termes du dictionnaire. (Scala, Python)
- Document Translation : traduit les documents dans la totalité des langues et dialectes pris en charge tout en préservant la structure des documents et le format des données. (Scala, Python)
Document Intelligence
Intelligence documentaire (anciennement Azure AI Document Intelligence)
- Analyser la disposition : extraire des informations de texte et de disposition d’un document donné. (Scala, Python)
- Analyser les reçus : détecte et extrait des données à partir de reçus à l’aide de la reconnaissance optique de caractères (OCR) et de notre modèle de réception, ce qui vous permet d’extraire facilement des données structurées à partir de reçus, telles que le nom du commerçant, le numéro de téléphone du commerçant, la date de transaction, le total de la transaction, etc. (Scala, Python)
- Analyse des cartes de visite : détecte et extrait des données à partir de cartes de visite à l’aide de la reconnaissance optique de caractères (OCR) et notre modèle de carte de visite, ce qui vous permet d’extraire facilement des données structurées à partir de cartes de visite, telles que des noms de contacts, des noms d’entreprise, des numéros de téléphone, des adresses e-mail, etc. (Scala, Python)
- Analyser les factures : détecte et extrait des données à partir de factures à l’aide de la reconnaissance optique de caractères (OCR) et de nos modèles de Deep Learning comprenant des factures, ce qui vous permet d’extraire facilement des données structurées à partir de factures, telles que le client, le fournisseur, l’ID de facture, la date d’échéance de la facture, le total, le montant dû, le montant des taxes, l’adresse de facturation, les éléments de ligne, etc. (Scala, Python)
- Analyser les documents d’identité : détecte et extrait des données à partir de documents d’identification à l’aide de la reconnaissance optique de caractères (OCR) et de notre modèle de document d’identité, ce qui vous permet d’extraire facilement des données structurées à partir de documents d’identité, telles que le prénom, le nom, la date de naissance, le numéro de document, etc. (Scala, Python)
- Analyser un formulaire personnalisé : extrait des informations de formulaires (PDF et images) en données structurées basées sur un modèle créé à partir d’un ensemble de formulaires d’apprentissage représentatifs. (Scala, Python)
- Get Custom Model : obtenir des informations détaillées sur un modèle personnalisé. (Scala, Python)
- Liste de modèles personnalisés : obtenez des informations sur tous les modèles personnalisés. (Scala, Python)
Décision
- État d’anomalie du point le plus récent : génère un modèle à l’aide des points précédents et détermine si le point le plus récent est anormal (Scala, Python)
- Rechercher des anomalies : génère un modèle à l’aide d’une série entière et recherche des anomalies dans la série (Scala, Python)
Rechercher
Prérequis
- Suivez les étapes décrites dans Configuration de l’environnement Azure AI services pour configurer votre environnement Azure Databricks et Azure AI services. Ce tutoriel vous montre comment installer SynapseML et comment créer votre cluster Spark dans Databricks.
- Après avoir créé un notebook dans Azure Databricks, copiez le code partagé suivant, puis collez-le dans une nouvelle cellule de votre notebook.
- Choisissez un des échantillons de service suivants, copiez-le, puis collez-le dans une deuxième nouvelle cellule de votre notebook.
- Remplacez l’un des espaces réservés de clé d’abonnement au service par votre propre clé.
- Cliquez sur le bouton Exécuter (icône de triangle) en haut à gauche de la cellule, puis sélectionnez Exécuter la cellule.
- Consultez les résultats dans un tableau affiché sous la cellule.
Code partagé
Pour commencer, nous devons ajouter ce code au projet :
from pyspark.sql.functions import udf, col
from synapse.ml.io.http import HTTPTransformer, http_udf
from requests import Request
from pyspark.sql.functions import lit
from pyspark.ml import PipelineModel
from pyspark.sql.functions import col
import os
from pyspark.sql import SparkSession
from synapse.ml.core.platform import *
# Bootstrap Spark Session
spark = SparkSession.builder.getOrCreate()
from synapse.ml.core.platform import materializing_display as display
from synapse.ml.cognitive import *
# A multi-service resource key for Text Analytics, Computer Vision and Document Intelligence (or use separate keys that belong to each service)
service_key = find_secret("cognitive-api-key")
service_loc = "eastus"
# A Bing Search v7 subscription key
bing_search_key = find_secret("bing-search-key")
# An Anomaly Detector subscription key
anomaly_key = find_secret("anomaly-api-key")
anomaly_loc = "westus2"
# A Translator subscription key
translator_key = find_secret("translator-key")
translator_loc = "eastus"
# An Azure search key
search_key = find_secret("azure-search-key")
Exemple d’Analyse de texte
Le service Analyse de texte fournit plusieurs algorithmes permettant d’extraire des insights intelligents à partir d’un texte. Par exemple, nous pouvons trouver le sentiment d’un texte d’entrée donné. Le service retourne un score compris entre 0.0 et 1.0, où un score faible indique un sentiment négatif et où un score élevé indique un sentiment positif. Cet exemple utilise trois phrases simples et retourne le sentiment pour chacune d’elles.
# Create a dataframe that's tied to it's column names
df = spark.createDataFrame(
[
("I am so happy today, its sunny!", "en-US"),
("I am frustrated by this rush hour traffic", "en-US"),
("The Azure AI services on spark aint bad", "en-US"),
],
["text", "language"],
)
# Run the Text Analytics service with options
sentiment = (
TextSentiment()
.setTextCol("text")
.setLocation(service_loc)
.setSubscriptionKey(service_key)
.setOutputCol("sentiment")
.setErrorCol("error")
.setLanguageCol("language")
)
# Show the results of your text query in a table format
display(
sentiment.transform(df).select(
"text", col("sentiment.document.sentiment").alias("sentiment")
)
)
Analyse de texte pour l’échantillon d’intégrité
Le service Analyse de texte pour la santé extrait et étiquette les informations médicales pertinentes à partir de textes non structurés, tels que les notes du médecin, les bilans de sortie d’hospitalisation, les documents cliniques et les dossiers médicaux électroniques.
df = spark.createDataFrame(
[
("20mg of ibuprofen twice a day",),
("1tsp of Tylenol every 4 hours",),
("6-drops of Vitamin B-12 every evening",),
],
["text"],
)
healthcare = (
AnalyzeHealthText()
.setSubscriptionKey(service_key)
.setLocation(service_loc)
.setLanguage("en")
.setOutputCol("response")
)
display(healthcare.transform(df))
Échantillon de Translator
Traducteur est un service de traduction automatique basé sur le cloud qui fait partie de la famille Azure AI services des API utilisées pour créer des applications intelligentes. Il est facile d’intégrer Translator à vos applications, sites web, outils et solutions. Cette interface vous permet d’ajouter des expériences utilisateur multilingues dans plus de 90 langues et dialectes. Elle peut être utilisée pour la traduction de texte avec n’importe quel système d’exploitation. Dans cet exemple, nous effectuons une traduction de texte simple en fournissant les phrases que vous souhaitez traduire et les langues cibles vers lesquelles vous souhaitez effectuer la traduction.
from pyspark.sql.functions import col, flatten
# Create a dataframe including sentences you want to translate
df = spark.createDataFrame(
[(["Hello, what is your name?", "Bye"],)],
[
"text",
],
)
# Run the Translator service with options
translate = (
Translate()
.setSubscriptionKey(translator_key)
.setLocation(translator_loc)
.setTextCol("text")
.setToLanguage(["zh-Hans"])
.setOutputCol("translation")
)
# Show the results of the translation.
display(
translate.transform(df)
.withColumn("translation", flatten(col("translation.translations")))
.withColumn("translation", col("translation.text"))
.select("translation")
)
Exemple Document Intelligence
Document Intelligence (anciennement connu sous le nom de « Azure AI Document Intelligence ») fait partie des services Azure AI qui vous permettent de créer un logiciel de traitement de données automatisé à l'aide de la technologie d'apprentissage automatique. Identifier et extraire le texte, les paires clé/valeur, les marques de sélection, les tables et la structure de vos documents. Le service génère des données structurées qui incluent les relations dans le fichier d’origine, les cadres englobants, la confiance, etc. Dans cet exemple, nous analysons une image de carte de visite et extrayons ses informations dans des données structurées.
from pyspark.sql.functions import col, explode
# Create a dataframe containing the source files
imageDf = spark.createDataFrame(
[
(
"https://mmlspark.blob.core.windows.net/datasets/FormRecognizer/business_card.jpg",
)
],
[
"source",
],
)
# Run the Document Intelligence service
analyzeBusinessCards = (
AnalyzeBusinessCards()
.setSubscriptionKey(service_key)
.setLocation(service_loc)
.setImageUrlCol("source")
.setOutputCol("businessCards")
)
# Show the results of recognition.
display(
analyzeBusinessCards.transform(imageDf)
.withColumn(
"documents", explode(col("businessCards.analyzeResult.documentResults.fields"))
)
.select("source", "documents")
)
API Vision par ordinateur
Le service Vision par ordinateur analyse des images pour identifier une structure comme des visages, des objets et des descriptions en langage naturel. Dans cet exemple, nous ajoutons des étiquettes à une liste d’images. Les étiquettes sont des descriptions en un mot des choses figurant sur l’image, comme des objets, des personnes, un paysage et des actions reconnaissables.
# Create a dataframe with the image URLs
base_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/"
df = spark.createDataFrame(
[
(base_url + "objects.jpg",),
(base_url + "dog.jpg",),
(base_url + "house.jpg",),
],
[
"image",
],
)
# Run the Computer Vision service. Analyze Image extracts information from/about the images.
analysis = (
AnalyzeImage()
.setLocation(service_loc)
.setSubscriptionKey(service_key)
.setVisualFeatures(
["Categories", "Color", "Description", "Faces", "Objects", "Tags"]
)
.setOutputCol("analysis_results")
.setImageUrlCol("image")
.setErrorCol("error")
)
# Show the results of what you wanted to pull out of the images.
display(analysis.transform(df).select("image", "analysis_results.description.tags"))
Exemple de Recherche d’images Bing
La Recherche d’images Bing explore le web pour récupérer des images associées à une demande en langage naturel d’un utilisateur. Dans cet exemple, nous utilisons une demande texte qui recherche des images avec des guillemets. Elle retourne une liste d’URL d’images qui contiennent des photos liées à notre demande.
# Number of images Bing will return per query
imgsPerBatch = 10
# A list of offsets, used to page into the search results
offsets = [(i * imgsPerBatch,) for i in range(100)]
# Since web content is our data, we create a dataframe with options on that data: offsets
bingParameters = spark.createDataFrame(offsets, ["offset"])
# Run the Bing Image Search service with our text query
bingSearch = (
BingImageSearch()
.setSubscriptionKey(bing_search_key)
.setOffsetCol("offset")
.setQuery("Martin Luther King Jr. quotes")
.setCount(imgsPerBatch)
.setOutputCol("images")
)
# Transformer that extracts and flattens the richly structured output of Bing Image Search into a simple URL column
getUrls = BingImageSearch.getUrlTransformer("images", "url")
# This displays the full results returned, uncomment to use
# display(bingSearch.transform(bingParameters))
# Since we have two services, they are put into a pipeline
pipeline = PipelineModel(stages=[bingSearch, getUrls])
# Show the results of your search: image URLs
display(pipeline.transform(bingParameters))
Exemple de Reconnaissance vocale
Le service Reconnaissance vocale convertit des flux ou des fichiers de contenu audio en texte. Dans cet exemple, nous transcrivons un fichier audio.
# Create a dataframe with our audio URLs, tied to the column called "url"
df = spark.createDataFrame(
[("https://mmlspark.blob.core.windows.net/datasets/Speech/audio2.wav",)], ["url"]
)
# Run the Speech-to-text service to translate the audio into text
speech_to_text = (
SpeechToTextSDK()
.setSubscriptionKey(service_key)
.setLocation(service_loc)
.setOutputCol("text")
.setAudioDataCol("url")
.setLanguage("en-US")
.setProfanity("Masked")
)
# Show the results of the translation
display(speech_to_text.transform(df).select("url", "text.DisplayText"))
Échantillon de synthèse vocale
Synthèse vocale est un service qui permet de créer des applications et des services qui parlent naturellement, en choisissant parmi plus de 270 voix neuronales dans 119 langues et variantes.
from synapse.ml.cognitive import TextToSpeech
fs = ""
if running_on_databricks():
fs = "dbfs:"
elif running_on_synapse_internal():
fs = "Files"
# Create a dataframe with text and an output file location
df = spark.createDataFrame(
[
(
"Reading out loud is fun! Check out aka.ms/spark for more information",
fs + "/output.mp3",
)
],
["text", "output_file"],
)
tts = (
TextToSpeech()
.setSubscriptionKey(service_key)
.setTextCol("text")
.setLocation(service_loc)
.setVoiceName("en-US-JennyNeural")
.setOutputFileCol("output_file")
)
# Check to make sure there were no errors during audio creation
display(tts.transform(df))
Exemple de Détecteur d’anomalies
Le Détecteur d’anomalies est idéal pour détecter les irrégularités dans vos données de séries chronologiques. Dans cet exemple, nous utilisons le service pour rechercher des anomalies dans l’ensemble de la série chronologique.
# Create a dataframe with the point data that Anomaly Detector requires
df = spark.createDataFrame(
[
("1972-01-01T00:00:00Z", 826.0),
("1972-02-01T00:00:00Z", 799.0),
("1972-03-01T00:00:00Z", 890.0),
("1972-04-01T00:00:00Z", 900.0),
("1972-05-01T00:00:00Z", 766.0),
("1972-06-01T00:00:00Z", 805.0),
("1972-07-01T00:00:00Z", 821.0),
("1972-08-01T00:00:00Z", 20000.0),
("1972-09-01T00:00:00Z", 883.0),
("1972-10-01T00:00:00Z", 898.0),
("1972-11-01T00:00:00Z", 957.0),
("1972-12-01T00:00:00Z", 924.0),
("1973-01-01T00:00:00Z", 881.0),
("1973-02-01T00:00:00Z", 837.0),
("1973-03-01T00:00:00Z", 9000.0),
],
["timestamp", "value"],
).withColumn("group", lit("series1"))
# Run the Anomaly Detector service to look for irregular data
anomaly_detector = (
SimpleDetectAnomalies()
.setSubscriptionKey(anomaly_key)
.setLocation(anomaly_loc)
.setTimestampCol("timestamp")
.setValueCol("value")
.setOutputCol("anomalies")
.setGroupbyCol("group")
.setGranularity("monthly")
)
# Show the full results of the analysis with the anomalies marked as "True"
display(
anomaly_detector.transform(df).select("timestamp", "value", "anomalies.isAnomaly")
)
API web arbitraires
Avec HTTP sur Spark, tout service web peut être utilisé dans votre pipeline de Big Data. Dans cet exemple, nous utilisons l’API World Bank pour obtenir des informations sur différents pays/régions du monde entier.
# Use any requests from the python requests library
def world_bank_request(country):
return Request(
"GET", "http://api.worldbank.org/v2/country/{}?format=json".format(country)
)
# Create a dataframe with specifies which countries/regions we want data on
df = spark.createDataFrame([("br",), ("usa",)], ["country"]).withColumn(
"request", http_udf(world_bank_request)(col("country"))
)
# Much faster for big data because of the concurrency :)
client = (
HTTPTransformer().setConcurrency(3).setInputCol("request").setOutputCol("response")
)
# Get the body of the response
def get_response_body(resp):
return resp.entity.content.decode()
# Show the details of the country data returned
display(
client.transform(df).select(
"country", udf(get_response_body)(col("response")).alias("response")
)
)
Échantillon Azure AI Search
Dans cet exemple, nous montrons comment enrichir des données à l’aide de compétences cognitives et comment écrire dans un index de recherche Azure à l’aide de SynapseML.
search_service = "mmlspark-azure-search"
search_index = "test-33467690"
df = spark.createDataFrame(
[
(
"upload",
"0",
"https://mmlspark.blob.core.windows.net/datasets/DSIR/test1.jpg",
),
(
"upload",
"1",
"https://mmlspark.blob.core.windows.net/datasets/DSIR/test2.jpg",
),
],
["searchAction", "id", "url"],
)
tdf = (
AnalyzeImage()
.setSubscriptionKey(service_key)
.setLocation(service_loc)
.setImageUrlCol("url")
.setOutputCol("analyzed")
.setErrorCol("errors")
.setVisualFeatures(
["Categories", "Tags", "Description", "Faces", "ImageType", "Color", "Adult"]
)
.transform(df)
.select("*", "analyzed.*")
.drop("errors", "analyzed")
)
tdf.writeToAzureSearch(
subscriptionKey=search_key,
actionCol="searchAction",
serviceName=search_service,
indexName=search_index,
keyCol="id",
)
Autres tutoriels
Les tutoriels suivants fournissent des exemples complets d’utilisation d’Azure AI services dans Synapse Analytics.
Analyse des sentiments avec Azure AI services : à l’aide d’un exemple de jeu de données de commentaires de clients, vous générez une table Spark comprenant une colonne indiquant le sentiment des commentaires dans chaque ligne.
Détection des anomalies avec Azure AI services : à l’aide d’un exemple de jeu de données de série chronologique, vous générez une table Spark comprenant une colonne indiquant si les données de chaque ligne constituent une anomalie.
Créer des applications d’apprentissage automatique avec Microsoft Machine Learning pour Apache Spark : ce tutoriel montre comment utiliser SynapseML pour accéder à plusieurs modèles à partir d’Azure AI services.
Le module Document Intelligence avec Azure AI services montre comment utiliser Document Intelligence pour analyser vos formulaires et vos documents, extrait du texte et des données sur Azure Synapse Analytics.
Le module Analyse de texte avec Azure AI services montre comment utiliser l’Analyse de texte pour analyser du texte non structuré sur Azure Synapse Analytics.
Le module Traducteur avec Azure AI services montre comment utiliser Traducteur pour créer des solutions intelligentes multilingues sur Azure Synapse Analytics
Le module Vision par ordinateur avec Azure AI services montre comment utiliser la Vision par ordinateur pour analyser des images sur Azure Synapse Analytics.
API Azure AI services disponibles
Recherche d’images Bing
Type d’API | API SynapseML | API Azure AI services (versions) | Prise en charge du réseau virtuel DEP |
---|---|---|---|
Recherche d’images Bing | BingImageSearch | Images : Recherche visuelle v7.0 | Non pris en charge |
Détecteur d’anomalies
Type d’API | API SynapseML | API Azure AI services (versions) | Prise en charge du réseau virtuel DEP |
---|---|---|---|
Détecter la dernière anomalie | DetectLastAnomaly | Détecter le dernier point v1.0 | Prise en charge |
Détecter les anomalies | DetectAnomalies | Détecter la série entière v1.0 | Prise en charge |
DetectAnomalies simple | SimpleDetectAnomalies | Détecter la série entière v1.0 | Prise en charge |
Vision par ordinateur
Type d’API | API SynapseML | API Azure AI services (versions) | Prise en charge du réseau virtuel DEP |
---|---|---|---|
OCR | OCR | Reconnaître le texte imprimé v2.0 | Prise en charge |
Reconnaître le texte | RecognizeText | Reconnaître le texte v2.0 | Prise en charge |
Lire l’image | ReadImage | Lire v3.1 | Prise en charge |
Générer des miniatures | GenerateThumbnails | Générer une miniature v2.0 | Prise en charge |
Analyser l’image | AnalyzeImage | Analyse Image v2.0 | Prise en charge |
Reconnaître le contenu spécifique à un domaine | RecognizeDomainSpecificContent | Analyser une image par domaine v2.0 | Prise en charge |
Image de balise | TagImage | Image de balise v2.0 | Prise en charge |
Décrire l’image | DescribeImage | Description d’image v2.0 | Prise en charge |
Traducteur
Type d’API | API SynapseML | API Azure AI services (versions) | Prise en charge du réseau virtuel DEP |
---|---|---|---|
Traduire du texte | Translate | Traduire v3.0 | Non pris en charge |
Translittérer du texte | Transliterate | Translittérer v3.0 | Non pris en charge |
Détecter la langue | Detect | Détection v3.0 | Non pris en charge |
Arrêter la phrase | BreakSentence | Arrêter la phrase v3.0 | Non pris en charge |
Recherche dans le dictionnaire (autres traductions) | DictionaryLookup | Recherche dans le dictionnaire v3.0 | Non pris en charge |
Traduction de documents | DocumentTranslator | Traduction de documentation v1.0 | Non pris en charge |
Visage
Type d’API | API SynapseML | API Azure AI services (versions) | Prise en charge du réseau virtuel DEP |
---|---|---|---|
Détecter le visage | DetectFace | Détecter avec l’URL v1.0 | Prise en charge |
Rechercher des visages semblables | FindSimilarFace | Rechercher des semblables v1.0 | Prise en charge |
Regrouper les visages | GroupFaces | Groupe v1.0 | Prise en charge |
Identifier des visages | IdentifyFaces | Identifier v1.0 | Prise en charge |
Vérifier les visages | VerifyFaces | Vérifier visage à visage v1.0 | Prise en charge |
Document Intelligence
Type d’API | API SynapseML | API Azure AI services (versions) | Prise en charge du réseau virtuel DEP |
---|---|---|---|
Analyser la disposition | AnalyzeLayout | Analyser la disposition asynchrone v2.1 | Prise en charge |
Analyser les reçus | AnalyzeReceipts | Analyser le reçu asynchrone v2.1 | Prise en charge |
Analyser les cartes de visite | AnalyzeBusinessCards | Analyser la carte de visite asynchrone v2.1 | Prise en charge |
Analyser les factures | AnalyzeInvoices | Analyser la facture asynchrone v2.1 | Prise en charge |
Analyser les documents d’identité | AnalyzeIDDocuments | identification (ID) du modèle de document v2.1 | Prise en charge |
Liste de modèles personnalisés | ListCustomModels | Liste de modèles personnalisés v2.1 | Prise en charge |
Obtenir un modèle personnalisé | GetCustomModel | Obtenir des modèles personnalisés v2.1 | Prise en charge |
Analyser un modèle personnalisé | AnalyzeCustomModel | Analyser avec un modèle personnalisé v2.1 | Prise en charge |
Reconnaissance vocale
Type d’API | API SynapseML | API Azure AI services (versions) | Prise en charge du réseau virtuel DEP |
---|---|---|---|
Reconnaissance vocale | SpeechToText | SpeechToText v1.0 | Non pris en charge |
SDK Reconnaissance vocale | SpeechToTextSDK | Utilisation du SDK Speech version 1.14.0 | Non pris en charge |
Analyse de texte
Type d’API | API SynapseML | API Azure AI services (versions) | Prise en charge du réseau virtuel DEP |
---|---|---|---|
Sentiment du texte v2 | TextSentimentV2 | Sentiment v2.0 | Prise en charge |
Détecteur de langage v2 | LanguageDetectorV2 | Languages v2.0 | Prise en charge |
Détecteur d’entité v2 | EntityDetectorV2 | Lien d’entités v2.0 | Prise en charge |
NER v2 | NERV2 | Reconnaissance générale d’entités v2.0 | Prise en charge |
Extracteur de phrases clés v2 | KeyPhraseExtractorV2 | Phrases clés v2.0 | Prise en charge |
Sentiment du texte | TextSentiment | Sentiment v3.1 | Prise en charge |
Extracteur de phrases clés | KeyPhraseExtractor | Phrases clés v3.1 | Prise en charge |
PII | PII | Reconnaissance PII d’entités v3.1 | Prise en charge |
NER | NER | Reconnaissance générale d’entités v3.1 | Prise en charge |
Détecteur de langage | LanguageDetector | Langages v3.1 | Prise en charge |
Détecteur d’entité | EntityDetector | Lien d’entités v3.1 | Prise en charge |