Services Azure AI dans Azure Synapse Analytics

À l’aide des modèles pré-entraînés d’Azure AI services, vous pouvez enrichir vos données avec l’intelligence artificielle (IA) dans Azure Synapse Analytics.

Azure AI services aide les développeurs et les organisations à créer rapidement des applications intelligentes, de pointe, prêtes à être commercialisées et responsables avec des API et des modèles prêts à l’emploi, intégrés et personnalisables.

Vous pouvez utiliser un sous-ensemble d’Azure AI services avec vos données dans Synapse Analytics de plusieurs façons :

  • L'assistant « Azure AI services » de Synapse Analytics génère du code PySpark dans un bloc-notes Synapse qui se connecte à un avec les services Azure AI à l'aide des données d'une table Spark. Ensuite, à l’aide de modèles de Machine Learning préformés, le service vous permet d’ajouter l’intelligence artificielle à vos données. Pour plus d’informations, consultez l’Assistant d’analyse des sentiments et l’Assistant de détection d’anomalie.

  • Synapse Machine Learning (SynapseML) vous permet de créer des modèles analytiques et prédictifs puissants et hautement scalables à partir de diverses sources de données Spark. Synapse Spark fournit des bibliothèques SynapseML intégrées, dont synapse.ml.cognitive.

  • À partir du code PySpark généré par l’assistant, ou de l’exemple de code SynapseML fourni dans le tutoriel, vous pouvez écrire votre propre code pour utiliser d’autres Azure AI services avec vos données. Consultez Que sont les Azure AI services ? pour plus d’informations sur les services disponibles.

Bien démarrer

Le tutoriel Prérequis de l’utilisation d’Azure AI services dans Azure Synapse vous guide tout au long de la procédure à suivre avant d’utiliser Azure AI services dans Synapse Analytics.

Utilisation

Vision

Vision par ordinateur

  • Décrire : fournit la description d’une image dans un langage lisible par l’homme (Scala, Python)
  • Analyser (couleur, type d’image, visage, contenu pour adultes/osé) : analyse les fonctionnalités visuelles d’une image (Scala, Python)
  • OCR : lit le texte d’une image (Scala, Python)
  • Reconnaître le texte : lit le texte d’une image (Scala, Python)
  • Miniature : génère une miniature de la taille spécifiée par l’utilisateur à partir de l’image (Scala, Python)
  • Reconnaître le contenu spécifique à un domaine : reconnaît le contenu spécifique à un domaine (célébrité, point de repère) (Scala, Python)
  • Balise : identifie la liste des mots pertinents pour l’image d’entrée (Scala, Python)

Visage

  • Détecter : détecte les visages humains dans une image (Scala, Python)
  • Vérifier : vérifie si deux visages appartiennent à une même personne ou si un visage appartient à une personne (Scala, Python)
  • Identifier : trouve les correspondances les plus proches du visage d’une personne d’une requête spécifique dans un groupe de personnes (Scala, Python)
  • Rechercher semblables : recherche des visages semblables au visage d’une requête dans une liste de visages (Scala, Python)
  • Groupe : divise un groupe de visages en groupes disjoints en fonction de la similarité (Scala, Python)

Voix

Speech Services

  • Reconnaissance vocale : transcrit des flux audio (Scala, Python)
  • Transcription de conversation : transcrit les flux audio en transcriptions en direct avec des intervenants identifiés. (Scala, Python)
  • Synthèse vocale : convertit le texte en audio réaliste (Scala, Python)

Langage

Analyse de texte

  • Détection de langue : détecte la langue du texte d’entrée (Scala, Python)
  • Extraction de phrases clés : identifie les points de discussion clés dans le texte d’entrée (Scala, Python)
  • Reconnaissance d’entité nommée : identifie les entités connues et les entités nommées générales dans le texte d’entrée (Scala, Python)
  • Analyse des sentiments : retourne un score compris entre 0 et 1 indiquant le sentiment dans le texte d’entrée (Scala, Python)
  • Extraction d’entités médicales : extrait les entités et les relations médicales du texte. (Scala, Python)

Traduction

Traducteur

  • Traduire : traduit un texte. (Scala, Python)
  • Transliterate : convertit du texte dans une langue d’un script vers un autre script. (Scala, Python)
  • Détecter : identifie la langue d’un texte. (Scala, Python)
  • BreakSentence : identifie le positionnement des limites de phrases dans du texte. (Scala, Python)
  • Recherche dans le dictionnaire : indique les autres traductions d’un mot et quelques expressions idiomatiques. (Scala, Python)
  • Exemples de dictionnaire : fournit des exemples qui illustrent l’utilisation en contexte des termes du dictionnaire. (Scala, Python)
  • Document Translation : traduit les documents dans la totalité des langues et dialectes pris en charge tout en préservant la structure des documents et le format des données. (Scala, Python)

Document Intelligence

Intelligence documentaire (anciennement Azure AI Document Intelligence)

  • Analyser la disposition : extraire des informations de texte et de disposition d’un document donné. (Scala, Python)
  • Analyser les reçus : détecte et extrait des données à partir de reçus à l’aide de la reconnaissance optique de caractères (OCR) et de notre modèle de réception, ce qui vous permet d’extraire facilement des données structurées à partir de reçus, telles que le nom du commerçant, le numéro de téléphone du commerçant, la date de transaction, le total de la transaction, etc. (Scala, Python)
  • Analyse des cartes de visite : détecte et extrait des données à partir de cartes de visite à l’aide de la reconnaissance optique de caractères (OCR) et notre modèle de carte de visite, ce qui vous permet d’extraire facilement des données structurées à partir de cartes de visite, telles que des noms de contacts, des noms d’entreprise, des numéros de téléphone, des adresses e-mail, etc. (Scala, Python)
  • Analyser les factures : détecte et extrait des données à partir de factures à l’aide de la reconnaissance optique de caractères (OCR) et de nos modèles de Deep Learning comprenant des factures, ce qui vous permet d’extraire facilement des données structurées à partir de factures, telles que le client, le fournisseur, l’ID de facture, la date d’échéance de la facture, le total, le montant dû, le montant des taxes, l’adresse de facturation, les éléments de ligne, etc. (Scala, Python)
  • Analyser les documents d’identité : détecte et extrait des données à partir de documents d’identification à l’aide de la reconnaissance optique de caractères (OCR) et de notre modèle de document d’identité, ce qui vous permet d’extraire facilement des données structurées à partir de documents d’identité, telles que le prénom, le nom, la date de naissance, le numéro de document, etc. (Scala, Python)
  • Analyser un formulaire personnalisé : extrait des informations de formulaires (PDF et images) en données structurées basées sur un modèle créé à partir d’un ensemble de formulaires d’apprentissage représentatifs. (Scala, Python)
  • Get Custom Model : obtenir des informations détaillées sur un modèle personnalisé. (Scala, Python)
  • Liste de modèles personnalisés : obtenez des informations sur tous les modèles personnalisés. (Scala, Python)

Décision

Détecteur d’anomalies

  • État d’anomalie du point le plus récent : génère un modèle à l’aide des points précédents et détermine si le point le plus récent est anormal (Scala, Python)
  • Rechercher des anomalies : génère un modèle à l’aide d’une série entière et recherche des anomalies dans la série (Scala, Python)

Prérequis

  1. Suivez les étapes décrites dans Configuration de l’environnement Azure AI services pour configurer votre environnement Azure Databricks et Azure AI services. Ce tutoriel vous montre comment installer SynapseML et comment créer votre cluster Spark dans Databricks.
  2. Après avoir créé un notebook dans Azure Databricks, copiez le code partagé suivant, puis collez-le dans une nouvelle cellule de votre notebook.
  3. Choisissez un des échantillons de service suivants, copiez-le, puis collez-le dans une deuxième nouvelle cellule de votre notebook.
  4. Remplacez l’un des espaces réservés de clé d’abonnement au service par votre propre clé.
  5. Cliquez sur le bouton Exécuter (icône de triangle) en haut à gauche de la cellule, puis sélectionnez Exécuter la cellule.
  6. Consultez les résultats dans un tableau affiché sous la cellule.

Code partagé

Pour commencer, nous devons ajouter ce code au projet :

from pyspark.sql.functions import udf, col
from synapse.ml.io.http import HTTPTransformer, http_udf
from requests import Request
from pyspark.sql.functions import lit
from pyspark.ml import PipelineModel
from pyspark.sql.functions import col
import os
from pyspark.sql import SparkSession
from synapse.ml.core.platform import *

# Bootstrap Spark Session
spark = SparkSession.builder.getOrCreate()

from synapse.ml.core.platform import materializing_display as display
from synapse.ml.cognitive import *

# A multi-service resource key for Text Analytics, Computer Vision and Document Intelligence (or use separate keys that belong to each service)
service_key = find_secret("cognitive-api-key")
service_loc = "eastus"

# A Bing Search v7 subscription key
bing_search_key = find_secret("bing-search-key")

# An Anomaly Detector subscription key
anomaly_key = find_secret("anomaly-api-key")
anomaly_loc = "westus2"

# A Translator subscription key
translator_key = find_secret("translator-key")
translator_loc = "eastus"

# An Azure search key
search_key = find_secret("azure-search-key")

Exemple d’Analyse de texte

Le service Analyse de texte fournit plusieurs algorithmes permettant d’extraire des insights intelligents à partir d’un texte. Par exemple, nous pouvons trouver le sentiment d’un texte d’entrée donné. Le service retourne un score compris entre 0.0 et 1.0, où un score faible indique un sentiment négatif et où un score élevé indique un sentiment positif. Cet exemple utilise trois phrases simples et retourne le sentiment pour chacune d’elles.

# Create a dataframe that's tied to it's column names
df = spark.createDataFrame(
    [
        ("I am so happy today, its sunny!", "en-US"),
        ("I am frustrated by this rush hour traffic", "en-US"),
        ("The Azure AI services on spark aint bad", "en-US"),
    ],
    ["text", "language"],
)

# Run the Text Analytics service with options
sentiment = (
    TextSentiment()
    .setTextCol("text")
    .setLocation(service_loc)
    .setSubscriptionKey(service_key)
    .setOutputCol("sentiment")
    .setErrorCol("error")
    .setLanguageCol("language")
)

# Show the results of your text query in a table format
display(
    sentiment.transform(df).select(
        "text", col("sentiment.document.sentiment").alias("sentiment")
    )
)

Analyse de texte pour l’échantillon d’intégrité

Le service Analyse de texte pour la santé extrait et étiquette les informations médicales pertinentes à partir de textes non structurés, tels que les notes du médecin, les bilans de sortie d’hospitalisation, les documents cliniques et les dossiers médicaux électroniques.

df = spark.createDataFrame(
    [
        ("20mg of ibuprofen twice a day",),
        ("1tsp of Tylenol every 4 hours",),
        ("6-drops of Vitamin B-12 every evening",),
    ],
    ["text"],
)

healthcare = (
    AnalyzeHealthText()
    .setSubscriptionKey(service_key)
    .setLocation(service_loc)
    .setLanguage("en")
    .setOutputCol("response")
)

display(healthcare.transform(df))

Échantillon de Translator

Traducteur est un service de traduction automatique basé sur le cloud qui fait partie de la famille Azure AI services des API utilisées pour créer des applications intelligentes. Il est facile d’intégrer Translator à vos applications, sites web, outils et solutions. Cette interface vous permet d’ajouter des expériences utilisateur multilingues dans plus de 90 langues et dialectes. Elle peut être utilisée pour la traduction de texte avec n’importe quel système d’exploitation. Dans cet exemple, nous effectuons une traduction de texte simple en fournissant les phrases que vous souhaitez traduire et les langues cibles vers lesquelles vous souhaitez effectuer la traduction.

from pyspark.sql.functions import col, flatten

# Create a dataframe including sentences you want to translate
df = spark.createDataFrame(
    [(["Hello, what is your name?", "Bye"],)],
    [
        "text",
    ],
)

# Run the Translator service with options
translate = (
    Translate()
    .setSubscriptionKey(translator_key)
    .setLocation(translator_loc)
    .setTextCol("text")
    .setToLanguage(["zh-Hans"])
    .setOutputCol("translation")
)

# Show the results of the translation.
display(
    translate.transform(df)
    .withColumn("translation", flatten(col("translation.translations")))
    .withColumn("translation", col("translation.text"))
    .select("translation")
)

Exemple Document Intelligence

Document Intelligence (anciennement connu sous le nom de « Azure AI Document Intelligence ») fait partie des services Azure AI qui vous permettent de créer un logiciel de traitement de données automatisé à l'aide de la technologie d'apprentissage automatique. Identifier et extraire le texte, les paires clé/valeur, les marques de sélection, les tables et la structure de vos documents. Le service génère des données structurées qui incluent les relations dans le fichier d’origine, les cadres englobants, la confiance, etc. Dans cet exemple, nous analysons une image de carte de visite et extrayons ses informations dans des données structurées.

from pyspark.sql.functions import col, explode

# Create a dataframe containing the source files
imageDf = spark.createDataFrame(
    [
        (
            "https://mmlspark.blob.core.windows.net/datasets/FormRecognizer/business_card.jpg",
        )
    ],
    [
        "source",
    ],
)

# Run the Document Intelligence service
analyzeBusinessCards = (
    AnalyzeBusinessCards()
    .setSubscriptionKey(service_key)
    .setLocation(service_loc)
    .setImageUrlCol("source")
    .setOutputCol("businessCards")
)

# Show the results of recognition.
display(
    analyzeBusinessCards.transform(imageDf)
    .withColumn(
        "documents", explode(col("businessCards.analyzeResult.documentResults.fields"))
    )
    .select("source", "documents")
)

API Vision par ordinateur

Le service Vision par ordinateur analyse des images pour identifier une structure comme des visages, des objets et des descriptions en langage naturel. Dans cet exemple, nous ajoutons des étiquettes à une liste d’images. Les étiquettes sont des descriptions en un mot des choses figurant sur l’image, comme des objets, des personnes, un paysage et des actions reconnaissables.

# Create a dataframe with the image URLs
base_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/"
df = spark.createDataFrame(
    [
        (base_url + "objects.jpg",),
        (base_url + "dog.jpg",),
        (base_url + "house.jpg",),
    ],
    [
        "image",
    ],
)

# Run the Computer Vision service. Analyze Image extracts information from/about the images.
analysis = (
    AnalyzeImage()
    .setLocation(service_loc)
    .setSubscriptionKey(service_key)
    .setVisualFeatures(
        ["Categories", "Color", "Description", "Faces", "Objects", "Tags"]
    )
    .setOutputCol("analysis_results")
    .setImageUrlCol("image")
    .setErrorCol("error")
)

# Show the results of what you wanted to pull out of the images.
display(analysis.transform(df).select("image", "analysis_results.description.tags"))

Exemple de Recherche d’images Bing

La Recherche d’images Bing explore le web pour récupérer des images associées à une demande en langage naturel d’un utilisateur. Dans cet exemple, nous utilisons une demande texte qui recherche des images avec des guillemets. Elle retourne une liste d’URL d’images qui contiennent des photos liées à notre demande.

# Number of images Bing will return per query
imgsPerBatch = 10
# A list of offsets, used to page into the search results
offsets = [(i * imgsPerBatch,) for i in range(100)]
# Since web content is our data, we create a dataframe with options on that data: offsets
bingParameters = spark.createDataFrame(offsets, ["offset"])

# Run the Bing Image Search service with our text query
bingSearch = (
    BingImageSearch()
    .setSubscriptionKey(bing_search_key)
    .setOffsetCol("offset")
    .setQuery("Martin Luther King Jr. quotes")
    .setCount(imgsPerBatch)
    .setOutputCol("images")
)

# Transformer that extracts and flattens the richly structured output of Bing Image Search into a simple URL column
getUrls = BingImageSearch.getUrlTransformer("images", "url")

# This displays the full results returned, uncomment to use
# display(bingSearch.transform(bingParameters))

# Since we have two services, they are put into a pipeline
pipeline = PipelineModel(stages=[bingSearch, getUrls])

# Show the results of your search: image URLs
display(pipeline.transform(bingParameters))

Exemple de Reconnaissance vocale

Le service Reconnaissance vocale convertit des flux ou des fichiers de contenu audio en texte. Dans cet exemple, nous transcrivons un fichier audio.

# Create a dataframe with our audio URLs, tied to the column called "url"
df = spark.createDataFrame(
    [("https://mmlspark.blob.core.windows.net/datasets/Speech/audio2.wav",)], ["url"]
)

# Run the Speech-to-text service to translate the audio into text
speech_to_text = (
    SpeechToTextSDK()
    .setSubscriptionKey(service_key)
    .setLocation(service_loc)
    .setOutputCol("text")
    .setAudioDataCol("url")
    .setLanguage("en-US")
    .setProfanity("Masked")
)

# Show the results of the translation
display(speech_to_text.transform(df).select("url", "text.DisplayText"))

Échantillon de synthèse vocale

Synthèse vocale est un service qui permet de créer des applications et des services qui parlent naturellement, en choisissant parmi plus de 270 voix neuronales dans 119 langues et variantes.

from synapse.ml.cognitive import TextToSpeech

fs = ""
if running_on_databricks():
    fs = "dbfs:"
elif running_on_synapse_internal():
    fs = "Files"

# Create a dataframe with text and an output file location
df = spark.createDataFrame(
    [
        (
            "Reading out loud is fun! Check out aka.ms/spark for more information",
            fs + "/output.mp3",
        )
    ],
    ["text", "output_file"],
)

tts = (
    TextToSpeech()
    .setSubscriptionKey(service_key)
    .setTextCol("text")
    .setLocation(service_loc)
    .setVoiceName("en-US-JennyNeural")
    .setOutputFileCol("output_file")
)

# Check to make sure there were no errors during audio creation
display(tts.transform(df))

Exemple de Détecteur d’anomalies

Le Détecteur d’anomalies est idéal pour détecter les irrégularités dans vos données de séries chronologiques. Dans cet exemple, nous utilisons le service pour rechercher des anomalies dans l’ensemble de la série chronologique.

# Create a dataframe with the point data that Anomaly Detector requires
df = spark.createDataFrame(
    [
        ("1972-01-01T00:00:00Z", 826.0),
        ("1972-02-01T00:00:00Z", 799.0),
        ("1972-03-01T00:00:00Z", 890.0),
        ("1972-04-01T00:00:00Z", 900.0),
        ("1972-05-01T00:00:00Z", 766.0),
        ("1972-06-01T00:00:00Z", 805.0),
        ("1972-07-01T00:00:00Z", 821.0),
        ("1972-08-01T00:00:00Z", 20000.0),
        ("1972-09-01T00:00:00Z", 883.0),
        ("1972-10-01T00:00:00Z", 898.0),
        ("1972-11-01T00:00:00Z", 957.0),
        ("1972-12-01T00:00:00Z", 924.0),
        ("1973-01-01T00:00:00Z", 881.0),
        ("1973-02-01T00:00:00Z", 837.0),
        ("1973-03-01T00:00:00Z", 9000.0),
    ],
    ["timestamp", "value"],
).withColumn("group", lit("series1"))

# Run the Anomaly Detector service to look for irregular data
anomaly_detector = (
    SimpleDetectAnomalies()
    .setSubscriptionKey(anomaly_key)
    .setLocation(anomaly_loc)
    .setTimestampCol("timestamp")
    .setValueCol("value")
    .setOutputCol("anomalies")
    .setGroupbyCol("group")
    .setGranularity("monthly")
)

# Show the full results of the analysis with the anomalies marked as "True"
display(
    anomaly_detector.transform(df).select("timestamp", "value", "anomalies.isAnomaly")
)

API web arbitraires

Avec HTTP sur Spark, tout service web peut être utilisé dans votre pipeline de Big Data. Dans cet exemple, nous utilisons l’API World Bank pour obtenir des informations sur différents pays/régions du monde entier.

# Use any requests from the python requests library


def world_bank_request(country):
    return Request(
        "GET", "http://api.worldbank.org/v2/country/{}?format=json".format(country)
    )


# Create a dataframe with specifies which countries/regions we want data on
df = spark.createDataFrame([("br",), ("usa",)], ["country"]).withColumn(
    "request", http_udf(world_bank_request)(col("country"))
)

# Much faster for big data because of the concurrency :)
client = (
    HTTPTransformer().setConcurrency(3).setInputCol("request").setOutputCol("response")
)

# Get the body of the response


def get_response_body(resp):
    return resp.entity.content.decode()


# Show the details of the country data returned
display(
    client.transform(df).select(
        "country", udf(get_response_body)(col("response")).alias("response")
    )
)

Échantillon Azure AI Search

Dans cet exemple, nous montrons comment enrichir des données à l’aide de compétences cognitives et comment écrire dans un index de recherche Azure à l’aide de SynapseML.

search_service = "mmlspark-azure-search"
search_index = "test-33467690"

df = spark.createDataFrame(
    [
        (
            "upload",
            "0",
            "https://mmlspark.blob.core.windows.net/datasets/DSIR/test1.jpg",
        ),
        (
            "upload",
            "1",
            "https://mmlspark.blob.core.windows.net/datasets/DSIR/test2.jpg",
        ),
    ],
    ["searchAction", "id", "url"],
)

tdf = (
    AnalyzeImage()
    .setSubscriptionKey(service_key)
    .setLocation(service_loc)
    .setImageUrlCol("url")
    .setOutputCol("analyzed")
    .setErrorCol("errors")
    .setVisualFeatures(
        ["Categories", "Tags", "Description", "Faces", "ImageType", "Color", "Adult"]
    )
    .transform(df)
    .select("*", "analyzed.*")
    .drop("errors", "analyzed")
)

tdf.writeToAzureSearch(
    subscriptionKey=search_key,
    actionCol="searchAction",
    serviceName=search_service,
    indexName=search_index,
    keyCol="id",
)

Autres tutoriels

Les tutoriels suivants fournissent des exemples complets d’utilisation d’Azure AI services dans Synapse Analytics.

API Azure AI services disponibles

Type d’API API SynapseML API Azure AI services (versions) Prise en charge du réseau virtuel DEP
Recherche d’images Bing BingImageSearch Images : Recherche visuelle v7.0 Non pris en charge

Détecteur d’anomalies

Type d’API API SynapseML API Azure AI services (versions) Prise en charge du réseau virtuel DEP
Détecter la dernière anomalie DetectLastAnomaly Détecter le dernier point v1.0 Prise en charge
Détecter les anomalies DetectAnomalies Détecter la série entière v1.0 Prise en charge
DetectAnomalies simple SimpleDetectAnomalies Détecter la série entière v1.0 Prise en charge

Vision par ordinateur

Type d’API API SynapseML API Azure AI services (versions) Prise en charge du réseau virtuel DEP
OCR OCR Reconnaître le texte imprimé v2.0 Prise en charge
Reconnaître le texte RecognizeText Reconnaître le texte v2.0 Prise en charge
Lire l’image ReadImage Lire v3.1 Prise en charge
Générer des miniatures GenerateThumbnails Générer une miniature v2.0 Prise en charge
Analyser l’image AnalyzeImage Analyse Image v2.0 Prise en charge
Reconnaître le contenu spécifique à un domaine RecognizeDomainSpecificContent Analyser une image par domaine v2.0 Prise en charge
Image de balise TagImage Image de balise v2.0 Prise en charge
Décrire l’image DescribeImage Description d’image v2.0 Prise en charge

Traducteur

Type d’API API SynapseML API Azure AI services (versions) Prise en charge du réseau virtuel DEP
Traduire du texte Translate Traduire v3.0 Non pris en charge
Translittérer du texte Transliterate Translittérer v3.0 Non pris en charge
Détecter la langue Detect Détection v3.0 Non pris en charge
Arrêter la phrase BreakSentence Arrêter la phrase v3.0 Non pris en charge
Recherche dans le dictionnaire (autres traductions) DictionaryLookup Recherche dans le dictionnaire v3.0 Non pris en charge
Traduction de documents DocumentTranslator Traduction de documentation v1.0 Non pris en charge

Visage

Type d’API API SynapseML API Azure AI services (versions) Prise en charge du réseau virtuel DEP
Détecter le visage DetectFace Détecter avec l’URL v1.0 Prise en charge
Rechercher des visages semblables FindSimilarFace Rechercher des semblables v1.0 Prise en charge
Regrouper les visages GroupFaces Groupe v1.0 Prise en charge
Identifier des visages IdentifyFaces Identifier v1.0 Prise en charge
Vérifier les visages VerifyFaces Vérifier visage à visage v1.0 Prise en charge

Document Intelligence

Type d’API API SynapseML API Azure AI services (versions) Prise en charge du réseau virtuel DEP
Analyser la disposition AnalyzeLayout Analyser la disposition asynchrone v2.1 Prise en charge
Analyser les reçus AnalyzeReceipts Analyser le reçu asynchrone v2.1 Prise en charge
Analyser les cartes de visite AnalyzeBusinessCards Analyser la carte de visite asynchrone v2.1 Prise en charge
Analyser les factures AnalyzeInvoices Analyser la facture asynchrone v2.1 Prise en charge
Analyser les documents d’identité AnalyzeIDDocuments identification (ID) du modèle de document v2.1 Prise en charge
Liste de modèles personnalisés ListCustomModels Liste de modèles personnalisés v2.1 Prise en charge
Obtenir un modèle personnalisé GetCustomModel Obtenir des modèles personnalisés v2.1 Prise en charge
Analyser un modèle personnalisé AnalyzeCustomModel Analyser avec un modèle personnalisé v2.1 Prise en charge

Reconnaissance vocale

Type d’API API SynapseML API Azure AI services (versions) Prise en charge du réseau virtuel DEP
Reconnaissance vocale SpeechToText SpeechToText v1.0 Non pris en charge
SDK Reconnaissance vocale SpeechToTextSDK Utilisation du SDK Speech version 1.14.0 Non pris en charge

Analyse de texte

Type d’API API SynapseML API Azure AI services (versions) Prise en charge du réseau virtuel DEP
Sentiment du texte v2 TextSentimentV2 Sentiment v2.0 Prise en charge
Détecteur de langage v2 LanguageDetectorV2 Languages v2.0 Prise en charge
Détecteur d’entité v2 EntityDetectorV2 Lien d’entités v2.0 Prise en charge
NER v2 NERV2 Reconnaissance générale d’entités v2.0 Prise en charge
Extracteur de phrases clés v2 KeyPhraseExtractorV2 Phrases clés v2.0 Prise en charge
Sentiment du texte TextSentiment Sentiment v3.1 Prise en charge
Extracteur de phrases clés KeyPhraseExtractor Phrases clés v3.1 Prise en charge
PII PII Reconnaissance PII d’entités v3.1 Prise en charge
NER NER Reconnaissance générale d’entités v3.1 Prise en charge
Détecteur de langage LanguageDetector Langages v3.1 Prise en charge
Détecteur d’entité EntityDetector Lien d’entités v3.1 Prise en charge

Étapes suivantes