QuickStart: Tekstinhoud analyseren
Ga aan de slag met content safety studio, REST API of client-SDK's om eenvoudige tekstbeheer uit te voeren. De Azure AI Content Safety-service biedt ai-algoritmen voor het markeren van ongewenst inhoud. Volg deze stappen om het uit te proberen.
Zie de conceptpagina Harm-categorieën voor meer informatie over tekstbeheer. Zie de sectie Invoervereisten van het overzicht voor API-invoerlimieten.
Notitie
De voorbeeldgegevens en code kunnen aanstootgevende inhoud bevatten. Gebruikers discretie wordt geadviseerd.
Vereisten
- Een Azure-abonnement - Een gratis abonnement maken
- Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
- Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.
- cURL geïnstalleerd
Inhoud van tekst analyseren
In de volgende sectie wordt een voorbeeldaanvraag met cURL beschreven. Plak de onderstaande opdracht in een teksteditor en breng de volgende wijzigingen aan.
- Vervang door
<endpoint>
de eindpunt-URL die is gekoppeld aan uw resource. - Vervang door
<your_subscription_key>
een van de sleutels die bij uw resource worden geleverd. - Vervang desgewenst het
"text"
veld in de hoofdtekst door uw eigen tekst die u wilt analyseren.
curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2024-09-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["string"],
"haltOnBlocklistHit": true,
"outputType": "FourSeverityLevels"
}'
De onderstaande velden moeten worden opgenomen in de URL:
Naam | Vereist | Beschrijving | Type |
---|---|---|---|
API-versie | Vereist | Dit is de API-versie die moet worden gecontroleerd. De huidige versie is: api-version=2024-09-01. Voorbeeld: <endpoint>/contentsafety/text:analyze?api-version=2024-09-01 |
String |
De parameters in de aanvraagbody worden gedefinieerd in deze tabel:
Naam | Vereist | Beschrijving | Type |
---|---|---|---|
tekst | Vereist | Dit is de onbewerkte tekst die moet worden gecontroleerd. Andere niet-ascii-tekens kunnen worden opgenomen. | String |
Categorieën | Optioneel | Dit wordt verondersteld een matrix met categorienamen te zijn. Zie de handleiding Harm-categorieën voor een lijst met beschikbare categorienamen. Als er geen categorieën zijn opgegeven, worden alle vier de categorieën gebruikt. We gebruiken meerdere categorieën om scores in één aanvraag op te halen. | String |
blocklistNames | Optioneel | Naam van tekstbloklijst. Alleen ondersteuning voor de volgende tekens: 0-9 A-Z a-z - . _ ~ . U kunt hier meerdere lijstnamen toevoegen. |
Matrix |
haltOnBlocklistHit | Optioneel | Wanneer dit is ingesteld true , worden verdere analyses van schadelijke inhoud niet uitgevoerd in gevallen waarin bloklijsten worden bereikt. Wanneer dit is ingesteld false , worden alle analyses van schadelijke inhoud uitgevoerd, ongeacht of er wel of geen bloklijsten worden bereikt. |
Booleaanse waarde |
outputType | Optioneel | "FourSeverityLevels" of "EightSeverityLevels" . De uitvoer ernst in vier of acht niveaus kan de waarde zijn 0,2,4,6 of 0,1,2,3,4,5,6,7 . |
String |
Zie de volgende voorbeeldtekst van de aanvraag:
{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["array"],
"haltOnBlocklistHit": false,
"outputType": "FourSeverityLevels"
}
Open een opdrachtpromptvenster, plak de bewerkte cURL-opdracht en voer deze uit.
Uitvoer
De resultaten van tekstbeheer worden weergegeven als JSON-gegevens in de console-uitvoer. Voorbeeld:
{
"blocklistsMatch": [
{
"blocklistName": "string",
"blocklistItemId": "string",
"blocklistItemText": "string"
}
],
"categoriesAnalysis": [
{
"category": "Hate",
"severity": 2
},
{
"category": "SelfHarm",
"severity": 0
},
{
"category": "Sexual",
"severity": 0
},
{
"category": "Violence",
"severity": 0
}
]
}
De JSON-velden in de uitvoer worden hier gedefinieerd:
Name | Omschrijving | Type |
---|---|---|
categoriesAnalysis | Elke uitvoerklasse die de API voorspelt. Classificatie kan meerdere labels hebben. Wanneer een tekstvoorbeeld bijvoorbeeld wordt uitgevoerd via het model voor tekstbeheer, kan dit worden geclassificeerd als zowel seksuele inhoud als geweld. Categorieën schade | String |
Ernst | Hoe hoger de ernst van invoerinhoud, hoe groter deze waarde is. | Geheel getal |
Referentiedocumentatie | Broncode van bibliotheek | Pakket (NuGet) | Voorbeelden
Vereisten
- Een Azure-abonnement - Een gratis abonnement maken
- De Visual Studio IDE waarvoor .NET-desktopontwikkeling is ingeschakeld. Of als u niet van plan bent om Visual Studio IDE te gebruiken, hebt u de huidige versie van .NET Core nodig.
- Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
- Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.
Toepassing instellen
Maak een nieuwe C#-toepassing.
Open Visual Studio en selecteer onder Aan de slag een nieuw project maken. Stel de sjabloonfilters in op C#/Alle platforms/console. Selecteer Console-app (opdrachtregeltoepassing die kan worden uitgevoerd op .NET in Windows, Linux en macOS) en kies Volgende. Werk de projectnaam bij naar ContentSafetyQuickstart en kies Volgende. Selecteer .NET 6.0 of hoger en kies Maken om het project te maken.
De client-SDK installeren
Nadat u een nieuw project hebt gemaakt, installeert u de client-SDK door met de rechtermuisknop op de projectoplossing in Solution Explorer te klikken en NuGet-pakketten beheren te selecteren. Selecteer in Package Manager dat wordt geopend de optie Bladeren en zoek naar Azure.AI.ContentSafety
. Selecteer Installeren.
Omgevingsvariabelen maken
In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.
Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.
- Als u de
CONTENT_SAFETY_KEY
omgevingsvariabele wilt instellen, vervangt u deze doorYOUR_CONTENT_SAFETY_KEY
een van de sleutels voor uw resource. - Als u de
CONTENT_SAFETY_ENDPOINT
omgevingsvariabele wilt instellen, vervangtYOUR_CONTENT_SAFETY_ENDPOINT
u het eindpunt voor uw resource.
Belangrijk
Als u een API-sleutel gebruikt, slaat u deze veilig op ergens anders op, zoals in Azure Key Vault. Neem de API-sleutel niet rechtstreeks in uw code op en plaats deze nooit openbaar.
Zie Aanvragen verifiëren bij Azure AI-services voor meer informatie over beveiliging van AI-services.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.
Inhoud van tekst analyseren
Open vanuit de projectmap het Program.cs-bestand dat u eerder hebt gemaakt. Plak de volgende code:
using System;
using Azure.AI.ContentSafety;
namespace Azure.AI.ContentSafety.Dotnet.Sample
{
class ContentSafetySampleAnalyzeText
{
public static void AnalyzeText()
{
// retrieve the endpoint and key from the environment variables created earlier
string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");
ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));
string text = "Your input text";
var request = new AnalyzeTextOptions(text);
Response<AnalyzeTextResult> response;
try
{
response = client.AnalyzeText(request);
}
catch (RequestFailedException ex)
{
Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
throw;
}
Console.WriteLine("\nAnalyze text succeeded:");
Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);
}
static void Main()
{
AnalyzeText();
}
}
}
Vervang "Your input text"
door de tekstinhoud die u wilt gebruiken.
Bouw en voer de toepassing uit door Start Debugging te selecteren in het menu Foutopsporing boven aan het IDE-venster (of druk op F5).
Referentiedocumentatie | Broncode bibliotheek | Package (PyPI) | Voorbeelden |
Vereisten
- Een Azure-abonnement - Een gratis abonnement maken
- Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
- Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.
- Python 3.x
- Uw Python-installatie moet pip bevatten. U kunt controleren of pip is geïnstalleerd door op de opdrachtregel uit te voeren
pip --version
. Haal pip op door de nieuwste versie van Python te installeren.
- Uw Python-installatie moet pip bevatten. U kunt controleren of pip is geïnstalleerd door op de opdrachtregel uit te voeren
Omgevingsvariabelen maken
In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.
Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.
- Als u de
CONTENT_SAFETY_KEY
omgevingsvariabele wilt instellen, vervangt u deze doorYOUR_CONTENT_SAFETY_KEY
een van de sleutels voor uw resource. - Als u de
CONTENT_SAFETY_ENDPOINT
omgevingsvariabele wilt instellen, vervangtYOUR_CONTENT_SAFETY_ENDPOINT
u het eindpunt voor uw resource.
Belangrijk
Als u een API-sleutel gebruikt, slaat u deze veilig op ergens anders op, zoals in Azure Key Vault. Neem de API-sleutel niet rechtstreeks in uw code op en plaats deze nooit openbaar.
Zie Aanvragen verifiëren bij Azure AI-services voor meer informatie over beveiliging van AI-services.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.
Inhoud van tekst analyseren
In de volgende sectie wordt een voorbeeldaanvraag beschreven met de Python SDK.
Open een opdrachtprompt, navigeer naar de projectmap en maak een nieuw bestand met de naam quickstart.py.
Voer deze opdracht uit om de Azure AI Content Safety-bibliotheek te installeren:
pip install azure-ai-contentsafety
Kopieer de volgende code naar quickstart.py:
import os from azure.ai.contentsafety import ContentSafetyClient from azure.core.credentials import AzureKeyCredential from azure.core.exceptions import HttpResponseError from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory def analyze_text(): # analyze text key = os.environ["CONTENT_SAFETY_KEY"] endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"] # Create an Azure AI Content Safety client client = ContentSafetyClient(endpoint, AzureKeyCredential(key)) # Contruct request request = AnalyzeTextOptions(text="Your input text") # Analyze text try: response = client.analyze_text(request) except HttpResponseError as e: print("Analyze text failed.") if e.error: print(f"Error code: {e.error.code}") print(f"Error message: {e.error.message}") raise print(e) raise hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE) self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM) sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL) violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE) if hate_result: print(f"Hate severity: {hate_result.severity}") if self_harm_result: print(f"SelfHarm severity: {self_harm_result.severity}") if sexual_result: print(f"Sexual severity: {sexual_result.severity}") if violence_result: print(f"Violence severity: {violence_result.severity}") if __name__ == "__main__": analyze_text()
Vervang
"Your input text"
door de tekstinhoud die u wilt gebruiken.Voer vervolgens de toepassing uit met de
python
opdracht in uw quickstart-bestand.python quickstart.py
Referentiedocumentatie | Broncode bibliotheek | Artefact (Maven) | Voorbeelden
Vereisten
- Een Azure-abonnement - Een gratis abonnement maken
- De huidige versie van de Java Development Kit (JDK)
- Het hulpprogramma Gradle of een andere afhankelijkheidsbeheerder.
- Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
- Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.
Toepassing instellen
Maak een nieuw Gradle-project.
Maak in een consolevenster (zoals cmd, PowerShell of Bash) een nieuwe map voor de app, en navigeer naar deze map.
mkdir myapp && cd myapp
Voer de opdracht gradle init
uit vanuit uw werkmap. Met deze opdracht maakt u essentiële buildbestanden voor Gradle, inclusief build.gradle.kts, dat tijdens runtime wordt gebruikt om de toepassing te maken en te configureren.
gradle init --type basic
Wanneer u wordt gevraagd om een DSL te kiezen, selecteert u Kotlin.
Voer de volgende opdracht uit vanuit uw werkmap om een projectbronmap te maken:
mkdir -p src/main/java
Navigeer naar de nieuwe map en maak een bestand met de naam ContentSafetyQuickstart.java.
De client-SDK installeren
Deze quickstart maakt gebruik van de Gradle-afhankelijkheidsmanager. U vindt de clientbibliotheek en informatie voor andere afhankelijkheidsbeheerders in de Maven Central Repository.
Zoek build.gradle.kts en open het met uw favoriete IDE of teksteditor. Kopieer het vervolgens in de volgende buildconfiguratie. Deze configuratie definieert het project als een Java-toepassing waarvan het toegangspunt de klasse ContentSafetyQuickstart is. De Azure AI Vision-bibliotheek wordt geïmporteerd.
plugins {
java
application
}
application {
mainClass.set("ContentSafetyQuickstart")
}
repositories {
mavenCentral()
}
dependencies {
implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}
Omgevingsvariabelen maken
In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.
Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.
- Als u de
CONTENT_SAFETY_KEY
omgevingsvariabele wilt instellen, vervangt u deze doorYOUR_CONTENT_SAFETY_KEY
een van de sleutels voor uw resource. - Als u de
CONTENT_SAFETY_ENDPOINT
omgevingsvariabele wilt instellen, vervangtYOUR_CONTENT_SAFETY_ENDPOINT
u het eindpunt voor uw resource.
Belangrijk
Als u een API-sleutel gebruikt, slaat u deze veilig op ergens anders op, zoals in Azure Key Vault. Neem de API-sleutel niet rechtstreeks in uw code op en plaats deze nooit openbaar.
Zie Aanvragen verifiëren bij Azure AI-services voor meer informatie over beveiliging van AI-services.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.
Inhoud van tekst analyseren
Open ContentSafetyQuickstart.java in de gewenste editor of IDE en plak de volgende code. Vervang <your text sample>
door de tekstinhoud die u wilt gebruiken.
import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;
public class ContentSafetyQuickstart {
public static void main(String[] args) {
// get endpoint and key from environment variables
String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
String key = System.getenv("CONTENT_SAFETY_KEY");
ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
.credential(new KeyCredential(key))
.endpoint(endpoint).buildClient();
AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));
for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
System.out.println(result.getCategory() + " severity: " + result.getSeverity());
}
}
}
Ga terug naar de hoofdmap van het project en bouw de app met:
gradle build
Voer het vervolgens uit met de gradle run
opdracht:
gradle run
Uitvoer
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Referentiedocumentatie | Bibliotheekbroncode | Pakket (npm) | Voorbeelden |
Vereisten
- Een Azure-abonnement - Een gratis abonnement maken
- De huidige versie van Node.js
- Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
- Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.
Toepassing instellen
Een nieuwe Node.js-toepassing maken. Maak in een consolevenster (zoals cmd, PowerShell of Bash) een nieuwe map voor de app, en navigeer naar deze map.
mkdir myapp && cd myapp
Voer de opdracht npm init
uit om een knooppunttoepassing te maken met een package.json
-bestand.
npm init
De client-SDK installeren
Installeer het @azure-rest/ai-content-safety
npm-pakket:
npm install @azure-rest/ai-content-safety
Installeer ook de dotenv
module voor het gebruik van omgevingsvariabelen:
npm install dotenv
Het package.json
-bestand van uw app wordt bijgewerkt met de afhankelijkheden.
Omgevingsvariabelen maken
In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.
Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.
- Als u de
CONTENT_SAFETY_KEY
omgevingsvariabele wilt instellen, vervangt u deze doorYOUR_CONTENT_SAFETY_KEY
een van de sleutels voor uw resource. - Als u de
CONTENT_SAFETY_ENDPOINT
omgevingsvariabele wilt instellen, vervangtYOUR_CONTENT_SAFETY_ENDPOINT
u het eindpunt voor uw resource.
Belangrijk
Als u een API-sleutel gebruikt, slaat u deze veilig op ergens anders op, zoals in Azure Key Vault. Neem de API-sleutel niet rechtstreeks in uw code op en plaats deze nooit openbaar.
Zie Aanvragen verifiëren bij Azure AI-services voor meer informatie over beveiliging van AI-services.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.
Inhoud van tekst analyseren
Maak een nieuw bestand in uw map index.js. Open deze in uw favoriete editor of IDE en plak de volgende code. Vervang <your text sample>
door de tekstinhoud die u wilt gebruiken.
const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
{ isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");
// Load the .env file if it exists
require("dotenv").config();
async function main() {
// get endpoint and key from environment variables
const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
const key = process.env["CONTENT_SAFETY_KEY"];
const credential = new AzureKeyCredential(key);
const client = ContentSafetyClient(endpoint, credential);
// replace with your own sample text string
const text = "<your sample text>";
const analyzeTextOption = { text: text };
const analyzeTextParameters = { body: analyzeTextOption };
const result = await client.path("/text:analyze").post(analyzeTextParameters);
if (isUnexpected(result)) {
throw result;
}
for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
console.log(
textCategoriesAnalysisOutput.category,
" severity: ",
textCategoriesAnalysisOutput.severity
);
}
}
main().catch((err) => {
console.error("The sample encountered an error:", err);
});
Voer de toepassing uit met de opdracht node
in uw quickstart-bestand.
node index.js
Uitvoer
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Resources opschonen
Als u een Azure AI-servicesabonnement wilt opschonen en verwijderen, kunt u de resource of resourcegroep verwijderen. Als u de resourcegroep verwijdert, worden ook alle bijbehorende resources verwijderd.
Gerelateerde inhoud
- Categorieën schade
- Configureer filters voor elke categorie en test op gegevenssets met Behulp van Content Safety Studio, exporteer de code en implementeer.