Mulai Cepat: Menganalisis konten teks
Mulai menggunakan Content Safety Studio, REST API, atau SDK klien untuk melakukan moderasi teks dasar. Layanan Azure AI Content Safety memberi Anda algoritma AI untuk menandai konten yang tidak menyenangkan. Ikuti langkah-langkah ini untuk mencobanya.
Untuk informasi selengkapnya tentang moderasi teks, lihat halaman konsep Kategori bahaya. Untuk batas input API, lihat bagian Persyaratan input dari Gambaran Umum.
Catatan
Data sampel dan kode mungkin berisi konten yang menyinggung. Kebijaksanaan pengguna disarankan.
Prasyarat
- Langganan Azure - buat langganan gratis
- Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
- Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.
- cURL terpasang
Analisa konten teks
Bagian berikut memancang permintaan sampel dengan cURL. Tempelkan perintah di bawah ini ke editor teks, dan buat perubahan berikut.
- Ganti
<endpoint>
dengan URL titik akhir yang terkait dengan sumber daya Anda. - Ganti
<your_subscription_key>
dengan salah satu kunci yang disertakan dengan sumber daya Anda. - Secara opsional, ganti
"text"
bidang dalam isi dengan teks Anda sendiri yang ingin Anda analisis.
curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2024-09-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["string"],
"haltOnBlocklistHit": true,
"outputType": "FourSeverityLevels"
}'
Bidang di bawah ini harus disertakan dalam url:
Nama | Wajib | Deskripsi | Jenis |
---|---|---|---|
Versi API | Wajib | Ini adalah versi API yang akan diperiksa. Versi saat ini adalah: api-version=2024-09-01. Contoh: <endpoint>/contentsafety/text:analyze?api-version=2024-09-01 |
String |
Parameter dalam isi permintaan ditentukan dalam tabel ini:
Nama | Wajib | Deskripsi | Jenis |
---|---|---|---|
text | Wajib | Ini adalah teks mentah yang akan diperiksa. Karakter non-ascii lainnya dapat disertakan. | String |
Kategori | Opsional | Ini diasumsikan sebagai array nama kategori. Lihat panduan Kategori bahaya untuk daftar nama kategori yang tersedia. Jika tidak ada kategori yang ditentukan, keempat kategori akan digunakan. Kami menggunakan beberapa kategori untuk mendapatkan skor dalam satu permintaan. | String |
blocklistNames | Opsional | Nama daftar blokir teks. Hanya mendukung karakter berikut: 0-9 A-Z a-z - . _ ~ . Anda dapat melampirkan beberapa nama daftar di sini. |
Array |
haltOnBlocklistHit | Opsional | Ketika diatur ke true , analisis lebih lanjut dari konten berbahaya tidak akan dilakukan dalam kasus di mana daftar blokir terpukul. Ketika diatur ke false , semua analisis konten berbahaya akan dilakukan, apakah daftar blokir terpukul atau tidak. |
Boolean |
outputType | Opsional | "FourSeverityLevels" atau "EightSeverityLevels" . Tingkat keparahan output dalam empat atau delapan tingkat, nilainya bisa atau 0,2,4,6 0,1,2,3,4,5,6,7 . |
String |
Lihat contoh isi permintaan berikut:
{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["array"],
"haltOnBlocklistHit": false,
"outputType": "FourSeverityLevels"
}
Buka jendela prompt perintah, tempelkan perintah cURL yang diedit, dan jalankan.
Output
Anda akan melihat hasil moderasi teks ditampilkan sebagai data JSON dalam output konsol. Contohnya:
{
"blocklistsMatch": [
{
"blocklistName": "string",
"blocklistItemId": "string",
"blocklistItemText": "string"
}
],
"categoriesAnalysis": [
{
"category": "Hate",
"severity": 2
},
{
"category": "SelfHarm",
"severity": 0
},
{
"category": "Sexual",
"severity": 0
},
{
"category": "Violence",
"severity": 0
}
]
}
Bidang JSON dalam output ditentukan di sini:
Nama | Deskripsi | Jenis |
---|---|---|
categoriesAnalysis | Setiap kelas output yang diprediksi API. Klasifikasi dapat dilabeli secara multi-label. Misalnya, ketika sampel teks dijalankan melalui model moderasi teks, sampel tersebut dapat diklasifikasikan sebagai konten seksual dan kekerasan. Kategori bahaya | String |
Keparahan | Semakin tinggi tingkat keparahan konten input, semakin besar nilai ini. | Bilangan bulat |
Dokumentasi referensi | Kode sumber pustaka | Paket (NuGet) | Sampel
Prasyarat
- Langganan Azure - buat langganan gratis
- Visual Studio IDE dengan pengembangan desktop .NET beban kerja diaktifkan. Atau jika Anda tidak berencana menggunakan Visual Studio IDE, Anda memerlukan versi .NET Core saat ini.
- Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
- Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.
Menyiapkan aplikasi
Buat aplikasi C# baru.
Buka Visual Studio, dan di bawah Mulai pilih Buat proyek baru. Atur filter templat ke C#/Semua Platform/Konsol. Pilih Aplikasi Konsol (aplikasi baris perintah yang dapat berjalan di .NET di Windows, Linux, dan macOS) dan pilih Berikutnya. Perbarui nama proyek ke ContentSafetyQuickstart dan pilih Berikutnya. Pilih .NET 6.0 atau lebih tinggi, dan pilih Buat untuk membuat proyek.
Menginstal SDK klien
Setelah Anda membuat proyek baru, instal SDK klien dengan mengklik kanan solusi proyek di Penjelajah Solusi dan memilih Kelola Paket NuGet. Di manajer paket yang terbuka pilih Telusuri, dan cari Azure.AI.ContentSafety
. Pilih Instal.
Membuat variabel lingkungan
Dalam contoh ini, Anda akan menulis kredensial Anda ke variabel lingkungan pada komputer lokal yang menjalankan aplikasi.
Untuk mengatur variabel lingkungan untuk kunci dan titik akhir Anda, buka jendela konsol dan ikuti instruksi untuk sistem operasi dan lingkungan pengembangan Anda.
- Untuk mengatur
CONTENT_SAFETY_KEY
variabel lingkungan, gantiYOUR_CONTENT_SAFETY_KEY
dengan salah satu kunci untuk sumber daya Anda. - Untuk mengatur
CONTENT_SAFETY_ENDPOINT
variabel lingkungan, gantiYOUR_CONTENT_SAFETY_ENDPOINT
dengan titik akhir untuk sumber daya Anda.
Penting
Jika Anda menggunakan kunci API, simpan dengan aman di tempat lain, seperti di Azure Key Vault. Jangan sertakan kunci API langsung dalam kode Anda, dan jangan pernah mempostingnya secara publik.
Untuk informasi selengkapnya tentang keamanan layanan AI, lihat Mengautentikasi permintaan ke layanan Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Setelah menambahkan variabel lingkungan, Anda mungkin perlu memulai ulang program yang sedang berjalan yang akan membaca variabel lingkungan, termasuk jendela konsol.
Analisa konten teks
Dari direktori proyek, buka file Program.cs yang dibuat sebelumnya. Tempelkan dalam kode berikut:
using System;
using Azure.AI.ContentSafety;
namespace Azure.AI.ContentSafety.Dotnet.Sample
{
class ContentSafetySampleAnalyzeText
{
public static void AnalyzeText()
{
// retrieve the endpoint and key from the environment variables created earlier
string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");
ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));
string text = "Your input text";
var request = new AnalyzeTextOptions(text);
Response<AnalyzeTextResult> response;
try
{
response = client.AnalyzeText(request);
}
catch (RequestFailedException ex)
{
Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
throw;
}
Console.WriteLine("\nAnalyze text succeeded:");
Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);
}
static void Main()
{
AnalyzeText();
}
}
}
Ganti "Your input text"
dengan konten teks yang ingin Anda gunakan.
Buat dan jalankan aplikasi dengan memilih Mulai Debugging dari menu Debug di bagian atas jendela IDE (atau tekan F5).
Dokumentasi referensi | Kode sumber pustaka | Paket (PyPi) | Sampel |
Prasyarat
- Langganan Azure - buat langganan gratis
- Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
- Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.
- Python 3.x
- Penginstalan Python Anda harus menyertakan pip. Anda dapat memeriksa apakah pip terinstal dengan menjalankan
pip --version
pada baris perintah. Dapatkan pip dengan menginstal versi terbaru Python.
- Penginstalan Python Anda harus menyertakan pip. Anda dapat memeriksa apakah pip terinstal dengan menjalankan
Membuat variabel lingkungan
Dalam contoh ini, Anda akan menulis kredensial Anda ke variabel lingkungan pada komputer lokal yang menjalankan aplikasi.
Untuk mengatur variabel lingkungan untuk kunci dan titik akhir Anda, buka jendela konsol dan ikuti instruksi untuk sistem operasi dan lingkungan pengembangan Anda.
- Untuk mengatur
CONTENT_SAFETY_KEY
variabel lingkungan, gantiYOUR_CONTENT_SAFETY_KEY
dengan salah satu kunci untuk sumber daya Anda. - Untuk mengatur
CONTENT_SAFETY_ENDPOINT
variabel lingkungan, gantiYOUR_CONTENT_SAFETY_ENDPOINT
dengan titik akhir untuk sumber daya Anda.
Penting
Jika Anda menggunakan kunci API, simpan dengan aman di tempat lain, seperti di Azure Key Vault. Jangan sertakan kunci API langsung dalam kode Anda, dan jangan pernah mempostingnya secara publik.
Untuk informasi selengkapnya tentang keamanan layanan AI, lihat Mengautentikasi permintaan ke layanan Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Setelah menambahkan variabel lingkungan, Anda mungkin perlu memulai ulang program yang sedang berjalan yang akan membaca variabel lingkungan, termasuk jendela konsol.
Analisa konten teks
Bagian berikut memandu permintaan sampel dengan Python SDK.
Buka perintah, navigasikan ke folder proyek Anda, dan buat file baru bernama quickstart.py.
Jalankan perintah ini untuk menginstal pustaka Azure AI Content Safety:
pip install azure-ai-contentsafety
Salin kode berikut ke quickstart.py:
import os from azure.ai.contentsafety import ContentSafetyClient from azure.core.credentials import AzureKeyCredential from azure.core.exceptions import HttpResponseError from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory def analyze_text(): # analyze text key = os.environ["CONTENT_SAFETY_KEY"] endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"] # Create an Azure AI Content Safety client client = ContentSafetyClient(endpoint, AzureKeyCredential(key)) # Contruct request request = AnalyzeTextOptions(text="Your input text") # Analyze text try: response = client.analyze_text(request) except HttpResponseError as e: print("Analyze text failed.") if e.error: print(f"Error code: {e.error.code}") print(f"Error message: {e.error.message}") raise print(e) raise hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE) self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM) sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL) violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE) if hate_result: print(f"Hate severity: {hate_result.severity}") if self_harm_result: print(f"SelfHarm severity: {self_harm_result.severity}") if sexual_result: print(f"Sexual severity: {sexual_result.severity}") if violence_result: print(f"Violence severity: {violence_result.severity}") if __name__ == "__main__": analyze_text()
Ganti
"Your input text"
dengan konten teks yang ingin Anda gunakan.Kemudian jalankan aplikasi dengan
python
perintah pada file mulai cepat Anda.python quickstart.py
Dokumentasi referensi | Kode sumber pustaka | Artefak (Maven) | Sampel
Prasyarat
- Langganan Azure - buat langganan gratis
- Versi terbaru Java Development Kit (JDK)
- Alat build Gradle, atau manajer dependensi lainnya.
- Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
- Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.
Menyiapkan aplikasi
Buat proyek Gradle baru.
Di jendela konsol (seperti cmd, PowerShell, atau Bash), buat direktori baru untuk aplikasi Anda, dan buka direktori tersebut.
mkdir myapp && cd myapp
Jalankan perintah gradle init
dari direktori yang berfungsi. Perintah ini akan membuat file build penting untuk Gradle, termasuk build.gradle.kts yang digunakan saat runtime bahasa umum untuk membuat dan mengonfigurasi aplikasi Anda.
gradle init --type basic
Saat diminta untuk memilih DSL, pilih Kotlin.
Dari direktori kerja Anda, jalankan perintah berikut ini untuk membuat folder sumber proyek:
mkdir -p src/main/java
Navigasi ke folder baru dan buat file yang disebut ContentSafetyQuickstart.java.
Menginstal SDK klien
Mulai cepat ini menggunakan pengelola dependensi Gradle. Anda dapat menemukan pustaka klien dan informasi untuk pengelola dependensi lain di Repositori Pusat Maven.
Temukan build.gradle.kts lalu buka dengan IDE atau editor teks pilihan Anda. Lalu, salin dalam konfigurasi build berikut. Konfigurasi ini mendefinisikan proyek sebagai aplikasi Java yang titik masuknya adalah kelas ContentSafetyQuickstart. Ini mengimpor pustaka Azure AI Vision.
plugins {
java
application
}
application {
mainClass.set("ContentSafetyQuickstart")
}
repositories {
mavenCentral()
}
dependencies {
implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}
Membuat variabel lingkungan
Dalam contoh ini, Anda akan menulis kredensial Anda ke variabel lingkungan pada komputer lokal yang menjalankan aplikasi.
Untuk mengatur variabel lingkungan untuk kunci dan titik akhir Anda, buka jendela konsol dan ikuti instruksi untuk sistem operasi dan lingkungan pengembangan Anda.
- Untuk mengatur
CONTENT_SAFETY_KEY
variabel lingkungan, gantiYOUR_CONTENT_SAFETY_KEY
dengan salah satu kunci untuk sumber daya Anda. - Untuk mengatur
CONTENT_SAFETY_ENDPOINT
variabel lingkungan, gantiYOUR_CONTENT_SAFETY_ENDPOINT
dengan titik akhir untuk sumber daya Anda.
Penting
Jika Anda menggunakan kunci API, simpan dengan aman di tempat lain, seperti di Azure Key Vault. Jangan sertakan kunci API langsung dalam kode Anda, dan jangan pernah mempostingnya secara publik.
Untuk informasi selengkapnya tentang keamanan layanan AI, lihat Mengautentikasi permintaan ke layanan Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Setelah menambahkan variabel lingkungan, Anda mungkin perlu memulai ulang program yang sedang berjalan yang akan membaca variabel lingkungan, termasuk jendela konsol.
Analisa konten teks
Buka ContentSafetyQuickstart.java di editor atau IDE pilihan Anda dan tempelkan kode berikut. Ganti <your text sample>
dengan konten teks yang ingin Anda gunakan.
import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;
public class ContentSafetyQuickstart {
public static void main(String[] args) {
// get endpoint and key from environment variables
String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
String key = System.getenv("CONTENT_SAFETY_KEY");
ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
.credential(new KeyCredential(key))
.endpoint(endpoint).buildClient();
AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));
for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
System.out.println(result.getCategory() + " severity: " + result.getSeverity());
}
}
}
Kembali ke folder akar proyek, dan bangun aplikasi tersebut dengan:
gradle build
Kemudian, jalankan dengan perintah gradle run
:
gradle run
Output
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Dokumentasi referensi | Kode sumber pustaka | Paket (npm) | Sampel |
Prasyarat
- Langganan Azure - buat langganan gratis
- Versi terbaru Node.js
- Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
- Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.
Menyiapkan aplikasi
Buat aplikasi Node.js baru. Di jendela konsol (seperti cmd, PowerShell, atau Bash), buat direktori baru untuk aplikasi Anda, dan buka direktori tersebut.
mkdir myapp && cd myapp
Jalankan perintah npm init
untuk membuat aplikasi node dengan file package.json
.
npm init
Menginstal SDK klien
Instal paket npm @azure-rest/ai-content-safety
:
npm install @azure-rest/ai-content-safety
dotenv
Instal juga modul untuk menggunakan variabel lingkungan:
npm install dotenv
File package.json
aplikasi Anda akan diperbarui dengan dependensi.
Membuat variabel lingkungan
Dalam contoh ini, Anda akan menulis kredensial Anda ke variabel lingkungan pada komputer lokal yang menjalankan aplikasi.
Untuk mengatur variabel lingkungan untuk kunci dan titik akhir Anda, buka jendela konsol dan ikuti instruksi untuk sistem operasi dan lingkungan pengembangan Anda.
- Untuk mengatur
CONTENT_SAFETY_KEY
variabel lingkungan, gantiYOUR_CONTENT_SAFETY_KEY
dengan salah satu kunci untuk sumber daya Anda. - Untuk mengatur
CONTENT_SAFETY_ENDPOINT
variabel lingkungan, gantiYOUR_CONTENT_SAFETY_ENDPOINT
dengan titik akhir untuk sumber daya Anda.
Penting
Jika Anda menggunakan kunci API, simpan dengan aman di tempat lain, seperti di Azure Key Vault. Jangan sertakan kunci API langsung dalam kode Anda, dan jangan pernah mempostingnya secara publik.
Untuk informasi selengkapnya tentang keamanan layanan AI, lihat Mengautentikasi permintaan ke layanan Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Setelah menambahkan variabel lingkungan, Anda mungkin perlu memulai ulang program yang sedang berjalan yang akan membaca variabel lingkungan, termasuk jendela konsol.
Analisa konten teks
Buat file baru di direktori Anda, index.js. Buka di editor atau IDE pilihan Anda dan tempelkan kode berikut. Ganti <your text sample>
dengan konten teks yang ingin Anda gunakan.
const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
{ isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");
// Load the .env file if it exists
require("dotenv").config();
async function main() {
// get endpoint and key from environment variables
const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
const key = process.env["CONTENT_SAFETY_KEY"];
const credential = new AzureKeyCredential(key);
const client = ContentSafetyClient(endpoint, credential);
// replace with your own sample text string
const text = "<your sample text>";
const analyzeTextOption = { text: text };
const analyzeTextParameters = { body: analyzeTextOption };
const result = await client.path("/text:analyze").post(analyzeTextParameters);
if (isUnexpected(result)) {
throw result;
}
for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
console.log(
textCategoriesAnalysisOutput.category,
" severity: ",
textCategoriesAnalysisOutput.severity
);
}
}
main().catch((err) => {
console.error("The sample encountered an error:", err);
});
Jalankan aplikasi dengan perintah node
pada file mulai cepat Anda.
node index.js
Output
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Membersihkan sumber daya
Jika Anda ingin membersihkan dan menghapus langganan layanan Azure AI, Anda dapat menghapus sumber daya atau grup sumber daya. Menghapus grup sumber daya juga menghapus sumber daya apa pun yang terkait dengannya.
Konten terkait
- Kategori bahaya
- Konfigurasikan filter untuk setiap kategori dan uji pada himpunan data menggunakan Content Safety Studio, ekspor kode dan sebarkan.