Bagikan melalui


Mulai Cepat: Menganalisis konten teks

Mulai menggunakan Content Safety Studio, REST API, atau SDK klien untuk melakukan moderasi teks dasar. Layanan Azure AI Content Safety memberi Anda algoritma AI untuk menandai konten yang tidak menyenangkan. Ikuti langkah-langkah ini untuk mencobanya.

Untuk informasi selengkapnya tentang moderasi teks, lihat halaman konsep Kategori bahaya. Untuk batas input API, lihat bagian Persyaratan input dari Gambaran Umum.

Catatan

Data sampel dan kode mungkin berisi konten yang menyinggung. Kebijaksanaan pengguna disarankan.

Prasyarat

  • Langganan Azure - buat langganan gratis
  • Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
    • Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.
  • cURL terpasang

Analisa konten teks

Bagian berikut memancang permintaan sampel dengan cURL. Tempelkan perintah di bawah ini ke editor teks, dan buat perubahan berikut.

  1. Ganti <endpoint> dengan URL titik akhir yang terkait dengan sumber daya Anda.
  2. Ganti <your_subscription_key> dengan salah satu kunci yang disertakan dengan sumber daya Anda.
  3. Secara opsional, ganti "text" bidang dalam isi dengan teks Anda sendiri yang ingin Anda analisis.

    Tip

    Ukuran teks dan granularitas

    Lihat Persyaratan input untuk batasan panjang teks maksimum.

curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2024-09-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "text": "I hate you",
  "categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
  "blocklistNames": ["string"],
  "haltOnBlocklistHit": true,
  "outputType": "FourSeverityLevels"
}'

Bidang di bawah ini harus disertakan dalam url:

Nama Wajib Deskripsi Jenis
Versi API Wajib Ini adalah versi API yang akan diperiksa. Versi saat ini adalah: api-version=2024-09-01. Contoh: <endpoint>/contentsafety/text:analyze?api-version=2024-09-01 String

Parameter dalam isi permintaan ditentukan dalam tabel ini:

Nama Wajib Deskripsi Jenis
text Wajib Ini adalah teks mentah yang akan diperiksa. Karakter non-ascii lainnya dapat disertakan. String
Kategori Opsional Ini diasumsikan sebagai array nama kategori. Lihat panduan Kategori bahaya untuk daftar nama kategori yang tersedia. Jika tidak ada kategori yang ditentukan, keempat kategori akan digunakan. Kami menggunakan beberapa kategori untuk mendapatkan skor dalam satu permintaan. String
blocklistNames Opsional Nama daftar blokir teks. Hanya mendukung karakter berikut: 0-9 A-Z a-z - . _ ~. Anda dapat melampirkan beberapa nama daftar di sini. Array
haltOnBlocklistHit Opsional Ketika diatur ke true, analisis lebih lanjut dari konten berbahaya tidak akan dilakukan dalam kasus di mana daftar blokir terpukul. Ketika diatur ke false, semua analisis konten berbahaya akan dilakukan, apakah daftar blokir terpukul atau tidak. Boolean
outputType Opsional "FourSeverityLevels" atau "EightSeverityLevels". Tingkat keparahan output dalam empat atau delapan tingkat, nilainya bisa atau 0,2,4,6 0,1,2,3,4,5,6,7. String

Lihat contoh isi permintaan berikut:

{
  "text": "I hate you",
  "categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
  "blocklistNames": ["array"],
  "haltOnBlocklistHit": false,
  "outputType": "FourSeverityLevels"
}

Buka jendela prompt perintah, tempelkan perintah cURL yang diedit, dan jalankan.

Output

Anda akan melihat hasil moderasi teks ditampilkan sebagai data JSON dalam output konsol. Contohnya:

{
  "blocklistsMatch": [
    {
      "blocklistName": "string",
      "blocklistItemId": "string",
      "blocklistItemText": "string"
    }
  ],
  "categoriesAnalysis": [
    {
      "category": "Hate",
      "severity": 2
    },
    {
      "category": "SelfHarm",
      "severity": 0
    },
    {
      "category": "Sexual",
      "severity": 0
    },
    {
      "category": "Violence",
      "severity": 0
    }
  ]
}

Bidang JSON dalam output ditentukan di sini:

Nama Deskripsi Jenis
categoriesAnalysis Setiap kelas output yang diprediksi API. Klasifikasi dapat dilabeli secara multi-label. Misalnya, ketika sampel teks dijalankan melalui model moderasi teks, sampel tersebut dapat diklasifikasikan sebagai konten seksual dan kekerasan. Kategori bahaya String
Keparahan Semakin tinggi tingkat keparahan konten input, semakin besar nilai ini. Bilangan bulat

Dokumentasi referensi | Kode sumber pustaka | Paket (NuGet) | Sampel

Prasyarat

  • Langganan Azure - buat langganan gratis
  • Visual Studio IDE dengan pengembangan desktop .NET beban kerja diaktifkan. Atau jika Anda tidak berencana menggunakan Visual Studio IDE, Anda memerlukan versi .NET Core saat ini.
  • Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
    • Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.

Menyiapkan aplikasi

Buat aplikasi C# baru.

Buka Visual Studio, dan di bawah Mulai pilih Buat proyek baru. Atur filter templat ke C#/Semua Platform/Konsol. Pilih Aplikasi Konsol (aplikasi baris perintah yang dapat berjalan di .NET di Windows, Linux, dan macOS) dan pilih Berikutnya. Perbarui nama proyek ke ContentSafetyQuickstart dan pilih Berikutnya. Pilih .NET 6.0 atau lebih tinggi, dan pilih Buat untuk membuat proyek.

Menginstal SDK klien

Setelah Anda membuat proyek baru, instal SDK klien dengan mengklik kanan solusi proyek di Penjelajah Solusi dan memilih Kelola Paket NuGet. Di manajer paket yang terbuka pilih Telusuri, dan cari Azure.AI.ContentSafety. Pilih Instal.

Membuat variabel lingkungan

Dalam contoh ini, Anda akan menulis kredensial Anda ke variabel lingkungan pada komputer lokal yang menjalankan aplikasi.

Untuk mengatur variabel lingkungan untuk kunci dan titik akhir Anda, buka jendela konsol dan ikuti instruksi untuk sistem operasi dan lingkungan pengembangan Anda.

  • Untuk mengatur CONTENT_SAFETY_KEY variabel lingkungan, ganti YOUR_CONTENT_SAFETY_KEY dengan salah satu kunci untuk sumber daya Anda.
  • Untuk mengatur CONTENT_SAFETY_ENDPOINT variabel lingkungan, ganti YOUR_CONTENT_SAFETY_ENDPOINT dengan titik akhir untuk sumber daya Anda.

Penting

Jika Anda menggunakan kunci API, simpan dengan aman di tempat lain, seperti di Azure Key Vault. Jangan sertakan kunci API langsung dalam kode Anda, dan jangan pernah mempostingnya secara publik.

Untuk informasi selengkapnya tentang keamanan layanan AI, lihat Mengautentikasi permintaan ke layanan Azure AI.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Setelah menambahkan variabel lingkungan, Anda mungkin perlu memulai ulang program yang sedang berjalan yang akan membaca variabel lingkungan, termasuk jendela konsol.

Analisa konten teks

Dari direktori proyek, buka file Program.cs yang dibuat sebelumnya. Tempelkan dalam kode berikut:

using System;
using Azure.AI.ContentSafety;

namespace Azure.AI.ContentSafety.Dotnet.Sample
{
  class ContentSafetySampleAnalyzeText
  {
    public static void AnalyzeText()
    {
      // retrieve the endpoint and key from the environment variables created earlier
      string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
      string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");

      ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));

      string text = "Your input text";

      var request = new AnalyzeTextOptions(text);

      Response<AnalyzeTextResult> response;
      try
      {
          response = client.AnalyzeText(request);
      }
      catch (RequestFailedException ex)
      {
          Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
          throw;
      }

      Console.WriteLine("\nAnalyze text succeeded:");
      Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
      Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
      Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
      Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);

    }
    static void Main()
    {
        AnalyzeText();
    }
  }
}

Ganti "Your input text" dengan konten teks yang ingin Anda gunakan.

Tip

Ukuran teks dan granularitas

Lihat Persyaratan input untuk batasan panjang teks maksimum.

Buat dan jalankan aplikasi dengan memilih Mulai Debugging dari menu Debug di bagian atas jendela IDE (atau tekan F5).

Dokumentasi referensi | Kode sumber pustaka | Paket (PyPi) | Sampel |

Prasyarat

  • Langganan Azure - buat langganan gratis
  • Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
    • Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.
  • Python 3.x
    • Penginstalan Python Anda harus menyertakan pip. Anda dapat memeriksa apakah pip terinstal dengan menjalankan pip --version pada baris perintah. Dapatkan pip dengan menginstal versi terbaru Python.

Membuat variabel lingkungan

Dalam contoh ini, Anda akan menulis kredensial Anda ke variabel lingkungan pada komputer lokal yang menjalankan aplikasi.

Untuk mengatur variabel lingkungan untuk kunci dan titik akhir Anda, buka jendela konsol dan ikuti instruksi untuk sistem operasi dan lingkungan pengembangan Anda.

  • Untuk mengatur CONTENT_SAFETY_KEY variabel lingkungan, ganti YOUR_CONTENT_SAFETY_KEY dengan salah satu kunci untuk sumber daya Anda.
  • Untuk mengatur CONTENT_SAFETY_ENDPOINT variabel lingkungan, ganti YOUR_CONTENT_SAFETY_ENDPOINT dengan titik akhir untuk sumber daya Anda.

Penting

Jika Anda menggunakan kunci API, simpan dengan aman di tempat lain, seperti di Azure Key Vault. Jangan sertakan kunci API langsung dalam kode Anda, dan jangan pernah mempostingnya secara publik.

Untuk informasi selengkapnya tentang keamanan layanan AI, lihat Mengautentikasi permintaan ke layanan Azure AI.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Setelah menambahkan variabel lingkungan, Anda mungkin perlu memulai ulang program yang sedang berjalan yang akan membaca variabel lingkungan, termasuk jendela konsol.

Analisa konten teks

Bagian berikut memandu permintaan sampel dengan Python SDK.

  1. Buka perintah, navigasikan ke folder proyek Anda, dan buat file baru bernama quickstart.py.

  2. Jalankan perintah ini untuk menginstal pustaka Azure AI Content Safety:

    pip install azure-ai-contentsafety
    
  3. Salin kode berikut ke quickstart.py:

    import os
    from azure.ai.contentsafety import ContentSafetyClient
    from azure.core.credentials import AzureKeyCredential
    from azure.core.exceptions import HttpResponseError
    from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory
    
    def analyze_text():
        # analyze text
        key = os.environ["CONTENT_SAFETY_KEY"]
        endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"]
    
        # Create an Azure AI Content Safety client
        client = ContentSafetyClient(endpoint, AzureKeyCredential(key))
    
        # Contruct request
        request = AnalyzeTextOptions(text="Your input text")
    
        # Analyze text
        try:
            response = client.analyze_text(request)
        except HttpResponseError as e:
            print("Analyze text failed.")
            if e.error:
                print(f"Error code: {e.error.code}")
                print(f"Error message: {e.error.message}")
                raise
            print(e)
            raise
    
        hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE)
        self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM)
        sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL)
        violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE)
    
        if hate_result:
            print(f"Hate severity: {hate_result.severity}")
        if self_harm_result:
            print(f"SelfHarm severity: {self_harm_result.severity}")
        if sexual_result:
            print(f"Sexual severity: {sexual_result.severity}")
        if violence_result:
            print(f"Violence severity: {violence_result.severity}")
    
    if __name__ == "__main__":
        analyze_text()
    
  4. Ganti "Your input text" dengan konten teks yang ingin Anda gunakan.

    Tip

    Ukuran teks dan granularitas

    Lihat Persyaratan input untuk batasan panjang teks maksimum.

  5. Kemudian jalankan aplikasi dengan python perintah pada file mulai cepat Anda.

    python quickstart.py
    

Dokumentasi referensi | Kode sumber pustaka | Artefak (Maven) | Sampel

Prasyarat

  • Langganan Azure - buat langganan gratis
  • Versi terbaru Java Development Kit (JDK)
  • Alat build Gradle, atau manajer dependensi lainnya.
  • Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
    • Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.

Menyiapkan aplikasi

Buat proyek Gradle baru.

Di jendela konsol (seperti cmd, PowerShell, atau Bash), buat direktori baru untuk aplikasi Anda, dan buka direktori tersebut.

mkdir myapp && cd myapp

Jalankan perintah gradle init dari direktori yang berfungsi. Perintah ini akan membuat file build penting untuk Gradle, termasuk build.gradle.kts yang digunakan saat runtime bahasa umum untuk membuat dan mengonfigurasi aplikasi Anda.

gradle init --type basic

Saat diminta untuk memilih DSL, pilih Kotlin.

Dari direktori kerja Anda, jalankan perintah berikut ini untuk membuat folder sumber proyek:

mkdir -p src/main/java

Navigasi ke folder baru dan buat file yang disebut ContentSafetyQuickstart.java.

Menginstal SDK klien

Mulai cepat ini menggunakan pengelola dependensi Gradle. Anda dapat menemukan pustaka klien dan informasi untuk pengelola dependensi lain di Repositori Pusat Maven.

Temukan build.gradle.kts lalu buka dengan IDE atau editor teks pilihan Anda. Lalu, salin dalam konfigurasi build berikut. Konfigurasi ini mendefinisikan proyek sebagai aplikasi Java yang titik masuknya adalah kelas ContentSafetyQuickstart. Ini mengimpor pustaka Azure AI Vision.

plugins {
    java
    application
}
application { 
    mainClass.set("ContentSafetyQuickstart")
}
repositories {
    mavenCentral()
}
dependencies {
    implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}

Membuat variabel lingkungan

Dalam contoh ini, Anda akan menulis kredensial Anda ke variabel lingkungan pada komputer lokal yang menjalankan aplikasi.

Untuk mengatur variabel lingkungan untuk kunci dan titik akhir Anda, buka jendela konsol dan ikuti instruksi untuk sistem operasi dan lingkungan pengembangan Anda.

  • Untuk mengatur CONTENT_SAFETY_KEY variabel lingkungan, ganti YOUR_CONTENT_SAFETY_KEY dengan salah satu kunci untuk sumber daya Anda.
  • Untuk mengatur CONTENT_SAFETY_ENDPOINT variabel lingkungan, ganti YOUR_CONTENT_SAFETY_ENDPOINT dengan titik akhir untuk sumber daya Anda.

Penting

Jika Anda menggunakan kunci API, simpan dengan aman di tempat lain, seperti di Azure Key Vault. Jangan sertakan kunci API langsung dalam kode Anda, dan jangan pernah mempostingnya secara publik.

Untuk informasi selengkapnya tentang keamanan layanan AI, lihat Mengautentikasi permintaan ke layanan Azure AI.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Setelah menambahkan variabel lingkungan, Anda mungkin perlu memulai ulang program yang sedang berjalan yang akan membaca variabel lingkungan, termasuk jendela konsol.

Analisa konten teks

Buka ContentSafetyQuickstart.java di editor atau IDE pilihan Anda dan tempelkan kode berikut. Ganti <your text sample> dengan konten teks yang ingin Anda gunakan.

Tip

Ukuran teks dan granularitas

Lihat Persyaratan input untuk batasan panjang teks maksimum.

import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;


public class ContentSafetyQuickstart {
    public static void main(String[] args) {

        // get endpoint and key from environment variables
        String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
        String key = System.getenv("CONTENT_SAFETY_KEY");
        
        ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
            .credential(new KeyCredential(key))
            .endpoint(endpoint).buildClient();

        AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));

        for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
            System.out.println(result.getCategory() + " severity: " + result.getSeverity());
        }
    }
}

Kembali ke folder akar proyek, dan bangun aplikasi tersebut dengan:

gradle build

Kemudian, jalankan dengan perintah gradle run:

gradle run

Output

Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0

Dokumentasi referensi | Kode sumber pustaka | Paket (npm) | Sampel |

Prasyarat

  • Langganan Azure - buat langganan gratis
  • Versi terbaru Node.js
  • Setelah Anda memiliki langganan Azure, buat sumber daya Content Safety di portal Azure untuk mendapatkan kunci dan titik akhir Anda. Masukkan nama unik untuk sumber daya Anda, pilih langganan Anda, dan pilih grup sumber daya, wilayah yang didukung (lihat Ketersediaan wilayah), dan tingkat harga yang didukung. Lalu pilih Buat.
    • Sumber daya membutuhkan waktu beberapa menit untuk disebarkan. Setelah selesai, Pilih buka sumber daya. Di panel kiri, di bawah Manajemen Sumber Daya, pilih Kunci Langganan dan Titik Akhir. Titik akhir dan salah satu kunci digunakan untuk memanggil API.

Menyiapkan aplikasi

Buat aplikasi Node.js baru. Di jendela konsol (seperti cmd, PowerShell, atau Bash), buat direktori baru untuk aplikasi Anda, dan buka direktori tersebut.

mkdir myapp && cd myapp

Jalankan perintah npm init untuk membuat aplikasi node dengan file package.json.

npm init

Menginstal SDK klien

Instal paket npm @azure-rest/ai-content-safety:

npm install @azure-rest/ai-content-safety

dotenv Instal juga modul untuk menggunakan variabel lingkungan:

npm install dotenv

File package.json aplikasi Anda akan diperbarui dengan dependensi.

Membuat variabel lingkungan

Dalam contoh ini, Anda akan menulis kredensial Anda ke variabel lingkungan pada komputer lokal yang menjalankan aplikasi.

Untuk mengatur variabel lingkungan untuk kunci dan titik akhir Anda, buka jendela konsol dan ikuti instruksi untuk sistem operasi dan lingkungan pengembangan Anda.

  • Untuk mengatur CONTENT_SAFETY_KEY variabel lingkungan, ganti YOUR_CONTENT_SAFETY_KEY dengan salah satu kunci untuk sumber daya Anda.
  • Untuk mengatur CONTENT_SAFETY_ENDPOINT variabel lingkungan, ganti YOUR_CONTENT_SAFETY_ENDPOINT dengan titik akhir untuk sumber daya Anda.

Penting

Jika Anda menggunakan kunci API, simpan dengan aman di tempat lain, seperti di Azure Key Vault. Jangan sertakan kunci API langsung dalam kode Anda, dan jangan pernah mempostingnya secara publik.

Untuk informasi selengkapnya tentang keamanan layanan AI, lihat Mengautentikasi permintaan ke layanan Azure AI.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Setelah menambahkan variabel lingkungan, Anda mungkin perlu memulai ulang program yang sedang berjalan yang akan membaca variabel lingkungan, termasuk jendela konsol.

Analisa konten teks

Buat file baru di direktori Anda, index.js. Buka di editor atau IDE pilihan Anda dan tempelkan kode berikut. Ganti <your text sample> dengan konten teks yang ingin Anda gunakan.

Tip

Ukuran teks dan granularitas

Lihat Persyaratan input untuk batasan panjang teks maksimum.

const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
  { isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");

// Load the .env file if it exists
require("dotenv").config();

async function main() {
    // get endpoint and key from environment variables
    const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
    const key = process.env["CONTENT_SAFETY_KEY"];
    
    const credential = new AzureKeyCredential(key);
    const client = ContentSafetyClient(endpoint, credential);
    
    // replace with your own sample text string 
    const text = "<your sample text>";
    const analyzeTextOption = { text: text };
    const analyzeTextParameters = { body: analyzeTextOption };
    
    const result = await client.path("/text:analyze").post(analyzeTextParameters);
    
    if (isUnexpected(result)) {
        throw result;
    }
    
    for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
    const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
    console.log(
      textCategoriesAnalysisOutput.category,
      " severity: ",
      textCategoriesAnalysisOutput.severity
    );
  }
}

main().catch((err) => {
    console.error("The sample encountered an error:", err);
});

Jalankan aplikasi dengan perintah node pada file mulai cepat Anda.

node index.js

Output

Hate severity:  0
SelfHarm severity:  0
Sexual severity:  0
Violence severity:  0

Membersihkan sumber daya

Jika Anda ingin membersihkan dan menghapus langganan layanan Azure AI, Anda dapat menghapus sumber daya atau grup sumber daya. Menghapus grup sumber daya juga menghapus sumber daya apa pun yang terkait dengannya.