Bagikan melalui


Text Operations - Analyze Text

Analisis Teks
API sinkron untuk analisis konten teks yang berpotensi berbahaya. Saat ini, mendukung empat kategori: Hate, SelfHarm, Sexual, dan Violence.

POST {endpoint}/contentsafety/text:analyze?api-version=2024-09-01

Parameter URI

Nama Dalam Diperlukan Jenis Deskripsi
endpoint
path True

string

Titik akhir Cognitive Services yang didukung (protokol dan nama host, misalnya: https://.cognitiveservices.azure.com).

api-version
query True

string

Versi API yang akan digunakan untuk operasi ini.

Isi Permintaan

Nama Diperlukan Jenis Deskripsi
text True

string

Teks yang akan dianalisis. Kami mendukung maksimum 10k karakter Unicode (poin kode Unicode) dalam teks satu permintaan.

blocklistNames

string[]

Nama daftar blokir.

categories

TextCategory[]

Kategori akan dianalisis. Jika tidak ditetapkan, serangkaian hasil analisis default untuk kategori akan dikembalikan.

haltOnBlocklistHit

boolean

Ketika diatur ke true, analisis lebih lanjut dari konten berbahaya tidak akan dilakukan dalam kasus di mana daftar blokir terpukul. Ketika diatur ke false, semua analisis konten berbahaya akan dilakukan, apakah daftar blokir terpukul atau tidak.

outputType

AnalyzeTextOutputType

Ini mengacu pada jenis output analisis teks. Jika tidak ada nilai yang ditetapkan, nilai defaultnya adalah "FourSeverityLevels".

Respons

Nama Jenis Deskripsi
200 OK

AnalyzeTextResult

Permintaan telah berhasil.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Respons kesalahan tak terduga.

Header

x-ms-error-code: string

Keamanan

Ocp-Apim-Subscription-Key

Jenis: apiKey
Dalam: header

OAuth2Auth

Jenis: oauth2
Alur: application
URL token: https://login.microsoftonline.com/common/oauth2/v2.0/token

Cakupan

Nama Deskripsi
https://cognitiveservices.azure.com/.default

Contoh

Analyze Text

Permintaan sampel

POST {endpoint}/contentsafety/text:analyze?api-version=2024-09-01

{
  "text": "This is text example"
}

Respon sampel

{
  "blocklistsMatch": [],
  "categoriesAnalysis": [
    {
      "category": "Hate",
      "severity": 0
    },
    {
      "category": "SelfHarm",
      "severity": 0
    },
    {
      "category": "Sexual",
      "severity": 0
    },
    {
      "category": "Violence",
      "severity": 0
    }
  ]
}

Definisi

Nama Deskripsi
AnalyzeTextOptions

Permintaan analisis teks.

AnalyzeTextOutputType

Ini mengacu pada jenis output analisis teks. Jika tidak ada nilai yang ditetapkan, nilai defaultnya adalah "FourSeverityLevels".

AnalyzeTextResult

Respons analisis teks.

Azure.Core.Foundations.Error

Objek kesalahan.

Azure.Core.Foundations.ErrorResponse

Respons yang berisi detail kesalahan.

Azure.Core.Foundations.InnerError

Objek yang berisi informasi yang lebih spesifik tentang kesalahan. Sesuai panduan Microsoft One API - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

TextBlocklistMatch

Hasil dari kecocokan daftar blokir.

TextCategoriesAnalysis

Hasil analisis teks.

TextCategory

Kategori bahaya yang didukung dalam analisis konten Teks.

AnalyzeTextOptions

Permintaan analisis teks.

Nama Jenis Nilai default Deskripsi
blocklistNames

string[]

Nama daftar blokir.

categories

TextCategory[]

Kategori akan dianalisis. Jika tidak ditetapkan, serangkaian hasil analisis default untuk kategori akan dikembalikan.

haltOnBlocklistHit

boolean

Ketika diatur ke true, analisis lebih lanjut dari konten berbahaya tidak akan dilakukan dalam kasus di mana daftar blokir terpukul. Ketika diatur ke false, semua analisis konten berbahaya akan dilakukan, apakah daftar blokir terpukul atau tidak.

outputType

AnalyzeTextOutputType

FourSeverityLevels

Ini mengacu pada jenis output analisis teks. Jika tidak ada nilai yang ditetapkan, nilai defaultnya adalah "FourSeverityLevels".

text

string

Teks yang akan dianalisis. Kami mendukung maksimum 10k karakter Unicode (poin kode Unicode) dalam teks satu permintaan.

AnalyzeTextOutputType

Ini mengacu pada jenis output analisis teks. Jika tidak ada nilai yang ditetapkan, nilai defaultnya adalah "FourSeverityLevels".

Nama Jenis Deskripsi
EightSeverityLevels

string

Tingkat keparahan output dalam delapan tingkat, nilainya bisa 0,1,2,3,4,5,6,7.

FourSeverityLevels

string

Tingkat keparahan output dalam empat tingkat, nilainya bisa 0,2,4,6.

AnalyzeTextResult

Respons analisis teks.

Nama Jenis Deskripsi
blocklistsMatch

TextBlocklistMatch[]

Detail kecocokan daftar blokir.

categoriesAnalysis

TextCategoriesAnalysis[]

Hasil analisis untuk kategori.

Azure.Core.Foundations.Error

Objek kesalahan.

Nama Jenis Deskripsi
code

string

Salah satu sekumpulan kode kesalahan yang ditentukan server.

details

Azure.Core.Foundations.Error[]

Array detail tentang kesalahan tertentu yang menyebabkan kesalahan yang dilaporkan ini.

innererror

Azure.Core.Foundations.InnerError

Objek yang berisi informasi yang lebih spesifik daripada objek saat ini tentang kesalahan.

message

string

Representasi kesalahan yang dapat dibaca manusia.

target

string

Target kesalahan.

Azure.Core.Foundations.ErrorResponse

Respons yang berisi detail kesalahan.

Nama Jenis Deskripsi
error

Azure.Core.Foundations.Error

Objek kesalahan.

Azure.Core.Foundations.InnerError

Objek yang berisi informasi yang lebih spesifik tentang kesalahan. Sesuai panduan Microsoft One API - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

Nama Jenis Deskripsi
code

string

Salah satu sekumpulan kode kesalahan yang ditentukan server.

innererror

Azure.Core.Foundations.InnerError

Kesalahan dalam.

TextBlocklistMatch

Hasil dari kecocokan daftar blokir.

Nama Jenis Deskripsi
blocklistItemId

string

ID item yang cocok.

blocklistItemText

string

Konten item yang cocok.

blocklistName

string

Nama daftar blokir yang cocok.

TextCategoriesAnalysis

Hasil analisis teks.

Nama Jenis Deskripsi
category

TextCategory

Kategori analisis teks.

severity

integer

Nilai meningkat dengan tingkat keparahan konten input. Nilai bidang ini ditentukan oleh jenis output yang ditentukan dalam permintaan. Jenis output bisa menjadi 'FourSeverityLevels' atau 'EightSeverity Levels', dan nilai outputnya bisa 0, 2, 4, 6 atau 0, 1, 2, 3, 4, 5, 6, atau 7.

TextCategory

Kategori bahaya yang didukung dalam analisis konten Teks.

Nama Jenis Deskripsi
Hate

string

Kategori bahaya untuk Teks - Kebencian.

SelfHarm

string

Kategori bahaya untuk Teks - SelfHarm.

Sexual

string

Kategori bahaya untuk Teks - Seksual.

Violence

string

Kategori bahaya untuk Teks - Kekerasan.