Inicio rápido: análisis del contenido del texto
Empiece a trabajar con Content Safety Studio, la API de REST o los SDK de cliente para realizar la moderación básica de texto. El servicio de Seguridad del contenido de Azure AI proporciona algoritmos de inteligencia artificial para marcar contenido censurable. Siga estos pasos para probarlo.
Para más información sobre la moderación de texto, consulte la página Concepto de categorías de daños. Para conocer los límites de entrada de la API, consulte la sección Requisitos de entrada de la Información general.
Nota:
Los datos y el código de ejemplo pueden contener contenido ofensivo. Se recomienda discreción al usuario.
Requisitos previos
- Una suscripción a Azure: cree una cuenta gratuita.
- Una vez que tenga la suscripción de Azure, cree un recurso de Content Safety en Azure Portal para obtener la clave y el punto de conexión. Escriba un nombre único para el recurso, seleccione la suscripción y, después, un grupo de recursos, una región admitida (consulte Región de disponibilidad) y el plan de tarifa admitido. Seleccione Crear.
- El recurso tarda unos minutos en implementarse. Cuando termine, seleccione Ir al recurso. En el panel de la izquierda, en Administración de recursos, seleccione Clave y punto de conexión de la suscripción. El punto de conexión y cualquiera de las claves se usan para llamar a las API.
- cURL instalado
Análisis de contenido de texto
En la sección siguiente se muestra una solicitud de ejemplo con cURL. Pegue el comando siguiente en un editor de texto y realice los cambios siguientes.
- Reemplace
<endpoint>
por la dirección URL del punto de conexión asociada con el recurso. - Reemplace
<your_subscription_key>
por una de las claves que vienen con el recurso. - Opcionalmente, reemplace el campo
"text"
del cuerpo por el texto que le gustaría analizar.Sugerencia
Granularidad y tamaño del texto
Consulte Requisitos de entrada para conocer las limitaciones máximas de longitud de texto.
curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2024-09-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["string"],
"haltOnBlocklistHit": true,
"outputType": "FourSeverityLevels"
}'
Los campos siguientes deben incluirse en la dirección URL:
Nombre | Obligatorio | Descripción | Tipo |
---|---|---|---|
Versión de la API | Obligatorio | Esta es la versión de la API que se va a comprobar. La versión actual es: api-version=2024-09-01. Ejemplo: <endpoint>/contentsafety/text:analyze?api-version=2024-09-01 |
String |
Los parámetros del cuerpo de la solicitud se definen en esta tabla:
Nombre | Obligatorio | Descripción | Tipo |
---|---|---|---|
text | Obligatorio | Este es el texto sin formato que se va a comprobar. Se pueden incluir caracteres que no sean ASCII. | String |
categories | Opcional | Se supone que es una matriz de nombres de categoría. Para obtener una lista de los nombres de categoría disponibles. consulte la guía de categorías de daños. Si no se especifica ninguna categoría, se usan las cuatro. Usamos varias categorías para obtener puntuaciones en una sola solicitud. | String |
blocklistNames | Opcional | Nombre de la lista de bloqueados en el texto. Solo admite caracteres siguientes: 0-9 A-Z a-z - . _ ~ . Aquí puede adjuntar varios nombres de lista. |
Matriz |
haltOnBlocklistHit | Opcional | Cuando se establece en true , no se realizarán análisis adicionales del contenido dañino en los casos en los que se alcancen las listas de bloqueados. Si se establece en false , se realizarán todos los análisis del contenido dañino, tanto si se alcanzan las listas de bloqueados como si no se hace. |
Booleano |
outputType | Opcional | "FourSeverityLevels" o "EightSeverityLevels" . Gravedades de salida en cuatro o ocho niveles, el valor puede ser 0,2,4,6 o 0,1,2,3,4,5,6,7 . |
String |
Consulte el cuerpo de la solicitud de ejemplo siguiente:
{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["array"],
"haltOnBlocklistHit": false,
"outputType": "FourSeverityLevels"
}
Abra una ventana del símbolo del sistema, pegue el comando cURL editado y ejecútelo.
Output
Debería ver los resultados de la moderación del texto mostrados como datos JSON en la salida de la consola. Por ejemplo:
{
"blocklistsMatch": [
{
"blocklistName": "string",
"blocklistItemId": "string",
"blocklistItemText": "string"
}
],
"categoriesAnalysis": [
{
"category": "Hate",
"severity": 2
},
{
"category": "SelfHarm",
"severity": 0
},
{
"category": "Sexual",
"severity": 0
},
{
"category": "Violence",
"severity": 0
}
]
}
Los campos JSON de la salida se definen aquí:
Nombre | Description | Tipo |
---|---|---|
categoriesAnalysis | Cada clase de salida que predice la API. La clasificación puede tener varias etiquetas. Por ejemplo, cuando se ejecuta una muestra de texto a través del modelo de moderación de texto, se puede clasificar como contenido sexual y violencia. Categorías de daños | String |
Gravedad | Cuanto mayor sea la gravedad del contenido de entrada, mayor será este valor. | Entero |
Documentación de referencia | Código fuente de la biblioteca | Paquete (NuGet) | Ejemplos
Requisitos previos
- Una suscripción a Azure: cree una cuenta gratuita.
- El IDE de Visual Studio con la carga de trabajo .NET de desarrollo de escritorio activada. O bien, si no planea usar el IDE de Visual Studio, necesita la versión actual de .NET Core.
- Una vez que tenga la suscripción de Azure, cree un recurso de Content Safety en Azure Portal para obtener la clave y el punto de conexión. Escriba un nombre único para el recurso, seleccione la suscripción y, después, un grupo de recursos, una región admitida (consulte Región de disponibilidad) y el plan de tarifa admitido. Seleccione Crear.
- El recurso tarda unos minutos en implementarse. Cuando termine, seleccione Ir al recurso. En el panel de la izquierda, en Administración de recursos, seleccione Clave y punto de conexión de la suscripción. El punto de conexión y cualquiera de las claves se usan para llamar a las API.
Configurar la aplicación
Cree una aplicación de C#.
Abra Visual Studio y, en Comenzar, seleccione Crear un proyecto nuevo. Establezca los filtros de plantilla en C#/Todas las plataformas/Consola. Seleccione Aplicación de consola (aplicación de línea de comandos que se puede ejecutar en .NET en Windows, Linux y macOS) y elija Siguiente. Actualice el nombre del proyecto a ContentSafetyQuickstart y elija Siguiente. Seleccione .NET 6.0 o superior y elija Crear para crear el proyecto.
Instalación del SDK de cliente
Después de crear un proyecto, instale el SDK de cliente; para ello, haga clic con el botón derecho en la solución del proyecto en el Explorador de soluciones y seleccione Administrar paquetes NuGet. En el administrador de paquetes que se abre, seleccione Examinar y busque Azure.AI.ContentSafety
. Seleccione Instalar.
Creación de variables de entorno
En este ejemplo, escribirá las credenciales en variables de entorno del equipo local que ejecuta la aplicación.
Para establecer la variable de entorno para la clave y el punto de conexión, abra una ventana de consola y siga las instrucciones correspondientes a su sistema operativo y su entorno de desarrollo.
- Para establecer la variable de entorno
CONTENT_SAFETY_KEY
, reemplaceYOUR_CONTENT_SAFETY_KEY
por una de las claves del recurso. - Para establecer la variable de entorno
CONTENT_SAFETY_ENDPOINT
, reemplaceYOUR_CONTENT_SAFETY_ENDPOINT
por el punto de conexión del recurso.
Importante
Si usa una clave de API, almacénela de forma segura en otro lugar, como en Azure Key Vault. No incluya la clave de API directamente en el código ni la exponga nunca públicamente.
Para más información acerca de la seguridad de los servicios de AI, consulte Autenticación de solicitudes a los servicios de Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Después de agregar las variables de entorno, puede que tenga que reiniciar todos los programas en ejecución que leerán la variable de entorno, incluida la ventana de consola.
Análisis de contenido de texto
En el directorio del proyecto, abra el archivo Program.cs que se creó anteriormente. Pegue el código siguiente:
using System;
using Azure.AI.ContentSafety;
namespace Azure.AI.ContentSafety.Dotnet.Sample
{
class ContentSafetySampleAnalyzeText
{
public static void AnalyzeText()
{
// retrieve the endpoint and key from the environment variables created earlier
string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");
ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));
string text = "Your input text";
var request = new AnalyzeTextOptions(text);
Response<AnalyzeTextResult> response;
try
{
response = client.AnalyzeText(request);
}
catch (RequestFailedException ex)
{
Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
throw;
}
Console.WriteLine("\nAnalyze text succeeded:");
Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);
}
static void Main()
{
AnalyzeText();
}
}
}
Reemplace "Your input text"
por el contenido de texto que desea usar.
Sugerencia
Granularidad y tamaño del texto
Consulte Requisitos de entrada para conocer las limitaciones máximas de longitud de texto.
Compile y ejecute la aplicación seleccionando Iniciar depuración en el menú Depurar de la parte superior de la ventana de IDE (o presione F5).
Documentación de referencia | Código fuente de la biblioteca | Paquete (PyPI) | Ejemplos |
Requisitos previos
- Una suscripción a Azure: cree una cuenta gratuita.
- Una vez que tenga la suscripción de Azure, cree un recurso de Content Safety en Azure Portal para obtener la clave y el punto de conexión. Escriba un nombre único para el recurso, seleccione la suscripción y, después, un grupo de recursos, una región admitida (consulte Región de disponibilidad) y el plan de tarifa admitido. Seleccione Crear.
- El recurso tarda unos minutos en implementarse. Cuando termine, seleccione Ir al recurso. En el panel de la izquierda, en Administración de recursos, seleccione Clave y punto de conexión de la suscripción. El punto de conexión y cualquiera de las claves se usan para llamar a las API.
- Python 3.x
- La instalación de Python debe incluir pip. Puede comprobar si tiene pip instalado mediante la ejecución de
pip --version
en la línea de comandos. Para obtener pip, instale la versión más reciente de Python.
- La instalación de Python debe incluir pip. Puede comprobar si tiene pip instalado mediante la ejecución de
Creación de variables de entorno
En este ejemplo, escribirá las credenciales en variables de entorno del equipo local que ejecuta la aplicación.
Para establecer la variable de entorno para la clave y el punto de conexión, abra una ventana de consola y siga las instrucciones correspondientes a su sistema operativo y su entorno de desarrollo.
- Para establecer la variable de entorno
CONTENT_SAFETY_KEY
, reemplaceYOUR_CONTENT_SAFETY_KEY
por una de las claves del recurso. - Para establecer la variable de entorno
CONTENT_SAFETY_ENDPOINT
, reemplaceYOUR_CONTENT_SAFETY_ENDPOINT
por el punto de conexión del recurso.
Importante
Si usa una clave de API, almacénela de forma segura en otro lugar, como en Azure Key Vault. No incluya la clave de API directamente en el código ni la exponga nunca públicamente.
Para más información acerca de la seguridad de los servicios de AI, consulte Autenticación de solicitudes a los servicios de Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Después de agregar las variables de entorno, puede que tenga que reiniciar todos los programas en ejecución que leerán la variable de entorno, incluida la ventana de consola.
Análisis de contenido de texto
En la sección siguiente se muestra una solicitud de ejemplo con el SDK de Python.
Abra un símbolo del sistema, vaya a la carpeta del proyecto y cree un archivo denominado quickstart.py.
Ejecute este comando para instalar la biblioteca de Azure AI Content Safety:
pip install azure-ai-contentsafety
Copie en quickstart.py el código siguiente:
import os from azure.ai.contentsafety import ContentSafetyClient from azure.core.credentials import AzureKeyCredential from azure.core.exceptions import HttpResponseError from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory def analyze_text(): # analyze text key = os.environ["CONTENT_SAFETY_KEY"] endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"] # Create an Azure AI Content Safety client client = ContentSafetyClient(endpoint, AzureKeyCredential(key)) # Contruct request request = AnalyzeTextOptions(text="Your input text") # Analyze text try: response = client.analyze_text(request) except HttpResponseError as e: print("Analyze text failed.") if e.error: print(f"Error code: {e.error.code}") print(f"Error message: {e.error.message}") raise print(e) raise hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE) self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM) sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL) violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE) if hate_result: print(f"Hate severity: {hate_result.severity}") if self_harm_result: print(f"SelfHarm severity: {self_harm_result.severity}") if sexual_result: print(f"Sexual severity: {sexual_result.severity}") if violence_result: print(f"Violence severity: {violence_result.severity}") if __name__ == "__main__": analyze_text()
Reemplace
"Your input text"
por el contenido de texto que desea usar.Sugerencia
Granularidad y tamaño del texto
Consulte Requisitos de entrada para conocer las limitaciones máximas de longitud de texto.
Luego ejecute la aplicación con el comando
python
en el archivo de inicio rápido.python quickstart.py
Documentación de referencia | Código fuente de la biblioteca | Artifact (Maven) | Ejemplos
Requisitos previos
- Una suscripción a Azure: cree una cuenta gratuita.
- La última versión de Java Development Kit (JDK)
- La herramienta de compilación de Gradle u otro administrador de dependencias.
- Una vez que tenga la suscripción de Azure, cree un recurso de Content Safety en Azure Portal para obtener la clave y el punto de conexión. Escriba un nombre único para el recurso, seleccione la suscripción y, después, un grupo de recursos, una región admitida (consulte Región de disponibilidad) y el plan de tarifa admitido. Seleccione Crear.
- El recurso tarda unos minutos en implementarse. Cuando termine, seleccione Ir al recurso. En el panel de la izquierda, en Administración de recursos, seleccione Clave y punto de conexión de la suscripción. El punto de conexión y cualquiera de las claves se usan para llamar a las API.
Configurar la aplicación
Cree un proyecto de Gradle.
En una ventana de la consola (como cmd, PowerShell o Bash), cree un directorio para la aplicación y vaya a él.
mkdir myapp && cd myapp
Ejecute el comando gradle init
desde el directorio de trabajo. Este comando creará archivos de compilación esenciales para Gradle, como build.gradle.kts, que se usa en tiempo de ejecución para crear y configurar la aplicación.
gradle init --type basic
Cuando se le solicite que elija un DSL, seleccione Kotlin.
En el directorio de trabajo, ejecute el siguiente comando para crear una carpeta de origen del proyecto:
mkdir -p src/main/java
Vaya a la nueva carpeta y cree un archivo llamado ContentSafetyQuickstart.java.
Instalación del SDK de cliente
En este inicio rápido se usa el administrador de dependencias Gradle. Puede encontrar la biblioteca de cliente y la información de otros administradores de dependencias en el repositorio central de Maven.
Busque build.gradle.kts y ábralo con el IDE o el editor de texto que prefiera. A continuación, cópielo en la siguiente configuración de compilación. Esta configuración define el proyecto como una aplicación Java cuyo punto de entrada es la clase ContentSafetyQuickstart. Importa la biblioteca de Visión de Azure AI.
plugins {
java
application
}
application {
mainClass.set("ContentSafetyQuickstart")
}
repositories {
mavenCentral()
}
dependencies {
implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}
Creación de variables de entorno
En este ejemplo, escribirá las credenciales en variables de entorno del equipo local que ejecuta la aplicación.
Para establecer la variable de entorno para la clave y el punto de conexión, abra una ventana de consola y siga las instrucciones correspondientes a su sistema operativo y su entorno de desarrollo.
- Para establecer la variable de entorno
CONTENT_SAFETY_KEY
, reemplaceYOUR_CONTENT_SAFETY_KEY
por una de las claves del recurso. - Para establecer la variable de entorno
CONTENT_SAFETY_ENDPOINT
, reemplaceYOUR_CONTENT_SAFETY_ENDPOINT
por el punto de conexión del recurso.
Importante
Si usa una clave de API, almacénela de forma segura en otro lugar, como en Azure Key Vault. No incluya la clave de API directamente en el código ni la exponga nunca públicamente.
Para más información acerca de la seguridad de los servicios de AI, consulte Autenticación de solicitudes a los servicios de Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Después de agregar las variables de entorno, puede que tenga que reiniciar todos los programas en ejecución que leerán la variable de entorno, incluida la ventana de consola.
Análisis de contenido de texto
Abra ContentSafetyQuickstart.java en el editor o IDE que prefiera y pegue el siguiente código. Reemplace <your text sample>
por el contenido de texto que desea usar.
Sugerencia
Granularidad y tamaño del texto
Consulte Requisitos de entrada para conocer las limitaciones máximas de longitud de texto.
import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;
public class ContentSafetyQuickstart {
public static void main(String[] args) {
// get endpoint and key from environment variables
String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
String key = System.getenv("CONTENT_SAFETY_KEY");
ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
.credential(new KeyCredential(key))
.endpoint(endpoint).buildClient();
AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));
for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
System.out.println(result.getCategory() + " severity: " + result.getSeverity());
}
}
}
Vuelva a la carpeta raíz del proyecto y compile la aplicación con:
gradle build
A continuación, ejecútela con el comando gradle run
:
gradle run
Salida
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Documentación de referencia | Código fuente de la biblioteca | Paquete (npm) | Ejemplos |
Requisitos previos
- Una suscripción a Azure: cree una cuenta gratuita.
- La versión actual de Node.js
- Una vez que tenga la suscripción de Azure, cree un recurso de Content Safety en Azure Portal para obtener la clave y el punto de conexión. Escriba un nombre único para el recurso, seleccione la suscripción y, después, un grupo de recursos, una región admitida (consulte Región de disponibilidad) y el plan de tarifa admitido. Seleccione Crear.
- El recurso tarda unos minutos en implementarse. Cuando termine, seleccione Ir al recurso. En el panel de la izquierda, en Administración de recursos, seleccione Clave y punto de conexión de la suscripción. El punto de conexión y cualquiera de las claves se usan para llamar a las API.
Configurar la aplicación
Cree una nueva aplicación Node.js. En una ventana de la consola (como cmd, PowerShell o Bash), cree un directorio para la aplicación y vaya a él.
mkdir myapp && cd myapp
Ejecute el comando npm init
para crear una aplicación de nodo con un archivo package.json
.
npm init
Instalación del SDK de cliente
Instale el paquete npm @azure-rest/ai-content-safety
:
npm install @azure-rest/ai-content-safety
Instale también el módulo dotenv
para usar variables de entorno:
npm install dotenv
el archivo package.json
de la aplicación se actualizará con las dependencias.
Creación de variables de entorno
En este ejemplo, escribirá las credenciales en variables de entorno del equipo local que ejecuta la aplicación.
Para establecer la variable de entorno para la clave y el punto de conexión, abra una ventana de consola y siga las instrucciones correspondientes a su sistema operativo y su entorno de desarrollo.
- Para establecer la variable de entorno
CONTENT_SAFETY_KEY
, reemplaceYOUR_CONTENT_SAFETY_KEY
por una de las claves del recurso. - Para establecer la variable de entorno
CONTENT_SAFETY_ENDPOINT
, reemplaceYOUR_CONTENT_SAFETY_ENDPOINT
por el punto de conexión del recurso.
Importante
Si usa una clave de API, almacénela de forma segura en otro lugar, como en Azure Key Vault. No incluya la clave de API directamente en el código ni la exponga nunca públicamente.
Para más información acerca de la seguridad de los servicios de AI, consulte Autenticación de solicitudes a los servicios de Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Después de agregar las variables de entorno, puede que tenga que reiniciar todos los programas en ejecución que leerán la variable de entorno, incluida la ventana de consola.
Análisis de contenido de texto
Cree un nuevo archivo en el directorio index.js. Ábralo en el editor o IDE que prefiera y pegue el siguiente código. Reemplace <your text sample>
por el contenido de texto que desea usar.
Sugerencia
Granularidad y tamaño del texto
Consulte Requisitos de entrada para conocer las limitaciones máximas de longitud de texto.
const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
{ isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");
// Load the .env file if it exists
require("dotenv").config();
async function main() {
// get endpoint and key from environment variables
const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
const key = process.env["CONTENT_SAFETY_KEY"];
const credential = new AzureKeyCredential(key);
const client = ContentSafetyClient(endpoint, credential);
// replace with your own sample text string
const text = "<your sample text>";
const analyzeTextOption = { text: text };
const analyzeTextParameters = { body: analyzeTextOption };
const result = await client.path("/text:analyze").post(analyzeTextParameters);
if (isUnexpected(result)) {
throw result;
}
for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
console.log(
textCategoriesAnalysisOutput.category,
" severity: ",
textCategoriesAnalysisOutput.severity
);
}
}
main().catch((err) => {
console.error("The sample encountered an error:", err);
});
Ejecute la aplicación con el comando node
en el archivo de inicio rápido.
node index.js
Output
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Limpieza de recursos
Si quiere limpiar y eliminar una suscripción de servicios de Azure AI, puede eliminar el recurso o el grupo de recursos. Al eliminar el grupo de recursos, también se elimina cualquier otro recurso que esté asociado a él.
Contenido relacionado
- Categorías de daños
- Configure filtros para cada categoría y pruébelos en conjuntos de datos mediante Content Safety Studio, exporte el código e impleméntelo.