Snabbstart: Azure AI Content Safety Studio
I den här snabbstarten kommer du igång med Tjänsten Azure AI Content Safety med hjälp av Content Safety Studio i webbläsaren.
Varning
En del av exempelinnehållet som tillhandahålls av Content Safety Studio kan vara stötande. Exempelbilderna är suddiga som standard. Användarens diskretion rekommenderas.
Förutsättningar
- Ett aktivt Azure-konto. Om du inte har någon sådan nu kan du skapa en kostnadsfritt.
- En Content Safety Azure-resurs.
- Rollen
Cognitive Services User
som tilldelats innehållssäkerhetsresursen i den önskade Azure-prenumerationen. - Logga in på Content Safety Studio med din Azure-prenumeration och innehållssäkerhetsresurs.
Analysera textinnehåll
Sidan Måttligt textinnehåll ger dig möjlighet att snabbt prova textmoderering.
- Välj panelen Måttligt textinnehåll.
- Lägg till text i indatafältet eller välj exempeltext från panelerna på sidan.
- Välj Kör test.
Tjänsten returnerar alla kategorier som har identifierats, med allvarlighetsgraden för varje (0-Säker, 2-Låg, 4-Medel, 6-Hög). Den returnerar också ett binärt godkänt/avvisat resultat baserat på de filter som du konfigurerar. Använd matrisen på fliken Konfigurera filter till höger för att ange dina tillåtna/förbjudna allvarlighetsnivåer för varje kategori. Sedan kan du köra texten igen för att se hur filtret fungerar.
På fliken Använd blocklist till höger kan du skapa, redigera och lägga till en blockeringslista i arbetsflödet för moderering. Om du har en blockeringslista aktiverad när du kör testet får du en panel för blocklisteidentifiering under Resultat. Den rapporterar eventuella matchningar med blocklistan.
Identifiera användarindataattacker
På panelen Prompt Shields kan du testa riskidentifiering av användarindata. Identifiera användarfrågor som utformats för att provocera Generative AI-modellen till att uppvisa beteenden som den har tränats för att undvika eller bryta mot reglerna som anges i systemmeddelandet. Dessa attacker kan variera från invecklat rollspel till subtil omstörtning av säkerhetsmålet.
- Välj panelen Fråga sköldar .
- Välj en exempeltext på sidan eller ange ditt eget innehåll för testning. Du kan också ladda upp en CSV-fil för att göra ett batchtest.
- Välj Kör test.
Tjänsten returnerar riskflaggan och typen för varje exempel.
Mer information finns i konceptguiden för Prompt Shields.
Analysera avbildningsinnehåll
Sidan Måttligt bildinnehåll ger dig möjlighet att snabbt prova bildmoderering.
- Välj panelen Moderera bildinnehåll .
- Välj en exempelbild från panelerna på sidan eller ladda upp en egen bild. Den maximala storleken för bildöverföringar är 4 MB och bilddimensionerna måste vara mellan 50 x 50 bildpunkter och 2 048 x 2 048 bildpunkter. Bilder kan vara i JPEG-, PNG-, GIF-, BMP-, TIFF- eller WEBP-format.
- Välj Kör test.
Tjänsten returnerar alla kategorier som har identifierats, med allvarlighetsgraden för varje (0-Säker, 2-Låg, 4-Medel, 6-Hög). Den returnerar också ett binärt godkänt/avvisat resultat baserat på de filter som du konfigurerar. Använd matrisen på fliken Konfigurera filter till höger för att ange dina tillåtna/förbjudna allvarlighetsnivåer för varje kategori. Sedan kan du köra texten igen för att se hur filtret fungerar.
Visa och exportera kod
Du kan använda funktionen Visa kod i både analysera textinnehåll eller sidan Analysera bildinnehåll för att visa och kopiera exempelkoden, som innehåller konfiguration för allvarlighetsgradsfiltrering, blocklistor och modereringsfunktioner. Du kan sedan distribuera koden på din sida.
Övervaka onlineaktivitet
På sidan Övervaka onlineaktivitet kan du visa din API-användning och dina trender.
Du kan välja vilken medietyp som ska övervakas. Du kan också ange det tidsintervall som du vill kontrollera genom att välja Visa data för den sista __.
I diagrammet Avvisa hastighet per kategori kan du också justera tröskelvärdena för allvarlighetsgrad för varje kategori.
Du kan också redigera blocklistor om du vill ändra vissa termer, baserat på diagrammet De 10 mest blockerade termerna .
Hantera din resurs
Om du vill visa resursinformation som namn och prisnivå väljer du ikonen Inställningar i det övre högra hörnet på startsidan för Content Safety Studio och väljer fliken Resurs . Om du har andra resurser kan du växla resurser även här.
Rensa resurser
Om du vill rensa och ta bort en Azure AI-tjänstresurs kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.
Nästa steg
Kom sedan igång med Azure AI Content Safety via REST API:er eller ett klient-SDK, så att du smidigt kan integrera tjänsten i ditt program.
Feedback
https://aka.ms/ContentUserFeedback.
Kommer snart: Under hela 2024 kommer vi att fasa ut GitHub-problem som feedbackmekanism för innehåll och ersätta det med ett nytt feedbacksystem. Mer information finns i:Skicka och visa feedback för