Dela via


Installera och köra containrar med anpassad namngiven entitetsigenkänning

Med containrar kan du vara värd för API:et för anpassad namngiven entitetsigenkänning i din egen infrastruktur med hjälp av din egen tränade modell. Om du har säkerhets- eller datastyrningskrav som inte kan uppfyllas genom fjärranrop av anpassad namngiven entitetsigenkänning kan containrar vara ett bra alternativ.

Kommentar

Förutsättningar

Samla in obligatoriska parametrar

Tre primära parametrar för alla Azure AI-containrar krävs. Licensvillkoren för Programvara från Microsoft måste finnas med värdet accept. En slutpunkts-URI och API-nyckel behövs också.

Slutpunkts-URI

Värdet {ENDPOINT_URI} är tillgängligt på översiktssidan för Azure-portalen för motsvarande Azure AI-tjänstresurs. Gå till sidan Översikt , hovra över slutpunkten och ikonen Kopiera till Urklipp visas. Kopiera och använd slutpunkten där det behövs.

Skärmbild som visar insamling av slutpunkts-URI för senare användning.

Nycklar

Värdet {API_KEY} används för att starta containern och är tillgängligt på sidan Nycklar i Azure-portalen för motsvarande Azure AI-tjänstresurs. Gå till sidan Nycklar och välj ikonen Kopiera till Urklipp.

Skärmbild som visar hur du hämtar en av de två nycklarna för senare användning.

Viktigt!

Dessa prenumerationsnycklar används för att komma åt ditt Azure AI-tjänst-API. Dela inte dina nycklar. Lagra dem på ett säkert sätt. Använd till exempel Azure Key Vault. Vi rekommenderar också att du återskapar dessa nycklar regelbundet. Endast en nyckel krävs för att göra ett API-anrop. När du återskapar den första nyckeln kan du använda den andra nyckeln för fortsatt åtkomst till tjänsten.

Krav och rekommendationer för värddatorer

Värden är en x64-baserad dator som kör Docker-containern. Det kan vara en dator lokalt eller en Docker-värdtjänst i Azure, till exempel:

I följande tabell beskrivs de lägsta och rekommenderade specifikationerna för containrar med anpassad namngiven entitetsigenkänning. Varje CPU-kärna måste vara minst 2,6 gigahertz (GHz) eller snabbare. De tillåtna transaktionerna per sekund (TPS) visas också.

Minsta värdspecifikation Rekommenderade värdspecifikationer Minsta TPS MaximalT TPS
Anpassad namngiven entitetsigenkänning 1 kärna, 2 GB minne 1 kärna, 4 GB minne 15 30

CPU-kärna och minne motsvarar --cpus inställningarna och --memory som används som en del av docker run kommandot.

Exportera din modell för anpassad namngiven entitetsigenkänning

Innan du fortsätter med att köra docker-avbildningen måste du exportera din egen tränade modell för att exponera den för containern. Använd följande kommando för att extrahera din modell och ersätta platshållarna nedan med dina egna värden:

Platshållare Värde Format eller exempel
{API_KEY} Nyckeln för din resurs för anpassad namngiven entitetsigenkänning. Du hittar den på resursens nyckel- och slutpunktssida i Azure-portalen. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
{ENDPOINT_URI} Slutpunkten för åtkomst till API:et för anpassad namngiven entitetsigenkänning. Du hittar den på resursens nyckel- och slutpunktssida i Azure-portalen. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT_NAME} Namnet på projektet som innehåller den modell som du vill exportera. Du hittar den på fliken Projekt i Language Studio-portalen. myProject
{TRAINED_MODEL_NAME} Namnet på den tränade modell som du vill exportera. Du hittar dina tränade modeller på fliken modellutvärdering under projektet i Language Studio-portalen. myTrainedModel
curl --location --request PUT '{ENDPOINT_URI}/language/authoring/analyze-text/projects/{PROJECT_NAME}/exported-models/{TRAINED_MODEL_NAME}?api-version=2023-04-15-preview' \
--header 'Ocp-Apim-Subscription-Key: {API_KEY}' \
--header 'Content-Type: application/json' \
--data-raw '{
    "TrainedmodelLabel": "{TRAINED_MODEL_NAME}"
}'

Hämta containeravbildningen med docker pull

Containeravbildningen Anpassad namngiven entitetsigenkänning finns i mcr.microsoft.com containerregistersyndikatet. Den finns på lagringsplatsen azure-cognitive-services/textanalytics/ och heter customner. Det fullständigt kvalificerade containeravbildningsnamnet är , mcr.microsoft.com/azure-cognitive-services/textanalytics/customner.

Om du vill använda den senaste versionen av containern kan du använda taggen latest . Du hittar också en fullständig lista över taggar på MCR.

docker pull Använd kommandot för att ladda ned en containeravbildning från Microsoft Container Registry.

docker pull mcr.microsoft.com/azure-cognitive-services/textanalytics/customner:latest

Dricks

Du kan använda kommandot docker images för att visa en lista över dina nedladdade containeravbildningar. Följande kommando visar till exempel ID, lagringsplats och tagg för varje nedladdad containeravbildning, formaterad som en tabell:

docker images --format "table {{.ID}}\t{{.Repository}}\t{{.Tag}}"

IMAGE ID         REPOSITORY                TAG
<image-id>       <repository-path/name>    <tag-name>

Kör containern med docker run

När containern finns på värddatorn använder du kommandot docker run för att köra containrarna. Containern fortsätter att köras tills du stoppar den.

Viktigt!

  • Docker-kommandona i följande avsnitt använder snedstrecket, \, som ett radfortsättningstecken. Ersätt eller ta bort detta baserat på värdoperativsystemets krav.
  • Alternativen Eula, Billingoch ApiKey måste anges för att köra containern. Annars startar inte containern. Mer information finns i Fakturering.

Kör följande docker run kommando för att köra containern Anpassad namngiven entitetsigenkänning. Ersätt platshållarna nedan med dina egna värden:

Platshållare Värde Format eller exempel
{API_KEY} Nyckeln för din resurs för anpassad namngiven entitetsigenkänning. Du hittar den på resursens nyckel- och slutpunktssida i Azure-portalen. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
{ENDPOINT_URI} Slutpunkten för åtkomst till API:et för anpassad namngiven entitetsigenkänning. Du hittar den på resursens nyckel- och slutpunktssida i Azure-portalen. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT_NAME} Namnet på projektet som innehåller den modell som du vill exportera. Du hittar den på fliken Projekt i Language Studio-portalen. myProject
{LOCAL_PATH} Sökvägen där den exporterade modellen i föregående steg laddas ned. Du kan välja vilken sökväg du vill. C:/custom-ner-model
{TRAINED_MODEL_NAME} Namnet på den tränade modell som du vill exportera. Du hittar dina tränade modeller på fliken modellutvärdering under projektet i Language Studio-portalen. myTrainedModel
docker run --rm -it -p5000:5000  --memory 4g --cpus 1 \
-v {LOCAL_PATH}:/modelPath \
mcr.microsoft.com/azure-cognitive-services/textanalytics/customner:latest \
EULA=accept \
BILLING={ENDPOINT_URI} \
APIKEY={API_KEY} \
projectName={PROJECT_NAME}
exportedModelName={TRAINED_MODEL_NAME}

Det här kommandot:

  • Kör en container med anpassad namngiven entitetsigenkänning och laddar ned den exporterade modellen till den angivna lokala sökvägen.
  • Allokerar en CPU-kärna och 4 GB minne
  • Exponerar TCP-port 5000 och allokerar en pseudo-TTY för containern
  • Tar automatiskt bort containern när den har avslutats. Containeravbildningen är fortfarande tillgänglig på värddatorn.

Köra flera containrar på samma värd

Om du tänker köra flera containrar med exponerade portar ska du köra varje container med en annan exponerad port. Kör till exempel den första containern på port 5000 och den andra containern på port 5001.

Du kan ha den här containern och en annan Azure AI-tjänstcontainer som körs på VÄRDEN tillsammans. Du kan också ha flera containrar av samma Azure AI-tjänstcontainer som körs.

Köra frågor mot containerns förutsägelseslutpunkt

Containern innehåller REST-baserade slutpunkts-API:er för frågeförutsägelse.

Använd värden, http://localhost:5000, för container-API:er.

Verifiera att en container körs

Det finns flera sätt att verifiera att containern körs. Leta upp den externa IP-adressen och den exponerade porten för containern i fråga och öppna din favoritwebbläsare. Använd de olika url:er för begäranden som följer för att verifiera att containern körs. Exempelbegärande-URL:er som anges här är http://localhost:5000, men din specifika container kan variera. Se till att förlita dig på containerns externa IP-adress och exponerade port.

Begärans-URL Syfte
http://localhost:5000/ Containern tillhandahåller en startsida.
http://localhost:5000/ready Den här URL:en begärs med GET och tillhandahåller en verifiering av att containern är redo att acceptera en fråga mot modellen. Den här begäran kan användas för Kubernetes liveness- och beredskapsavsökningar.
http://localhost:5000/status Den här URL:en begärs också med GET och kontrollerar om api-nyckeln som används för att starta containern är giltig utan att orsaka en slutpunktsfråga. Den här begäran kan användas för Kubernetes liveness- och beredskapsavsökningar.
http://localhost:5000/swagger Containern tillhandahåller en fullständig uppsättning dokumentation för slutpunkterna samt en Prova-funktion. Med den här funktionen kan du ange inställningarna i ett webbaserat HTML-formulär och göra frågan utan att behöva skriva någon kod. När frågan har returnerats tillhandahålls ett exempel på CURL-kommandot för att demonstrera de HTTP-huvuden och brödtextformat som krävs.

Containerns startsida

Stoppa containern

Om du vill stänga av containern väljer du Ctrl+C i den kommandoradsmiljö där containern körs.

Felsökning

Om du kör containern med en utdatamontering och loggning aktiverad genererar containern loggfiler som är användbara för att felsöka problem som inträffar när containern startas eller körs.

Dricks

Mer felsökningsinformation och vägledning finns i Vanliga frågor och svar om Azure AI-containrar.

Fakturering

Containrar med anpassad namngiven entitetsigenkänning skickar faktureringsinformation till Azure med hjälp av en resurs för anpassad namngiven entitetsigenkänning på ditt Azure-konto.

Frågor till containern faktureras på prisnivån för den Azure-resurs som används för parametern ApiKey .

Azure AI-tjänstcontainrar är inte licensierade att köras utan att vara anslutna till slutpunkten för mätning eller fakturering. Du måste aktivera containrarna för att kunna kommunicera faktureringsinformation med faktureringsslutpunkten hela tiden. Azure AI-tjänstcontainrar skickar inte kunddata, till exempel den bild eller text som analyseras, till Microsoft.

Ansluta till Azure

Containern behöver faktureringsargumentvärdena för att köras. Med de här värdena kan containern ansluta till faktureringsslutpunkten. Containern rapporterar användning var 10:e till 15:e minut. Om containern inte ansluter till Azure inom den tillåtna tidsperioden fortsätter containern att köras men hanterar inte frågor förrän faktureringsslutpunkten har återställts. Anslutningen görs 10 gånger med samma tidsintervall på 10 till 15 minuter. Om den inte kan ansluta till faktureringsslutpunkten inom de 10 försöken slutar containern att hantera begäranden. Se vanliga frågor och svar om Azure AI-tjänstcontainern för ett exempel på den information som skickas till Microsoft för fakturering.

Faktureringsargument

Kommandot docker run startar containern när alla tre av följande alternativ har giltiga värden:

Alternativ Description
ApiKey API-nyckeln för azure AI-tjänstresursen som används för att spåra faktureringsinformation.
Värdet för det här alternativet måste anges till en API-nyckel för den etablerade resursen som anges i Billing.
Billing Slutpunkten för azure AI-tjänstresursen som används för att spåra faktureringsinformation.
Värdet för det här alternativet måste anges till slutpunkts-URI:n för en etablerad Azure-resurs.
Eula Anger att du har godkänt licensen för containern.
Värdet för det här alternativet måste vara inställt på att acceptera.

Sammanfattning

I den här artikeln har du lärt dig begrepp och arbetsflöden för att ladda ned, installera och köra containrar med anpassad namngiven entitetsigenkänning. Sammanfattningsvis:

  • Anpassad namngiven entitetsigenkänning tillhandahåller Linux-containrar för Docker.
  • Containeravbildningar laddas ned från Microsoft Container Registry (MCR).
  • Containeravbildningar körs i Docker.
  • Du kan använda REST API eller SDK för att anropa åtgärder i containrar för anpassad namngiven entitetsigenkänning genom att ange värd-URI:n för containern.
  • Du måste ange faktureringsinformation när du instansierar en container.

Viktigt!

Azure AI-containrar är inte licensierade att köras utan att vara anslutna till Azure för mätning. Kunder måste göra det möjligt för containrarna att kommunicera faktureringsinformation med mätningstjänsten hela tiden. Azure AI-containrar skickar inte kunddata (t.ex. text som analyseras) till Microsoft.

Nästa steg