Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här artikeln innehåller hanteringsrekommendationer för organisationer som kör AI-arbetsbelastningar i Azure. Den fokuserar på PaaS-lösningar (Plattform som en tjänst) i Azure för AI.
Hantera AI-implementeringar
Konsekventa distributionskonfigurationer förbättrar säkerhet, efterlevnad och drifteffektivitet i alla AI-miljöer. Organisationer som standardiserar sin distributionsmetod minskar konfigurationsavvikelsen och säkerställer tillförlitliga prestanda. Du måste implementera systematiska distributionsmetoder som överensstämmer med dina affärskrav. Så här gör du:
Välj lämplig driftsmodell för din organisation. Distributionsmodeller skapar logiska gränser som datadomäner eller affärsfunktioner för att säkerställa autonomi, styrning och kostnadsspårning. Distribuera en instans av Azure AI Foundry för varje affärsenhet eftersom delning av en enda instans mellan flera affärsenheter begränsar kostnadsspårning och skapar resursbegränsningar. Definiera ett projekt per användningsfall och använd endast hubbbaserade projekt när teamen behöver delade resurser. Mer information finns i Vilken typ av Azure AI Foundry-projekt behöver jag? och AI Foundry-resurstyper.
Distribuera till regioner som uppfyller dina krav. Modellplacering beror på specifika krav på svarstid, dataflöde och efterlevnad som avgör optimal prestanda. Kontrollera produkttillgänglighetstabellen för Azure-regionen för att bekräfta stödet för nödvändig maskinvara, funktioner och regler för datahemvist före distributionen för att säkerställa prestanda och regelanpassning.
Övervaka AI-distributionsresurser kontinuerligt. Resursövervakning samlar in prestandadata och identifierar problem innan de påverkar användarna. Diagnostikinställningar samlar in loggar och mått för alla viktiga tjänster, inklusive Azure AI Foundry och Azure AI-tjänster. Den här övervakningen ger insyn i systemets hälsa och möjliggör proaktiv problemlösning. Se även Azure Monitor-baslinjeaviseringar.
Hantera distributionsresurser centralt. Centraliserad resurshantering ger konsekvent tillsyn och kontroll över alla AI-distributioner. Använd hanteringscentret i Azure AI Foundry för att konfigurera Foundry-projekt, spåra resursutnyttjande och styra åtkomst. Den här metoden säkerställer standardiserad resursallokering och kostnadskontroll. Övervaka även kostnader i Azure AI Foundry.
Använd Azure API Management som en enhetlig gateway för flera distributioner. API Management ger konsekvent säkerhet, skalbarhet, hastighetsbegränsning, tokenkvoter och centraliserad övervakning vid registrering av flera program eller team. Den här metoden standardiserar åtkomstmönster och minskar hanteringskostnaderna för dina AI-tjänster. Mer information finns i Åtkomst till Azure OpenAI och andra språkmodeller via en gateway.
Hantera AI-modeller
Modellövervakning säkerställer att utdata överensstämmer med principer för ansvarsfull AI och bibehåller noggrannheten över tid. AI-modeller upplever drift på grund av ändrade data, användarbeteenden eller externa faktorer som kan leda till felaktiga resultat eller etiska problem. Du måste implementera kontinuerlig övervakning för att identifiera och åtgärda dessa ändringar proaktivt. Så här gör du:
Övervaka modellutdata för kvalitet och justering. Övervakningsprocesser säkerställer att arbetsbelastningarna förblir i linje med ansvarsfulla AI-mål och levererar förväntade resultat. Använd Azure AI Foundrys observerbarhetsfunktioner och övervaka program. Övervaka agentdistributioner för Azure AI Foundry Agent Service.
Spåra prestandamått för modellen kontinuerligt. Prestandaövervakning hjälper dig att hitta problem när noggrannheten eller svarskvaliteten sjunker under acceptabla tröskelvärden. Övervaka svarstiderna och noggrannheten för vektorsökningsresultat genom spårning i Azure AI Foundry.
Överväg att implementera en generativ AI-gateway för förbättrad övervakning. Azure API Management möjliggör loggnings- och övervakningsfunktioner som plattformar inte tillhandahåller internt, inklusive käll-IP-samling, textspårning och textanalys för utdata. Den här metoden ger omfattande spårningsspår och övervakningsdata. Mer information finns i Implementera loggning och övervakning för Azure OpenAI Service-språkmodeller.
Välj beräkning. I Azure AI Foundry stöder beräkningsresurser viktiga modelldistributioner och finjustering. Standardisera beräkningstyper, körningsperioder och avstängningsperioder mellan beräkningsinstanser, kluster och serverlösa alternativ.
Hantera AI-data
Datakvaliteten avgör noggrannheten och tillförlitligheten för AI-modellutdata. Organisationer som upprätthåller datastandarder av hög kvalitet uppnår bättre modellprestanda och minskar risken för partiska eller felaktiga resultat. Du måste implementera systematiska datahanteringsmetoder för att säkerställa konsekvent modellkvalitet. Så här gör du:
Övervaka dataförskjutning kontinuerligt. Identifiering av dataavvikelse identifierar när indatamönster ändras från träningsbaslinjer, vilket kan försämra modellens prestanda över tid. Spåra noggrannhet och dataavvikelse i både generativa och icke-generativa AI-arbetsbelastningar för att säkerställa att modellerna förblir relevanta och dynamiska för aktuella förhållanden. Använd utvärderingar i Azure AI Foundry för att upprätta övervakningsbaslinjer och tröskelvärden för identifiering.
Konfigurera automatiserade aviseringar för prestandaförsämring. Aviseringssystem ger tidig varning när modellens prestanda sjunker under acceptabla tröskelvärden, vilket möjliggör proaktiva åtgärder innan problem påverkar användarna. Konfigurera anpassade aviseringar för att identifiera prestandaavvikelser och utlösa reparationsarbetsflöden när modeller kräver omträning eller justering.
Se till att databehandlingsstandarderna är av hög kvalitet. Kraven på dataförberedelse skiljer sig mellan OLIKA TYPER av AI-arbetsbelastningar, men de måste upprätthålla konsekventa kvalitetsstandarder i alla implementeringar. För generativ AI ska du strukturera jordningsdata i rätt format med lämplig segmentering, berikning och inbäddning för optimal förbrukning av AI-modeller. Mer information finns i Guide till att utforma och utveckla en RAG-lösning.
Implementera affärskontinuitet
Affärskontinuitet säkerställer att AI-tjänster förblir tillgängliga vid regionala avbrott eller avbrott i tjänsten. Tjänstavbrott kan påverka kritiska affärsåtgärder som är beroende av AI-funktioner, vilket gör kontinuitetsplaneringen nödvändig för organisationens motståndskraft. Du måste implementera distributionsstrategier för flera regioner för att upprätthålla tjänstens tillgänglighet. Så här gör du:
Distribuera AI-tjänster i flera regioner. Distributioner i flera regioner ger redundans som upprätthåller tjänstens tillgänglighet när enskilda regioner drabbas av avbrott eller kapacitetsbegränsningar. Implementera distributionsstrategier för flera regioner för Azure AI Foundry och Azure OpenAI för att säkerställa konsekvent leverans av tjänster.
Konfigurera automatiserade redundansmekanismer. Automatiserad redundans minskar återställningstiden och säkerställer kontinuerlig leverans av tjänster när primära regioner blir otillgängliga. Konfigurera trafikroutning och belastningsutjämning mellan regioner för att möjliggöra sömlösa övergångar under tjänststörningar.