Dela via


Modellkatalog och samlingar i Azure AI Studio

Viktigt!

Vissa av de funktioner som beskrivs i den här artikeln kanske bara är tillgängliga i förhandsversionen. Den här förhandsversionen tillhandahålls utan ett serviceavtal och vi rekommenderar det inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Modellkatalogen i Azure AI Studio är navet för att identifiera och använda ett brett utbud av modeller för att skapa generativa AI-program. Modellkatalogen innehåller hundratals modeller mellan modellleverantörer som Azure OpenAI Service, Mistral, Meta, Cohere, NVIDIA och Hugging Face, inklusive modeller som Microsoft har tränat. Modeller från andra leverantörer än Microsoft är icke-Microsoft-produkter enligt definitionen i Microsofts produktvillkor och omfattas av de villkor som tillhandahålls med modellerna.

Modellsamlingar

Modellkatalogen organiserar modeller i tre typer av samlingar:

  • Kuraterad av Azure AI: De mest populära icke-Microsoft-modellerna med öppen vikt och proprietära modeller som paketerats och optimerats för att fungera sömlöst på Azure AI-plattformen. Användning av dessa modeller omfattas av modellproviderns licensvillkor. När du distribuerar dessa modeller i Azure AI Studio omfattas deras tillgänglighet av tillämpligt serviceavtal (SLA) för Azure och Microsoft tillhandahåller stöd för distributionsproblem.

    Modeller från partner som Meta, NVIDIA och Mistral AI är exempel på modeller som är tillgängliga i den här samlingen i katalogen. Du kan identifiera dessa modeller genom att söka efter en grön bockmarkering på modellpanelerna i katalogen. Eller så kan du filtrera efter samlingen Curated by Azure AI .

  • Azure OpenAI-modeller är exklusivt tillgängliga i Azure: Flaggskeppsmodeller för Azure OpenAI som är tillgängliga via en integrering med Azure OpenAI Service. Microsoft stöder dessa modeller och deras användning enligt produktvillkoren och serviceavtalet för Azure OpenAI Service.

  • Öppna modeller från hubben Hugging Face: Hundratals modeller från hubben Hugging Face för realtidsinferens med hanterad beräkning. Hugging Face skapar och underhåller modeller som anges i den här samlingen. Om du vill ha hjälp kan du använda forumet för att krama ansikte eller krama ansiktssupport. Läs mer i Distribuera öppna modeller med Azure AI Studio.

Du kan skicka en begäran om att lägga till en modell i modellkatalogen med hjälp av det här formuläret.

Översikt över modellkatalogfunktioner

Du kan distribuera vissa modeller i modellerna Curated by Azure AI och Open från Hugging Face Hub-samlingarna med ett hanterat beräkningsalternativ. Vissa modeller är tillgängliga för distribution via serverlösa API:er med betala per användning-fakturering.

Du kan identifiera, jämföra, utvärdera, finjustera (när det stöds) och distribuera dessa modeller i stor skala. Du kan sedan integrera modellerna i dina generativa AI-program med säkerhet och datastyrning i företagsklass. I följande lista beskrivs aktiviteterna i detalj:

  • Upptäck: Granska modellkort, prova exempelinferens och bläddra bland kodexempel för att utvärdera, finjustera eller distribuera modellen.
  • Jämför: Jämför riktmärken mellan modeller och datauppsättningar som är tillgängliga i branschen för att bedöma vilken som uppfyller ditt affärsscenario.
  • Utvärdera: Utvärdera om modellen passar för din specifika arbetsbelastning genom att tillhandahålla dina egna testdata. Använd utvärderingsmått för att visualisera hur bra den valda modellen presterar i ditt scenario.
  • Finjustera: Anpassa finjusteringsbara modeller med hjälp av dina egna träningsdata och välj den bästa modellen genom att jämföra mått mellan alla dina finjusteringsjobb. Inbyggda optimeringar påskyndar finjusteringen och minskar det minne och den beräkning som krävs.
  • Distribuera: Distribuera förtränad modeller eller finjusterade modeller sömlöst för slutsatsdragning. Du kan också ladda ned modeller som kan distribueras till hanterad beräkning.

Mer information om Azure OpenAI-modeller finns i Vad är Azure OpenAI Service?.

Modelldistribution: Hanterad beräkning och serverlöst API (betala per användning)

Modellkatalogen erbjuder två olika sätt att distribuera modeller för din användning: hanterade beräknings- och serverlösa API:er.

De distributionsalternativ och funktioner som är tillgängliga för varje modell varierar enligt beskrivningen i följande tabeller. Läs mer om databehandling med distributionsalternativen.

Funktioner Hantera databearbetning Serverlöst API (betala per användning)
Distributionsupplevelse och fakturering Modellvikter distribueras till dedikerade virtuella datorer med hanterade onlineslutpunkter. En hanterad onlineslutpunkt, som kan ha en eller flera distributioner, gör ett REST API tillgängligt för slutsatsdragning. Du debiteras för den virtuella datorns kärntimmar som distributionerna använder. Åtkomst till modeller sker via en distribution som etablerar ett API för åtkomst till modellen. API:et ger åtkomst till den modell som Microsoft är värd för och hanterar för slutsatsdragning. Du debiteras för indata och utdata till API:erna, vanligtvis i token. Prisinformation tillhandahålls innan du distribuerar.
API-autentisering Nycklar och Microsoft Entra-autentisering. Endast nycklar.
Innehållssäkerhet Använd API:er för Azure AI Content Safety-tjänsten. Azure AI-innehållssäkerhetsfilter är tillgängliga integrerade med slutsatsdragnings-API:er. Azure AI-innehållssäkerhetsfilter faktureras separat.
Nätverksisolering Konfigurera hanterade nätverk för Azure AI Studio-hubbar. Slutpunkter följer hubbens PNA-flagga (Public Network Access). Mer information finns i avsnittet Nätverksisolering för modeller som distribueras via serverlösa API:er senare i den här artikeln.
Modell Hantera databearbetning Serverlöst API (betala per användning)
Llama-familjemodeller Llama-2-7b
Llama-2-7b-chat
Llama-2-13b
Llama-2-13b-chat
Llama-2-70b
Llama-2-70b-chat
Llama-3-8B-Instruct
Llama-3-70B-Instruct
Llama-3-8B
Llama-3-70B
Llama-3-70B-Instruct
Llama-3-8B-Instruct
Llama-2-7b
Llama-2-7b-chat
Llama-2-13b
Llama-2-13b-chat
Llama-2-70b
Llama-2-70b-chat
Mistral-familjemodeller mistralai-Mixtral-8x22B-v0-1
mistralai-Mixtral-8x22B-Instruct-v0-1
mistral-community-Mixtral-8x22B-v0-1
mistralai-Mixtral-8x7B-v01
mistralai-Mistral-7B-Instruct-v0-2
mistralai-Mistral-7B-v01
mistralai-Mixtral-8x7B-Instruct-v01
mistralai-Mistral-7B-Instruct-v01
Mistral-large (2402)
Mistral-large (2407)
Mistral-small
Mistral-NeMo
Gemensamma familjemodeller Inte tillgängliga Cohere-command-r-plus
Cohere-command-r
Cohere-embed-v3-english
Cohere-embed-v3-multilingual
Cohere-rerank-v3-english
Cohere-rerank-v3-multilingual
JAIS Inte tillgängliga jais-30b-chat
Phi-3-familjemodeller Phi-3-mini-4k-Instruct
Phi-3-mini-128k-Instruct
Phi-3-small-8k-Instruct
Phi-3-small-128k-Instruct
Phi-3-medium-4k-instruct
Phi-3-medium-128k-instruct
Phi-3-mini-4k-Instruct
Phi-3-mini-128k-Instruct
Phi-3-small-8k-Instruct
Phi-3-small-128k-Instruct
Phi-3-medium-4k-instruct
Phi-3-medium-128k-instruct
Nixtla Inte tillgängliga TimeGEN-1
Andra modeller Tillgängligt Inte tillgängligt

Diagram som visar modeller som en tjänst och tjänstcykeln för realtidsslutpunkter.

Hantera databearbetning

Möjligheten att distribuera modeller som hanterad beräkning bygger på plattformsfunktioner i Azure Mašinsko učenje för att möjliggöra sömlös integrering av den breda samlingen modeller i modellkatalogen under hela livscykeln för llm-åtgärder (large language model).

Diagram som visar livscykeln för stora språkmodellåtgärder.

Tillgänglighet för modeller för distribution som hanterad beräkning

Modellerna görs tillgängliga via Azure Mašinsko učenje-register. Dessa register möjliggör en maskininlärningsinriktad metod för att vara värd för och distribuera Azure Mašinsko učenje tillgångar. Dessa tillgångar omfattar modellvikter, containerkörningar för att köra modellerna, pipelines för utvärdering och finjustering av modellerna samt datauppsättningar för benchmarks och exempel.

Registren bygger på en mycket skalbar och företagsklar infrastruktur som:

  • Levererar artefakter med låg latensåtkomstmodell till alla Azure-regioner med inbyggd geo-replikering.

  • Stöder företagets säkerhetskrav, till exempel att begränsa åtkomsten till modeller med hjälp av Azure Policy och säker distribution med hjälp av hanterade virtuella nätverk.

Distribution av modeller för slutsatsdragning med hanterad beräkning

Modeller som är tillgängliga för distribution till hanterad beräkning kan distribueras till Azure Mašinsko učenje onlineslutpunkter för realtidsinferens. När du distribuerar till hanterad beräkning måste du ha en kvot för virtuella datorer i din Azure-prenumeration för de specifika produkter som du behöver för att köra modellen optimalt. Med vissa modeller kan du distribuera till en tillfälligt delad kvot för modelltestning.

Läs mer om att distribuera modeller:

Skapa generativa AI-appar med hanterad beräkning

Funktionen fråga flöde i Azure Mašinsko učenje erbjuder en bra upplevelse för prototyper. Du kan använda modeller som distribuerats med hanterad beräkning i promptflöde med VERKTYGET ÖPPNA MODELL LLM. Du kan också använda REST-API:et som exponeras av hanterad beräkning i populära LLM-verktyg som LangChain med Azure Mašinsko učenje-tillägget.

Innehållssäkerhet för modeller som distribueras som hanterad beräkning

Tjänsten Azure AI Content Safety är tillgänglig för användning med hanterad beräkning för att söka efter olika kategorier av skadligt innehåll, till exempel sexuellt innehåll, våld, hat och självskadebeteende. Du kan också använda tjänsten för att söka efter avancerade hot, till exempel riskidentifiering av jailbreak och skyddad materialtextidentifiering.

Du kan referera till den här notebook-filen för referensintegrering med Azure AI Content Safety för Llama 2. Eller så kan du använda verktyget Innehållssäkerhet (text) i snabbflödet för att skicka svar från modellen till Azure AI Content Safety för screening. Du debiteras separat för sådan användning enligt beskrivningen i prissättningen för Azure AI Content Safety.

Serverlösa API:er med betala per användning-fakturering

Du kan distribuera vissa modeller i modellkatalogen som serverlösa API:er med betala per användning-fakturering. Den här distributionsmetoden, som ibland kallas modell som en tjänst (MaaS), är ett sätt att använda modellerna som API:er utan att vara värd för dem i din prenumeration. Modeller finns i en Microsoft-hanterad infrastruktur som ger API-baserad åtkomst till modellleverantörens modell. API-baserad åtkomst kan avsevärt minska kostnaden för att komma åt en modell och förenkla etableringsupplevelsen.

Modeller som är tillgängliga för distribution som serverlösa API:er med betala per användning-fakturering erbjuds av modellleverantören, men de finns i en Microsoft-hanterad Azure-infrastruktur och nås via API. Modellleverantörer definierar licensvillkoren och anger priset för användning av sina modeller. Tjänsten Azure Mašinsko učenje:

  • Hanterar värdinfrastrukturen.
  • Gör slutsatsdragnings-API:erna tillgängliga.
  • Fungerar som dataprocessor för frågor som skickas och innehåll som skickas av modeller som distribueras via MaaS.

Läs mer om databehandling för MaaS i artikeln om datasekretess.

Diagram som visar modellutgivarens tjänstcykel.

Fakturering

Identifierings-, prenumerations- och förbrukningsupplevelsen för modeller som distribueras via MaaS finns i Azure AI Studio och Azure Mašinsko učenje studio. Användare accepterar licensvillkor för användning av modellerna. Prisinformation för förbrukning tillhandahålls under distributionen.

Modeller från icke-Microsoft-leverantörer faktureras via Azure Marketplace i enlighet med användningsvillkoren för Microsoft Commercial Marketplace.

Modeller från Microsoft faktureras via Azure-mätare som First Party Consumption Services. Som beskrivs i produktvillkoren köper du förbrukningstjänster från första part med hjälp av Azure-mätare, men de omfattas inte av Villkoren för Azure-tjänsten. Användning av dessa modeller omfattas av de angivna licensvillkoren.

Finjusteringsmodeller

Vissa modeller stöder även serverlös finjustering. För dessa modeller kan du dra nytta av värdbaserad finjustering med betala per användning-fakturering för att skräddarsy modellerna med hjälp av data som du tillhandahåller. Mer information finns i översikten över finjustering.

RAG med modeller som distribueras som serverlösa API:er

I Azure AI Studio kan du använda vektorindex och hämta utökad generering (RAG). Du kan använda modeller som kan distribueras via serverlösa API:er för att generera inbäddningar och slutsatsdragning baserat på anpassade data. Dessa inbäddningar och slutsatsdragningar kan sedan generera svar som är specifika för ditt användningsfall. Mer information finns i Skapa och använda vektorindex i Azure AI Studio.

Regional tillgänglighet för erbjudanden och modeller

Betala per användning-fakturering är endast tillgängligt för användare vars Azure-prenumeration tillhör ett faktureringskonto i ett land där modellleverantören har gjort erbjudandet tillgängligt. Om erbjudandet är tillgängligt i den relevanta regionen måste användaren ha en hubb/ett projekt i Azure-regionen där modellen är tillgänglig för distribution eller finjustering, i förekommande fall. Se Regiontillgänglighet för modeller i serverlösa API-slutpunkter | Azure AI Studio för detaljerad information.

Innehållssäkerhet för modeller som distribueras via serverlösa API:er

För språkmodeller som distribueras via serverlösa API:er implementerar Azure AI en standardkonfiguration av textmodereringsfilter för Azure AI Content Safety som identifierar skadligt innehåll som hat, självskadebeteende, sexuellt och våldsamt innehåll. Mer information om innehållsfiltrering (förhandsversion) finns i Skadekategorier i Azure AI Content Safety.

Dricks

Innehållsfiltrering (förhandsversion) är inte tillgängligt för vissa modelltyper som distribueras via serverlösa API:er. Dessa modelltyper omfattar inbäddningsmodeller och tidsseriemodeller.

Innehållsfiltrering (förhandsversion) sker synkront när tjänstprocesserna uppmanar till att generera innehåll. Du kan debiteras separat enligt prissättningen för Azure AI Content Safety för sådan användning. Du kan inaktivera innehållsfiltrering (förhandsversion) för enskilda serverlösa slutpunkter:

  • När du först distribuerar en språkmodell
  • Senare genom att välja växlingsknappen för innehållsfiltrering på sidan med distributionsinformation

Anta att du bestämmer dig för att använda ett annat API än Azure AI Model Inference API för att arbeta med en modell som distribueras via ett serverlöst API. I sådana fall är innehållsfiltrering (förhandsversion) inte aktiverat om du inte implementerar det separat med hjälp av Azure AI Content Safety.

Information om hur du kommer igång med Azure AI Content Safety finns i Snabbstart: Analysera textinnehåll. Om du inte använder innehållsfiltrering (förhandsversion) när du arbetar med modeller som distribueras via serverlösa API:er löper du en högre risk att utsätta användare för skadligt innehåll.

Nätverksisolering för modeller som distribueras via serverlösa API:er

Slutpunkter för modeller som distribueras som serverlösa API:er följer PNA-flagginställningen för AI Studio-hubben som har projektet där distributionen finns. Om du vill skydda din MaaS-slutpunkt inaktiverar du PNA-flaggan på ai Studio-hubben. Du kan skydda inkommande kommunikation från en klient till slutpunkten med hjälp av en privat slutpunkt för hubben.

Så här anger du PNA-flaggan för AI Studio-hubben:

  • Gå till Azure-portalen.
  • Sök efter den resursgrupp som hubben tillhör och välj din AI Studio-hubb från de resurser som anges för den här resursgruppen.
  • På översiktssidan för hubben går du till Inställningar>Nätverk i det vänstra fönstret.
  • På fliken Offentlig åtkomst kan du konfigurera inställningar för PNA-flaggan.
  • Spara dina ändringar. Det kan ta upp till fem minuter att sprida ändringarna.

Begränsningar

  • Om du har en AI Studio-hubb med en privat slutpunkt som skapats före den 11 juli 2024 följer inte nya MaaS-slutpunkter som lagts till i projekt i den här hubben nätverkskonfigurationen för hubben. I stället måste du skapa en ny privat slutpunkt för hubben och skapa nya serverlösa API-distributioner i projektet så att de nya distributionerna kan följa hubbens nätverkskonfiguration.

  • Om du har en AI Studio Hub med MaaS-distributioner som skapats före den 11 juli 2024 och du aktiverar en privat slutpunkt på den här hubben följer inte de befintliga MaaS-distributionerna hubbens nätverkskonfiguration. För att serverlösa API-distributioner i hubben ska kunna följa hubbens nätverkskonfiguration måste du skapa distributionerna igen.

  • För närvarande är Azure OpenAI On Your Data-stöd inte tillgängligt för MaaS-distributioner i privata hubbar, eftersom privata hubbar har PNA-flaggan inaktiverad.

  • Alla ändringar i nätverkskonfigurationen (till exempel aktivering eller inaktivering av PNA-flaggan) kan ta upp till fem minuter att sprida.