Dela via


Modellkatalog och samlingar i Azure AI Studio

Viktigt!

Vissa av de funktioner som beskrivs i den här artikeln kanske bara är tillgängliga i förhandsversionen. Den här förhandsversionen tillhandahålls utan ett serviceavtal och vi rekommenderar det inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Modellkatalogen i Azure AI Studio är navet för att identifiera och använda ett brett utbud av modeller som gör att du kan skapa Generative AI-program. Modellkatalogen innehåller hundratals modeller mellan modellleverantörer som Azure OpenAI-tjänsten, Mistral, Meta, Cohere, Nvidia, Hugging Face, inklusive modeller som tränats av Microsoft. Modeller från andra leverantörer än Microsoft är icke-Microsoft-produkter, enligt definitionen i Microsofts produktvillkor, och omfattas av villkoren i modellen.

Modellsamlingar

Modellkatalogen organiserar modeller i samlingar. Det finns tre typer av samlingar i modellkatalogen:

  • Modeller som har kurerats av Azure AI: De mest populära modellerna med öppen vikt och proprietära från tredje part som paketerats och optimerats för att fungera sömlöst på Azure AI-plattformen. Användning av dessa modeller omfattas av modellleverantörens licensvillkor som tillhandahålls med modellen. När den distribueras i Azure AI Studio omfattas modellens tillgänglighet av tillämpligt Azure-serviceavtal, och Microsoft tillhandahåller stöd för distributionsproblem. Modeller från partner som Meta, NVIDIA, Mistral AI är exempel på modeller som är tillgängliga i samlingen "Curated by Azure AI" i katalogen. Dessa modeller kan identifieras med en grön bockmarkering på modellpanelerna i katalogen eller så kan du filtrera efter samlingen "Kurerade av Azure AI".
  • Azure OpenAI-modeller, exklusivt tillgängliga i Azure: Flaggskeppsmodeller för Azure OpenAI via samlingen "Azure OpenAI" via en integrering med Azure OpenAI-tjänsten. Microsoft stöder dessa modeller och deras användning enligt produktvillkoren och serviceavtalet för Azure OpenAI Service.
  • Öppna modeller från Hugging Face Hub: Hundratals modeller från HuggingFace-hubben är tillgängliga via samlingen "Hugging Face" för realtidsinferens med hanterad beräkning. HuggingFace skapar och underhåller modeller som finns i HuggingFace-samlingen. Använd HuggingFace-forumet eller HuggingFace-supporten om du behöver hjälp. Läs mer i Distribuera öppna modeller .

Föreslå tillägg till modellkatalogen: Du kan skicka en begäran om att lägga till en modell i modellkatalogen med hjälp av det här formuläret.

Översikt över modellkatalogfunktioner

Information om Azure OpenAI-modeller finns i Azure OpenAI Service.

Vissa modeller i modellerna Curated by Azure AI och Open från Hugging Face Hub-samlingarna kan distribueras med ett hanterat beräkningsalternativ, och vissa modeller är tillgängliga för distribution med serverlösa API:er med betala per användning-fakturering. Dessa modeller kan identifieras, jämföras, utvärderas, finjusteras (när de stöds) och distribueras i stor skala och integreras i dina Generative AI-program med säkerhet och datastyrning i företagsklass.

  • Upptäck: Granska modellkort, prova exempelinferens och bläddra bland kodexempel för att utvärdera, finjustera eller distribuera modellen.
  • Jämför: Jämför riktmärken mellan modeller och datauppsättningar som är tillgängliga i branschen för att bedöma vilken som uppfyller ditt affärsscenario.
  • Utvärdera: Utvärdera om modellen passar för din specifika arbetsbelastning genom att tillhandahålla dina egna testdata. Med utvärderingsmått blir det enkelt att visualisera hur bra den valda modellen fungerar i ditt scenario.
  • Finjustera: Anpassa finjusteringsbara modeller med dina egna träningsdata och välj den bästa modellen genom att jämföra mått mellan alla dina finjusteringsjobb. Inbyggda optimeringar påskyndar finjusteringen och minskar det minne och den beräkning som behövs för finjustering.
  • Distribuera: Distribuera förtränad modeller eller finjusterade modeller sömlöst för slutsatsdragning. Modeller som kan distribueras till hanterad beräkning kan också laddas ned.

Modelldistribution: Hanterad beräkning och serverlöst API (betala per användning)

Modellkatalogen erbjuder två olika sätt att distribuera modeller från katalogen för din användning: hanterade beräknings- och serverlösa API:er. Vilka distributionsalternativ som är tillgängliga för varje modell varierar. Läs mer om funktionerna i distributionsalternativen och vilka alternativ som är tillgängliga för specifika modeller i följande tabeller. Läs mer om databehandling med distributionsalternativen.

Funktioner Hantera databearbetning serverlöst API (betala per användning)
Distributionsupplevelse och fakturering Modellvikter distribueras till dedikerade virtuella datorer med hanterade onlineslutpunkter. Den hanterade onlineslutpunkten, som kan ha en eller flera distributioner, gör ett REST API tillgängligt för slutsatsdragning. Du debiteras för den virtuella datorns kärntimmar som används av distributionerna. Åtkomst till modeller sker via en distribution som etablerar ett API för åtkomst till modellen. API:et ger åtkomst till den modell som hanteras och hanteras av Microsoft för slutsatsdragning. Det här åtkomstläget kallas "Modeller som en tjänst". Du debiteras för indata och utdata till API:erna, vanligtvis i token. prisinformation tillhandahålls innan du distribuerar.
API-autentisering Nycklar och Microsoft Entra ID-autentisering. Endast nycklar.
Innehållssäkerhet Använd Api:er för Azure Content Safety-tjänsten. Azure AI-innehållssäkerhetsfilter är tillgängliga integrerade med slutsatsdragnings-API:er. Azure AI-innehållssäkerhetsfilter kan faktureras separat.
Nätverksisolering Konfigurera hanterat nätverk. Läs mer.
Modell Hantera databearbetning Serverlöst API (betala per användning)
Llama-familjemodeller Llama-2-7b
Llama-2-7b-chat
Llama-2-13b
Llama-2-13b-chat
Llama-2-70b
Llama-2-70b-chat
Llama-3-8B-Instruct
Llama-3-70B-Instruct
Llama-3-8B
Llama-3-70B
Llama-3-70B-Instruct
Llama-3-8B-Instruct
Llama-2-7b
Llama-2-7b-chat
Llama-2-13b
Llama-2-13b-chat
Llama-2-70b
Llama-2-70b-chat
Mistral-familjemodeller mistralai-Mixtral-8x22B-v0-1
mistralai-Mixtral-8x22B-Instruct-v0-1
mistral-community-Mixtral-8x22B-v0-1
mistralai-Mixtral-8x7B-v01
mistralai-Mistral-7B-Instruct-v0-2
mistralai-Mistral-7B-v01
mistralai-Mixtral-8x7B-Instruct-v01
mistralai-Mistral-7B-Instruct-v01
Mistral-large
Mistral-small
Gemensamma familjemodeller Inte tillgängliga Cohere-command-r-plus
Cohere-command-r
Cohere-embed-v3-english
Cohere-embed-v3-multilingual
JAIS Inte tillgängliga jais-30b-chat
Phi3-familjemodeller Phi-3-small-128k-Instruct
Phi-3-small-8k-Instruct
Phi-3-mini-4k-Instruct
Phi-3-mini-128k-Instruct
Phi3-medium-128k-instruct
Phi3-medium-4k-instruct
Phi-3-mini-4k-Instruct
Phi-3-mini-128k-Instruct
Phi3-medium-128k-instruct
Phi3-medium-4k-instruct
Nixtla Inte tillgängliga TimeGEN-1
Andra modeller Tillgängligt Inte tillgängligt

Ett diagram som visar modeller som en tjänst och tjänstcykel för slutpunkter i realtid.

Hantera databearbetning

Möjligheten att distribuera modeller som en hanterad beräkning bygger på plattformsfunktioner i Azure Mašinsko učenje för att möjliggöra sömlös integrering över hela LLMOps-livscykeln för den breda samlingen modeller i modellkatalogen.

Ett diagram som visar LLMops livscykel.

Hur görs modeller tillgängliga för distribution som hanterad beräkning?

Modellerna görs tillgängliga via Azure Mašinsko učenje-register som aktiverar ML:s första metod för att hantera och distribuera Mašinsko učenje tillgångar, till exempel modellvikter, containerkörningar för att köra modellerna, pipelines för utvärdering och finjustering av modeller och datauppsättningar för benchmarks och exempel. Dessa ML-register bygger på en mycket skalbar och företagsklar infrastruktur som:

  • Levererar artefakter med låg latensåtkomstmodell till alla Azure-regioner med inbyggd geo-replikering.

  • Stöder företagets säkerhetskrav som begränsar åtkomsten till modeller med Azure Policy och säker distribution med hanterade virtuella nätverk.

Distribuera modeller för slutsatsdragning med hanterad beräkning

Modeller som är tillgängliga för distribution till en hanterad beräkning kan distribueras till Azure Mašinsko učenje Online-slutpunkter för realtidsinferens. När du distribuerar till hanterad beräkning måste du ha en kvot för virtuella datorer i din Azure-prenumeration för de specifika SKU:er som behövs för att köra modellen optimalt. Med vissa modeller kan du distribuera till en tillfälligt delad kvot för att testa modellen. Läs mer om att distribuera modeller:

Skapa generativa AI-appar med hanterad beräkning

Prompt flow erbjuder en bra upplevelse för prototyper. Du kan använda modeller som distribuerats med hanterade beräkningar i Prompt Flow med VERKTYGET ÖPPNA MODELL LLM. Du kan också använda REST-API:et som exponeras av hanterad beräkning i populära LLM-verktyg som LangChain med Azure Mašinsko učenje-tillägget.

Innehållssäkerhet för modeller som distribueras som hanterad beräkning

Tjänsten Azure AI Content Safety (AACS) är tillgänglig för användning med hanterade beräkningar för att söka efter olika kategorier av skadligt innehåll, till exempel sexuellt innehåll, våld, hat och självskadebeteende och avancerade hot som riskidentifiering av jailbreak och skyddad materialtextidentifiering. Du kan referera till den här notebook-filen för referensintegrering med AACS för Llama 2 eller använda verktyget Innehållssäkerhet (text) i Prompt Flow för att skicka svar från modellen till AACS för screening. Du debiteras separat enligt AACS-priser för sådan användning.

Serverlösa API:er med betala per användning-fakturering

Vissa modeller i modellkatalogen kan distribueras som serverlösa API:er med betala per användning-fakturering. Den här distributionsmetoden kallas Modeller som en tjänst (MaaS), vilket ger ett sätt att använda dem som ett API utan att vara värd för dem i din prenumeration. Modeller som är tillgängliga via MaaS finns i infrastruktur som hanteras av Microsoft, vilket ger API-baserad åtkomst till modellleverantörens modell. API-baserad åtkomst kan avsevärt minska kostnaden för att komma åt en modell och avsevärt förenkla etableringsupplevelsen. De flesta MaaS-modeller levereras med tokenbaserade priser.

Hur görs modeller från tredje part tillgängliga i MaaS?

Ett diagram som visar modellutgivarens tjänstcykel.

Modeller som är tillgängliga för distribution som serverlösa API:er med betala per användning-fakturering erbjuds av modellprovidern men finns i Microsoft-hanterad Azure-infrastruktur och nås via API. Modellleverantörer definierar licensvillkoren och anger priset för användning av sina modeller, medan Azure Mašinsko učenje-tjänsten hanterar värdinfrastrukturen, gör slutsatsdragnings-API:erna tillgängliga och fungerar som dataprocessor för frågor som skickas och innehållsutdata från modeller som distribueras via MaaS. Läs mer om databehandling för MaaS i artikeln om datasekretess .

Betala för modellanvändning i MaaS

Identifierings-, prenumerations- och förbrukningsupplevelsen för modeller som distribueras via MaaS finns i Azure AI Studio och Azure Mašinsko učenje studio. Användare accepterar licensvillkor för användning av modellerna och prisinformation för förbrukning tillhandahålls under distributionen. Modeller från tredjepartsleverantörer debiteras via Azure Marketplace i enlighet med användningsvillkoren för den kommersiella marknadsplatsen . Modeller från Microsoft debiteras med Hjälp av Azure-mätare som förbrukningstjänster från första part. Som beskrivs i produktvillkoren köps Förbrukningstjänster från första part med Hjälp av Azure-mätare men omfattas inte av Azure-tjänstvillkor. Användning av dessa modeller omfattas av de licensvillkor som anges.

Distribuera modeller för slutsatsdragning via MaaS

Genom att distribuera en modell via MaaS kan användarna få åtkomst till färdiga slutsatsdragnings-API:er utan att behöva konfigurera infrastruktur eller etablera GPU:er, vilket sparar teknisk tid och resurser. Dessa API:er kan integreras med flera LLM-verktyg och användningen faktureras enligt beskrivningen i föregående avsnitt.

Finjustera modeller via MaaS med Betala per användning

För modeller som är tillgängliga via MaaS och stöder finjustering kan användarna dra nytta av värdbaserad finjustering med betala per användning-fakturering för att skräddarsy modellerna med hjälp av data som de tillhandahåller. Mer information finns i översikten över finjustering.

RAG med modeller som distribueras som serverlösa API:er

Med Azure AI Studio kan användarna använda vektorindex och hämtningsförhöjd generation. Modeller som kan distribueras via serverlöst API kan användas för att generera inbäddningar och slutsatsdragning baserat på anpassade data för att generera svar som är specifika för deras användningsfall. Mer information finns i Skapa ett vektorindex.

Regional tillgänglighet för erbjudanden och modeller

Betala per användning-fakturering är endast tillgängligt för användare vars Azure-prenumeration tillhör ett faktureringskonto i ett land där modellleverantören har gjort erbjudandet tillgängligt (se "erbjudandetillgänglighetsregion" i tabellen i nästa avsnitt). Om erbjudandet är tillgängligt i den relevanta regionen måste användaren sedan ha en hubb/ett projekt i Azure-regionen där modellen är tillgänglig för distribution eller finjustering, i förekommande fall (se kolumnerna "hub/project region" i tabellen nedan).

Modell Erbjudandetillgänglighetsregion Hubb/projektregion för distribution Hubb/projektregion för finjustering
Llama-3-70B-Instruct
Llama-3-8B-Instruct
Microsoft Managed Countries USA, östra, USA, östra 2, USA, norra centrala, USA, södra centrala, Sverige, centrala, USA, västra, USA, västra 3 Inte tillgängliga
Llama-2-7b
Llama-2-13b
Llama-2-70b
Microsoft Managed Countries USA, östra, USA, östra 2, USA, norra centrala, USA, södra centrala, USA, västra, USA, västra 3 Västra USA 3
Llama-2-7b-chat
Llama-2-13b-chat
Llama-2-70b-chat
Microsoft Managed Countries USA, östra, USA, östra 2, USA, norra centrala, USA, södra centrala, USA, västra, USA, västra 3, Inte tillgängliga
Mistral Small Microsoft Managed Countries USA, östra, USA, östra 2, USA, norra centrala, USA, södra centrala, Sverige, centrala, USA, västra, USA, västra 3 Inte tillgängliga
Mistral-Large Microsoft Managed Countries
Brasilien
Hongkong
Israel
USA, östra, USA, östra 2, Frankrike, centrala, USA, norra centrala, USA, södra centrala, Sverige, centrala, USA, västra, USA, västra 3 Inte tillgängliga
Cohere-command-r-plus
Cohere-command-r
Cohere-embed-v3-english
Cohere-embed-v3-multilingual
Microsoft Managed Countries
Japan
USA, östra, USA, östra 2, USA, norra centrala, USA, södra centrala, Sverige, centrala, USA, västra, USA, västra 3 Inte tillgängliga
TimeGEN-1 Microsoft Managed Countries
Mexico
Israel
USA, östra, USA, östra 2, USA, norra centrala, USA, södra centrala, Sverige, centrala, USA, västra, USA, västra 3 Inte tillgängliga
jais-30b-chat Microsoft Managed Countries USA, östra, USA, östra 2, USA, norra centrala, USA, södra centrala, Sverige, centrala, USA, västra, USA, västra 3 Inte tillgängliga
Phi-3-mini-4k-instruct Microsoft Managed Countries USA, östra 2, Kanada, centrala, Sverige, centrala, USA, västra 3 Inte tillgängliga
Phi-3-mini-128k-instruct
Phi-3-medium-4k-instruct
Phi-3-medium-128k-instruct
Microsoft Managed Countries USA, östra 2, Sverige, centrala Inte tillgängliga

Innehållssäkerhet för modeller som distribueras via serverlöst API

Viktigt!

Vissa av de funktioner som beskrivs i den här artikeln kanske bara är tillgängliga i förhandsversionen. Den här förhandsversionen tillhandahålls utan ett serviceavtal och vi rekommenderar det inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Azure AI Studio implementerar en standardkonfiguration av Textmodereringsfilter för Azure AI Content Safety för skadligt innehåll (hat, självskadebeteende, sexuellt och våld) i språkmodeller som distribueras med MaaS. Mer information om innehållsfiltrering (förhandsversion) finns i skadekategorier i Azure AI Content Safety. Innehållsfiltrering (förhandsversion) sker synkront när tjänsten bearbetar uppmaningar om att generera innehåll, och du kan debiteras separat enligt AACS-priser för sådan användning. Du kan inaktivera innehållsfiltrering för enskilda serverlösa slutpunkter när du först distribuerar en språkmodell eller på sidan med distributionsinformation genom att klicka på växlingsknappen för innehållsfiltrering. Du kan ha högre risk att utsätta användare för skadligt innehåll om du inaktiverar innehållsfilter.

Nästa steg