Dela via


Utforska Azure AI Foundry-modeller

Azure AI Foundry Models är ditt enda mål för att upptäcka, utvärdera och distribuera kraftfulla AI-modeller – oavsett om du skapar en anpassad andrepilot, skapar en agent, förbättrar ett befintligt program eller utforskar nya AI-funktioner.

Med Foundry-modeller kan du:

  • Utforska en omfattande katalog med avancerade modeller från Microsoft, OpenAI, DeepSeek, Hugging Face, Meta med mera.
  • Jämför och utvärdera modeller sida vid sida med hjälp av verkliga uppgifter och dina egna data.
  • Distribuera med tillförsikt tack vare inbyggda verktyg för finjustering, observerbarhet och ansvarsfull AI.
  • Välj din sökväg – ta med din egen modell, använd en värdbaserad modell eller integrera sömlöst med Azure-tjänster.
  • Oavsett om du är utvecklare, datavetare eller företagsarkitekt ger Foundry Models dig flexibiliteten och kontrollen att skapa AI-lösningar som skalas på ett säkert, ansvarsfullt och snabbt sätt.

Azure AI Foundry erbjuder en omfattande katalog med AI-modeller. Det finns över 1900+ modeller som sträcker sig från grundmodeller, resonemangsmodeller, små språkmodeller, multimodala modeller, domänspecifika modeller, branschmodeller med mera.

Vår katalog är uppdelad i två huvudkategorier:

Genom att förstå skillnaden mellan dessa kategorier kan du välja rätt modeller baserat på dina specifika krav och strategiska mål.

Modeller som säljs direkt av Azure

Det här är modeller som hanteras och säljs av Microsoft under Microsofts produktvillkor. Dessa modeller har genomgått rigorös utvärdering och är djupt integrerade i Azures AI-ekosystem. Modellerna kommer från en mängd olika toppleverantörer och erbjuder förbättrad integrering, optimerad prestanda och direkt Microsoft-support, inklusive serviceavtal i företagsklass.

Egenskaper för modeller som säljs direkt av Azure:

  • Officiell förstapartssupport från Microsoft
  • Hög integreringsnivå med Azure-tjänster och infrastruktur
  • Omfattande prestandamätning och validering
  • Efterlevnad av Microsofts ansvarsfulla AI-standarder
  • Skalbarhet, tillförlitlighet och säkerhet i företagsklass

Dessa modeller har också fördelen med fungible Provisioned Throughput, vilket innebär att du flexibelt kan använda din kvot och reservationer i någon av dessa modeller.

Modeller från partner och community

Dessa modeller utgör den stora majoriteten av Azure AI Foundry Models. Dessa modeller tillhandahålls av betrodda tredjepartsorganisationer, partner, forskningslabb och communitydeltagare. Dessa modeller erbjuder specialiserade och olika AI-funktioner som täcker en mängd olika scenarier, branscher och innovationer.

Egenskaper hos modeller från partner och community:

  • Utvecklad och stöds av externa partner och communitydeltagare
  • Olika typer av specialiserade modeller som tillgodoser nischade eller breda användningsfall
  • Verifieras vanligtvis av leverantörerna själva, med integreringsriktlinjer som tillhandahålls av Azure
  • Community-driven innovation och snabb tillgänglighet för banbrytande modeller
  • Azure AI-standardintegrering med support och underhåll som hanteras av respektive leverantör

Modeller kan distribueras som distributionsalternativ för hanterad beräkning eller serverlös API. Modellprovidern väljer hur modellerna kan distribueras.

Välja mellan direktmodeller och partner- och communitymodeller

Tänk på följande när du väljer modeller från Azure AI Foundry Models:

  • Användningsfall och krav: Modeller som säljs direkt av Azure är idealiska för scenarier som kräver djup Azure-integrering, garanterad support och serviceavtal för företag. Modeller från Partners och Community utmärker sig i specialiserade användningsfall och innovationsledda scenarier.
  • Supportförväntningar: Modeller som säljs direkt av Azure levereras med robust support och underhåll från Microsoft. Dessa modeller stöds av deras leverantörer, med olika nivåer av serviceavtal och stödstrukturer.
  • Innovation och specialisering: Modeller från partner och community ger snabb tillgång till specialiserade innovationer och nischfunktioner som ofta utvecklats av ledande forskningslabb och framväxande AI-leverantörer.

Modellsamlingar

Modellkatalogen organiserar modeller i olika samlingar, inklusive:

  • Azure OpenAI-modeller är exklusivt tillgängliga i Azure: Flaggskeppsmodeller för Azure OpenAI som är tillgängliga via en integrering med Azure OpenAI i Foundry Models. Microsoft stöder dessa modeller och deras användning enligt produktvillkoren och serviceavtalet för Azure OpenAI.

  • Öppna modeller från Hugging Face-hubben: Hundratals modeller från Hugging Face-hubben för realtidsinferens med hanterad beräkning. Hugging Face skapar och underhåller modeller som finns med i denna samling. Om du vill ha hjälp kan du använda Hugging Face-forumet eller Hugging Face-supporten. Läs mer i Distribuera öppna modeller med Azure AI Foundry.

Du kan skicka en begäran om att lägga till en modell i modellkatalogen med hjälp av det här formuläret.

Översikt över funktionerna i modellkatalogen

Modellkatalogen i Azure AI Foundry-portalen är navet för att identifiera och använda ett brett utbud av modeller för att skapa generativa AI-program. Modellkatalogen innehåller hundratals modeller mellan modellleverantörer som Azure OpenAI, Mistral, Meta, Cohere, NVIDIA och Hugging Face, inklusive modeller som Microsoft har tränat. Modeller från andra leverantörer än Microsoft är icke-Microsoft-produkter enligt definitionen i Microsofts produktvillkor och omfattas av de villkor som tillhandahålls med modellerna.

Du kan söka efter och identifiera modeller som uppfyller dina behov via nyckelordssökning och -filter. Modellkatalogen erbjuder även modellprestandalistan och benchmark-mått för utvalda modeller. Du kan komma åt dem genom att välja Bläddra bland topplistor och Jämföra modeller. Benchmark-data är också tillgängliga från fliken Benchmark för modellkortet.

I modellkatalogfiltren hittar du:

  • Samling: du kan filtrera modeller baserat på modellprovidersamlingen.
  • Bransch: du kan filtrera efter de modeller som tränas på branschspecifika datamängder.
  • Funktioner: du kan filtrera efter unika modellfunktioner som resonemang och verktygssamtal.
  • Distributionsalternativ: Du kan filtrera efter de modeller som stöder ett visst distributionsalternativ.
    • serverlöst API: Med det här alternativet kan du betala per API-anrop.
    • Etablerad: passar bäst för realtidsbedömning för stora konsekventa volymer.
    • Batch: passar bäst för kostnadsoptimerade batchjobb och inte svarstider. Det finns inget playground-stöd för batchdistributionen.
    • Hanterad beräkning: Med det här alternativet kan du distribuera en modell på en virtuell Azure-dator. Du kommer att debiteras för hosting och slutsatser.
  • Slutsatsdragningsuppgifter: Du kan filtrera modeller baserat på inferensaktivitetstypen.
  • Finjustera uppgifter: du kan filtrera modeller baserat på den finjusterade uppgiftstypen.
  • Licenser: du kan filtrera modeller baserat på licenstypen.

modellkortet hittar du:

  • Snabbfakta: du ser viktig information om modellen snabbt.
  • Information: Den här sidan innehåller detaljerad information om modellen, inklusive beskrivning, versionsinformation, datatyp som stöds osv.
  • Prestandamått: du hittar prestandamått för utvalda modeller.
  • Befintliga distributioner: Om du redan har distribuerat modellen hittar du den under fliken Befintliga distributioner.
  • Licens: Du hittar juridisk information som rör modelllicensiering.
  • Artefakter: Den här fliken visas endast för öppna modeller. Du kan se modelltillgångarna och ladda ned dem via användargränssnittet.

Modelldistribution: Hanterad beräkning och serverlösa API-distributioner

Förutom att distribuera till Azure OpenAI erbjuder modellkatalogen två olika sätt att distribuera modeller för din användning: hanterad beräkning och serverlösa API-distributioner.

De distributionsalternativ och funktioner som är tillgängliga för varje modell varierar enligt beskrivningen i följande tabeller. Läs mer om databehandling med distributionsalternativen.

Kapaciteter för modelldistributionsalternativ

Egenskaper Hanterad databearbetning serverlös API-distribution
Distributionsupplevelse och fakturering Modellvikter distribueras till dedikerade virtuella datorer med hanterad beräkning. En hanterad beräkning, som kan ha en eller flera distributioner, gör ett REST API tillgängligt för slutsatsdragning. Du debiteras för den virtuella datorns kärntimmar som distributionerna använder. Åtkomst till modeller sker via en distribution som etablerar ett API för åtkomst till modellen. API:et ger åtkomst till den modell som Microsoft är värd för och hanterar för slutsatsdragning. Du debiteras för indata och utdata till API:erna, vanligtvis i token. Prisinformation tillhandahålls innan du distribuerar.
API-autentisering Nycklar och Microsoft Entra-autentisering. Endast nycklar.
Innehållssäkerhet Använd API:er för Azure AI Content Safety-tjänsten. Azure AI-innehållssäkerhetsfilter är tillgängliga integrerade med slutsatsdragnings-API:er. Azure AI-innehållssäkerhetsfilter faktureras separat.
Nätverksisolering Konfigurera hanterade nätverk för Azure AI Foundry-hubbar. Hanterad beräkning följer inställningen av hubbens offentliga nätverksåtkomst (PNA)-flagga. Mer information finns i avsnittet Nätverksisolering för modeller som distribueras via serverlösa API-distributioner senare i den här artikeln.

Tillgängliga modeller för distributionsalternativ som stöds

Azure OpenAI-modeller finns i Azure OpenAI.

Om du vill visa en lista över modeller som stöds för serverlös API-distribution eller hanterad beräkning går du till startsidan för modellkatalogen i Azure AI Foundry. Använd filtret Distributionsalternativ för att välja antingen serverlös API-distribution eller Hanterad beräkning.

En skärmbild som visar hur du filtrerar efter hanterade beräkningsmodeller i katalogen.

Diagram som visar modeller som en tjänst och tjänstcykeln för hanterade beräkningar.

Modelllivscykel: utfasning och avveckling

AI-modeller utvecklas snabbt och när en ny version eller en ny modell med uppdaterade funktioner i samma modellfamilj blir tillgängliga kan äldre modeller dras tillbaka i AI Foundry-modellkatalogen. För att möjliggöra en smidig övergång till en nyare modellversion ger vissa modeller användarna möjlighet att aktivera automatiska uppdateringar. Mer information om modelllivscykeln för olika modeller, kommande datum för modellavgång och föreslagna ersättningsmodeller och versioner finns i:

Hanterad databearbetning

Möjligheten att distribuera modeller som hanterad beräkning bygger på plattformsfunktioner i Azure Machine Learning för att möjliggöra sömlös integrering av den breda samlingen modeller i modellkatalogen under hela livscykeln för llm-åtgärder (large language model).

Diagram som visar livscykeln för stora språkmodellåtgärder.

Tillgänglighet för modeller för driftsättning som hanterad datorkapacitet

Modellerna görs tillgängliga via Azure Machine Learning-register. Dessa register möjliggör en maskininlärningsinriktad metod för att vara värd för och distribuera Azure Machine Learning-tillgångar. Dessa tillgångar omfattar modellvikter, containermiljöer för att köra modellerna, pipelines för utvärdering och finjustering av modellerna samt datauppsättningar för jämförelser och exempel.

Registren bygger på en mycket skalbar och företagsklar infrastruktur som:

  • Levererar låg latens åtkomst till modellkomponenter i alla Azure-regioner med inbyggd geo-replikering.

  • Stöder företagets säkerhetskrav, till exempel att begränsa åtkomsten till modeller med hjälp av Azure Policy och säker distribution med hjälp av hanterade virtuella nätverk.

Distribution av modeller för slutsatsdragning med hanterad beräkning

Modeller som är tillgängliga för distribution till hanterad beräkning kan distribueras till Azure Machine Learning-hanterad beräkning för realtidsinferens. När du distribuerar till hanterad beräkning måste du ha en kvot för virtuella datorer i din Azure-prenumeration för de specifika produkter som du behöver för att köra modellen optimalt. Med vissa modeller kan du distribuera till en tillfälligt delad kvot för modelltestning.

Läs mer om att distribuera modeller:

Skapa generativa AI-appar med hanterad beräkning

Funktionen uppmaningsflöde i Azure Machine Learning erbjuder en bra upplevelse för prototyputveckling. Du kan använda modeller som distribuerats med hanterad beräkning i promptflöde med Open Model LLM-verktyg. Du kan också använda REST-API:et som exponeras av hanterad beräkning i populära LLM-verktyg som LangChain med Azure Machine Learning-tillägget.

Innehållssäkerhet för modeller som distribueras som hanterad databehandling

Tjänsten Azure AI Content Safety är tillgänglig för användning med hanterad beräkning för att söka efter olika kategorier av skadligt innehåll, till exempel sexuellt innehåll, våld, hat och självskadebeteende. Du kan också använda tjänsten för att söka efter avancerade hot, till exempel upptäckning av jailbreak-risker och upptäckning av skyddat material.

Du kan referera till den här notebook-filen för referensintegrering med Azure AI Content Safety för Llama 2. Eller så kan du använda verktyget Innehållssäkerhet (text) i snabbflödet för att skicka svar från modellen till Azure AI Content Safety för screening. Du debiteras separat för sådan användning enligt beskrivningen i prissättningen för Azure AI Content Safety.

Fakturering för serverlös API-distribution

Du kan distribuera vissa modeller i modellkatalogen med serverlös API-fakturering. Den här distributionsmetoden, även kallad serverlös API-distribution, ger ett sätt att använda modellerna som API:er utan att vara värd för dem i din prenumeration. Modeller finns i en Microsoft-hanterad infrastruktur som ger API-baserad åtkomst till modellleverantörens modell. API-baserad åtkomst kan avsevärt minska kostnaden för att komma åt en modell och förenkla etableringsupplevelsen.

Modeller som är tillgängliga för distribution som serverlösa API-distributioner erbjuds av modellleverantören, men de finns i en Microsoft-hanterad Azure-infrastruktur och nås via API. Modellleverantörer definierar licensvillkoren och anger priset för användning av sina modeller. Azure Machine Learning-tjänsten:

  • Hanterar värdinfrastrukturen.
  • Gör slutsatsdragnings-API:erna tillgängliga.
  • Fungerar som dataprocessor för frågor som lämnas in och innehåll som genereras av modeller som distribueras via MaaS.

Läs mer om databehandling för MaaS i artikeln om datasekretess.

Diagram som visar modellutgivarens tjänstcykel.

Anmärkning

Molnlösningsleverantörsprenumerationer (CSP) har inte möjlighet att köpa serverlösa API-distributionsmodeller.

Fakturering

Identifierings-, prenumerations- och förbrukningsupplevelsen för modeller som distribueras via MaaS finns i Azure AI Foundry-portalen och Azure Machine Learning-studio. Användare accepterar licensvillkor för användning av modellerna. Prisinformation för förbrukning tillhandahålls under distributionen.

Modeller från icke-Microsoft-leverantörer faktureras via Azure Marketplace i enlighet med användningsvillkoren för Microsoft Commercial Marketplace.

Modeller från Microsoft faktureras via Azure-mätare som First Party Consumption Services. Som beskrivs i produktvillkoren köper du förbrukningstjänster från första part med hjälp av Azure-mätare, men de omfattas inte av Villkoren för Azure-tjänsten. Användning av dessa modeller omfattas av de angivna licensvillkoren.

Finjusteringsmodeller

Vissa modeller stöder också finjustering. För dessa modeller kan du dra nytta av hanterad beräkning (förhandsversion) eller serverlösa API-distributioner för att skräddarsy modellerna med hjälp av data som du tillhandahåller. Mer information finns i finjusteringsöversikten.

RAG med modeller som distribueras som serverlösa API-distributioner

I Azure AI Foundry-portalen kan du använda vektorindex och generering med utökad hämtning (RAG). Du kan använda modeller som kan distribueras via serverlösa API-distributioner för att generera inbäddningar och slutsatsdragning baserat på anpassade data. Dessa inbäddningar och slutsatsdragningar kan sedan generera svar som är specifika för ditt användningsfall. Mer information finns i Skapa och använda vektorindex i Azure AI Foundry-portalen.

Regional tillgänglighet för erbjudanden och modeller

Fakturering per token är endast tillgängligt för användare vars Azure-prenumeration tillhör ett faktureringskonto i ett land/en region där modellleverantören har gjort erbjudandet tillgängligt. Om erbjudandet är tillgängligt i den relevanta regionen måste användaren ha en projektresurs i Azure-regionen där modellen är tillgänglig för distribution eller finjustering, i förekommande fall. Se Regiontillgänglighet för modeller i serverlösa API-distributioner | Azure AI Foundry för detaljerad information.

Innehållssäkerhet för modeller som distribueras via serverlösa API-distributioner

För språkmodeller som distribueras via serverlöst API implementerar Azure AI en standardkonfiguration av textmodereringsfilter för Azure AI Content Safety som identifierar skadligt innehåll som hat, självskadebeteende, sexuellt och våldsamt innehåll. Mer information om innehållsfiltrering finns i Skyddsräcken och kontroller för modeller som säljs direkt av Azure.

Tips/Råd

Innehållsfiltrering är inte tillgängligt för vissa modelltyper som distribueras via serverlöst API. Dessa modelltyper omfattar inbäddningsmodeller och tidsseriemodeller.

Innehållsfiltrering sker synkront när tjänsten bearbetar uppmaningar om att generera innehåll. Du kan debiteras separat enligt prissättningen för Azure AI Content Safety för sådan användning. Du kan inaktivera innehållsfiltrering för enskilda serverlösa slutpunkter:

  • När du först distribuerar en språkmodell
  • Senare, genom att välja knappen för innehållsfiltrering på distributionsdetaljsidan

Anta att du bestämmer dig för att använda ett annat API än API:et för modellinferens för att arbeta med en modell som distribueras via ett serverlöst API. I sådana fall är innehållsfiltrering inte aktiverat om du inte implementerar det separat med hjälp av Azure AI Content Safety.

Information om hur du kommer igång med Azure AI Content Safety finns i Snabbstart: Analysera textinnehåll. Om du inte använder innehållsfiltrering när du arbetar med modeller som distribueras via serverlöst API löper du en högre risk att utsätta användare för skadligt innehåll.

Nätverksisolering för modeller som distribueras via serverlösa API-distributioner

Ändpunkter för modeller som distribueras som serverlösa API-implementationer följer flagginställningen för offentligt nätverksåtkomst för Azure AI Foundry-hubben som innehåller projektet där distributionen finns. Om du vill skydda din serverlösa API-distribution inaktiverar du åtkomstflaggan för offentligt nätverk på azure AI Foundry-hubben. Du kan skydda inkommande kommunikation från en klient till slutpunkten med hjälp av en privat slutpunkt för hubben.

Så här anger du åtkomstflaggan för offentligt nätverk för Azure AI Foundry-hubben:

  • Gå till Azure-portalen.
  • Sök efter den resursgrupp som hubben tillhör och välj din Azure AI Foundry-hubb från resurserna som anges för den här resursgruppen.
  • På översiktssidan för hubben går du till Inställningar>Nätverk i det vänstra fönstret.
  • På fliken Offentlig åtkomst kan du konfigurera inställningar för åtkomstflaggan för offentligt nätverk.
  • Spara ändringarna. Det kan ta upp till fem minuter att sprida ändringarna.

Begränsningar

  • Om du har en Azure AI Foundry-hubb med en privat slutpunkt som skapades före den 11 juli 2024 följer inte serverlösa API-distributioner som lagts till i projekt i den här hubben nätverkskonfigurationen för hubben. I stället måste du skapa en ny privat slutpunkt för hubben och skapa en ny serverlös API-distribution i projektet så att de nya distributionerna kan följa hubbens nätverkskonfiguration.

  • Om du har en Azure AI Foundry-hubb med MaaS-distributioner som skapats före den 11 juli 2024 och du aktiverar en privat slutpunkt på den här hubben följer inte de befintliga serverlösa API-distributionerna hubbens nätverkskonfiguration. För att serverlösa API-distributioner i hubben ska kunna följa hubbens nätverkskonfiguration måste du skapa distributionerna igen.

  • För närvarande är Azure OpenAI On Your Data-stöd inte tillgängligt för serverlösa API-distributioner i privata hubbar, eftersom privata hubbar har åtkomstflaggan för offentligt nätverk inaktiverad.

  • Alla ändringar i nätverkskonfigurationen (till exempel aktivering eller inaktivering av åtkomstflaggan för offentligt nätverk) kan ta upp till fem minuter att sprida.