Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Microsoft Foundry Models is uw eenmalige bestemming voor het detecteren, evalueren en implementeren van krachtige AI-modellen, ongeacht of u een aangepaste copilot bouwt, een agent bouwt, een bestaande toepassing verbetert of nieuwe AI-mogelijkheden verkent.
Met Foundry-modellen kunt u het volgende doen:
- Verken een uitgebreide catalogus met geavanceerde modellen van Microsoft, OpenAI, DeepSeek, Hugging Face, Meta en meer.
- Vergelijk en evalueer modellen naast elkaar met behulp van echte taken en uw eigen gegevens.
- Implementeer met vertrouwen dankzij ingebouwde hulpprogramma's voor het afstemmen, waarneembaarheid en verantwoorde AI.
- Kies uw pad: bring your own model, gebruik een gehost model of integreer naadloos met Azure-services.
- Of u nu een ontwikkelaar, data scientist of enterprise architect bent, Foundry Models biedt u de flexibiliteit en controle om AI-oplossingen te bouwen die veilig, verantwoord en snel kunnen worden geschaald.
Foundry biedt een uitgebreide catalogus met AI-modellen. Er zijn meer dan 1900 modellen, variërend van Foundation Models, Reasoning Models, Small Language Models, Multimodal Models, Domain Specific Models, Industry Models en meer.
Onze catalogus is ingedeeld in twee hoofdcategorieën:
Als u het onderscheid tussen deze categorieën begrijpt, kunt u de juiste modellen kiezen op basis van uw specifieke vereisten en strategische doelen.
Modellen die rechtstreeks door Azure worden verkocht
Dit zijn modellen die worden gehost en verkocht door Microsoft onder Microsoft-productvoorwaarden. Deze modellen zijn grondig geëvalueerd en zijn diep geïntegreerd in het AI-ecosysteem van Azure. De modellen zijn afkomstig van verschillende topproviders en bieden verbeterde integratie, geoptimaliseerde prestaties en directe Microsoft-ondersteuning, waaronder sla's (Service Level Agreements) op bedrijfsniveau.
Kenmerken van deze directe modellen:
- Officiële ondersteuning van derden van Microsoft
- Hoog integratieniveau met Azure-services en -infrastructuur
- Uitgebreide benchmarking en validatie van prestaties
- Naleving van de verantwoordelijke AI-standaarden van Microsoft
- Schaalbaarheid, betrouwbaarheid en beveiliging op ondernemingsniveau
Deze modellen hebben ook het voordeel van uitwisselbare geconfigureerde doorvoer, wat betekent dat u uw quota en reserveringen flexibel kunt gebruiken over alle modellen heen.
Modellen van partners en gemeenschap
Deze modellen vormen de overgrote meerderheid van de Foundry Models. Deze modellen worden geleverd door vertrouwde organisaties van derden, partners, onderzoeksinstituten en gemeenschapsbijdragers. Deze modellen bieden gespecialiseerde en diverse AI-mogelijkheden, met een breed scala aan scenario's, branches en innovaties.
Kenmerken van modellen van partners en gemeenschap:
- Ontwikkeld en ondersteund door externe partners en community-inzenders
- Diverse reeks gespecialiseerde modellen die geschikt zijn voor niche of brede gebruiksvoorbeelden
- Doorgaans gevalideerd door providers zelf, met integratierichtlijnen van Azure
- Communitygestuurde innovatie en snelle beschikbaarheid van geavanceerde modellen
- Standaard Azure AI-integratie met ondersteuning en onderhoud die wordt beheerd door de respectieve providers
Modellen kunnen worden geïmplementeerd als beheerde compute- of standaardimplementatieopties (betalen per gebruik). De modelprovider selecteert hoe de modellen kunnen worden geïmplementeerd.
Kiezen tussen directe modellen en partnermodellen en communitymodellen
Houd rekening met het volgende bij het selecteren van modellen in Foundry Models:
- Use-case en vereisten: modellen die rechtstreeks door Azure worden verkocht, zijn ideaal voor scenario's waarvoor diepgaande Azure-integratie, gegarandeerde ondersteuning en enterprise SLA's zijn vereist. Azure Ecosystem Models excel in gespecialiseerde use cases en door innovatie geleide scenario's.
- Ondersteuningsverwachtingen: modellen die rechtstreeks door Azure worden verkocht, worden geleverd met robuuste door Microsoft geleverde ondersteuning en onderhoud. Deze modellen worden ondersteund door hun providers, met verschillende niveaus van SLA en ondersteuningsstructuren.
- Innovatie en specialisatie: Modellen van partners en community bieden snelle toegang tot gespecialiseerde innovaties en nichemogelijkheden die vaak zijn ontwikkeld door toonaangevende onderzoekslabs en opkomende AI-providers.
Modelverzamelingen
De modelcatalogus organiseert modellen in verschillende verzamelingen:
Azure OpenAI-modellen die exclusief beschikbaar zijn in Azure: Vlaggenschip Azure OpenAI-modellen die beschikbaar zijn via een integratie met Azure OpenAI in Foundry Models. Microsoft ondersteunt deze modellen en het gebruik ervan volgens de productvoorwaarden en SLA voor Azure OpenAI in Foundry Models.
Open modellen van de Hugging Face-hub: Honderden modellen van de Hugging Face-hub voor realtime deductie met beheerde rekenkracht. Hugging Face creëert en onderhoudt de modellen die in deze verzameling zijn opgenomen. Gebruik voor hulp het Hugging Face-forum of hugging Face-ondersteuning. Meer informatie in Open Modellen implementeren met Foundry.
U kunt een aanvraag indienen om een model toe te voegen aan de modelcatalogus met behulp van dit formulier.
Overzicht van mogelijkheden van modelcatalogus
De modelcatalogus in Foundry Portal is de hub voor het detecteren en gebruiken van een breed scala aan modellen voor het bouwen van generatieve AI-toepassingen. De modelcatalogus bevat honderden modellen voor modelproviders, zoals Azure OpenAI, Mistral, Meta, Cohere, NVIDIA en Hugging Face, inclusief modellen die Door Microsoft zijn getraind. Modellen van andere providers dan Microsoft zijn niet-Microsoft-producten zoals gedefinieerd in de Productvoorwaarden van Microsoft en zijn onderworpen aan de voorwaarden van de modellen.
U kunt modellen zoeken en ontdekken die voldoen aan uw behoeften via trefwoorden zoeken en filters. Modelcatalogus biedt ook het scorebord voor modelprestaties en benchmarkgegevens voor bepaalde modellen. U kunt deze openen door bladeren op leaderboard en Modellen vergelijken te selecteren. Benchmarkgegevens zijn ook toegankelijk via het tabblad Benchmark voor modelkaarten.
Op de filters van de modelcatalogus vindt u het volgende:
- Verzameling: u kunt modellen filteren op basis van de verzameling van de modelprovider.
- Branche: u kunt filteren op de modellen die zijn getraind op branchespecifieke gegevensset.
- Mogelijkheden: u kunt filteren op unieke modelfuncties, zoals redenering en aanroepen van hulpprogramma's.
- Implementatieopties: u kunt filteren op de modellen die ondersteuning bieden voor een specifieke implementatieopties.
- Standaard: met deze optie kunt u betalen per API-aanroep.
- Ingericht: het meest geschikt voor scoren in real-time voor een grote, constante hoeveelheid.
- Batch: het meest geschikt voor kosten-geoptimaliseerde batchverwerking, en niet voor latentie. Er is geen ondersteuning voor speeltuinen beschikbaar voor de batchimplementatie.
- Beheerde berekening: met deze optie kunt u een model implementeren op een virtuele Azure-machine. U wordt gefactureerd voor hosting en inferentie.
- Deductietaken: u kunt modellen filteren op basis van het type deductietaak.
- Taken verfijnen: u kunt modellen filteren op basis van het taaktype verfijnen.
- Licenties: u kunt modellen filteren op basis van het licentietype.
Op de modelkaart vindt u:
- Snelle feiten: u ziet in één oogopslag belangrijke informatie over het model.
- Details: deze pagina bevat de gedetailleerde informatie over het model, inclusief beschrijving, versie-informatie, ondersteund gegevenstype, enzovoort.
- Benchmarks: u vindt metrische prestatiebenchmarks voor geselecteerde modellen.
- Bestaande implementaties: als u het model al hebt geïmplementeerd, kunt u dit vinden op het tabblad Bestaande implementaties.
- Licentie: u vindt juridische informatie met betrekking tot modellicenties.
- Artefacten: dit tabblad wordt alleen weergegeven voor geopende modellen. U kunt de modelassets zien en downloaden via de gebruikersinterface.
Modelimplementatie: Beheerde compute- en standaardimplementaties
Naast Azure OpenAI-modellen biedt de modelcatalogus twee verschillende manieren om modellen te implementeren voor uw gebruik: beheerde berekeningen en standaardimplementaties.
De implementatieopties en -functies die beschikbaar zijn voor elk model variëren, zoals beschreven in de volgende tabellen. Meer informatie over gegevensverwerking met de implementatieopties.
Mogelijkheden van modelimplementatieopties
| Kenmerken | Volledig beheerde rekenprocessen | Standaardimplementaties |
|---|---|---|
| Implementatie-ervaring en -facturering | Modelgewichten worden geïmplementeerd op toegewezen virtuele machines met beheerde rekenkracht. Een beheerde berekening, die een of meer implementaties kan hebben, maakt een REST API beschikbaar voor deductie. U wordt gefactureerd voor de kernuren van de virtuele machine die door de implementaties worden gebruikt. | Toegang tot modellen is via een implementatie die een API inricht voor toegang tot het model. De API biedt toegang tot het model dat door Microsoft wordt gehost en beheerd voor inferentie. U wordt gefactureerd voor invoer en uitvoer voor de API's, meestal in tokens. Prijsinformatie wordt verstrekt voordat u implementeert. |
| API-verificatie | Sleutels en Microsoft Entra-authenticatie. | Alleen sleutels. |
| Inhoudsveiligheid | Azure AI Content Safety Service-API's gebruiken. | Azure AI Content Veiligheid-filters zijn geïntegreerd met deductie-API's. Azure AI Content Safety-filters worden afzonderlijk gefactureerd. |
| Netwerkisolatie | Beheerde netwerken configureren voor Foundry-hubs. | Beheerde rekenkracht volgt de vlaginstelling voor openbare netwerktoegang (PNA) van uw hub. Zie de sectie Netwerkisolatie voor modellen die zijn geïmplementeerd via standaardimplementaties verderop in dit artikel voor meer informatie. |
Beschikbare modellen voor ondersteunde implementatieopties
Modelcatalogus biedt twee verschillende manieren om modellen uit de catalogus te implementeren voor uw gebruik: beheerde berekeningen en standaardimplementaties. De beschikbare implementatieopties voor elk model variëren; meer informatie over de functies van de implementatieopties en de opties die beschikbaar zijn voor specifieke modellen, vindt u in de onderstaande tabellen. Meer informatie over gegevensverwerking met de implementatieopties.
| Kenmerken | Volledig beheerde rekenprocessen | Standaardimplementaties |
|---|---|---|
| Implementatie-ervaring en -facturering | Modelgewichten worden geïmplementeerd op toegewezen virtuele machines met beheerde online-eindpunten. Het beheerde online-eindpunt, dat een of meer implementaties kan hebben, maakt een REST API beschikbaar voor deductie. U wordt gefactureerd voor de core-uren van de virtuele machine die door de implementaties worden gebruikt. | Toegang tot modellen is via een implementatie die een API inricht voor toegang tot het model. De API biedt toegang tot het model voor deductie dat wordt gehost in een centrale GPU-pool, beheerd door Microsoft. Deze toegangsmodus wordt 'Modellen als een service' genoemd. U wordt gefactureerd voor invoer en uitvoer voor de API's, meestal in tokens; u krijgt prijsinformatie voordat u implementeert. |
| API-verificatie | Sleutels en verificatie van Microsoft Entra ID. Meer informatie. | Alleen sleutels. |
| Inhoudsveiligheid | API's van de Azure Content Safety-service gebruiken. | Azure AI Content Veiligheid-filters zijn geïntegreerd met deductie-API's. Azure AI Content Veiligheid-filters kunnen afzonderlijk worden gefactureerd. |
| Netwerkisolatie | Beheerd virtueel netwerk met online eindpunten. Meer informatie. |
Volledig beheerde rekenprocessen
De mogelijkheid om modellen met beheerde berekeningen te implementeren, bouwt voort op platformmogelijkheden van Azure Machine Learning om naadloze integratie mogelijk te maken, in de gehele levenscyclus van GenAIOps (ook wel LLMOps genoemd) van de brede verzameling modellen in de modelcatalogus.
Beschikbaarheid van modellen voor implementatie als beheerde rekenkracht
De modellen worden beschikbaar gesteld via Azure Machine Learning-registers, dit maakt een ML-gerichte aanpak voor het hosten en distribueren van machine learning-assets mogelijk, zoals modelgewichten, containerruntimes voor het uitvoeren van de modellen, automatiseringen voor het evalueren en verfijnen van de modellen en gegevenssets voor benchmarks en voorbeelden. Deze ML-registers worden gebouwd op een zeer schaalbare en bedrijfsklare infrastructuur die:
Toegangsmodelartefacten met lage latentie biedt voor alle Azure-regio's met ingebouwde geo-replicatie.
Bedrijfsbeveiligingsvereisten ondersteunt voor het beperken van de toegang tot modellen met Azure Policy en veilige implementatie met beheerde virtuele netwerken.
Implementatie van modellen voor deductie met beheerde rekenkracht
Modellen die beschikbaar zijn voor implementatie met beheerde berekeningen, kunnen worden geïmplementeerd op online Azure Machine Learning-eindpunten voor realtime deductie of kunnen worden gebruikt voor azure Machine Learning-batchdeductie om uw gegevens te verwerken. Voor implementatie in beheerde berekeningen moet u een quotum voor virtuele machines in uw Azure-abonnement hebben voor de specifieke SKU's die nodig zijn om het model optimaal uit te voeren. Met sommige modellen kunt u tijdelijk een gedeeld quotum implementeren voor het testen van het model. Meer informatie over het implementeren van modellen:
- Meta Llama-modellen implementeren
- Open modellen implementeren die zijn gemaakt door Azure AI
- Hugging Face-modellen implementeren
Generatieve AI-apps bouwen met beheerde rekenkracht
Promptstroom biedt mogelijkheden voor het maken van prototypen, experimenteren, herhalen en implementeren van uw AI-toepassingen. U kunt modellen gebruiken die zijn geïmplementeerd met beheerde compute in stroomlijning met het hulpprogramma Open Model LLM. U kunt ook de REST API gebruiken die beschikbaar wordt gesteld door de beheerde berekeningen in populaire LLM-hulpprogramma's zoals LangChain met de Azure Machine Learning-extensie.
Inhoudsveiligheid voor modellen die zijn geïmplementeerd als beheerde rekenkracht
De AACS-service (Azure AI Content Safety) is beschikbaar voor gebruik met modellen die zijn geïmplementeerd voor beheerde berekeningen voor verschillende categorieën schadelijke inhoud, zoals seksuele inhoud, geweld, haat en zelfbeschadigende en geavanceerde bedreigingen, zoals jailbreakrisicodetectie en detectie van beveiligde materiaalteksten. U kunt dit notebook raadplegen voor referentieintegratie met AACS voor Llama 2 of het hulpprogramma Content Safety (Text) in Prompt Flow gebruiken om reacties van het model door te geven aan AACS voor screening. U wordt afzonderlijk gefactureerd volgens de AACS-prijzen voor dergelijk gebruik.
Standaardimplementaties met Standaard-facturering
Bepaalde modellen in de modelcatalogus kunnen worden geïmplementeerd als standaardimplementaties met standaardfacturering; deze implementatiemethode wordt standaardimplementaties genoemd. Modellen die beschikbaar zijn via MaaS, worden gehost in infrastructuur die wordt beheerd door Microsoft, waardoor api-gebaseerde toegang tot het model van de modelprovider mogelijk is. Api-toegang kan de kosten voor het openen van een model aanzienlijk verlagen en de inrichtingservaring aanzienlijk vereenvoudigen. De meeste MaaS-modellen worden geleverd met prijzen op basis van tokens.
Hoe worden modellen van derden beschikbaar gesteld in MaaS?
Modellen die beschikbaar zijn voor implementatie als standaardimplementaties met Standard-facturering, worden aangeboden door de modelprovider, maar gehost in de door Microsoft beheerde Azure-infrastructuur en toegankelijk via API. Modelproviders definiëren de licentievoorwaarden en stellen de prijs in voor het gebruik van hun modellen, terwijl Azure Machine Learning Service de hostinginfrastructuur beheert, de deductie-API's beschikbaar maakt en fungeert als de gegevensverwerker voor prompts die worden verzonden en inhoudsuitvoer door modellen die zijn geïmplementeerd via MaaS. Meer informatie over gegevensverwerking voor MaaS vindt u in het artikel over gegevensprivacy .
Opmerking
CSP-abonnementen (Cloud Solution Provider) hebben niet de mogelijkheid om standaardimplementatiemodellen aan te schaffen.
Facturatie
De detectie-, abonnements- en verbruikservaring voor modellen die zijn geïmplementeerd via MaaS, bevindt zich in de Foundry-portal en Azure Machine Learning Studio. Gebruikers accepteren licentievoorwaarden voor het gebruik van de modellen. Prijsinformatie voor verbruik wordt verstrekt tijdens de implementatie.
Modellen van niet-Microsoft-providers worden gefactureerd via Azure Marketplace, in overeenstemming met de gebruiksvoorwaarden van Microsoft Commercial Marketplace.
Modellen van Microsoft worden gefactureerd via Azure-meters als First Party Consumption Services. Zoals beschreven in de productvoorwaarden, koopt u First Party Consumption Services met behulp van Azure-meters, maar deze zijn niet onderhevig aan de Azure-servicevoorwaarden. Het gebruik van deze modellen is onderhevig aan de opgegeven licentievoorwaarden.
Modellen verfijnen
Voor modellen die beschikbaar zijn via MaaS en ondersteuning bieden voor afstemming, kunnen gebruikers profiteren van gehoste afstemming met Standard-facturering om de modellen aan te passen met behulp van gegevens die ze leveren. Zie een Llama 2-model verfijnen in Foundry Portal voor meer informatie.
RAG met modellen die zijn geïmplementeerd als standaardimplementaties
Foundry stelt gebruikers in staat gebruik te maken van vectorindexen en retrieval augmented generation. Modellen die als standaardimplementaties kunnen worden geïmplementeerd, kunnen worden gebruikt om insluitingen en deductie te genereren op basis van aangepaste gegevens om antwoorden te genereren die specifiek zijn voor hun use-case. Zie Uitgebreide generatie en indexen ophalen voor meer informatie.
Regionale beschikbaarheid van aanbiedingen en modellen
Standaardfacturering is alleen beschikbaar voor gebruikers van wie het Azure-abonnement deel uitmaakt van een factureringsrekening in een land/regio waar de modelprovider de aanbieding beschikbaar heeft gesteld. Als de aanbieding beschikbaar is in de relevante regio, moet de gebruiker een hub/project hebben in de Azure-regio waar het model beschikbaar is voor implementatie of afstemming, indien van toepassing. Zie Beschikbaarheid van regio's voor modellen in standaardimplementaties voor gedetailleerde informatie.
Inhoudsveiligheid voor modellen die zijn geïmplementeerd via standaardimplementaties
Belangrijk
Deze functie is momenteel beschikbaar als openbare preview-versie. Deze preview-versie wordt geleverd zonder een service level agreement en we raden deze niet aan voor productieworkloads. Bepaalde functies worden mogelijk niet ondersteund of hebben mogelijk beperkte mogelijkheden.
Voor meer informatie, zie Aanvullende Gebruiksvoorwaarden voor Microsoft Azure Previews.
Voor taalmodellen die zijn geïmplementeerd via serverloze API, implementeert Azure AI een standaardconfiguratie van tekstbeheerfilters van Azure AI Content Safety die schadelijke inhoud detecteren, zoals haat, zelfschadig, seksueel en gewelddadig inhoud. Zie Kaders en besturingselementen voor modellen die rechtstreeks door Azure worden verkocht voor meer informatie over het filteren van inhoud.
Aanbeveling
Inhoudsfiltering is niet beschikbaar voor bepaalde modeltypen die worden geïmplementeerd via serverloze API. Deze modeltypen omvatten het insluiten van modellen en tijdreeksmodellen.
Inhoudsfiltering wordt synchroon uitgevoerd wanneer de service vraagt om inhoud te genereren. Mogelijk wordt u afzonderlijk gefactureerd op basis van azure AI Content Safety-prijzen voor dergelijk gebruik. U kunt het filteren van inhoud uitschakelen voor afzonderlijke serverloze eindpunten:
- Op het moment dat u voor het eerst een taalmodel implementeert
- Later selecteert u de wisselknop voor het filteren van inhoud op de pagina met implementatiedetails
Stel dat u besluit een andere API dan de ModelDeductie-API te gebruiken om te werken met een model dat is geïmplementeerd via een serverloze API. In een dergelijke situatie wordt inhoudsfiltering niet ingeschakeld, tenzij u deze afzonderlijk implementeert met behulp van Azure AI Content Safety.
Zie quickstart: Tekstinhoud analyseren om aan de slag te gaan met Azure AI Content Safety. Als u geen inhoudsfilters gebruikt bij het werken met modellen die zijn geïmplementeerd via serverloze API, loopt u een hoger risico om gebruikers bloot te stellen aan schadelijke inhoud.
Netwerkisolatie voor modellen die zijn geïmplementeerd via standaardimplementaties
Eindpunten voor modellen die als standaardimplementaties zijn geïmplementeerd, volgen de vlaginstelling voor openbare netwerktoegang (PNA) van de werkruimte waarin de implementatie bestaat. Als u uw MaaS-eindpunt wilt beveiligen, schakelt u de PNA-vlag in uw werkruimte uit. U kunt binnenkomende communicatie van een client naar uw eindpunt beveiligen met behulp van een privé-eindpunt voor de werkruimte.
De PNA-vlag voor de werkruimte instellen:
- Ga naar Azure Portal.
- Zoek naar Azure Machine Learning en selecteer uw werkruimte in de lijst met werkruimten.
- Gebruik op de pagina Overzicht het linkerdeelvenster om naar Instellingennetwerken> te gaan.
- Op het tabblad Openbare toegang kunt u instellingen configureren voor de vlag voor openbare netwerktoegang.
- Sla uw wijzigingen op. Het kan vijf minuten duren voordat uw wijzigingen zijn doorgevoerd.
Beperkingen
- Als u een werkruimte hebt met een privé-eindpunt dat vóór 11 juli 2024 is gemaakt, volgen nieuwe MaaS-eindpunten die aan deze werkruimte zijn toegevoegd, niet de netwerkconfiguratie. In plaats daarvan moet u een nieuw privé-eindpunt voor de werkruimte maken en nieuwe standaardimplementaties maken in de werkruimte, zodat de nieuwe implementaties de netwerkconfiguratie van de werkruimte kunnen volgen.
- Als u een werkruimte hebt met MaaS-implementaties die vóór 11 juli 2024 zijn gemaakt en u een privé-eindpunt voor deze werkruimte inschakelt, volgen de bestaande MaaS-implementaties de netwerkconfiguratie van de werkruimte niet. Voor standaardimplementaties in de werkruimte om de configuratie van de werkruimte te volgen, moet u de implementaties opnieuw maken.
- Momenteel is er geen ondersteuning voor Uw gegevens beschikbaar voor MaaS-implementaties in privéwerkruimten, omdat de PNA-vlag is uitgeschakeld voor privéwerkruimten.
- Het kan vijf minuten duren voordat een netwerkconfiguratiewijziging (bijvoorbeeld het in- of uitschakelen van de PNA-vlag) is doorgevoerd.