Delen via


Wat is Azure OpenAI Service?

Azure OpenAI Service biedt REST API-toegang tot de krachtige taalmodellen van OpenAI, waaronder o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo with Vision, GPT-4, GPT-3.5-Turbo en Embeddings-modelreeks. Deze modellen kunnen eenvoudig worden aangepast aan uw specifieke taak, waaronder maar niet beperkt tot het genereren van inhoud, samenvatting, begrip van afbeeldingen, semantische zoekopdrachten en natuurlijke taal voor codevertaling. Gebruikers hebben toegang tot de service via REST API's, Python SDK of in Azure AI Studio.

Functieoverzicht

Functie Azure OpenAI
Beschikbare modellen o1-preview & o1-mini - (beperkte toegang - Toegang aanvragen)
GPT-4o & GPT-4o mini
GPT-4 serie (inclusief GPT-4 Turbo met Vision)
GPT-3.5-Turbo serie
Reeks insluitingen
Meer informatie vindt u op onze pagina Modellen .
Afstemmen GPT-4o-mini (preview)
GPT-4 (preview)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Prijs Hier beschikbaar
Zie de speciale prijsinformatie voor meer informatie over GPT-4 Turbo met Vision.
Ondersteuning voor virtuele netwerken en ondersteuning voor private link Ja.
Beheerde identiteit Ja, via Microsoft Entra-id
Ui-ervaring Azure Portal voor account- en resourcebeheer,
Azure AI Studio voor modelverkenning en -afstemming
Regionale beschikbaarheid modelleren Beschikbaarheid van modellen
Inhoud filteren Prompts en voltooiingen worden geëvalueerd op basis van ons inhoudsbeleid met geautomatiseerde systemen. Inhoud met hoge ernst wordt gefilterd.

Verantwoorde AI

Bij Microsoft zetten we ons in voor de vooruitgang van AI op basis van principes die mensen als eerste plaatsen. Generatieve modellen zoals de modellen die beschikbaar zijn in Azure OpenAI hebben aanzienlijke potentiële voordelen, maar zonder zorgvuldig ontwerp en doordachte oplossingen hebben dergelijke modellen het potentieel om onjuiste of zelfs schadelijke inhoud te genereren. Microsoft heeft aanzienlijke investeringen gedaan om te beschermen tegen misbruik en onbedoelde schade, waaronder het opnemen van de principes van Microsoft voor verantwoord AI-gebruik, het aannemen van een gedragscode voor het gebruik van de service, het bouwen van inhoudsfilters ter ondersteuning van klanten en het verstrekken van verantwoorde AI-informatie en richtlijnen die klanten moeten overwegen bij het gebruik van Azure OpenAI.

Hoe kan ik toegang krijgen tot Azure OpenAI?

Een registratieformulier voor beperkte toegang is niet vereist voor toegang tot de meeste Azure OpenAI-modellen. Meer informatie vindt u op de pagina Beperkte toegang van Azure OpenAI.

Azure OpenAI en OpenAI vergelijken

Azure OpenAI Service biedt klanten geavanceerde taal-AI met OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper en tekst naar spraakmodellen met de beveiliging en bedrijfsbelofte van Azure. Azure OpenAI ontwikkelt de API's samen met OpenAI en zorgt voor compatibiliteit en een soepele overgang van het ene naar het andere.

Met Azure OpenAI krijgen klanten de beveiligingsmogelijkheden van Microsoft Azure terwijl ze dezelfde modellen uitvoeren als OpenAI. Azure OpenAI biedt privénetwerken, regionale beschikbaarheid en verantwoordelijke AI-inhoudsfiltering.

Belangrijke concepten

Prompts en voltooiingen

Het eindpunt voor voltooiingen is het kernonderdeel van de API-service. Deze API biedt toegang tot de tekst-in- en tekst-outinterface van het model. Gebruikers hoeven alleen maar een invoerprompt met de Engelse tekstopdracht op te geven en het model genereert een tekstvoltooiing.

Hier volgt een voorbeeld van een eenvoudige prompt en voltooiing:

Prompt: """ count to 5 in a for loop """

Voltooiing: for i in range(1, 6): print(i)

Tokens

Teksttokens

Azure OpenAI verwerkt tekst door deze op te splitsen in tokens. Tokens kunnen woorden zijn of gewoon stukjes met tekens. Het woord 'hamburger' wordt bijvoorbeeld opgesplitst in de tokens 'ham', 'bur' en 'ger', terwijl een kort en gemeenschappelijk woord zoals 'peer' een enkel token is. Veel tokens beginnen met een witruimte, bijvoorbeeld 'hello' en 'bye'.

Het totale aantal tokens dat in een bepaalde aanvraag wordt verwerkt, is afhankelijk van de lengte van uw invoer-, uitvoer- en aanvraagparameters. De hoeveelheid tokens die wordt verwerkt, heeft ook invloed op de latentie en doorvoer van uw reactie voor de modellen.

Afbeeldingstokens

De mogelijkheden voor afbeeldingsverwerking van Azure OpenAI met GPT-4o, GPT-4o mini en GPT-4 Turbo met Vision-modellen maken gebruik van afbeeldingstokens om het totale aantal tokens te bepalen dat wordt verbruikt door afbeeldingsinvoer. Het aantal verbruikte tokens wordt berekend op basis van twee hoofdfactoren: het niveau van afbeeldingsdetail (laag of hoog) en de afmetingen van de afbeelding. U kunt als volgt tokenkosten berekenen:

  • Modus lage resolutie
    • Met weinig details kan de API snellere antwoorden retourneren voor scenario's waarvoor geen analyse van een hoge afbeeldingsresolutie is vereist. De tokens die worden gebruikt voor afbeeldingen met lage details zijn:
      • GPT-4o en GPT-4 Turbo met Vision: Vaste snelheid van 85 tokens per afbeelding, ongeacht de grootte.
      • GPT-4o mini: Vaste snelheid van 2833 tokens per afbeelding, ongeacht de grootte.
    • Voorbeeld: afbeelding van 4096 x 8192 (lage details): de kosten zijn een vaste 85 tokens, omdat het een afbeelding met lage details is en de grootte niet van invloed is op de kosten in deze modus.
  • Modus met hoge resolutie
    • Met weinig details kan de API afbeeldingen gedetailleerder analyseren. Afbeeldingstokens worden berekend op basis van de afmetingen van de afbeelding. De berekening omvat de volgende stappen:
      1. Formaat van afbeelding wijzigen: de afbeelding wordt aangepast aan een vierkant van 2048 x 2048 pixels. Als de kortste zijde groter is dan 768 pixels, wordt de afbeelding verder aangepast, zodat de kortste zijde 768 pixels lang is. De hoogte-breedteverhouding blijft behouden tijdens het wijzigen van het formaat.
      2. Tegelberekening: Nadat het formaat is gewijzigd, is de afbeelding onderverdeeld in tegels van 512 x 512 pixels. Eventuele gedeeltelijke tegels worden naar boven afgerond op een volledige tegel. Het aantal tegels bepaalt de totale tokenkosten.
      3. Tokenberekening:
        • GPT-4o en GPT-4 Turbo met Vision: Elke tegel van 512 x 512 pixels kost 170 tokens. Er worden extra 85 basistokens toegevoegd aan het totaal.
        • GPT-4o mini: Elke tegel van 512 x 512 pixel kost 5667 tokens. Er worden extra 2833 basistokens toegevoegd aan het totaal.
    • Voorbeeld: afbeelding van 2048 x 4096 (hoog detail):
      1. De afbeelding wordt in eerste instantie aangepast aan 1024 x 2048 pixels, zodat deze binnen het vierkant van 2048 x 2048 pixels past.
      2. De afbeelding wordt verder aangepast aan 768 x 1536 pixels om ervoor te zorgen dat de kortste zijde maximaal 768 pixels lang is.
      3. De afbeelding is onderverdeeld in 2 x 3 tegels, elk 512 x 512 pixels.
      4. Definitieve berekening:
        • Voor GPT-4o en GPT-4 Turbo with Vision zijn de totale tokenkosten 6 tegels x 170 tokens per tegel + 85 basistokens = 1105 tokens.
        • Voor GPT-4o mini zijn de totale tokenkosten 6 tegels x 5667 tokens per tegel + 2833 basistokens = 36835 tokens.

Resources

Azure OpenAI is een nieuw productaanbod in Azure. U kunt op dezelfde manier aan de slag met Azure OpenAI als elk ander Azure-product waarin u een resource of exemplaar van de service maakt in uw Azure-abonnement. Meer informatie over het ontwerp van resourcebeheer van Azure.

Installaties

Nadat u een Azure OpenAI-resource hebt gemaakt, moet u een model implementeren voordat u API-aanroepen kunt maken en tekst kunt genereren. Deze actie kan worden uitgevoerd met behulp van de implementatie-API's. Met deze API's kunt u het model opgeven dat u wilt gebruiken.

Prompt-engineering

De GPT-3-, GPT-3.5- en GPT-4-modellen van OpenAI zijn gebaseerd op prompts. Met modellen op basis van prompts communiceert de gebruiker met het model door een tekstprompt in te voeren, waarop het model reageert met een tekstvoltooiing. Deze voltooiing is hoe het model de invoertekst aanvult.

Hoewel deze modellen zeer krachtig zijn, is hun gedrag ook zeer gevoelig voor de prompt. Dit maakt prompt engineering een belangrijke vaardigheid om te ontwikkelen.

Prompt constructie kan moeilijk zijn. In de praktijk handelt de prompt om de gewichten van het model te configureren om de gewenste taak te voltooien, maar het is meer van een kunst dan een wetenschap, die vaak ervaring en intuïtiefheid vereist om een succesvolle prompt te maken.

Modellen

De service biedt gebruikers toegang tot verschillende modellen. Elk model biedt een andere mogelijkheid en prijspunt.

De DALL-E-modellen (sommige in preview; zie modellen) genereren afbeeldingen op basis van tekstprompts die de gebruiker biedt.

De Fluistermodellen kunnen worden gebruikt om spraak te transcriberen en te vertalen naar tekst.

De tekst naar spraakmodellen, momenteel als preview-versie, kan worden gebruikt om tekst naar spraak te synthetiseren.

Meer informatie over elk model op de conceptpagina van het model.

Volgende stappen

Meer informatie over de onderliggende modellen die Azure OpenAI mogelijk maken.