Delen via


Azure OpenAI-modellen implementeren met Azure AI Studio

Belangrijk

Sommige van de functies die in dit artikel worden beschreven, zijn mogelijk alleen beschikbaar in de preview-versie. Deze preview wordt aangeboden zonder een service level agreement en we raden deze niet aan voor productieworkloads. Misschien worden bepaalde functies niet ondersteund of zijn de mogelijkheden ervan beperkt. Zie Aanvullende gebruiksvoorwaarden voor Microsoft Azure-previews voor meer informatie.

In dit artikel leert u hoe u Azure OpenAI-modelimplementaties maakt in Azure AI Studio.

De Azure OpenAI-service biedt een diverse set modellen met verschillende mogelijkheden en prijspunten. Wanneer u Azure OpenAI-modellen implementeert in Azure AI Studio, kunt u de implementaties gebruiken met behulp van een promptstroom of een ander hulpprogramma. De modelbeschikbaarheid varieert per regio. Zie Azure OpenAI Service-modellen voor meer informatie over de details van elk model.

Als u een Azure OpenAI-model in de Azure AI Studio-speeltuin wilt wijzigen en ermee wilt werken, moet u eerst een Basis Azure OpenAI-model implementeren in uw project. Zodra het model is geïmplementeerd en beschikbaar is in uw project, kunt u het REST API-eindpunt ongewijzigd gebruiken of verder aanpassen met uw eigen gegevens en andere onderdelen (insluitingen, indexen en meer).

Een Azure OpenAI-model implementeren vanuit de modelcatalogus

Volg de onderstaande stappen om een Azure OpenAI-model te implementeren, zoals gpt-4 naar een realtime-eindpunt vanuit de AI Studio-modelcatalogus:

  1. Meld u aan bij AI Studio en ga naar destartpagina.

  2. Selecteer modelcatalogus in de linkerzijbalk.

  3. Selecteer Azure OpenAI in het filter Verzamelingen.

    Een schermopname die laat zien hoe u filtert op Azure OpenAI-modellen in de catalogus.

  4. Selecteer een model, zoals gpt-4 in de Azure OpenAI-verzameling.

  5. Selecteer Implementeren om het implementatievenster te openen.

  6. Selecteer de hub waarnaar u het model wilt implementeren. Als u geen hub hebt, kunt u er een maken.

  7. Geef de implementatienaam op en wijzig andere standaardinstellingen, afhankelijk van uw vereisten.

  8. Selecteer Implementeren.

  9. U komt terecht op de pagina met implementatiedetails. Selecteer Openen in speeltuin.

  10. Selecteer Code weergeven om codevoorbeelden te verkrijgen die kunnen worden gebruikt om het geïmplementeerde model in uw toepassing te gebruiken.

Een Azure OpenAI-model implementeren vanuit uw project

U kunt ook de implementatie starten door te beginnen met uw project in AI Studio.

  1. Ga naar uw project in AI Studio.
  2. Selecteer Onderdelenimplementaties>.
  3. Selecteer + Implementatie maken.
  4. Selecteer Azure OpenAI in het filter Verzamelingen.
  5. Selecteer een model, zoals gpt-4 in de Azure OpenAI-verzameling.
  6. Selecteer Bevestigen om het implementatievenster te openen.
  7. Geef de implementatienaam op en wijzig andere standaardinstellingen, afhankelijk van uw vereisten.
  8. Selecteer Implementeren.
  9. U komt terecht op de pagina met implementatiedetails. Selecteer Openen in speeltuin.
  10. Selecteer Code weergeven om codevoorbeelden te verkrijgen die kunnen worden gebruikt om het geïmplementeerde model in uw toepassing te gebruiken.

Het Azure OpenAI-model deductie maken

Als u deductie wilt uitvoeren op het geïmplementeerde model, kunt u de speeltuin of codevoorbeelden gebruiken. De speeltuin is een webinterface waarmee u in realtime met het model kunt werken. U kunt de speeltuin gebruiken om het model te testen met verschillende prompts en de antwoorden van het model te bekijken.

Zie de volgende Azure OpenAI-quickstarts voor meer voorbeelden van het gebruik van het geïmplementeerde model in uw toepassing:

Regionale beschikbaarheid en quotumlimieten van een model

Het standaardquotum voor Azure OpenAI-modellen varieert per model en regio. Bepaalde modellen zijn mogelijk alleen beschikbaar in sommige regio's. Zie quota en limieten voor Azure OpenAI-service voor meer informatie over beschikbaarheids- en quotumlimieten.

Quotum voor het implementeren en deducteren van een model

Voor Azure OpenAI-modellen verbruikt implementeren en deductie het quotum dat is toegewezen aan uw abonnement per regio, per model in eenheden van tokens per minuut (TPM). Wanneer u zich registreert voor Azure AI Studio, ontvangt u een standaardquotum voor de meeste beschikbare modellen. Vervolgens wijst u TPM toe aan elke implementatie terwijl deze wordt gemaakt, waardoor het beschikbare quotum voor dat model wordt verminderd met het bedrag dat u hebt toegewezen. U kunt implementaties blijven maken en deze TPM's toewijzen totdat u de quotumlimiet hebt bereikt.

Zodra u de quotumlimiet hebt bereikt, kunt u alleen nieuwe implementaties van dat model maken:

Zie Azure AI Studio-quotum en Azure OpenAI Service-quotum beheren voor meer informatie over quotum.