Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W tym artykule wyjaśniono, jak zmienić wersję modelu i ustawienia w konstruktorze monitów. Wersja modelu i ustawienia mogą wpływać na wydajność i zachowanie generatywnego modelu AI.
Wybór modelu
Możesz zmienić model, wybierając pozycję Model u góry konstruktora monitów. Menu rozwijane pozwala wybrać spośród generatywnych modeli AI, które generują odpowiedzi na monit niestandardowy.
Ważne
W listopadzie 2025 r. zmigrowaliśmy model o3 do modelu rozumowania GPT-5. Monity uruchomione w modelu o3 zostały automatycznie przełączone do modelu rozumowania GPT-5 bez konieczności wykonania żadnej akcji. Można tymczasowo przywrócić model o3, żądając go za pośrednictwem wniosku o pomoc techniczną po wyświetleniu monitów. Ten wyjątek trwa do 17 grudnia 2025 r., po którym model o3 zostanie trwale wycofany.
Korzystanie z monitów w aplikacjach Power Apps lub Power Automate zużywa kredyty konstruktora monitów, natomiast korzystanie z monitów w Microsoft Copilot Studio zużywa kredyty Copilot. Dowiedz się więcej na temat licencjonowania i kredytów konstruktora monitów.
Przegląd
Poniższa tabela opisuje dostępne różne modele.
| Model GPT | Licencjonowanie | Funkcje | Kategoria |
|---|---|---|---|
| GPT-4.1 mini (Model domyślny) |
Stawka podstawowa | Wytrenowano na danych do czerwca 2024 r. Wprowadź do 128K tokenów. | Mini |
| GPT-4.1 | Stawka standardowa | Wytrenowano na danych do czerwca 2024 r. Dozwolony kontekst to maksymalnie 128 tys. tokenów. | Ogólne |
| Czat GPT-5 | Stawka standardowa | Przeszkolone na danych do września 2024 r. Dozwolony kontekst to maksymalnie 128 tys. tokenów. | Ogólne |
| Wnioskowanie GPT-5 | Stawka Premium | Przeszkolone na danych do września 2024 r. Dozwolony kontekst to maksymalnie 400 tys. tokenów. | Głęboki |
| Czat GPT-5.2 (Eksperymentalny) | Stawka standardowa | Dozwolony kontekst to maksymalnie 128 tys. tokenów. | Ogólne |
| Rozumowanie GPT-5.2 (eksperymentalne) | Stawka Premium | Wytrenowano na danych do października 2024 r. Dozwolony kontekst to maksymalnie 400 tys. tokenów. | Głęboki |
| Claude Sonnet 4.5 (Eksperymentalny) | Stawka standardowa | Model zewnętrzny firmy Anthropic. Dozwolony kontekst to maksymalnie 200 tys. tokenów. | Ogólne |
| Claude Opus 4.1 (Eksperymentalny) | Stawka Premium | Model zewnętrzny firmy Anthropic. Dozwolony kontekst to maksymalnie 200 tys. tokenów. | Głęboki |
GPT-4o mini i GPT 4o nadal są używane przez instytucje rządowe Stanów Zjednoczonych. Modele te są zgodne z zasadami licencjonowania i oferują funkcjonalności porównywalne odpowiednio z GPT-4.1 mini i GPT-4.1.
Dostępność modeli różni się w zależności od regionu. Dowiedz się więcej o dostępności modeli w dostępności modeli według regionów.
Modele Anthropic są hostowane poza Microsoft i podlegają terminom oraz obsłudze danych w Anthropic (Anthropic terms) oraz przetwarzaniu danych. Dowiedz się więcej o zewnętrznych modelach Anthropic w temacie Wybieranie modelu zewnętrznego jako podstawowego modelu AI.
Licencjonowanie
W agentach, przepływach lub aplikacjach modele używane przez monity wykorzystują kredyty Copilot, niezależnie od ich etapu wydania. Dowiedz się więcej w Zarządzanie kredytami Copilot.
Jeśli masz kredyty z AI Builder, są one priorytetowo wykorzystywane podczas korzystania z promptów w Power Apps i Power Automate. Nie są one zużywane, gdy w Copilot Studio pojawiają się prompty. Dowiedz się więcej w narzędziu AI Builder: omówienie licencjonowania.
Etapy wydania
Modele mają różne etapy wydawania. Możesz wypróbować nowe, najnowocześniejsze modele eksperymentalne i w wersji zapoznawczej lub wybrać niezawodny, dokładnie przetestowany ogólnie dostępny model.
| Tag | Podpis |
|---|---|
| Eksperymentalne | Używany do eksperymentowania i nie jest zalecany do użytku produkcyjnego. Z zastrzeżeniem warunków wersji zapoznawczej i mogą mieć ograniczenia dotyczące dostępności i jakości. |
| Wersja zapoznawcza | Ostatecznie stanie się ogólnie dostępnym modelem, ale obecnie nie jest zalecany do użytku produkcyjnego. Z zastrzeżeniem warunków wersji zapoznawczej i mogą mieć ograniczenia dotyczące dostępności i jakości. |
| Brak tagu | Ogólna dostępność. Możesz użyć tego modelu do skalowania i użytku produkcyjnego. W większości przypadków ogólnie dostępne modele nie mają ograniczeń dotyczących dostępności i jakości, ale niektóre mogą nadal mieć pewne ograniczenia, na przykład w dostępności regionalnej. Ważne: modele Anthropic Claude znajdują się na etapie eksperymentalnym, mimo że nie wyświetlają tagu. |
| Wartość domyślna | Domyślny model dla wszystkich agentów i zwykle najlepiej działający ogólnie dostępny model. Domyślny model jest okresowo uaktualniany i jako nowy, bardziej zdolny model staje się ogólnie dostępny. Agenty używają również modelu domyślnego jako rezerwowego, jeśli wybrany model jest wyłączony lub niedostępny. |
Modele eksperymentalne i w wersji zapoznawczej mogą wykazywać zmienną wydajność, jakość odpowiedzi, opóźnienia lub zużycie komunikatów i upłynięcie limitu czasu lub mogą być niedostępne. Podlegają one warunkom wersji zapoznawczej.
Kategoryzacja
W poniższej tabeli opisano różne kategorie modeli:
| Mini | Ogólne | Głęboki | |
|---|---|---|---|
| Wydajność | Nadaje się do większości zadań | Doskonały do złożonych zadań | Wytrenowany do zadań związanych z rozumowaniem |
| Szybkość | Szybsze przetwarzanie | Może być wolniejszy ze względu na złożoność | Wolniej, ponieważ rozważa, zanim odpowie |
| Przypadki użycia | Podsumowanie, zadania informacyjne, przetwarzanie obrazów i dokumentów | Przetwarzanie dokumentów i obrazów, zaawansowane zadania tworzenia zawartości | Zadania analizy i wnioskowania z danych, przetwarzanie dokumentów i obrazów |
Jeśli potrzebujesz ekonomicznego rozwiązania do zadań o średniej złożoności, masz ograniczone zasoby obliczeniowe lub potrzebujesz szybszego przetwarzania, wybierz modele Mini. Jest to idealne rozwiązanie dla projektów z ograniczonym budżetem i zastosowań takich jak obsługa klienta lub wydajna analiza kodu.
Jeśli masz do czynienia z bardzo złożonymi, multimodalnymi zadaniami, które wymagają doskonałej wydajności i szczegółowej analizy, wybierz modele Ogólne. Jest to lepszy wybór w przypadku dużych projektów, w których dokładność i zaawansowane możliwości mają kluczowe znaczenie. Innym scenariuszem, w którym lepszym wyborem jest budżet i zasoby obliczeniowe, aby go obsługiwać. Modele ogólne są również preferowane w przypadku projektów długoterminowych, które z czasem mogą stawać się coraz bardziej złożone.
W przypadku projektów wymagających zaawansowanych możliwości wnioskowania doskonale sprawdzają się modele Głębokie. Nadaje się do scenariuszy, które wymagają wyrafinowanego rozwiązywania problemów i krytycznego myślenia. Model Głęboki doskonale sprawdza się w środowiskach, w których ważne jest dogłębne rozumowanie, złożone podejmowanie decyzji i szczegółowa analiza.
Wybierz spośród modeli w oparciu o dostępność w regionie, funkcje, przypadki użycia i koszty. Dowiedz się więcej w dostępności modeli według regionów oraz tabeli porównania cen.
Dostępność modeli według regionów
Poniższe sekcje opisują dostępność modeli dla społeczeństwa i rządu USA według regionów.
Publiczna dostępność
W poniższej tabeli (GA), (Podgląd) lub (Eksperymentalne) oznacza, że funkcja jest dostępna, ale korzysta z usługi Azure OpenAI w innym regionie. Dowiedz się więcej w temacie Włączanie przenoszenia danych między regionami.
| Funkcja | Azja | Australia | Canada | Europa | Francja | Niemcy | Indie | Japonia | Norwegia | Singapur | Republika Południowej Afryki | Ameryka Południowa | Korea | Szwecja | Szwajcaria | Zjednoczone Emiraty Arabskie | Wielka Brytania | Stany Zjednoczone |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| GPT-4.1 mini | ogólna dostępność | ogólna dostępność | (GA) | (GA) | (GA) | (GA) | ogólna dostępność | (GA) | (GA) | ogólna dostępność | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | ogólna dostępność | ogólna dostępność |
| GPT-4.1 | ogólna dostępność | ogólna dostępność | (GA) | (GA) | (GA) | (GA) | ogólna dostępność | (GA) | (GA) | ogólna dostępność | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | ogólna dostępność | ogólna dostępność |
| o3 | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | ogólna dostępność |
| Czat GPT-5 | (GA) | (GA) | (GA) | ogólna dostępność | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | ogólna dostępność |
| Wnioskowanie GPT-5 | (GA) | (GA) | (GA) | ogólna dostępność | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | ogólna dostępność |
| Czat GPT-5.2 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | Eksperymentalne |
| Rozumowanie GPT-5.2 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | Eksperymentalne |
Dostępność rządu USA
| Funkcja | Chmura społecznościowa rządowa (GCC) | Government Community Cloud — wysoka (GCC High) | Departament Obrony (DoD) |
|---|---|---|---|
| GPT-4o mini | ogólna dostępność | ogólna dostępność | - |
| GPT-4o | ogólna dostępność | ogólna dostępność | - |
| GPT-4o przy użyciu wejścia obrazu lub dokumentu | - | - | - |
Aktualizacje modelu
| Model | Stan | Data przejścia w stan spoczynku | Zastąpienie |
|---|---|---|---|
| GPT-4.1 mini | Ogólna dostępność | Brak jeszcze daty | nie dotyczy |
| GPT-4.1 | Ogólna dostępność | Brak jeszcze daty | nie dotyczy |
| Czat GPT-5 | Ogólna dostępność | Brak jeszcze daty | nie dotyczy |
| Wnioskowanie GPT-5 | Ogólna dostępność | Brak jeszcze daty | nie dotyczy |
| Czat GPT-5.2 | Eksperymentalne | Brak jeszcze daty | nie dotyczy |
| Rozumowanie GPT-5.2 | Eksperymentalne | Brak jeszcze daty | nie dotyczy |
| Claude Sonnet 4.5 | Eksperymentalne | Brak jeszcze daty | nie dotyczy |
| Claude Opus 4.1 | Eksperymentalne | Grudzień 2025 | Claude Opus 4.5 |
| Claude Opus 4.5 | Oczekiwanie na dostępność | Brak jeszcze daty | nie dotyczy |
| o3 | Wycofane | 4 grudnia 2025 roku | Wnioskowanie GPT-5 |
| GPT-4o mini | Wycofane | Lipiec 2025 roku | GPT-4.1 mini |
| GPT-4o | Wycofane | Lipiec 2025 roku | GPT-4.1 |
| o1 | Wycofane | Lipiec 2025 roku | o3 |
Ustawienia modelu
Do panelu ustawień można wejść, wybierając trzy kropki (...) >Ustawienia na górze edytora promptów. Możesz zmienić następujące ustawienia:
- Temperatura: Niższe temperatury prowadzą do przewidywalnych wyników. Wyższe temperatury umożliwiają bardziej zróżnicowane lub kreatywne odpowiedzi.
- Pobieranie rekordów: Liczba rekordów pobranych dla Twoich źródeł wiedzy.
- Dołącz linki do odpowiedzi: Po wybraniu tej opcji odpowiedź zawiera odnośniki do pobranych rekordów.
Temperatura
Suwak pozwala wybrać temperaturę w modelu generatywnej AI. Zmienne w zakresie od 0 do 1. Ta wartość wskazuje generatywnemu modelowi AI, jaki poziom kreatywności (1) w stosunku do poziomu determinizmu (0) powinna zapewniać odpowiedź.
Temperatura to parametr sterujące losowym parametrem wyjściowym wygenerowanym przez model AI. Obniżenie temperatury powoduje, że wyniki pracy są bardziej przewidywalne i konserwatywne. Dla porównania wysoka temperatura pozwala na większą kreatywność i różnorodność w odpowiedziach. Jest to sposób na dostrojenie równowagi między losowością i determinizmem wartości wyjściowej modelu.
Domyślnie wartość temperatury ma ustawienie 0, tak jak w utworzonych wcześniej monitach.
| Temperatura | Funkcje | Używanie w usłudze |
|---|---|---|
| 0 | Bardziej przewidywalne i konserwatywne wartości wyjściowe. Odpowiedzi są bardziej spójne. |
Monity wymagające wysokiej dokładności i mniejszej zmienności. |
| 1 | Większa kreatywność i różnorodność w odpowiedziach. Bardziej zróżnicowane i czasami bardziej innowacyjne odpowiedzi. |
Monity tworzące nową, gotową zawartość. |
Regulacja temperatury może mieć wpływ na wynik modelu, ale nie gwarantuje konkretnego wyniku. Odpowiedzi AI są z natury probabilistyczne i mogą się różnić nawet w przypadku tego samego ustawienia temperatury.
Notatka
Ustawienie temperatury nie jest dostępne dla modelu rozumowania GPT-5. Z tego powodu suwak jest wyłączony po wybraniu modelu rozumowania GPT-5.