Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W tym artykule pokazano, jak włączyć obsługę modelu w obszarze roboczym i przełączyć modele na środowisko obsługi modeli Mozaiki AI oparte na bezserwerowych obliczeniach.
Ważne
Od 22 sierpnia 2025 r. klienci nie będą już mogli tworzyć nowych punktów końcowych serwowania przy użyciu starszego systemu serwowania modeli MLflow. 15 września 2025 r. starsza wersja zostanie wycofana z użytkowania i nie będzie można już używać wszystkich istniejących punktów końcowych korzystających z tej usługi.
Wymagania
- Zarejestrowany model w rejestrze modeli MLflow.
- Uprawnienia do zarejestrowanych modeli, jak opisano w przewodniku dotyczącym kontroli dostępu.
- Włącz bezserwerowe obliczenia w obszarze roboczym.
Istotne zmiany
- W Model Serving format żądania do punktu końcowego i odpowiedzi z punktu końcowego są nieco inne niż w Tradycyjnej obsłudze modelu MLflow. Aby uzyskać szczegółowe informacje na temat nowego protokołu formatu, zobacz Ocenianie punktu końcowego modelu.
- W obsłudze modelu adres URL punktu końcowego zawiera
serving-endpointszamiastmodel. - Obsługa modelu obejmuje pełną obsługę zarządzania zasobami za pomocą przepływów pracy interfejsu API.
- Obsługa modeli jest gotowa do użycia w środowisku produkcyjnym i wspierana przez umowę SLA usługi Azure Databricks.
Identyfikowanie obsługujących punktów końcowych korzystających ze starszej wersji usługi MLflow Model Serving
Aby zidentyfikować punkty końcowe obsługujące modele korzystające ze starszej wersji usługi MLflow Model Serving:
- Przejdź do interfejsu użytkownika Modeli w obszarze roboczym.
- Wybierz filtr Rejestr modeli obszaru roboczego .
- Wybierz filtr Tylko obsługa starszych wersji systemu.
Migrowanie starszych modeli obsługujących model MLflow do obsługi modeli
Możesz utworzyć punkt końcowy obsługujący model i elastycznie przenieść przepływy pracy bez wyłączania obsługi starszych modeli MLflow.
W poniższych krokach pokazano, jak to zrobić za pomocą interfejsu użytkownika. Dla każdego modelu, dla którego masz włączoną funkcję serwowania modeli MLflow w wersji Legacy:
- Zarejestruj model w Unity Catalog.
- Przejdź do pozycji Obsługa punktów końcowych na pasku bocznym obszaru roboczego uczenia maszynowego.
- Postępuj zgodnie z przepływem pracy opisanym w Temacie tworzenia niestandardowych punktów końcowych obsługujących modele, aby dowiedzieć się, jak utworzyć punkt końcowy dla Twojego modelu.
- Przenieś aplikację do używania nowego adresu URL podanego przez punkt końcowy serwujący w celu wykonywania zapytań dotyczących modelu, razem z nowym formatem oceniania.
- Po przejściu modeli możesz na pasku bocznym obszaru roboczego uczenia maszynowego przejść do sekcji Modele.
- Wybierz model, dla którego chcesz wyłączyć obsługę starszych modeli MLflow.
- Na karcie Obsługa wybierz pozycję Zatrzymaj.
- Zostanie wyświetlony komunikat potwierdzający. Wybierz pozycję Zatrzymaj obsługę.
Migrowanie wdrożonych wersji modelu do obsługi modeli
W poprzednich wersjach funkcjonalności serwowania modelu, punkt końcowy serwowania został utworzony na podstawie etapu wersji zarejestrowanego modelu: Staging lub Production. Aby przeprowadzić migrację obsługiwanych modeli z tego środowiska, możesz replikować to zachowanie w nowym środowisku obsługi modelu.
W tej sekcji przedstawiono sposób tworzenia oddzielnych punktów końcowych obsługujących model dla Staging wersji modelu i Production wersji modelu. W poniższych krokach pokazano, jak to zrobić za pomocą interfejsu API obsługującego punkty końcowe dla każdego z obsługiwanych modeli.
W tym przykładzie zarejestrowana nazwa modelA modelu ma wersję 1 na etapie Production modelu i wersję 2 na etapie Stagingmodelu .
Utwórz dwa punkty końcowe dla zarejestrowanego modelu, jeden dla
Stagingwersji modelu, a drugi dlaProductionwersji modelu.W przypadku
Stagingwersji modelu:POST /api/2.0/serving-endpoints { "name":"modelA-Staging" "config": { "served_entities": [ { "entity_name":"model-A", "entity_version":"2", // Staging Model Version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }, }W przypadku
Productionwersji modelu:POST /api/2.0/serving-endpoints { "name":"modelA-Production" "config": { "served_entities": [ { "entity_name":"model-A", "entity_version":"1", // Production Model Version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }, }Sprawdź stan punktów końcowych.
W przypadku przejściowego punktu końcowego:
GET /api/2.0/serving-endpoints/modelA-StagingW przypadku produkcyjnego punktu końcowego:
GET /api/2.0/serving-endpoints/modelA-ProductionGdy punkty końcowe będą gotowe, wykonaj zapytanie dotyczące punktu końcowego przy użyciu:
W przypadku przejściowego punktu końcowego:
POST /serving-endpoints/modelA-Staging/invocationsW przypadku produkcyjnego punktu końcowego:
POST /serving-endpoints/modelA-Production/invocationsZaktualizuj punkt końcowy na podstawie przekształceń wersji modelu.
W scenariuszu, gdy tworzony jest nowy model w wersji 3, można przetransportować model w wersji 2 do
Production, podczas gdy model w wersji 3 można przetransportować doStaging, a model w wersji 1 znajduje się wArchived. Te zmiany można odzwierciedlić w oddzielnych punktach końcowych obsługujących model w następujący sposób:W przypadku punktu końcowego
Stagingzaktualizuj go, aby używał nowej wersji modelu wStaging.PUT /api/2.0/serving-endpoints/modelA-Staging/config { "served_entities": [ { "entity_name":"model-A", "entity_version":"3", // New Staging model version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }W przypadku punktu końcowego
Productionzaktualizuj go, aby używał nowej wersji modelu wProduction.PUT /api/2.0/serving-endpoints/modelA-Production/config { "served_entities": [ { "entity_name":"model-A", "entity_version":"2", // New Production model version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }