Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Integrowanie sztucznej inteligencji z aplikacją systemu Windows można osiągnąć za pomocą dwóch podstawowych metod: modelu lokalnego za pośrednictwem Windows AI Foundry lub modelu opartego na chmurze. Istnieje kilka aspektów, które należy wziąć pod uwagę podczas określania odpowiedniej opcji dla Twoich potrzeb.
Dostępność zasobów
- Urządzenie lokalne: Uruchomienie modelu zależy od zasobów dostępnych na używanym urządzeniu, w tym procesora CPU, procesora GPU, procesora NPU, pamięci i pojemności magazynu. Może to być ograniczenie, jeśli urządzenie nie ma dużej mocy obliczeniowej lub wystarczającej ilości miejsca do magazynowania. Małe modele językowe (SLM), takie jak Phi, są bardziej idealne do użycia lokalnie na urządzeniu. Komputery Copilot+ oferują wbudowane modele obsługiwane przez Windows AI Foundry z funkcjami sztucznej inteligencji gotowymi do użycia.
- Chmura: Platformy w chmurze, takie jak Azure usługi sztucznej inteligencji, oferują skalowalne zasoby. Możesz użyć jak najwięcej mocy obliczeniowej lub magazynu, ile potrzebujesz, i płacić tylko za to, czego używasz. Duże modele językowe (LLM), takie jak modele języka openAI , wymagają większej ilości zasobów, ale są również bardziej zaawansowane.
Prywatność i zabezpieczenia danych
- Urządzenie lokalne: Ponieważ dane pozostają na urządzeniu, uruchomienie modelu lokalnie może oferować korzyści związane z bezpieczeństwem i prywatnością, a odpowiedzialność za bezpieczeństwo danych spoczywa na użytkowniku.
- Chmura: Dostawcy usług w chmurze oferują niezawodne środki zabezpieczeń, ale dane muszą być przesyłane do chmury, co może budzić obawy dotyczące prywatności danych dla osoby odpowiedzialnej za działalność biznesową lub usługę app service w niektórych przypadkach.
Ułatwienia dostępu i współpraca
- Urządzenie lokalne: Model i dane są dostępne tylko na urządzeniu, chyba że zostały udostępnione ręcznie. Może to sprawić, że współpraca nad danymi modelu będzie trudniejsza.
- Chmura: Dostęp do modelu i danych można uzyskać z dowolnego miejsca z łącznością z Internetem. Może to być lepsze w przypadku scenariuszy współpracy.
Koszt
- Urządzenie lokalne: Nie ma dodatkowych kosztów poza początkową inwestycją w sprzęt urządzenia.
- Chmura: Podczas gdy platformy w chmurze działają w modelu płatności zgodnie z rzeczywistym użyciem, koszty mogą kumulować się na podstawie używanych zasobów i czasu trwania użycia.
Konserwacja i aktualizacje
- Urządzenie lokalne: Użytkownik jest odpowiedzialny za utrzymanie systemu i instalowanie aktualizacji.
- Chmura: Konserwacja, aktualizacje systemu i nowe aktualizacje funkcji są obsługiwane przez dostawcę usług w chmurze, co zmniejsza obciążenie związane z konserwacją użytkownika.
Azure AI Foundry dla przedsiębiorstw
Azure AI Foundry Zapewnia ujednoliconą platformę do obsługi operacji sztucznej inteligencji w przedsiębiorstwie, konstruktorów modeli i tworzenia aplikacji. Ta podstawa łączy infrastrukturę klasy produkcyjnej z przyjaznymi interfejsami, zapewniając organizacjom możliwość tworzenia i obsługi aplikacji sztucznej inteligencji z ufnością.
Przykłady sztucznej inteligencji w chmurze
Jeśli rozwiązanie oparte na chmurze działa lepiej w scenariuszu aplikacji systemu Windows, możesz zainteresować się niektórymi z poniższych samouczków.
Wiele interfejsów API jest dostępnych do uzyskiwania dostępu do modeli opartych na chmurze w celu zasilania funkcji sztucznej inteligencji w aplikacji systemu Windows niezależnie od tego, czy te modele są dostosowane, czy gotowe do użycia. Użycie modelu opartego na chmurze może umożliwić aplikacji pozostanie usprawnione przez delegowanie zadań intensywnie korzystających z zasobów do chmury. Kilka zasobów ułatwia dodawanie opartych na chmurze interfejsów API opartych na sztucznej inteligencji oferowanych przez firmę Microsoft lub OpenAI:
Dodawanie uzupełnień czatów OpenAI do aplikacji desktopowej WinUI 3 / Windows App SDK: samouczek dotyczący integracji funkcji uzupełniania ChatGPT OpenAI w chmurze do aplikacji desktopowej WinUI 3 / Windows App SDK.
Dodawanie DALL-E do aplikacji klasycznej WinUI 3/Windows App SDK: samouczek dotyczący integrowania opartej na chmurze funkcji generowania obrazów DALL-E OpenAI w aplikacji klasycznej WinUI 3/Windows App SDK.
Tworzenie aplikacji rekomendacyjnej z wykorzystaniem .NET MAUI i ChatGPT: samouczek dotyczący tworzenia przykładowej aplikacji rekomendacyjnej, która integruje oparte na chmurze funkcjonalności OpenAI ChatGPT do uzupełniania tekstu w aplikacji .NET MAUI.
Dodawanie DALL-E do aplikacji desktopowej .NET MAUI na Windowsa: samouczek dotyczący integrowania możliwości generowania obrazów OpenAI DALL-E opartych na chmurze w aplikacji .NET MAUI.
Azure Usługa OpenAI: Jeśli chcesz, aby aplikacja systemu Windows mogła uzyskiwać dostęp do modeli OpenAI, takich jak GPT-4, GPT-4 Turbo z obsługą Vision, GPT-3.5-Turbo, DALLE-3 lub seria modeli Do Osadzania, z dodanymi funkcjami Azure zabezpieczeń i przedsiębiorstwa, możesz znaleźć wskazówki w tej Azure dokumentacji OpenAI.
Azure Usługi sztucznej inteligencji: Azure oferuje cały pakiet usług sztucznej inteligencji dostępny za pośrednictwem interfejsów API REST i zestawów SDK biblioteki klienta w popularnych językach programowania. Aby uzyskać więcej informacji, zobacz dokumentację każdej usługi. Te usługi oparte na chmurze ułatwiają deweloperom i organizacjom szybkie tworzenie inteligentnych, najnowocześniejszych, gotowych na rynek i odpowiedzialnych aplikacji z wbudowanymi i wstępnie utworzonymi i dostosowywalnymi interfejsami API oraz modelami. Przykładowe aplikacje obejmują przetwarzanie języka naturalnego na potrzeby konwersacji, wyszukiwania, monitorowania, tłumaczenia, mowy, przetwarzania obrazów i podejmowania decyzji.