Jak zintegrować sztuczną inteligencję z aplikacją kliencką Windows?
Integrowanie sztucznej inteligencji z aplikacją Windows można osiągnąć za pomocą dwóch podstawowych metod: modelu lokalnego lub modelu opartego na chmurze. W przypadku opcji modelu lokalnego masz możliwość korzystania ze wstępnie istniejącego modelu lub trenowania własnego przy użyciu platform takich jak TensorFlow lub PyTorch, a następnie dołączania go do aplikacji za pośrednictwem onnxRuntime. Microsoft Foundry na Windows oferuje interfejsy API dla różnych funkcji, w tym OCR oraz modelu Phi Silica. Z drugiej strony hostowanie modelu w chmurze i uzyskiwanie do niego dostępu za pośrednictwem interfejsu API REST umożliwia aplikacji pozostanie usprawnione przez delegowanie zadań intensywnie korzystających z zasobów do chmury. Aby uzyskać więcej informacji, zobacz Użyj modele Machine Learning w aplikacji Windows.
Czy do korzystania z funkcji AI potrzebuję najnowszej wersji systemu Windows 11 i komputera Copilot+ z NPU?
Istnieje wiele sposobów uruchamiania obciążeń sztucznej inteligencji, zarówno przez instalowanie i uruchamianie modeli lokalnie na urządzeniu z systemem Windows, jak i przez uruchamianie modeli opartych na chmurze (zobacz Rozpocznij korzystanie ze sztucznej inteligencji w systemie Windows), jednak funkcje AI obsługiwane przez Windows AI APIs wymagają obecnie komputerów Copilot+ PC z procesorem NPU.
Jakie języki programowania najlepiej nadają się do tworzenia sztucznej inteligencji w aplikacjach klienckich Windows?
Możesz użyć dowolnego preferowanego języka programowania. Na przykład język C# jest powszechnie używany do tworzenia aplikacji klienckich Windows. Jeśli potrzebujesz większej kontroli nad szczegółami niskiego poziomu, język C++ jest doskonałą opcją. Alternatywnie możesz rozważyć użycie Python. Możesz również użyć Podsystem Windows dla systemu Linux (WSL), aby uruchomić narzędzia sztucznej inteligencji oparte na systemie Linux na Windows.
Jakie są najlepsze struktury sztucznej inteligencji dla aplikacji klienckich Windows?
Zalecamy korzystanie z OnnxRuntime.
Jak należy obsługiwać prywatność i zabezpieczenia danych podczas korzystania ze sztucznej inteligencji w aplikacjach klienckich Windows?
Przestrzeganie prywatności i bezpieczeństwa danych użytkownika jest niezbędne podczas tworzenia aplikacji opartych na sztucznej inteligencji. Przed zebraniem danych należy przestrzegać najlepszych rozwiązań dotyczących obsługi danych, takich jak szyfrowanie poufnych danych, używanie bezpiecznych połączeń i uzyskiwanie zgody użytkownika. Należy również w sposób przejrzysty określić sposób korzystania z danych i zapewnić użytkownikom kontrolę nad ich danymi. Pamiętaj, aby również przeczytać Tworzenie odpowiedzialnych aplikacji i funkcji generatywnej sztucznej inteligencji na Windows.
Jakie są wymagania systemowe dotyczące uruchamiania sztucznej inteligencji w aplikacjach klienckich Windows?
Wymagania systemowe dotyczące aplikacji Windows korzystających ze sztucznej inteligencji zależą od złożoności modelu AI i używanego przyspieszania sprzętowego. W przypadku prostych modeli nowoczesny procesor CPU może być wystarczający, ale w przypadku bardziej złożonych modeli procesor GPU lub NPU może być wymagany. Należy również wziąć pod uwagę wymagania dotyczące pamięci i magazynu aplikacji, a także przepustowość sieci wymaganą dla usług sztucznej inteligencji opartej na chmurze.
Jak zoptymalizować wydajność sztucznej inteligencji w aplikacjach klienckich Windows?
Aby zoptymalizować wydajność sztucznej inteligencji w aplikacjach Windows, należy rozważyć użycie przyspieszania sprzętowego, takiego jak procesory GPU lub jednostki NPU, aby przyspieszyć wnioskowanie modelu. Windows Copilot laptopy są zoptymalizowane pod kątem obciążeń sztucznej inteligencji i mogą zapewnić znaczny wzrost wydajności zadań sztucznej inteligencji. Zobacz również Przegląd Foundry Toolkit dla Visual Studio Code (Zestaw narzędzi Foundry Toolkit).
Czy mogę używać wstępnie wytrenowanych modeli sztucznej inteligencji w mojej aplikacji klienckiej Windows?
Tak, możesz użyć wstępnie wytrenowanych modeli sztucznej inteligencji w aplikacji Windows. Możesz pobrać wstępnie wytrenowane modele z Internetu lub użyć usługi sztucznej inteligencji opartej na chmurze, aby uzyskać dostęp do wstępnie wytrenowanych modeli. Następnie możesz zintegrować te modele z aplikacją przy użyciu platformy takiej jak OnnxRuntime.
Co to jest DirectML?
DirectML to interfejs API niskiego poziomu do uczenia maszynowego, który zapewnia przyspieszanie procesora GPU dla typowych zadań uczenia maszynowego w szerokim zakresie obsługiwanych sprzętu i sterowników, w tym wszystkich procesorów GPU obsługujących technologię DirectX 12 od dostawców, takich jak AMD, Intel, NVIDIA i Qualcomm.
Jak sprawdzić, jaki rodzaj procesora CPU, procesora GPU lub jednostki NPU ma moje urządzenie?
Aby sprawdzić typ procesora CPU, procesora GPU lub jednostki NPU na urządzeniu Windows i jak działa, otwórz Menedżera zadań (Ctrl + Shift + Esc), a następnie wybierz Performance kartę i zobaczysz procesor CPU, pamięć, sieć Wi-Fi, procesor GPU i/lub procesor NPU na liście wraz z informacjami o jego szybkości, współczynnik wykorzystania i inne dane.
Co to jest Windows ML?
Windows ML (Machine Learning) umożliwia aplikacji korzystanie ze współdzielonej, dostępnej w całym systemie kopii środowiska uruchomieniowego ONNX Runtime (ORT) oraz dodaje obsługę dynamicznego pobierania specyficznych dla dostawców dostawców wykonania (EP), dzięki czemu wnioskowanie przy użyciu modelu można zoptymalizować na szerokiej gamie procesorów CPU, GPU i NPU w ekosystemie Windows bez konieczności dołączania przez aplikację rozbudowanych środowisk uruchomieniowych ani samych dostawców wykonania.