Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W związku z tym zaproponowano przypadek użycia funkcji lub aplikacji sztucznej inteligencji, uzasadnił go przypadkiem biznesowym i otrzymał zatwierdzenie. Dobra robota! Co teraz? Teraz twoi uczestnicy projektu są gotowi do zobaczenia czegoś.
Podczas planowania tworzenia aplikacji z funkcjami opartymi na sztucznej inteligencji należy wziąć pod uwagę wskazówki i wskazówki podane tutaj, aby utworzyć środowisko użytkownika (UX). Zrozumienie tych kluczowych zasad może pomóc w zapewnieniu, że tworzysz wciągającą, skuteczną aplikację, która najlepiej obsługuje potrzeby użytkowników.
Poniższe wskazówki przedstawiają zagadnienia, które należy wziąć pod uwagę podczas opracowywania środowiska użytkownika dla aplikacji generacyjnych sztucznej inteligencji, koncentrując się na zagadnieniach związanych z tworzeniem niestandardowych środowisk copilot.
Ten artykuł ma pomóc:
- Zapoznaj się z opcjami struktury środowiska użytkownika i wybierz najlepsze podejście dla Twoich przypadków użycia.
- Poznaj trzy podstawowe zasady opracowywania copilotu i wskazówki dotyczące interakcji między ludźmi a sztuczną inteligencją.
- Dowiedz się, jak osiągnąć wspólne środowisko użytkownika za pomocą silnego projektu danych wejściowych i wyjściowych
Poniższe wskazówki przeprowadzą Cię przez zagadnienia, które należy wziąć pod uwagę podczas opracowywania środowiska użytkownika dla aplikacji generowania sztucznej inteligencji, koncentrując się na zagadnieniach dotyczących tworzenia niestandardowych środowisk copilot.
Ten obszar jest bardzo w strumieniu i jest wiele do nauki, więc udostępniliśmy kluczowe zasoby do głębszego nurkowania. Zasady odpowiedzialnej sztucznej inteligencji firmy Microsoft i zestaw narzędzi HAX (HumanAI Experience) zapewniają pewne doświadczenie w badaniach i rzeczywistych doświadczeniach w tym artykule.
Odpowiedni fokus, aby wykonać zadanie
Poniższe wskazówki przeprowadzą Cię przez zagadnienia, które należy wziąć pod uwagę podczas opracowywania środowiska użytkownika dla aplikacji generowania sztucznej inteligencji, koncentrując się na zagadnieniach dotyczących tworzenia niestandardowych środowisk copilot.
Istnieją trzy odmiany struktury, które należy wziąć pod uwagę w przypadku środowiska użytkownika:
- Immersyjne dla całego baza wiedzy fokusu
- Asystacyjna koncentracja uwagi w aplikacji
- Osadzona dla fokusu pojedynczej jednostki
Przyjrzyjmy się dokładniej każdej z tych struktur
Immersyjny fokus dla całej baza wiedzy
Dobrą zasadą do naśladowania jest tym ważniejsze zadanie, tym bardziej wymagane są nieruchomości.
Środowisko immersyjne zapewnia w pełni skoncentrowane środowisko, wykorzystując całą kanwę do wyświetlania odpowiednich informacji, co pozwala na uzyskanie szczegółowych informacji i zmniejszenie rozproszenia uwagi dla użytkownika. Ten poziom koncentracji uwagi jest idealny dla aplikacji, w których chcesz wyświetlać informacje powiązane z określonymi źródłami danych. Przykłady obejmują pulpit nawigacyjny generowany przez sztuczną inteligencję podobny do projektu Sophia firmy Microsoft lub sposób, w jaki microsoft Copilot for Security prowadzi użytkowników przez kompleksowy proces. W immersyjnej przestrzeni złożone dane lub informacje stają się łatwiejsze do zrozumienia i przeanalizowania przez użytkowników.
Asystacyjna koncentracja uwagi na środowisku aplikacji
Zapewnij użytkownikom możliwość uzyskiwania dostępu do pomocy opartej na sztucznej inteligencji z poziomu aplikacji, w których już pracują — takich jak Microsoft Teams, Power BI lub własne aplikacje — przez zintegrowanie narzędzia copilot jako asystenta w celu rozszerzenia istniejących funkcji.
Korzystając z fokusu w aplikacji, użytkownicy mogą unikać przełączania między narzędziami lub interfejsami. Ta struktura umożliwia bezproblemową integrację z przepływem pracy użytkownika, dostarczanie odpowiednich sugestii, informacji i pomocy technicznej na żądanie bez zakłócania bieżącego zadania. Ten widok zapewnia ciągły dostęp do narzędzi, informacji i pomocy bez utrudniania głównego obszaru zawartości. Jest to szczególnie skuteczne w przypadku aplikacji, które wymagają ciągłej pomocy technicznej lub monitorowania.
Osadzony fokus dla pojedynczej jednostki
Osadzanie pojedynczego punktu wejścia może uprościć integrację rozwiązania copilot z aplikacją, zmniejszając złożoność i umożliwiając użytkownikom otrzymywanie pomocy technicznej na określonych elementach lub akcjach. Ułatwia to tworzenie bezproblemowego środowiska copilot z pomocą kontekstową bez zajmowania stałego miejsca na ekranie.
Ta opcja może być idealna w przypadku zadań wymagających tylko okazjonalnych wskazówek lub interakcji, chociaż może nie być odpowiednia dla bardziej złożonych lub szczegółowych interakcji. Pełne osadzanie copilot powinno być zgodne z typowymi wzorcami interakcji, takimi jak wyróżnianie części kodu w celu wywołania copilot do podjęcia akcji lub umożliwienie użytkownikom dokładniejszego wglądu w wykres na pulpicie nawigacyjnym analizy.
Dołączanie dodatkowego fokusu
Oprócz korzystania z dowolnej z tych trzech platform indywidualnie, możesz utworzyć bardziej niezawodne środowisko, uzupełniając wybrane fokusem z dodatkową opcją struktury. Uważamy, że włączenie osadzonej opcji z immersywnym lub pomocniczym copilot może zapewnić dalszą wartość dla użytkowników.
Niezależnie od tego, jaki poziom koncentracji uwagi wybierasz dla danego przypadku użycia, ostatecznym celem powinno być zapewnienie użytkownikowi pozytywnego i produktywnego środowiska. Poniższe wytyczne mają pomóc zmaksymalizować sukces swojego rozwiązania dzięki efektywnemu projektowi środowiska użytkownika.
Trzy podstawowe zasady dotyczące środowiska użytkownika copilot
Środowiska oparte na sztucznej inteligencji mogą być imponujące i nie jest niczym niezwykłym, że ludzie mają emocjonalną, zaufaną odpowiedź na to, co wydaje się konwersacyjne, oryginalne treści. Ale copilot po prostu wykorzystuje informacje, na których został przeszkolony, aby przewidzieć odpowiedź słowa po słowie bez nieodłącznego zrozumienia prawdy. W związku z tym ważne jest, aby opierać się na poniższych zasadach, ustawiając odpowiednie oczekiwania dla użytkowników.
Zasada 1: Człowiek pod kontrolą
Wszystkie wspaniałe doświadczenia copilot są zakorzenione w następującej podstawowej koncepcji: copilot jest po prostu narzędziem do obsługi użytkownika. Człowiek jest pilotem.
Aby ustawić to oczekiwanie, umieść użytkownika w fotelu kierowcy. Oznacza to zapewnienie im potrzebnych informacji, jednocześnie zapewniając przejrzystość działania copilotu. Przekaż swoje możliwości i ograniczenia oraz zapewnij przejrzystość danych, na podstawie których są oparte dane wyjściowe. Spakuj te informacje w zrozumiałych mechanizmach kontroli człowieka, aby umożliwić użytkownikom pewnie i iteracyjnie kierować copilot w kierunku swoich celów.
Na przykład podczas wprowadzania funkcji copilot nie zamykaj słowa "copilot" ze słowami akcji w interfejsie użytkownika. Zamiast "copilot, summarize", powiedz "Summarize with copilot". Ten język przypomina użytkownikowi, że copilot jest po prostu asystentem.
Zasada 2. Unikanie antropomorfizacji copilot
Wiele dostępnych obecnie środowisk generacyjnych sztucznej inteligencji może ściśle naśladować język naturalny. Ponieważ technologia jest tak dobra w tym celu, istnieje potencjał, aby użytkownicy opracowywali niewłaściwie wysokie oczekiwania dotyczące jej natury i zdolności, a tym samym polegać na odpowiedziach copilota.
Istnieje kilka sposobów, które mogą pomóc uniemożliwić użytkownikom dokonywanie tych założeń:
Daj copilot swój głos. Aby uniknąć postrzegania, że copilot jest człowiekiem, naucz go używać odpowiedniego języka i unikać niektórych słów w odpowiedziach. Na przykład unikaj słów takich jak "zrozumienie", pomyśl lub "czuć" w dowolnym kontekście, ponieważ mogą one przekazywać copilot jest podobny do człowieka. Zamiast tego użyj słów odnoszących się do maszyn, takich jak "przetwarzanie" i analizowanie.
Jednak zezwolenie copilot na używanie pojedynczych zaimków pierwszej osoby (ja, ja, ja, ja, ja, sam) w odpowiedziach działa dobrze, ponieważ jest bardziej konwersacyjne. I chociaż używanie zaimków wieloosobowych (my, my, nasze) do odwoływania się do użytkownika i twojego copilot razem jest w porządku, nie używaj tych zaimków, aby wyłącznie reprezentować Twoją firmę. Dlaczego? Ponieważ daje to licencję copilot na twój głos, a w niektórych przypadkach może wydawać się, że przemawia w imieniu twojej firmy.Idź światło na osobowość. Rozważ implikacje tego, co nazywasz copilot w interfejsie użytkownika. Jak wprowadzać go do użytkowników i jak wspominasz go w materiałach marketingowych i pomocy technicznej? Im więcej charakteru dajesz, tym bardziej go humanizujesz.
Zasada 3. Rozważ bezpośrednie i pośrednie podmioty biorące udział w projekcie
Podobnie jak w przypadku wszystkich technologii, generowanie aplikacji sztucznej inteligencji ma wpływ na to, że mogą dotrzeć poza użytkownika podstawowego. W całym procesie projektowania należy wziąć pod uwagę nie tylko natychmiastowego użytkownika, ale wszystkich produktów, które mogą mieć wpływ, zwłaszcza najbardziej narażonych bezpośrednich i pośrednich uczestników projektu. Umożliwia projektowanie zarówno dla użytkowników podstawowych, jak i wszystkich innych osób, które mogą wyświetlać dane wyjściowe. Ważne jest, aby wziąć pod uwagę szersze konsekwencje, w tym możliwe niezamierzone konsekwencje aplikacji generacyjnych sztucznej inteligencji.
Te zagadnienia są różne dla każdej organizacji, dlatego należy omówić je z zespołem i kilkoma potencjalnymi użytkownikami, zadając pytania, takie jak:
- Jak mogą być używane te dane wyjściowe?
- Czy użytkownicy udostępniają go innym osobom?
- Czy inne zespoły lub grupy powinny przejrzeć naszą strategię generowania sztucznej inteligencji?
- Kto jest najbardziej narażonymi uczestnikami projektu i jak możemy je chronić?
- Czy wdrażamy znaczące mechanizmy kontroli człowieka, aby umożliwić użytkownikom różne możliwości?
- Jakie mogą być niezamierzone konsekwencje, jeśli technologia ulegnie awarii lub jeśli zostanie niewłaściwie użyta?
Projektowanie środowisk na potrzeby cyklu życia aplikacji
Pierwsze uruchomienie
Gdy użytkownicy po raz pierwszy wywołają twój copilot, powinni znaleźć go wystarczająco angażujące, aby rozpocząć rozmowę. Powinni mieć pewność, co może zrobić i czego nie mogą zrobić, dlatego należy pokazać nowym użytkownikom różne sposoby korzystania ze sztucznej inteligencji.
Badania firmy Microsoft pokazują, że użytkownicy wolą doświadczenie, które wyjaśnia, co może zrobić copilot i daje im sugestie dotyczące sposobu rozpoczęcia. Istnieje wiele sposobów tworzenia takiego środowiska i zachęcamy do wypróbowania różnych podejść z użytkownikami końcowymi. Poniższe zagadnienia pochodzą z zestawu narzędzi HAX i mają dostępne wzorce projektowe, które oferują kilka technik, które można mieszać i dopasowywać w celu ustawienia oczekiwań użytkownika:
- Wyjaśnij, co system może zrobić. Pomóż użytkownikowi zrozumieć, co system sztucznej inteligencji może wykonywać.
- Wyjaśnij, jak dobrze system może zrobić to, co może zrobić. Pomóż użytkownikowi zrozumieć, jak często system sztucznej inteligencji może popełniać błędy.
Pamiętaj, że wszyscy uczą się w tej przestrzeni i aby odnieść sukces w każdym przedsięwzięciu copilot, musisz zachować otwarty umysł i myśleć twórczo. Przygotuj się do eksperymentowania, nauki, odkrywania, a nawet prowadzenia własnych badań.
Inne wytyczne powinny być brane pod uwagę w trakcie cyklu życia aplikacji. Poniżej wymieniono niektóre z najbardziej odpowiednich elementów z linkami do odpowiednich wzorców. Dowiedz się więcej o innych wytycznych firmy Microsoft w bibliotece projektowej HAX.
Podczas interakcji
- Dopasuj odpowiednie normy społeczne. Upewnij się, że środowisko jest dostarczane w sposób oczekiwany przez użytkowników, biorąc pod uwagę kontekst społeczny i kulturowy.
- Eliminowanie uprzedzeń społecznych. Upewnij się, że język i zachowania systemu sztucznej inteligencji nie wzmacniają niepożądanych i niesprawiedliwych stereotypów i uprzedzeń.
Gdy jest to nieprawidłowe
- Obsługa wydajnej korekty. Ułatwia edytowanie, uściślinie lub odzyskiwanie po błędzie systemu sztucznej inteligencji.
- Wyjaśnij, dlaczego system zrobił to, co zrobił. Umożliwia użytkownikowi uzyskanie dostępu do wyjaśnienia, dlaczego system sztucznej inteligencji zachowywał się tak samo jak w tym przypadku.
Nadgodziny
- Zachęcamy do szczegółowej opinii. Umożliwia użytkownikowi przekazywanie opinii wskazujących ich preferencje podczas regularnej interakcji z systemem sztucznej inteligencji.
- Udostępnianie kontrolek globalnych. Zezwól użytkownikowi na globalne dostosowywanie monitorów systemu sztucznej inteligencji i jego zachowania.
Środowisko użytkownika współpracy
Copilots może poprawić istniejące informacje, wprowadzając zmiany lub tworząc nowe przykłady bez konieczności wprowadzania dodatkowych danych. Jednak ta funkcja oznacza również, że copilot może czasami generować nieprawidłowe lub nieprzydatne odpowiedzi.
Aby zmniejszyć prawdopodobieństwo tworzenia, jedną z dobrych praktyk jest umożliwienie użytkownikom prowadzenia copilot i przeniesienie go do ich osobistych celów i celów w tym, co nazywa się zespołowym środowiskiem użytkownika.
Możesz utworzyć środowisko współpracy dla użytkownika, postępując zgodnie z poniższymi wskazówkami dotyczącymi projektowania danych wejściowych i wyjściowych. Pomocne może być również dostosowanie tych najlepszych rozwiązań do tworzenia wspólnego środowiska użytkownika z partnerstwa human-AI
Porady dotyczące projektowania danych wejściowych
Skuteczny projekt danych wejściowych stanowi podstawę środowiska współpracy. Prowadząc użytkowników do tworzenia dobrze ustrukturyzowanych danych wejściowych, stanowi podstawę odpowiednich i dokładnych odpowiedzi.
1. Podaj sugestie ułatwiające użytkownikom rozpoczęcie pracy
Ponieważ generowanie sztucznej inteligencji jest nową technologią, trudno jest wielu ludziom wiedzieć, co zrobić lub wpisać od razu. Długie pisanie języka naturalnego nadal nie jest nawykiem dla wielu. Aby ułatwić użytkownikom rozpoczęcie pracy, oferują jasne sugestie i dostępność, takie jak duże pola wejściowe i liczniki znaków, które zachęcają ich do tworzenia dobrych danych wejściowych oprócz przyjemnego środowiska dołączania.
Aby uzyskać bardziej szczegółowe potrzeby, dodawanie funkcji, takich jak promptbook, aby dać użytkownikowi określone, krótkie zapytania, które współdziałają z danymi niestandardowymi w przewidywalny i powtarzalny sposób, mogą służyć do szybszego uzyskiwania przydatnych informacji.
2. Zachęcaj do szczegółów
Innym sposobem ułatwiania użytkownikom tworzenia dobrych, szczegółowych danych wejściowych jest zaprojektowanie środowiska, które korzysta z różnych elementów.
Można na przykład oddzielić jeden ogólny monit do wielu pól wejściowych. Zastąp pytanie "O co chcesz blogować?" czterema danymi wejściowymi, takimi jak:
- Wpisz tytuł
- Dodaj więcej szczegółów
- Dołączanie obrazów
- Opis tonu
3: Zezwalaj na dostosowywanie danych wejściowych przy użyciu tonu i innych opcji
Mówiąc o tonie, pomóż użytkownikom dostosować swoje dane wejściowe, zapewniając wstępnie zdefiniowane opcje na początku. Upewnij się, że ustawienia tonu są jasne dla użytkowników i poinformuj ich, że mogą zmienić ustawienia tonu w dowolnym momencie w konwersacji.
4. Ulepszanie interakcji użytkownika i zaangażowania w projekt wielomodalny
Aby umożliwić użytkownikom efektywne angażowanie się w copilot za pomocą dowolnego preferowanego urządzenia lub metody, oferują wiele modalności w interfejsie wejściowym. Ten wysiłek w celu niekluzywności może oznaczać dodanie zarówno opcji głosu, jak i tekstu oraz rozszerzenie w celu umożliwienia wielojęzycznych danych wejściowych. Nadanie użytkownikowi wielu opcji tworzenia danych wejściowych umożliwia im łatwiejsze i wspólne komunikowanie się.
Porady dotyczące projektowania danych wyjściowych
W podejściu do wspólnego środowiska użytkownika użytkownicy muszą kierować pętli ciągłej opinii między danymi wejściowymi i wyjściowymi, aby osiągnąć swoje cele. Projekt danych wyjściowych tworzy ścieżki, które użytkownik może kształtować i wpływać na odpowiedzi copilota i kierować się do żądanych danych wyjściowych.
1: Pokaż dane wejściowe i wyjściowe razem
Ułatwia to użytkownikom kojarzenie jakości danych wyjściowych z wyborem danych wejściowych, dzięki czemu użytkownicy mogą nadal tworzyć dane wejściowe, dopóki model nie generuje pożądanych danych wyjściowych.
2: Zachowaj historię danych wyjściowych i monitów
Zachęcanie użytkowników do wypróbowania różnych danych wejściowych w celu uzyskania znaczących danych wyjściowych ma kluczowe znaczenie; jednak nie zawsze jest to interakcja do przodu z danymi wyjściowymi coraz lepiej za każdym razem.
Czasami nowy monit może prowadzić do gorszych danych wyjściowych. Oś czasu lub historia danych wyjściowych umożliwia użytkownikom wypróbowanie nowych danych wejściowych bez obawy przed utratą dostępu do poprzednich danych wyjściowych, które mogą być lepsze, a nawet korzystanie z części wielu danych wyjściowych.
Podobnie umożliwienie użytkownikom korzystania z poprzednich monitów jest głęboko cenne w procesie iteracyjnym.
3: Dodaj odpowiednie tarcie (to dobra rzecz!)
Często chcemy usunąć tarcie ze środowisk produktów. Pamiętaj jednak, że copilot jest nieprecyzyjnym systemem ("probabilistic"), który może popełnić błędy. Z tego powodu musisz dodać odpowiednie tarcie, aby pomóc użytkownikom w tworzeniu nowego trybu psychicznego.
Celem jest spowolnienie użytkowników i zachęcanie ich do przeglądania danych wyjściowych w całym. Dodaj tarcie w kluczowych momentach, takich jak zapisywanie, udostępnianie, kopiowanie i wklejanie, i wyjaśnij użytkownikowi, że mają przejąć na własność zawartość. W związku z tym przyjmują odpowiedzialność za treści, których używają zachęcania ich do dokładniejszego sprawdzenia.
W tym miejscu zaleca się zachęcanie użytkowników do edytowania zawartości w celu zapewnienia większej ilości kontekstu lub dodania do niego osobistego dotyku. Dodaj uwagi dotyczące sztucznej inteligencji i zastrzeżenia dotyczące poszczególnych danych wyjściowych, które wyraźnie wyrażają zawartość wygenerowaną przez sztuczną inteligencję, mogą być niepoprawne.
4: Zachęcaj do sprawdzania faktów przy użyciu cytatów i cudzysłowów bezpośrednich
Jednym z konkretnych sposobów zachęcania do sprawdzania faktów jest posiadanie odwołań do listy kontrolnej z danych, do których się odwołuje, dzięki czemu sztuczna inteligencja będzie bardziej skłonna do używania odpowiedzi z istniejących zasobów zamiast tworzenia szkieletowych danych i informacji. Te odwołania przypominają również użytkownikom odpowiedzialności za zawartość, z której korzystają, przeglądając dane wyjściowe copilota i weryfikując je względem swoich źródeł.
Dzięki zintegrowaniu cudzysłowów bezpośrednich ze źródła i przekierowaniu użytkownika do określonej lokalizacji tych informacji, twój copilot może obsługiwać dokładniejsze sprawdzanie faktów. Te cytaty pomagają w utrzymaniu zgodności z zestawem danych szkoleniowych i budowania odpowiedniego zaufania i odpowiedniego polegania.
Ostatnia uwaga na temat sprawdzania faktów: pokazywanie odwołań nie zapobiega całkowicie tworzeniu rzeczy przez copilot. Przejdź o krok dalej i zaprojektuj środowisko, które spowalnia użytkownika (zobacz "Dodawanie odpowiednich tarć") i zachęca ich do przeglądania odpowiedzi.
5. Zezwalaj użytkownikowi na edytowanie danych wyjściowych
Copilot może zbliżyć się do żądanych danych wyjściowych, ale może nie dokładnie pasować do niego. Może się okazać, że brakuje kontekstu. Być może odpowiedź brzmi zbyt ogólnie lub nie pasuje do zwykłego osobistego tonu, w przeciwieństwie do tego, czy samodzielnie utworzono podobną zawartość.
Kluczową częścią wspólnego środowiska użytkownika jest umożliwienie użytkownikowi interweniowania i modyfikowania danych wyjściowych. Pokazuje również, że copilot jest pomocnikiem lub asystentem z użytkownikiem jako pilot.
6: W razie potrzeby wstrzymywanie danych wyjściowych
W niektórych przypadkach lepiej jest udzielić żadnej odpowiedzi, zamiast zwracać coś potencjalnie nieodpowiedniego. Możesz chcieć odłączyć model i poprosić użytkownika o rozpoczęcie nowego czatu z komunikatem "Niestety, nie mogę porozmawiać o tym temacie. Aby zapisać czat i rozpocząć nowy czat, wybierz pozycję Nowy czat".
Czasami występują stany błędów i nieodpowiednie dane wejściowe, które wymagają utworzenia wstępnie napisanych odpowiedzi. W przypadku szkodliwych lub kontrowersyjnych tematów, takich jak samookaleczenia i wybory, firma Microsoft zaleca, aby copilot nie odłączył się, ale zamiast tego używać wstępnie zdefiniowanych środowisk. W przypadkach, w których nie chcesz w pełni odłączyć użytkownika, ale po prostu chcesz przekierować konwersację, możesz zalecić, że "spróbuj użyć innego tematu".
Każdy przypadek jest inny i najlepiej dostosować te odpowiedzi do celu i oczekiwanego użycia aplikacji.
7. Zezwalaj użytkownikom na przekazywanie opinii na temat danych wyjściowych
Mechanizmy projektowania dla użytkowników w celu oceny danych wyjściowych copilot poprzez takie rzeczy jak systemy oceny dokładności, opcje dla użytkowników, aby poprosić copilot o poprawne odpowiedzi, oznacz odpowiedzi jako pomocne lub nieprzydatne lub pozostaw komentarze na odebranych danych wyjściowych. Możesz również pokazać, w jaki sposób opinie użytkowników pomagają ulepszyć dane wyjściowe i doświadczenie w zakresie copilot w celu wzmocnienia wartości opinii użytkowników.
Następne kroki
Teraz, gdy wiesz, jak osiągnąć żądane środowisko użytkownika, oto zasoby i narzędzia firmy Microsoft, które pomogą Ci rozpocząć tworzenie generującej aplikacji sztucznej inteligencji.
- Microsoft HAX Toolkit
- Środowisko użytkownika dla sztucznej inteligencji: praktyki projektowe dla deweloperów sztucznej inteligencji | LinkedIn Learning
- Dowiedz się, jak używać rozwiązania Microsoft Copilot | Microsoft Learn
- Zasady i podejście odpowiedzialnej sztucznej inteligencji | Microsoft AI
- Ułatwienia dostępu — System projektowania Fluent 2