Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
👋 Witam! Poniżej dołączyliśmy słownik z kluczową terminologią.
Termin/wyraz | Definicja |
---|---|
Agent | Agent to sztuczna inteligencja, która może odpowiadać na pytania i automatyzować procesy dla użytkowników. Istnieje szerokie spektrum agentów, które mogą być tworzone, od prostych czatbotów po w pełni zautomatyzowanych asystentów sztucznej inteligencji. W przypadku jądra semantycznego udostępniamy narzędzia do tworzenia coraz bardziej zaawansowanych agentów, którzy nie muszą być ekspertem od sztucznej inteligencji. |
interfejs API | Interfejs programowania aplikacji. Zestaw reguł i specyfikacji, które umożliwiają składnikom oprogramowania komunikowanie i wymianę danych. |
Autonomiczny | Agenci, którzy mogą reagować na bodźce przy minimalnej interwencji człowieka. |
Czatbot | Prosty czat z użytkownikiem i agentem sztucznej inteligencji. |
Łączniki | Łączniki umożliwiają integrację istniejących interfejsów API (interfejs programowania aplikacji) z LLM (dużymi modelami językowymi). Na przykład łącznik programu Microsoft Graph może służyć do automatycznego wysyłania danych wyjściowych żądania w wiadomości e-mail lub do tworzenia opisu relacji na wykresie organizacyjnym. |
Copilot | Agenci, którzy pracują obok siebie z użytkownikiem, aby ukończyć zadanie. |
Jądro | Podobnie jak w przypadku systemu operacyjnego, jądro jest odpowiedzialne za zarządzanie zasobami, które są niezbędne do uruchamiania "kodu" w aplikacji sztucznej inteligencji. Obejmuje to zarządzanie modelami, usługami i wtyczkami sztucznej inteligencji, które są niezbędne zarówno do uruchamiania kodu natywnego, jak i usług sztucznej inteligencji. Ponieważ jądro ma wszystkie usługi i wtyczki niezbędne do uruchamiania kodu natywnego i usług sztucznej inteligencji, jest on używany przez prawie każdy składnik w zestawie SDK jądra semantycznego. Oznacza to, że jeśli uruchomisz dowolny monit lub kod w jądrze semantycznym, zawsze przejdzie przez jądro. |
LLM | Duże modele językowe to narzędzia sztucznej inteligencji, które mogą podsumowywać, odczytywać lub generować tekst w postaci zdań podobnych do sposobu mówienia i pisania przez ludzi. Można je integrować z różnymi produktami firmy Microsoft, aby odkryć bogatszą wartość dla użytkownika. |
Pamięć | Wspomnienia są potężnym sposobem zapewnienia szerszego kontekstu dla twojego pytania. Historycznie zawsze wzywaliśmy pamięć jako podstawowy składnik do działania komputerów: pomyśl o pamięci RAM w laptopie. W przypadku użycia tylko procesora CPU, który może przetwarzać liczby, komputer nie jest tak przydatny, chyba że wie, jakie liczby są dla Ciebie ważne. Wspomnienia sprawiają, że obliczenia są istotne dla zadania. |
Dodatki | Aby wygenerować ten plan, copilot będzie najpierw potrzebować możliwości niezbędnych do wykonania tych kroków. W tym miejscu pojawiają się wtyczki. Wtyczki umożliwiają nadanie agentowi umiejętności za pomocą kodu. Możesz na przykład utworzyć wtyczkę, która wysyła wiadomości e-mail, pobiera informacje z bazy danych, prosi o pomoc, a nawet zapisuje i pobiera wspomnienia z poprzednich konwersacji. |
Planistów | Aby użyć wtyczki (i połączyć je z innymi krokami), copilot będzie musiał najpierw wygenerować plan. W tym momencie przydają się planiści. Planiści są specjalnymi podpowiedziami, które umożliwiają agentowi wygenerowanie planu wykonania zadania. Najprostszymi planistami są tylko jeden monit, który pomaga agentowi używać funkcji wywołującej w celu ukończenia zadania. |
Polecenia | Monity odgrywają kluczową rolę w komunikowaniu się i kierowaniu zachowaniem sztucznej inteligencji dużych modeli językowych (LLM). Służą one jako dane wejściowe lub zapytania, które użytkownicy mogą udostępniać w celu wywołania określonych odpowiedzi z modelu. |
Inżynieria promptów | Ze względu na stopień kontroli, opracowywanie zapytań jest krytyczną umiejętnością dla każdego, kto pracuje z modelami sztucznej inteligencji LLM. Jest to również umiejętność, która jest w dużym zapotrzebowaniu, ponieważ coraz więcej organizacji wdraża modele sztucznej inteligencji LLM w celu automatyzowania zadań i zwiększania produktywności. Dobry inżynier projektowania promptów może pomóc organizacjom w pełni wykorzystać swoje modele sztucznej inteligencji LLM, projektując prompty, które generują żądane wyniki. |
RAG | Pobieranie rozszerzonej generacji — termin, który odnosi się do procesu pobierania dodatkowych danych w celu dostarczenia jako kontekstu do funkcji LLM do użycia podczas generowania odpowiedzi (uzupełniania) na pytanie użytkownika (monit). |