Agent |
Agent to sztuczna inteligencja, która może odpowiadać na pytania i automatyzować procesy dla użytkowników. Istnieje szerokie spektrum agentów, które mogą być tworzone, od prostych czatbotów po w pełni zautomatyzowanych asystentów sztucznej inteligencji. W przypadku jądra semantycznego udostępniamy narzędzia do tworzenia coraz bardziej zaawansowanych agentów, którzy nie muszą być ekspertem od sztucznej inteligencji. |
interfejs API |
Interfejs programowania aplikacji. Zestaw reguł i specyfikacji, które umożliwiają składnikom oprogramowania komunikowanie i wymianę danych. |
Autonomiczny |
Agenci, którzy mogą reagować na bodźce przy minimalnej interwencji człowieka. |
Czatbot |
Prosty czat z użytkownikiem i agentem sztucznej inteligencji. |
Łączniki |
Łączniki umożliwiają integrację istniejących interfejsów API (interfejs programowania aplikacji) z usługami LLM (duże modele językowe). Na przykład łącznik programu Microsoft Graph może służyć do automatycznego wysyłania danych wyjściowych żądania w wiadomości e-mail lub do tworzenia opisu relacji na wykresie organizacyjnym. |
Copilot |
Agenci, którzy pracują obok siebie z użytkownikiem, aby ukończyć zadanie. |
Jądro |
Podobnie jak w przypadku systemu operacyjnego, jądro jest odpowiedzialne za zarządzanie zasobami, które są niezbędne do uruchamiania "kodu" w aplikacji sztucznej inteligencji. Obejmuje to zarządzanie modelami, usługami i wtyczkami sztucznej inteligencji, które są niezbędne zarówno do uruchamiania kodu natywnego, jak i usług sztucznej inteligencji. Ponieważ jądro ma wszystkie usługi i wtyczki niezbędne do uruchamiania kodu natywnego i usług sztucznej inteligencji, jest on używany przez prawie każdy składnik w zestawie SDK jądra semantycznego. Oznacza to, że jeśli uruchomisz dowolny monit lub kod w jądrze semantycznym, zawsze przejdzie przez jądro. |
LLM |
Duże modele językowe to narzędzia sztucznej inteligencji, które mogą podsumowywać, odczytywać lub generować tekst w postaci zdań podobnych do sposobu mówienia i pisania przez ludzi. LlMs mogą być dołączane do różnych produktów w firmie Microsoft, aby odkryć bogatszą wartość użytkownika. |
Pamięć |
Wspomnienia są potężnym sposobem zapewnienia szerszego kontekstu dla twojego pytania. Historycznie zawsze wzywaliśmy pamięć jako podstawowy składnik do działania komputerów: pomyśl o pamięci RAM w laptopie. W przypadku użycia tylko procesora CPU, który może chrupać liczbami, komputer nie jest tak przydatny, chyba że wie, jakie liczby się interesują. Wspomnienia sprawiają, że obliczenia są istotne dla zadania. |
Dodatki plug-in |
Aby wygenerować ten plan, copilot będzie najpierw potrzebować możliwości niezbędnych do wykonania tych kroków. W tym miejscu pojawiają się wtyczki. Wtyczki umożliwiają nadanie umiejętnościom agenta za pomocą kodu. Możesz na przykład utworzyć wtyczkę, która wysyła wiadomości e-mail, pobiera informacje z bazy danych, prosi o pomoc, a nawet zapisuje i pobiera wspomnienia z poprzednich konwersacji. |
Planistów |
Aby użyć wtyczki (i połączyć je z innymi krokami), copilot będzie musiał najpierw wygenerować plan. To właśnie tam przychodzą planiści. Planiści są specjalnymi monitami, które umożliwiają agentowi wygenerowanie planu wykonania zadania. Najprostszymi planistami są tylko jeden monit, który pomaga agentowi używać funkcji wywołującej w celu ukończenia zadania. |
Polecenia |
Monity odgrywają kluczową rolę w komunikowaniu się i kierowaniu zachowaniem sztucznej inteligencji dużych modeli językowych (LLM). Służą one jako dane wejściowe lub zapytania, które użytkownicy mogą udostępniać w celu wywołania określonych odpowiedzi z modelu. |
Inżynieria poleceń |
Ze względu na ilość kontroli, która istnieje, inżynieria monitu jest krytyczną umiejętnością dla każdego, kto pracuje z modelami sztucznej inteligencji LLM. Jest to również umiejętność, która jest w dużym zapotrzebowaniu, ponieważ coraz więcej organizacji wdraża modele sztucznej inteligencji LLM w celu automatyzowania zadań i zwiększania produktywności. Dobry inżynier monitu może pomóc organizacjom w jak największym wykorzystać swoje modele sztucznej inteligencji LLM, projektując monity, które generują żądane dane wyjściowe. |
RAG |
Pobieranie rozszerzonej generacji — termin, który odnosi się do procesu pobierania dodatkowych danych w celu dostarczenia jako kontekstu do funkcji LLM do użycia podczas generowania odpowiedzi (uzupełniania) na pytanie użytkownika (monit). |