Udostępnij za pośrednictwem


Słownik jądra semantycznego

👋 Witam! Poniżej dołączyliśmy słownik z kluczową terminologią.

Termin/wyraz Definicja
Agent Agent to sztuczna inteligencja, która może odpowiadać na pytania i automatyzować procesy dla użytkowników. Istnieje szerokie spektrum agentów, które mogą być tworzone, od prostych czatbotów po w pełni zautomatyzowanych asystentów sztucznej inteligencji. W przypadku jądra semantycznego udostępniamy narzędzia do tworzenia coraz bardziej zaawansowanych agentów, którzy nie muszą być ekspertem od sztucznej inteligencji.
interfejs API Interfejs programowania aplikacji. Zestaw reguł i specyfikacji, które umożliwiają składnikom oprogramowania komunikowanie i wymianę danych.
Autonomiczny Agenci, którzy mogą reagować na bodźce przy minimalnej interwencji człowieka.
Czatbot Prosty czat z użytkownikiem i agentem sztucznej inteligencji.
Łączniki Łączniki umożliwiają integrację istniejących interfejsów API (interfejs programowania aplikacji) z LLM (dużymi modelami językowymi). Na przykład łącznik programu Microsoft Graph może służyć do automatycznego wysyłania danych wyjściowych żądania w wiadomości e-mail lub do tworzenia opisu relacji na wykresie organizacyjnym.
Copilot Agenci, którzy pracują obok siebie z użytkownikiem, aby ukończyć zadanie.
Jądro Podobnie jak w przypadku systemu operacyjnego, jądro jest odpowiedzialne za zarządzanie zasobami, które są niezbędne do uruchamiania "kodu" w aplikacji sztucznej inteligencji. Obejmuje to zarządzanie modelami, usługami i wtyczkami sztucznej inteligencji, które są niezbędne zarówno do uruchamiania kodu natywnego, jak i usług sztucznej inteligencji. Ponieważ jądro ma wszystkie usługi i wtyczki niezbędne do uruchamiania kodu natywnego i usług sztucznej inteligencji, jest on używany przez prawie każdy składnik w zestawie SDK jądra semantycznego. Oznacza to, że jeśli uruchomisz dowolny monit lub kod w jądrze semantycznym, zawsze przejdzie przez jądro.
LLM Duże modele językowe to narzędzia sztucznej inteligencji, które mogą podsumowywać, odczytywać lub generować tekst w postaci zdań podobnych do sposobu mówienia i pisania przez ludzi. Można je integrować z różnymi produktami firmy Microsoft, aby odkryć bogatszą wartość dla użytkownika.
Pamięć Wspomnienia są potężnym sposobem zapewnienia szerszego kontekstu dla twojego pytania. Historycznie zawsze wzywaliśmy pamięć jako podstawowy składnik do działania komputerów: pomyśl o pamięci RAM w laptopie. W przypadku użycia tylko procesora CPU, który może przetwarzać liczby, komputer nie jest tak przydatny, chyba że wie, jakie liczby są dla Ciebie ważne. Wspomnienia sprawiają, że obliczenia są istotne dla zadania.
Dodatki Aby wygenerować ten plan, copilot będzie najpierw potrzebować możliwości niezbędnych do wykonania tych kroków. W tym miejscu pojawiają się wtyczki. Wtyczki umożliwiają nadanie agentowi umiejętności za pomocą kodu. Możesz na przykład utworzyć wtyczkę, która wysyła wiadomości e-mail, pobiera informacje z bazy danych, prosi o pomoc, a nawet zapisuje i pobiera wspomnienia z poprzednich konwersacji.
Planistów Aby użyć wtyczki (i połączyć je z innymi krokami), copilot będzie musiał najpierw wygenerować plan. W tym momencie przydają się planiści. Planiści są specjalnymi podpowiedziami, które umożliwiają agentowi wygenerowanie planu wykonania zadania. Najprostszymi planistami są tylko jeden monit, który pomaga agentowi używać funkcji wywołującej w celu ukończenia zadania.
Polecenia Monity odgrywają kluczową rolę w komunikowaniu się i kierowaniu zachowaniem sztucznej inteligencji dużych modeli językowych (LLM). Służą one jako dane wejściowe lub zapytania, które użytkownicy mogą udostępniać w celu wywołania określonych odpowiedzi z modelu.
Inżynieria promptów Ze względu na stopień kontroli, opracowywanie zapytań jest krytyczną umiejętnością dla każdego, kto pracuje z modelami sztucznej inteligencji LLM. Jest to również umiejętność, która jest w dużym zapotrzebowaniu, ponieważ coraz więcej organizacji wdraża modele sztucznej inteligencji LLM w celu automatyzowania zadań i zwiększania produktywności. Dobry inżynier projektowania promptów może pomóc organizacjom w pełni wykorzystać swoje modele sztucznej inteligencji LLM, projektując prompty, które generują żądane wyniki.
RAG Pobieranie rozszerzonej generacji — termin, który odnosi się do procesu pobierania dodatkowych danych w celu dostarczenia jako kontekstu do funkcji LLM do użycia podczas generowania odpowiedzi (uzupełniania) na pytanie użytkownika (monit).

Więcej informacji o pomocy technicznej