Compartilhar via


Glossário para Kernel Semântico

👋 Olá! Incluímos um glossário abaixo com a terminologia principal.

Termo/Palavra Definição
Agente Um agente é uma inteligência artificial que pode responder a perguntas e automatizar processos para os usuários. Há um amplo espectro de agentes que podem ser criados, desde simples bots de bate-papo até assistentes de IA totalmente automatizados. Com o Semantic Kernel, fornecemos as ferramentas para criar agentes cada vez mais sofisticados que não exigem que você seja um especialista em IA.
API Interface de programação de aplicativo. Um conjunto de regras e especificações que permitem que os componentes de software se comuniquem e troquem dados.
Autônomo Agentes que podem responder a estímulos com o mínimo de intervenção humana.
Chatbot Um simples bate-papo de ida e volta com um usuário e um agente de IA.
Conectores Os conectores permitem que você integre APIs (Interface de Programação de Aplicativos) existentes com LLMs (Modelos de Linguagem de Grande Porte). Por exemplo, um conector do Microsoft Graph pode ser usado para enviar automaticamente a saída de uma solicitação em um email ou para criar uma descrição de relações em um organograma.
Copiloto Agentes que trabalham lado a lado com um usuário para concluir uma tarefa.
Núcleo Semelhante ao sistema operacional, o kernel é responsável por gerenciar os recursos necessários para executar o "código" em um aplicativo de IA. Isso inclui o gerenciamento dos modelos, serviços e plug-ins de IA necessários para que o código nativo e os serviços de IA sejam executados juntos. Como o kernel tem todos os serviços e plug-ins necessários para executar código nativo e serviços de IA, ele é usado por quase todos os componentes do SDK do Kernel Semântico. Isso significa que, se você executar qualquer prompt ou código no Kernel Semântico, ele sempre passará por um kernel.
LLM Grandes Modelos de Linguagem são ferramentas de Inteligência Artificial que podem resumir, ler ou gerar texto na forma de frases semelhantes à forma como um humano fala e escreve. Os LLMs podem ser incorporados a vários produtos da Microsoft para descobrir um valor mais rico para o usuário.
Memória As memórias são uma maneira poderosa de fornecer um contexto mais amplo para sua pergunta. Historicamente, sempre recorremos à memória como um componente central de como os computadores funcionam — pense na RAM do seu laptop. Pois com apenas uma CPU que pode processar números, o computador não é tão útil, a menos que saiba com quais números você se importa. As memórias são o que tornam a computação relevante para a tarefa em questão.
Plugins Para gerar esse plano, o copiloto primeiro precisaria dos recursos necessários para executar essas etapas. É aqui que entram os plugins. Os plug-ins permitem que você dê habilidades ao seu agente por meio de código. Por exemplo, você pode criar um plug-in que envia e-mails, recupera informações de um banco de dados, pede ajuda ou até mesmo salva e recupera memórias de conversas anteriores.
Planejadores Para usar um plug-in (e conectá-los a outras etapas), o copiloto precisaria primeiro gerar um plano. É aqui que entram os planejadores. Os planejadores são prompts especiais que permitem que um agente gere um plano para concluir uma tarefa. Os planejadores mais simples consistem apenas de um único prompt que ajuda o agente a utilizar chamadas de funções para concluir uma tarefa.
Instruções Os prompts desempenham um papel crucial na comunicação e no direcionamento do comportamento da IA de modelos de linguagem grande (LLMs). Eles servem como entradas ou consultas que os usuários podem fornecer para obter respostas específicas de um modelo.
Engenharia de Prompt Devido à quantidade de controle existente, a engenharia imediata é uma habilidade crítica para quem trabalha com modelos LLM AI. É também uma habilidade que está em alta demanda à medida que mais organizações adotam modelos LLM AI para automatizar tarefas e melhorar a produtividade. Um bom engenheiro de prompt pode ajudar as organizações a tirar o máximo proveito de seus modelos de IA LLM, projetando prompts que produzem as saídas desejadas.
RAG Geração aumentada de recuperação - um termo que se refere ao processo de recuperação de dados adicionais para fornecer como contexto a um LLM a ser usado ao gerar uma resposta (conclusão) à pergunta de um usuário (prompt).

Mais informações de suporte