Ler em inglês

Partilhar via


Glossário para Kernel Semântico

👋 Olá;! Incluímos um Glossário abaixo com a terminologia principal.

Termo/Palavra Definição
Agente Um agente é uma inteligência artificial que pode responder a perguntas e automatizar processos para os utilizadores. Há um amplo espectro de agentes que podem ser construídos, desde simples bots de bate-papo até assistentes de IA totalmente automatizados. Com o Semantic Kernel, fornecemos as ferramentas para criar agentes cada vez mais sofisticados que não exigem que você seja um especialista em IA.
API Interface de Programação de Aplicações. Um conjunto de regras e especificações que permitem aos componentes de software comunicar e trocar dados.
Autônomo Agentes que podem responder a estímulos com intervenção humana mínima.
Chatbot Um simples bate-papo de ida e volta com um usuário e um agente de IA.
Conectores Os conectores permitem integrar APIs existentes (Application Programming Interface) com LLMs (Large Language Models). Por exemplo, um conector do Microsoft Graph pode ser usado para enviar automaticamente a saída de uma solicitação em um email ou para criar uma descrição de relacionamentos em um organograma.
Copilot Agentes que trabalham lado a lado com um usuário para concluir uma tarefa.
Kernel Semelhante ao sistema operacional, o kernel é responsável por gerenciar recursos que são necessários para executar "código" em um aplicativo de IA. Isso inclui gerenciar os modelos, serviços e plug-ins de IA que são necessários para que o código nativo e os serviços de IA sejam executados juntos. Como o kernel tem todos os serviços e plugins necessários para executar código nativo e serviços de IA, ele é usado por quase todos os componentes dentro do SDK do Kernel Semântico. Isso significa que, se você executar qualquer prompt ou código no Kernel Semântico, ele sempre passará por um kernel.
LLM Os Grandes Modelos de Linguagem são ferramentas de Inteligência Artificial que podem resumir, ler ou gerar texto na forma de frases semelhantes à forma como um ser humano fala e escreve. Os LLMs podem ser incorporados em vários produtos da Microsoft para descobrir um valor mais rico para o usuário.
Memória As memórias são uma maneira poderosa de fornecer um contexto mais amplo para a sua pergunta. Historicamente, sempre invocamos a memória como um componente central para o funcionamento dos computadores: pense na RAM do seu laptop. Pois com apenas uma CPU que pode processar números, o computador não é tão útil, a menos que saiba com quais números você se importa. As memórias são o que tornam a computação relevante para a tarefa em questão.
Plug-ins Para gerar esse plano, o copiloto precisaria primeiro das capacidades necessárias para executar essas etapas. É aqui que entram os plugins. Plugins permitem que você dê ao seu agente habilidades via código. Por exemplo, você pode criar um plugin que envia e-mails, recupera informações de um banco de dados, pede ajuda ou até mesmo salva e recupera memórias de conversas anteriores.
Planejadores Para usar um plugin (e conectá-los com outras etapas), o copiloto precisaria primeiro gerar um plano. É aqui que entram os planeadores. Os planejadores são prompts especiais que permitem que um agente gere um plano para concluir uma tarefa. Os planejadores mais simples são apenas um único prompt que ajuda o agente a usar a chamada de função para concluir uma tarefa.
Pedidos Os prompts desempenham um papel crucial na comunicação e direcionamento do comportamento da IA de Grandes Modelos de Linguagem (LLMs). Eles servem como entradas ou consultas que os usuários podem fornecer para obter respostas específicas de um modelo.
Engenharia de Pedidos Devido à quantidade de controle que existe, a engenharia imediata é uma habilidade crítica para quem trabalha com modelos de IA LLM. Também é uma habilidade que está em alta demanda à medida que mais organizações adotam modelos de IA LLM para automatizar tarefas e melhorar a produtividade. Um bom engenheiro de prompt pode ajudar as organizações a tirar o máximo proveito de seus modelos de IA LLM, projetando prompts que produzem as saídas desejadas.
RAG Retrieval Augmented Generation - um termo que se refere ao processo de recuperação de dados adicionais para fornecer como contexto a um LLM para usar ao gerar uma resposta (conclusão) à pergunta de um usuário (prompt).

Mais informações de suporte