Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
👋 Olá! Incluímos um glossário abaixo com a terminologia principal.
| Termo/Palavra | Definição |
|---|---|
| Agente | Um agente é uma inteligência artificial que pode responder a perguntas e automatizar processos para os usuários. Há um amplo espectro de agentes que podem ser criados, desde simples bots de bate-papo até assistentes de IA totalmente automatizados. Com o Semantic Kernel, fornecemos as ferramentas para criar agentes cada vez mais sofisticados que não exigem que você seja um especialista em IA. |
| API | Interface de programação de aplicativo. Um conjunto de regras e especificações que permitem que os componentes de software se comuniquem e troquem dados. |
| Autônomo | Agentes que podem responder a estímulos com o mínimo de intervenção humana. |
| Chatbot | Um simples bate-papo de ida e volta com um usuário e um agente de IA. |
| Conectores | Os conectores permitem que você integre APIs (Interface de Programação de Aplicativos) existentes com LLMs (Modelos de Linguagem de Grande Porte). Por exemplo, um conector do Microsoft Graph pode ser usado para enviar automaticamente a saída de uma solicitação em um email ou para criar uma descrição de relações em um organograma. |
| Copiloto | Agentes que trabalham lado a lado com um usuário para concluir uma tarefa. |
| Núcleo | Semelhante ao sistema operacional, o kernel é responsável por gerenciar os recursos necessários para executar o "código" em um aplicativo de IA. Isso inclui o gerenciamento dos modelos, serviços e plug-ins de IA necessários para que o código nativo e os serviços de IA sejam executados juntos. Como o kernel tem todos os serviços e plug-ins necessários para executar código nativo e serviços de IA, ele é usado por quase todos os componentes do SDK do Kernel Semântico. Isso significa que, se você executar qualquer prompt ou código no Kernel Semântico, ele sempre passará por um kernel. |
| LLM | Grandes Modelos de Linguagem são ferramentas de Inteligência Artificial que podem resumir, ler ou gerar texto na forma de frases semelhantes à forma como um humano fala e escreve. Os LLMs podem ser incorporados a vários produtos da Microsoft para descobrir um valor mais rico para o usuário. |
| Memória | As memórias são uma maneira poderosa de fornecer um contexto mais amplo para sua pergunta. Historicamente, sempre recorremos à memória como um componente central de como os computadores funcionam — pense na RAM do seu laptop. Pois com apenas uma CPU que pode processar números, o computador não é tão útil, a menos que saiba com quais números você se importa. As memórias são o que tornam a computação relevante para a tarefa em questão. |
| Plugins | Para gerar esse plano, o copiloto primeiro precisaria dos recursos necessários para executar essas etapas. É aqui que entram os plugins. Os plug-ins permitem que você dê habilidades ao seu agente por meio de código. Por exemplo, você pode criar um plug-in que envia e-mails, recupera informações de um banco de dados, pede ajuda ou até mesmo salva e recupera memórias de conversas anteriores. |
| Planejadores | Para usar um plug-in (e conectá-los a outras etapas), o copiloto precisaria primeiro gerar um plano. É aqui que entram os planejadores. Os planejadores são prompts especiais que permitem que um agente gere um plano para concluir uma tarefa. Os planejadores mais simples consistem apenas de um único prompt que ajuda o agente a utilizar chamadas de funções para concluir uma tarefa. |
| Instruções | Os prompts desempenham um papel crucial na comunicação e no direcionamento do comportamento da IA de modelos de linguagem grande (LLMs). Eles servem como entradas ou consultas que os usuários podem fornecer para obter respostas específicas de um modelo. |
| Engenharia de Prompt | Devido à quantidade de controle existente, a engenharia imediata é uma habilidade crítica para quem trabalha com modelos LLM AI. É também uma habilidade que está em alta demanda à medida que mais organizações adotam modelos LLM AI para automatizar tarefas e melhorar a produtividade. Um bom engenheiro de prompt pode ajudar as organizações a tirar o máximo proveito de seus modelos de IA LLM, projetando prompts que produzem as saídas desejadas. |
| RAG | Geração aumentada de recuperação - um termo que se refere ao processo de recuperação de dados adicionais para fornecer como contexto a um LLM a ser usado ao gerar uma resposta (conclusão) à pergunta de um usuário (prompt). |