Modelos de aplicativo de IA
Esta seção da documentação apresenta os modelos de aplicativos de IA e artigos relacionados que usam esses modelos para demonstrar como executar as principais tarefas do desenvolvedor. Os modelos de aplicativo de IA fornecem implementações de referência regulares e fáceis de implantar que ajudam a garantir um ponto de partida de alta qualidade para os aplicativos de IA.
Há duas categorias de modelos de aplicativo de IA, blocos de construção e soluções de ponta a ponta. As seções a seguir apresentam alguns dos principais modelos em cada categoria para a linguagem de programação selecionada na parte superior deste artigo. Para procurar uma lista mais abrangente, incluindo esses e outros modelos, consulte os modelos de aplicativo de IA na galeria da CLI do desenvolvedor do Azure.
Blocos de construção
Blocos de construção são amostras em escala menor que focam em cenários e tarefas específicos. A maioria dos blocos de construção demonstra a funcionalidade que aproveita a solução de ponta a ponta para um aplicativo de bate-papo que usa seus próprios dados.
Bloco de construção | Descrição |
---|---|
Balanceamento de carga com Aplicativos de Contêiner do Azure | Saiba como adicionar balanceamento de carga ao seu aplicativo para estender o aplicativo de chat além dos limites de cota de modelo e token do OpenAI do Azure. Esta abordagem usa os Aplicativos de Contêiner do Azure para criar três pontos de extremidade do OpenAI do Azure, bem como um contêiner primário para direcionar o tráfego de entrada para um dos três pontos de extremidade. |
Bloco de construção | Descrição |
---|---|
Configurar a segurança do documento para o aplicativo de bate-papo | Ao criar um aplicativo de bate-papo usando o padrão RAG com seus próprios dados, certifique-se de que cada usuário receba uma resposta com base em suas permissões. Um usuário autorizado deve ter acesso às respostas contidas nos documentos do aplicativo de bate-papo. Um usuário não autorizado não deve ter acesso a respostas de documentos seguros que ele não tem autorização para ver. |
Avaliar respostas de aplicativos de bate-papo | Saiba como avaliar as respostas de um aplicativo de bate-papo em relação a um conjunto de respostas corretas ou ideais (conhecido como verdade básica). Sempre que você alterar seu aplicativo de bate-papo de uma forma que afete as respostas, execute uma avaliação para comparar as alterações. Este aplicativo de demonstração oferece ferramentas que você pode usar hoje para facilitar a execução de avaliações. |
Balanceamento de carga com Aplicativos de Contêiner do Azure | Saiba como adicionar balanceamento de carga ao seu aplicativo para estender o aplicativo de chat além dos limites de cota de modelo e token do OpenAI do Azure. Esta abordagem usa os Aplicativos de Contêiner do Azure para criar três pontos de extremidade do OpenAI do Azure, bem como um contêiner primário para direcionar o tráfego de entrada para um dos três pontos de extremidade. |
Balanceamento de carga com gerenciamento de API | Saiba como adicionar balanceamento de carga ao seu aplicativo para estender o aplicativo de chat além dos limites de cota de modelo e token do OpenAI do Azure. Essa abordagem usa o Gerenciamento de API do Azure para criar três pontos de extremidade do Azure OpenAI, bem como um contêiner primário para direcionar o tráfego de entrada para um dos três pontos de extremidade. |
Teste de carga do aplicativo de bate-papo Python com Locust | Aprenda o processo para executar testes de carga em um aplicativo de bate-papo Python usando o padrão RAG com Locust, uma popular ferramenta de teste de carga de código aberto. O principal objetivo do teste de carga é garantir que a carga esperada em seu aplicativo de bate-papo não exceda a cota atual de Transações por Minuto (TPM) do Azure OpenAI. Ao simular o comportamento do usuário sob carga pesada, você pode identificar possíveis gargalos e problemas de escalabilidade em seu aplicativo. |
Bloco de construção | Descrição |
---|---|
Balanceamento de carga com Aplicativos de Contêiner do Azure | Saiba como adicionar balanceamento de carga ao seu aplicativo para estender o aplicativo de chat além dos limites de cota de modelo e token do OpenAI do Azure. Esta abordagem usa os Aplicativos de Contêiner do Azure para criar três pontos de extremidade do OpenAI do Azure, bem como um contêiner primário para direcionar o tráfego de entrada para um dos três pontos de extremidade. |
Bloco de construção | Descrição |
---|---|
Avaliar respostas de aplicativos de bate-papo | Saiba como avaliar as respostas de um aplicativo de bate-papo em relação a um conjunto de respostas corretas ou ideais (conhecido como verdade básica). Sempre que você alterar seu aplicativo de bate-papo de uma forma que afete as respostas, execute uma avaliação para comparar as alterações. Este aplicativo de demonstração oferece ferramentas que você pode usar hoje para facilitar a execução de avaliações. |
Balanceamento de carga com Aplicativos de Contêiner do Azure | Saiba como adicionar balanceamento de carga ao seu aplicativo para estender o aplicativo de chat além dos limites de cota de modelo e token do OpenAI do Azure. Esta abordagem usa os Aplicativos de Contêiner do Azure para criar três pontos de extremidade do OpenAI do Azure, bem como um contêiner primário para direcionar o tráfego de entrada para um dos três pontos de extremidade. |
Balanceamento de carga com gerenciamento de API | Saiba como adicionar balanceamento de carga ao seu aplicativo para estender o aplicativo de chat além dos limites de cota de modelo e token do OpenAI do Azure. Essa abordagem usa o Gerenciamento de API do Azure para criar três pontos de extremidade do Azure OpenAI, bem como um contêiner primário para direcionar o tráfego de entrada para um dos três pontos de extremidade. |
Soluções de ponta a ponta
Soluções de ponta a ponta são amostras de referência abrangentes, incluindo documentação, código-fonte e implantação para permitir executar e ampliar suas próprias finalidades.
Converse com seus dados usando o Azure OpenAI e o Azure AI Search com .NET
Este modelo é uma solução completa de ponta a ponta que demonstra o padrão de Geração Aumentada de Recuperação (RAG) em execução no Azure. Ele usa a Pesquisa de IA do Azure para recuperação e modelos de linguagem grande do Azure OpenAI para potencializar as experiências de perguntas e respostas no estilo ChatGPT.
Para começar a usar esse modelo, consulte Introdução ao bate-papo usando seu próprio exemplo de dados para .NET. Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub azure-search-openai-demo-csharp .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos de Contêiner do Azure Azure Functions |
OpenAI do Azure Pesquisa Visual Computacional do Azure Reconhecimento de Formulários do Azure Azure AI Search Armazenamento do Azure |
GPT 3.5 Turbo GPT 4,0 |
Copiloto de varejo de bate-papo da Contoso com .NET e Kernel Semântico
Este modelo implementa o Contoso Outdoors, uma loja conceitual especializada em equipamentos ao ar livre para entusiastas de caminhadas e camping. Esta loja virtual melhora o envolvimento do cliente e o suporte de vendas por meio de um agente de bate-papo inteligente. Esse agente é alimentado pelo padrão de Geração Aumentada de Recuperação (RAG) dentro do Microsoft Azure AI Stack, enriquecido com suporte a Kernel Semântico e Prompty.
Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório contoso-chat-csharp-prompty do GitHub.
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos de Contêiner do Azure |
OpenAI do Azure Microsoft Entra ID Identidade gerenciada do Azure Azure Monitor Azure AI Search Estúdio de IA do Azure SQL do Azure Armazenamento do Azure |
GPT 3.5 Turbo GPT 4,0 |
Automação de processos com fala para texto e sumarização com .NET e GPT 3.5 Turbo
Este modelo é uma solução de automação de processos que recebe problemas relatados por trabalhadores de campo e chão de fábrica em uma empresa chamada Contoso Manufacturing, uma empresa de fabricação que fabrica baterias automotivas. Os problemas são compartilhados pelos trabalhadores ao vivo por meio de entrada de microfone ou pré-gravados como arquivos de áudio. A solução converte a entrada de áudio da fala para o texto e, em seguida, usa um LLM e Prompty ou Promptflow para resumir o problema e retornar os resultados em um formato especificado pela solução.
Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub summarization-openai-csharp-prompty .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos de Contêiner do Azure | Conversão de Fala em Texto Resumo OpenAI do Azure |
GPT 3.5 Turbo |
Converse com seus dados usando o Azure OpenAI e a Pesquisa de IA do Azure com Python
Este modelo é uma solução completa de ponta a ponta que demonstra o padrão de Geração Aumentada de Recuperação (RAG) em execução no Azure. Ele usa a Pesquisa de IA do Azure para recuperação e modelos de linguagem grande do Azure OpenAI para potencializar as experiências de perguntas e respostas no estilo ChatGPT.
Para começar a usar esse modelo, consulte Introdução ao bate-papo usando seu próprio exemplo de dados para Python. Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub azure-search-openai-demo .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Serviço de Aplicativo do Azure | OpenAI do Azure Pesquisa do Bing Identidade gerenciada do Azure Azure Monitor Azure AI Search Estúdio de IA do Azure |
GPT 3.5 Turbo GPT 4,0 DALL-E |
Copiloto de Escrita Criativa Multimodal com DALL-E
Este modelo é uma solução de escrita criativa multi-agente para ajudar os usuários a escrever artigos. Ele demonstra como criar e trabalhar com agentes de IA impulsionados pelo Azure OpenAI. Ele inclui um aplicativo Flask que recebe um tópico e instruções de um usuário e chama um agente de pesquisa que usa a API de Pesquisa do Bing para pesquisar o tópico, um agente de produto que usa a Pesquisa de IA do Azure para fazer uma pesquisa de semelhança semântica para produtos relacionados de um repositório vetorial, um agente de gravador para combinar a pesquisa e as informações do produto em um artigo útil, e um agente editor para refinar o artigo que finalmente é apresentado ao usuário.
Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório agent-openai-python-prompty do GitHub.
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Azure Container registery Kubernetes do Azure |
OpenAI do Azure Pesquisa do Bing Identidade gerenciada do Azure Azure Monitor Azure AI Search Estúdio de IA do Azure |
GPT 3.5 Turbo GPT 4,0 DALL-E |
Copiloto de varejo do Contoso Chat com AI Studio
Este modelo é uma solução de bate-papo de suporte e vendas ao cliente. Ele demonstra como criar um aplicativo LLM (Large Language Model) com uma arquitetura RAG (Retrieval Augmented Generation) usando o Azure AI Studio e o Prompt Flow.
Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório do GitHub contoso-chat .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos de Contêiner do Azure |
OpenAI do Azure Azure AI Search Estúdio de IA do Azure Azure Cosmos DB |
GPT 3.5 Turbo GPT 4,0 Tempo de Execução de Integração Gerenciada (MIR) |
Automação de processos com fala para texto e resumo com AI Studio
Este modelo é uma solução de automação de processos que recebe problemas relatados por trabalhadores de campo e chão de fábrica em uma empresa chamada Contoso Manufacturing, uma empresa de fabricação que fabrica baterias automotivas. Os problemas são compartilhados pelos trabalhadores ao vivo por meio de entrada de microfone, pré-gravados como arquivos de áudio ou como entrada de texto. A solução converte a entrada de áudio da fala para o texto e, em seguida, usa os relatórios de texto como entrada para um LLM e Prompty/Promptflow para resumir o problema e retornar os resultados em um formato especificado pela solução.
Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub summarization-openai-python-prompflow .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos de Contêiner do Azure | Estúdio de IA do Azure Serviço de Conversão de Voz em Texto Fluxo Imediato Tempo de Execução de Integração Gerenciada (MIR) |
GPT 3.5 Turbo |
Chamada de função com Prompty, LangChain e Elastic Search
Este modelo é um aplicativo que usa Prompty, Langchain e Elasticsearch para criar um agente de pesquisa de modelo de linguagem grande (LLM). Este agente com tecnologia Retrieval Augmented Generation (RAG) é capaz de responder às perguntas dos usuários com base nos dados fornecidos, integrando a recuperação de informações em tempo real com respostas generativas.
Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório do GitHub agent-python-openai-prompty-langchain .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Serviço de Machine Learning | Estúdio de IA do Azure Pesquisa Elástica Microsoft Entra ID Identidade gerenciada do Azure Azure Monitor Armazenamento do Azure Estúdio de IA do Azure Tempo de Execução de Integração Gerenciada (MIR) |
GPT 3.5 Turbo |
Chamada de função com Prompty, LangChain e Pinecone
Este modelo utiliza a nova ferramenta Prompty, Langchain e Pinecone para criar um agente de pesquisa de modelo de linguagem grande (LLM). Este agente com tecnologia Retrieval Augmented Generation (RAG) é capaz de responder às perguntas dos usuários com base nos dados fornecidos, integrando a recuperação de informações em tempo real com respostas generativas.
Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub agent-openai-python-prompty-langchain-pinecone .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos de Contêiner do Azure | Pinecone Microsoft Entra ID Identidade gerenciada da Microsoft Azure Monitor Armazenamento do Azure |
GPT 3.5 Turbo |
Copiloto assistente de API Analytics com Python e IA do Azure Studio
Este modelo é uma API do Assistente para conversar com dados tabulares e executar análises em linguagem natural. Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório do GitHub assistant-data-openai-python-promptflow .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Serviço de Machine Learning | Azure AI Search Estúdio de IA do Azure Tempo de Execução de Integração Gerenciada (MIR) OpenAI do Azure |
GPT 3.5 Turbo GPT 4 |
Converse com seus dados usando o Azure OpenAI e a Pesquisa de IA do Azure com Java
Este modelo é uma solução completa de ponta a ponta que demonstra o padrão RAG (Retrieval-Augmented Generation) em execução no Azure. Ele usa a Pesquisa de IA do Azure para recuperação e modelos de linguagem grande do Azure OpenAI para potencializar as experiências de perguntas e respostas no estilo ChatGPT.
Para começar a usar esse modelo, consulte Introdução ao bate-papo usando sua própria amostra de dados para Java. Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub azure-search-openai-demo-java .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Serviço de Aplicativo do Azure Aplicativos de Contêiner do Azure Serviço de Kubernetes do Azure |
OpenAI do Azure Azure AI Search Armazenamento do Azure Azure Monitor |
Converse com seus dados usando o Azure OpenAI e a Pesquisa de IA do Azure com JavaScript
Este modelo é uma solução completa de ponta a ponta que demonstra o padrão de Geração Aumentada de Recuperação (RAG) em execução no Azure. Ele usa a Pesquisa de IA do Azure para recuperação e modelos de linguagem grande do Azure OpenAI para potencializar as experiências de perguntas e respostas no estilo ChatGPT.
Para começar a usar esse modelo, consulte Introdução ao bate-papo usando seu próprio exemplo de dados para JavaScript. Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub azure-search-openai-javascript .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos de Contêiner do Azure Aplicativos Web Estáticos do Azure |
OpenAI do Azure Azure AI Search Armazenamento do Azure Azure Monitor |
text-embedding-ada-002 |
Frontend de bate-papo do Azure OpenAI
Este modelo é um componente web de bate-papo OpenAI mínimo que pode ser conectado a qualquer implementação de back-end como um cliente.
Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub azure-openai-chat-frontend .
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos Web Estáticos do Azure | Azure AI Search OpenAI do Azure |
GPT 3.5 Turbo GPT4 |
Bate-papo de IA sem servidor com RAG usando LangChain.js
O modelo é um chatbot de IA sem servidor com Geração Aumentada de Recuperação usando LangChain.js e Azure que usa um conjunto de documentos corporativos para gerar respostas a consultas do usuário. Ele usa uma empresa fictícia chamada Contoso Real Estate, e a experiência permite que seus clientes façam perguntas de suporte sobre o uso de seus produtos. Os dados de exemplo incluem um conjunto de documentos que descreve seus termos de serviço, política de privacidade e um guia de suporte.
Para saber como implantar e executar esse modelo, consulte Introdução ao Bate-papo de IA sem servidor com RAG usando LangChain.js. Para acessar o código-fonte e ler detalhes detalhados sobre o modelo, consulte o repositório GitHub do Serverless-chat-langchainjs .
Saiba como implantar e executar este modelo de referência JavaScript.
Este modelo demonstra o uso desses recursos.
Solução de hospedagem do Azure | Tecnologias | Modelos de IA |
---|---|---|
Aplicativos Web Estáticos do Azure Azure Functions |
Azure AI Search OpenAI do Azure Azure Cosmos DB Armazenamento do Azure Identidade gerenciada do Azure |
GPT4 Mistral Ollama |
Comentários
https://aka.ms/ContentUserFeedback.
Em breve: Ao longo de 2024, eliminaremos os problemas do GitHub como o mecanismo de comentários para conteúdo e o substituiremos por um novo sistema de comentários. Para obter mais informações, consulteEnviar e exibir comentários de