Partilhar via


Ajuste os modelos Meta Llama no Azure AI Studio

Importante

Alguns dos recursos descritos neste artigo podem estar disponíveis apenas na visualização. Essa visualização é fornecida sem um contrato de nível de serviço e não a recomendamos para cargas de trabalho de produção. Algumas funcionalidades poderão não ser suportadas ou poderão ter capacidades limitadas. Para obter mais informações, veja Termos Suplementares de Utilização para Pré-visualizações do Microsoft Azure.

O Azure AI Studio permite-lhe adaptar modelos de linguagem grandes aos seus conjuntos de dados pessoais utilizando um processo conhecido como ajuste fino.

A otimização oferece um valor significativo, pois permite a personalização e o ajuste de tarefas e aplicações específicas. Isso leva a um melhor desempenho, eficiência de custos, latência reduzida e saídas personalizadas.

Neste artigo, você aprenderá a ajustar modelos Meta Llama no Azure AI Studio.

A família Meta Llama de grandes modelos de linguagem (LLMs) é uma coleção de modelos de texto generativos pré-treinados e ajustados que variam em escala de 7 bilhões a 70 bilhões de parâmetros. A família de modelos também inclui versões ajustadas otimizadas para casos de uso de diálogo com o Reinforcement Learning from Human Feedback (RLHF), chamado Llama-2-chat.

Modelos

O ajuste fino dos modelos Llama 3 não é suportado no momento.

Pré-requisitos

O ajuste fino dos modelos Llama 3 não é suportado no momento.

Registo do fornecedor de subscrição

Verifique se a assinatura está registrada no provedor de Microsoft.Network recursos.

  1. Inicie sessão no portal do Azure.

  2. Selecione Assinaturas no menu à esquerda.

  3. selecione a subscrição que quer utilizar.

  4. Selecione Configurações>Provedores de recursos no menu à esquerda.

  5. Confirme se Microsoft.Network está na lista de provedores de recursos. Caso contrário, adicione-o.

    Captura de ecrã dos fornecedores de recursos de subscrição no portal do Azure.

Preparação de dados

Prepare os dados de preparação e de validação para otimizar o seu modelo. Os dados de preparação e os conjuntos de dados de validação consistem em exemplos de entrada e saída de como pretende que o modelo seja executado.

Certifique-se de que todos os seus exemplos de treinamento sigam o formato esperado para inferência. Para ajustar modelos de forma eficaz, garanta um conjunto de dados equilibrado e diversificado.

Isso envolve manter o equilíbrio de dados, incluindo vários cenários, e refinar periodicamente os dados de treinamento para alinhá-los com as expectativas do mundo real, levando a respostas de modelo mais precisas e equilibradas.

Diferentes tipos de modelo exigem um formato diferente de dados de treinamento.

Os dados de treinamento e validação usados devem ser formatados como um documento JSONL (JSON Lines). Para Llama-3-80B-chat o ajuste fino, o conjunto de dados deve ser formatado no formato de conversação usado pela API de conclusão de bate-papo.

Exemplo de formato de ficheiro

    {"messages": [{"role": "system", "content": "You are an Xbox customer support agent whose primary goal is to help users with issues they are experiencing with their Xbox devices. You are friendly and concise. You only provide factual answers to queries, and do not provide answers that are not related to Xbox."}, {"role": "user", "content": "Is Xbox better than PlayStation?"}, {"role": "assistant", "content": "I apologize, but I cannot provide personal opinions. My primary job is to assist you with any issues related to your Xbox device. Do you have any Xbox-related issues that need addressing?"}]}
    {"messages": [{"role": "system", "content": "You are an Xbox customer support agent whose primary goal is to help users with issues they are experiencing with their Xbox devices. You are friendly and concise. You only provide factual answers to queries, and do not provide answers that are not related to Xbox."}, {"role": "user", "content": "Can I play PC games on my Xbox?"}, {"role": "assistant", "content": "While Xbox consoles don't natively support PC games, they can play an array of Xbox games, many of which are also available on PC. Can I assist you with finding games compatible with your Xbox device?"}]}
    {"messages": [{"role": "system", "content": "You are an Xbox customer support agent whose primary goal is to help users with issues they are experiencing with their Xbox devices. You are friendly and concise. You only provide factual answers to queries, and do not provide answers that are not related to Xbox."}, {"role": "user", "content": "I'm having trouble connecting my Xbox to the Wi-Fi."}, {"role": "assistant", "content": "No worries, let's go through the network settings on your Xbox. Can you please tell me what happens when you try to connect it to the Wi-Fi?"}]}

O tipo de ficheiro suportado é JSON Lines. Os ficheiros são carregados para o arquivo de dados predefinido e disponibilizados em seu projeto.

Ajuste um modelo Meta Llama

O ajuste fino dos modelos Llama 3 não é suportado no momento.

Limpeza dos seus modelos ajustados

Você pode excluir um modelo ajustado da lista de modelos de ajuste fino no Azure AI Studio ou da página de detalhes do modelo. Selecione o modelo ajustado a ser excluído da página Ajuste fino e, em seguida, selecione o botão Excluir para excluir o modelo ajustado.

Nota

Não é possível excluir um modelo personalizado se ele tiver uma implantação existente. Você deve primeiro excluir sua implantação de modelo antes de poder excluir seu modelo personalizado.

Custo e quotas

Considerações de custo e cota para modelos Meta Llama ajustados como um serviço

Os modelos Meta Llama ajustados como um serviço são oferecidos pela Meta através do Azure Marketplace e integrados com o Azure AI Studio para utilização. Você pode encontrar os preços do Azure Marketplace ao implantar ou ajustar os modelos.

Sempre que um projeto subscreve uma determinada oferta do Azure Marketplace, é criado um novo recurso para controlar os custos associados ao seu consumo. O mesmo recurso é usado para rastrear os custos associados à inferência e ao ajuste fino; no entanto, vários medidores estão disponíveis para rastrear cada cenário de forma independente.

Para obter mais informações sobre como controlar custos, consulte monitorar custos para modelos oferecidos em todo o Azure Marketplace.

Filtragem de conteúdos

Os modelos implantados como um serviço com cobrança pré-paga são protegidos pelo Azure AI Content Safety. Quando implantado em pontos de extremidade em tempo real, você pode desativar esse recurso. Com a segurança de conteúdo de IA do Azure habilitada, tanto o prompt quanto a conclusão passam por um conjunto de modelos de classificação destinados a detetar e prevenir a saída de conteúdo nocivo. O sistema de filtragem de conteúdo deteta e age em categorias específicas de conteúdo potencialmente nocivo em prompts de entrada e finalizações de saída. Saiba mais sobre a Segurança de Conteúdo do Azure AI.

Próximos passos