Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Neste tutorial, você aprende:
- Como criar e configurar os recursos do Azure para usar DeepSeek-R1 no Azure AI Foundry Models.
- Como configurar a implantação do modelo.
- Como usar DeepSeek-R1 com o SDK de Inferência de IA do Azure ou APIs REST.
- Como usar DeepSeek-R1 com outros SDKs.
Pré-requisitos
Para concluir este artigo, precisa de:
- Uma assinatura do Azure. Se você estiver usando Modelos do GitHub, poderá atualizar sua experiência e criar uma assinatura do Azure no processo. Leia Atualização de Modelos do GitHub para Modelos do Azure AI Foundry, se isso se aplicar a você.
Modelos de raciocínio
Os modelos de raciocínio podem atingir níveis mais elevados de desempenho em domínios como matemática, codificação, ciências, estratégia e logística. A maneira como esses modelos produzem resultados é usando explicitamente a cadeia de pensamento para explorar todos os caminhos possíveis antes de gerar uma resposta. Verificam as suas respostas à medida que as produzem, o que ajuda a chegar a conclusões mais precisas. Como resultado, os modelos de raciocínio podem exigir menos contexto na solicitação para produzir resultados eficazes.
Essa maneira de dimensionar o desempenho de um modelo é chamada de tempo de computação de inferência , pois negocia o desempenho com latência e custo mais altos. Em contraste, outras abordagens podem ser dimensionadas através do tempo de computação durante o treinamento.
Os modelos de raciocínio produzem dois tipos de conteúdo como saídas:
- Conclusões do raciocínio
- Resultados de conclusão
Ambas as finalizações contam para o conteúdo gerado a partir do modelo. Portanto, eles contribuem para os limites de tokens e os custos associados ao modelo. Alguns modelos, como DeepSeek-R1
, podem responder com conteúdo de raciocínio. Outros, como o1
, produzem apenas as finalizações.
Criar os recursos
O Foundry Models é um recurso nos recursos do Azure AI Foundry no Azure. Pode criar implantações de modelos no recurso para utilizar as suas previsões. Você também pode conectar o recurso a hubs e projetos de IA do Azure no Azure AI Foundry para criar aplicativos inteligentes, se necessário.
Para criar um projeto de IA do Azure que ofereça suporte à implantação do DeepSeek-R1, siga estas etapas. Você também pode criar os recursos, usando a CLI do Azure ou a infraestrutura como código, com o Bicep.
Sugestão
Como você pode personalizar o painel esquerdo no portal do Azure AI Foundry, poderá ver itens diferentes dos mostrados nestas etapas. Se não encontrar o que procura, selecione ... Mais informações na parte inferior do painel esquerdo.
Entre no portal do Azure AI Foundry.
Aceda ao ícone de funcionalidades de pré-visualização no cabeçalho da página de destino e certifique-se de que a funcionalidade Implementar modelos nos recursos do Azure AI Foundry está ativada.
Na página de destino, vá para a seção "Explorar modelos e recursos" e selecione Ir para o catálogo completo de modelos para abrir o catálogo de modelos.
Procure o modelo DeepSeek-R1 e abra o seu cartão modelo.
Selecione Usar este modelo. Esta ação abre um assistente para criar um projeto do Azure AI Foundry e recursos nos quais você trabalhará. Você pode manter o nome padrão para o projeto ou alterá-lo.
Sugestão
Você está usando o Azure OpenAI nos Modelos do Azure AI Foundry? Quando você está conectado ao portal do Azure AI Foundry usando um recurso do Azure OpenAI, somente os modelos do Azure OpenAI aparecem no catálogo. Para ver a lista completa de modelos, incluindo o DeepSeek-R1, use a seção Anúncios superiores e localize o cartão com a opção Explorar mais modelos.
Uma nova janela aparece com a lista completa de modelos. Selecione DeepSeek-R1 na lista e selecione Implantar. O assistente solicita criar um novo projeto.
Selecione a lista suspensa na seção "Opções avançadas" do assistente para ver os detalhes de outros padrões criados conjuntamente com o projeto. Esses padrões são selecionados para a funcionalidade ideal e incluem:
Propriedade Descrição Grupo de recursos O contêiner principal para todos os recursos no Azure. Isso ajuda a organizar os recursos que trabalham juntos. Também ajuda a ter uma margem para os custos associados a todo o projeto. Região A região dos recursos que você está criando. Recurso AI Foundry O recurso que permite o acesso aos modelos emblemáticos no catálogo de modelos de IA do Azure. Neste tutorial, uma nova conta é criada, mas os recursos do Azure AI Foundry (anteriormente conhecido como recurso dos Serviços de IA do Azure) podem ser compartilhados entre vários hubs e projetos. Os hubs utilizam uma ligação ao recurso para aceder às implementações de modelos disponíveis no local. Para saber como você pode criar conexões com recursos do Azure AI Foundry para consumir modelos, consulte Conectar seu projeto de IA. Selecione Criar para criar o projeto Foundry junto com os outros padrões. Aguarde até que a criação do projeto seja concluída. Este processo demora alguns minutos.
Implementar o modelo
Após a criação do projeto e dos recursos, aparece um assistente de implantação. DeepSeek-R1 é oferecido como um serviço de consumo de primeira parte da Microsoft. Pode rever os nossos compromissos de privacidade e segurança em Dados, privacidade e Segurança.
Consulte os detalhes de preços do modelo ao selecionar a guia Preços e termos.
Selecione Concordar e Continuar para continuar com a implantação.
Você pode definir as configurações de implantação neste momento. Por padrão, a implantação recebe o nome do modelo que você está implantando. O nome da implantação
model
é usado no parâmetro para requests serem direcionadas para este modelo específico de implantação. Isso permite que você também configure nomes específicos para seus modelos ao anexar configurações específicas.O Azure AI Foundry seleciona automaticamente o recurso do Foundry criado anteriormente com seu projeto. Use a opção Personalizar para alterar a conexão com base em suas necessidades. Atualmente, DeepSeek-R1 é oferecido no tipo de implantação Global Standard, que proporciona uma maior taxa de transferência e desempenho.
Selecione Implantar.
Quando a implantação for concluída, a página Detalhes da implantação será aberta. Agora, o novo modelo está pronto para ser usado.
Use o modelo na área de teste
Você pode começar usando o modelo no playground para ter uma ideia das capacidades do modelo.
Na página de detalhes da implantação, selecione Abrir no playground na barra superior. Esta ação abre a área de experimentação de bate-papo.
No menu pendente Implantação do playground de bate-papo, a implantação que criou já está automaticamente selecionada.
Configure o prompt do sistema conforme necessário. Em geral, os modelos de raciocínio não usam mensagens do sistema da mesma forma que outros tipos de modelos.
Digite o seu prompt e veja os resultados.
Além disso, você pode usar o código View para ver detalhes sobre como acessar a implantação do modelo programaticamente.
Modelos de raciocínio rápidos
Ao criar prompts para modelos de raciocínio, leve em consideração o seguinte:
- Use instruções simples e evite o uso de técnicas de cadeia de pensamento.
- Os recursos de raciocínio integrados tornam os prompts simples de tiro zero tão eficazes quanto métodos mais complexos.
- Ao fornecer contexto ou documentos adicionais, como em cenários RAG, incluir apenas as informações mais relevantes pode ajudar a evitar que o modelo complique demais sua resposta.
- Os modelos de raciocínio podem suportar o uso de mensagens do sistema. No entanto, podem não segui-los tão estritamente como outros modelos que não são baseados no raciocínio.
- Ao criar aplicativos de várias voltas, considere anexar apenas a resposta final do modelo, sem seu conteúdo de raciocínio, conforme explicado na seção Conteúdo de raciocínio .
Observe que os modelos de raciocínio podem levar mais tempo para gerar respostas. Utilizam longas cadeias de raciocínio que permitem uma resolução de problemas mais profunda e estruturada. Eles também realizam a autoverificação para cruzar suas respostas e corrigir seus erros, mostrando assim comportamentos autorreflexivos emergentes.
Use o modelo no código
Use o endpoint e as credenciais do Foundry Models para conectar-se ao modelo.
Você pode usar o pacote Azure AI Model Inference para consumir o modelo no código:
Instale o pacote azure-ai-inference
usando o seu gestor de pacotes, como o pip:
pip install azure-ai-inference
Em seguida, podes usar o pacote para consumir o modelo. O exemplo a seguir mostra como criar um cliente para consumir finalizações de chat:
import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential
client = ChatCompletionsClient(
endpoint="https://<resource>.services.ai.azure.com/models",
credential=AzureKeyCredential(os.environ["AZURE_INFERENCE_CREDENTIAL"]),
)
Explore os nossos exemplos e leia a documentação de referência da API para começar.
from azure.ai.inference.models import SystemMessage, UserMessage
response = client.complete(
messages=[
UserMessage(content="How many languages are in the world?"),
],
model="DeepSeek-R1"
)
print(response.choices[0].message.content)
O raciocínio pode gerar respostas mais longas e consumir um número maior de tokens. Você pode ver os limites de taxa que se aplicam a DeepSeek-R1 modelos. Considere ter uma estratégia de repetição para lidar com as limitações de velocidade que estão a ser aplicadas. Você também pode solicitar aumentos para os limites padrão.
Conteúdo de raciocínio
Alguns modelos de raciocínio, como o DeepSeek-R1, geram conclusões e incluem o raciocínio por trás disso. O raciocínio associado à conclusão está incluído no conteúdo da resposta dentro das tags <think>
e </think>
. O modelo pode selecionar os cenários para os quais gerar conteúdo de raciocínio. O exemplo a seguir mostra como gerar o conteúdo de raciocínio, usando Python:
import re
match = re.match(r"<think>(.*?)</think>(.*)", response.choices[0].message.content, re.DOTALL)
print("Response:", )
if match:
print("\tThinking:", match.group(1))
print("\tAnswer:", match.group(2))
else:
print("\tAnswer:", response.choices[0].message.content)
print("Model:", response.model)
print("Usage:")
print("\tPrompt tokens:", response.usage.prompt_tokens)
print("\tTotal tokens:", response.usage.total_tokens)
print("\tCompletion tokens:", response.usage.completion_tokens)
Thinking: Okay, the user is asking how many languages exist in the world. I need to provide a clear and accurate answer. Let's start by recalling the general consensus from linguistic sources. I remember that the number often cited is around 7,000, but maybe I should check some reputable organizations.\n\nEthnologue is a well-known resource for language data, and I think they list about 7,000 languages. But wait, do they update their numbers? It might be around 7,100 or so. Also, the exact count can vary because some sources might categorize dialects differently or have more recent data. \n\nAnother thing to consider is language endangerment. Many languages are endangered, with some having only a few speakers left. Organizations like UNESCO track endangered languages, so mentioning that adds context. Also, the distribution isn't even. Some countries have hundreds of languages, like Papua New Guinea with over 800, while others have just a few. \n\nA user might also wonder why the exact number is hard to pin down. It's because the distinction between a language and a dialect can be political or cultural. For example, Mandarin and Cantonese are considered dialects of Chinese by some, but they're mutually unintelligible, so others classify them as separate languages. Also, some regions are under-researched, making it hard to document all languages. \n\nI should also touch on language families. The 7,000 languages are grouped into families like Indo-European, Sino-Tibetan, Niger-Congo, etc. Maybe mention a few of the largest families. But wait, the question is just about the count, not the families. Still, it's good to provide a bit more context. \n\nI need to make sure the information is up-to-date. Let me think – recent estimates still hover around 7,000. However, languages are dying out rapidly, so the number decreases over time. Including that note about endangerment and language extinction rates could be helpful. For instance, it's often stated that a language dies every few weeks. \n\nAnother point is sign languages. Does the count include them? Ethnologue includes some, but not all sources might. If the user is including sign languages, that adds more to the count, but I think the 7,000 figure typically refers to spoken languages. For thoroughness, maybe mention that there are also over 300 sign languages. \n\nSummarizing, the answer should state around 7,000, mention Ethnologue's figure, explain why the exact number varies, touch on endangerment, and possibly note sign languages as a separate category. Also, a brief mention of Papua New Guinea as the most linguistically diverse country. \n\nWait, let me verify Ethnologue's current number. As of their latest edition (25th, 2022), they list 7,168 living languages. But I should check if that's the case. Some sources might round to 7,000. Also, SIL International publishes Ethnologue, so citing them as reference makes sense. \n\nOther sources, like Glottolog, might have a different count because they use different criteria. Glottolog might list around 7,000 as well, but exact numbers vary. It's important to highlight that the count isn't exact because of differing definitions and ongoing research. \n\nIn conclusion, the approximate number is 7,000, with Ethnologue being a key source, considerations of endangerment, and the challenges in counting due to dialect vs. language distinctions. I should make sure the answer is clear, acknowledges the variability, and provides key points succinctly.
Answer: The exact number of languages in the world is challenging to determine due to differences in definitions (e.g., distinguishing languages from dialects) and ongoing documentation efforts. However, widely cited estimates suggest there are approximately **7,000 languages** globally.
Model: DeepSeek-R1
Usage:
Prompt tokens: 11
Total tokens: 897
Completion tokens: 886
Parâmetros
Em geral, os modelos de raciocínio não suportam os seguintes parâmetros que você pode encontrar nos modelos de conclusão de chat:
- Temperatura
- Penalidade de presença
- Pena de repetição
- Parâmetro
top_p