Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Na etapa anterior deste tutorial, discutimos os pré-requisitos para criar seu próprio modelo e aplicativo do Windows Machine Learning e baixamos um conjunto de imagens para usar. Nesta etapa, aprenderemos a usar a interface de Visão Personalizada baseada na Web para transformar nosso conjunto de imagens em um modelo de classificação de imagens.
A Visão Personalizada do Azure é um serviço de reconhecimento de imagem que lhe permite criar, implementar e melhorar os seus próprios identificadores de imagem. O Serviço de Visão Personalizada está disponível como um conjunto de SDKs nativos, bem como através de uma interface baseada na Web no site da Visão Personalizada.
Criar recursos do Custom Vision e projeto
Criar recurso de Visão Personalizada
Para usar o Serviço de Visão Personalizada, você precisará criar recursos de Visão Personalizada no Azure.
- Navegue até a página principal da sua conta do Azure e selecione
Create a resource
.
- Na caixa de pesquisa, procure por
Custom Vision
, e entrará na Marketplace do Azure. SelecioneCreate Custom Vision
para abrir a janela de diálogo na página Criar Visão Personalizada.
- Na página de diálogo Visão Personalizada, escolha o seguinte:
- Selecione ambos os recursos
Training
ePrediction
. - Selecione a assinatura para gerenciar os recursos implantados. Se não vir a sua Subscrição do Azure no menu, termine sessão e reabra a sua conta do Azure utilizando as mesmas credenciais com que abriu a sua conta.
- Crie um novo grupo de recursos e atribua-lhe um nome. Neste tutorial, chamámos o nosso
MLTraining
, mas sinta-se à vontade para escolher o seu próprio nome ou usar o grupo de recursos existentes, se tiver um. - Dê um nome ao seu projeto. Neste tutorial, chamámos o nosso
classificationApp
, mas pode usar qualquer nome da sua escolha. - Para os recursos
Training
ePrediction
, defina o local como (EUA) Leste dos EUA e ao nível de preço como Gratuito FO.
- Pressione
Review + create
para implantar seus recursos de Visão Personalizada. Pode levar alguns minutos para implantar seus recursos.
Criar um novo projeto dentro da Visão Personalizada
Agora que você criou seu recurso, é hora de criar seu projeto de treinamento dentro da Visão Personalizada.
No navegador da Web, navegue até a página Visão personalizada e selecione
Sign in
. Entre com a mesma conta que você usou para entrar no Portal do Azure.Selecione
New Project
para abrir uma nova caixa de diálogo do projeto.
- Crie um novo projeto da seguinte forma:
-
Name
: Classificação Alimentar. -
Description
: Classificação de diferentes tipos de alimentos. -
Resource
: mantenha o mesmo recurso que você abriu anteriormente –ClassificationApp [F0]
. -
Project Types
:classification
-
Classification Types
:Multilabel (Multiple tags per image)
-
Domains
:Food (compact)
. -
Export Capabilities
:Basic platforms (Tensorflow, CoreML, ONNX, ...)
Observação
Para exportar para o formato ONNX, certifique-se de escolher o Food (compact)
domínio. Domínios não compactos não podem ser exportados para ONNX.
Importante
Se sua conta conectada estiver associada a uma conta do Azure, a lista suspensa Grupo de Recursos exibirá todos os seus Grupos de Recursos do Azure que incluem um Recurso de Serviço de Visão Personalizada. Se nenhum grupo de recursos estiver disponível, confirme que iniciou sessão no customvision.ai com a mesma conta que utilizou para iniciar sessão no Portal do Azure.
- Depois de preencher a caixa de diálogo, selecione
Create project
.
Carregue o conjunto de dados de treinamento
Agora que você criou seu projeto, você carregará um conjunto de dados previamente preparado de imagens de alimentos do Kaggle Open Datasets.
Selecione o seu
FoodClassification
projeto para abrir a interface online do site da Visão Personalizada.Selecione o
Add images
botão e escolhaBrowse local files
.
Navegue até o local do conjunto de dados de imagem e selecione a pasta de treinamento –
vegetable-fruit
. Selecione todas as imagens na pasta e selecioneopen
. A opção de marcação abrir-se-á.Entre
vegetable-fruit
noMy Tags
campo e pressioneUpload
.
Aguarde até que o primeiro grupo de imagens seja carregado para o seu projeto e, em seguida, prima done
. A seleção de tags será aplicada a todo o grupo de imagens que você selecionou para carregar. É por isso que é mais fácil carregar imagens de grupos de imagens já pré-construídos. Pode sempre alterar as etiquetas de imagens individuais depois de terem sido carregadas.
- Após o primeiro grupo de imagens ter sido carregado com sucesso, repita o processo mais duas vezes para carregar as imagens da sobremesa e da sopa. Certifique-se de rotulá-los com as etiquetas relevantes.
No final, você terá três grupos diferentes de imagens prontas para treinamento.
Treinar o classificador de modelos
Agora você treinará o modelo para classificar os vegetais, sopas e sobremesas a partir do conjunto de imagens que você baixou na parte anterior.
- Para iniciar o processo de treinamento, selecione o
Train
botão no canto superior direito. O classificador usará as imagens para criar um modelo que identifique as qualidades visuais de cada tag.
Há uma opção para alterar o limite de probabilidade usando o controle deslizante no canto superior esquerdo. O limiar de probabilidade define o nível de confiança que uma previsão precisa ter para ser considerada correta. Se o limite de probabilidade for demasiado alto, obterá uma classificação mais precisa, mas menos será(ão) detetado(s). Por outro lado, se o limiar de probabilidade for muito baixo, você detetará muito mais classificações, mas com uma confiança menor ou mais resultados falsos positivos.
Neste tutorial, você pode manter o limite de probabilidade em 50%.
- Aqui, usaremos o
Quick Training
processo.Advanced Training
tem mais configurações e permite que você defina especificamente o tempo usado para treinamento, mas não precisamos desse nível de controle aqui. PressioneTrain
para iniciar o processo de treinamento.
Um processo de treinamento rápido levará apenas alguns minutos para ser concluído. Durante esse período, as informações sobre o processo de treinamento são exibidas na guia Performance
.
Avaliar e testar
Avaliar os resultados
Quando o treinamento for concluído, você verá o resumo da primeira iteração de treinamento. Inclui a estimativa do desempenho do modelo – Precisão e Recall.
- A precisão indica a fração de classificações identificadas que estavam corretas. No nosso modelo, a precisão é de 98,2%, por isso, se o nosso modelo classificar uma imagem, é muito provável que seja prevista corretamente.
- Recall indica a proporção de classificações reais que foram corretamente identificadas. No nosso modelo, o recall é de 97,5%, por isso o nosso modelo classifica corretamente a grande maioria das imagens que lhe são apresentadas.
- AP significa Desempenho Adicional. Isso fornece uma métrica adicional, que resume a precisão e a recuperação em diferentes limites.
Testar o modelo
Antes de exportar o modelo, você pode testar seu desempenho.
- Selecione
Quick Test
no canto superior direito da barra de menu superior para abrir uma nova janela de teste.
Nesta janela, você pode fornecer uma URL da imagem para testar ou selecionar Browse local files
usar uma imagem armazenada localmente.
- Escolha
Browse local files
, navegue até o conjunto de dados de alimentos e abra uma pasta de validação. Escolha qualquer imagem aleatória dafruit-vegetable
pasta e pressioneopen
.
O resultado do teste aparecerá na tela. Em nosso teste, o modo classificou com sucesso a imagem com 99,8% de certeza.
Você pode usar a previsão para treinamento na guia Predictions
, o que pode melhorar o desempenho do modelo. Para obter mais informações, consulte Como melhorar o classificador.
Observação
Interessado em saber mais sobre as APIs do Azure Custom Vision? A documentação do Custom Vision Service tem mais informações sobre o portal da Web e o SDK do Custom Vision.
Exportar o modelo para ONNX
Agora que treinamos nosso modelo, podemos exportá-lo para o ONNX.
- Selecione a
Performance
guia e, em seguida, escolhaExport
para abrir uma janela de exportação.
- Selecione
ONNX
para exportar seu modelo para o formato ONNX.
- Você pode escolher a
ONNX 16
opção float, se necessário, mas neste tutorial não precisamos alterar nenhuma configuração. SelecioneExport and Download
.
- Abra o ficheiro .zip baixado e extraia dele o ficheiro
model.onnx
. Este ficheiro contém o modelo do classificador.
Parabéns! Você criou e exportou com êxito o modelo de classificação.
Próximas Etapas
Agora que temos um modelo de classificação, o próximo passo é criar um aplicativo do Windows e executá-lo localmente em seu dispositivo Windows.