Share via


Guida introduttiva: Creare un rilevatore di oggetti con il sito Web di Visione personalizzata

Questo argomento di avvio rapido descrive come usare il sito Web di Visione personalizzata per creare un modello di rilevamento oggetti. Dopo aver creato un modello, è possibile testarlo con nuove immagini e integrarlo nella propria app di riconoscimento delle immagini.

Se non si ha una sottoscrizione di Azure, creare un account gratuito prima di iniziare.

Prerequisiti

  • Un set di immagini con cui eseguire il training del modello di rilevatore. È possibile usare il set di immagini di esempio in GitHub. In alternativa, è possibile scegliere immagini personalizzate usando i suggerimenti seguenti.
  • Un Web browser supportato

Creare risorse di Visione personalizzata

Per usare il servizio Visione personalizzata, è necessario creare le risorse Training visione personalizzata e Previsioni visione personalizzata in Azure. A questo scopo, nel portale di Azure completare la finestra di dialogo nella pagina Create Custom Vision (Crea visione personalizzata) per creare una risorsa di training e di previsione.

Crea un nuovo progetto

Nel Web browser passare alla pagina web Visione personalizzata e selezionare Accedi. Accedere con lo stesso account usato per accedere al portale di Azure.

Image of the sign-in page

  1. Per creare il primo progetto, selezionare New Project (Nuovo progetto). Verrà visualizzata la finestra di dialogo Crea nuovo progetto .

    The new project dialog box has fields for name, description, and domains.

  2. Immettere un nome e una descrizione per il progetto. Selezionare quindi la risorsa di training Visione personalizzata. Se l'account connesso è associato a un account Azure, nell'elenco a discesa Risorsa vengono visualizzate tutte le risorse di Azure compatibili.

    Nota

    Se non è disponibile alcuna risorsa, verificare di aver eseguito l'accesso a customvision.ai con lo stesso account usato per accedere al portale di Azure. Verificare inoltre di aver selezionato nel sito Web di Visione personalizzata la stessa "Directory" corrispondente alla directory del portale di Azure in cui si trovano le risorse di Visione personalizzata. In entrambi i siti è possibile selezionare la directory nel menu a discesa dell'account nell'angolo superiore destro dello schermo.

  3. Sotto

  4. In Tipi di progetto selezionare Rilevamento oggetti.

  5. Selezionare quindi uno dei domini disponibili. Ogni dominio ottimizza il rilevatore per tipi specifici di immagini, come descritto nella tabella seguente. Se si vuole, è possibile modificare il dominio in un secondo momento.

    Domain Scopo
    Generali Ottimizzato per un'ampia gamma di attività di rilevamento oggetti. Se nessuno degli altri domini è appropriato o se non si è certi del dominio da scegliere, selezionare il dominio Generale .
    Logo Ottimizzato per il rilevamento di logo dei marchi nelle immagini.
    Prodotti sugli scaffali Ottimizzato per il rilevamento e la classificazione dei prodotti sugli scaffali.
    Domini compatti Ottimizzati per i vincoli di rilevamento in tempo reale su dispositivi mobili. I modelli generati da domini compatti possono essere esportati per l'esecuzione in locale.
  6. Selezionare infine Crea progetto.

Scegliere le immagini di training

Come minimo, è consigliabile usare almeno 30 immagini per ogni tag nel set di training iniziale. È anche opportuno raccogliere alcune immagini aggiuntive per testare il modello dopo il training.

Per eseguire il training del modello in modo efficace, usare le immagini con diversi oggetti visivi. Selezionare immagini diverse per:

  • angolazione
  • illuminazione
  • background
  • stile visivo
  • soggetti singoli/raggruppati
  • size
  • type

Assicurarsi anche che tutte le immagini di training soddisfino i criteri seguenti:

  • formato JPG, PNG, BMP o GIF
  • dimensioni massime pari a 6 MB (4 MB per le immagini per la previsione)
  • almeno 256 pixel sul bordo più corto. Le immagini più piccole verranno automaticamente ingrandite dal Servizio visione artificiale personalizzato

Caricare e contrassegnare le immagini

In questa sezione vengono caricate e contrassegnate manualmente le immagini per eseguire il training del rilevatore.

  1. Per aggiungere immagini, selezionare Aggiungi immagini e quindi selezionare Sfoglia file locali. Selezionare Apri per caricare le immagini.

    The add images control is shown in the upper left, and as a button at bottom center.

  2. Le immagini caricate verranno visualizzate nella sezione Senza tag dell'interfaccia utente. Il passaggio successivo prevede l'aggiunta manuale dei tag agli oggetti che il rilevatore dovrà riconoscere. Selezionare la prima immagine per aprire la finestra di dialogo di assegnazione di tag.

    Images uploaded, in Untagged section

  3. Selezionare e trascinare un rettangolo attorno all'oggetto nell'immagine. Immettere quindi un nuovo nome di tag con il pulsante + oppure selezionare un tag esistente dall'elenco a discesa. È importante contrassegnare ogni istanza degli oggetti da rilevare, perché il rilevatore usa l'area di sfondo senza tag come esempio negativo nel training. Al termine dell'assegnazione di tag, selezionare la freccia a destra per salvare i tag e passare all'immagine successiva.

    Tagging an object with a rectangular selection

Per caricare un altro set di immagini, tornare all'inizio di questa sezione e ripetere i passaggi.

Eseguire il training del rilevatore

Per eseguire il training del modello di rilevatore, selezionare il pulsante Esegui il training. Il rilevatore usa tutte le immagini correnti e i relativi tag per creare un modello in grado di identificare ogni oggetto con tag. Questo processo può richiedere alcuni minuti.

The train button in the top right of the web page's header toolbar

Il processo di training dovrebbe richiedere solo alcuni minuti. Durante questo periodo, vengono visualizzate informazioni sul processo di training nella scheda Prestazioni.

The browser window with a training dialog in the main section

Valutare il rilevatore

Al termine del training, le prestazioni del modello vengono calcolate e visualizzate. Il servizio Visione personalizzata usa le immagini inviate per il training per calcolare precisione e recupero e precisione media. Precisione e recupero sono due misure diverse dell'efficacia di un rilevatore:

  • La precisione indica la frazione delle classificazioni identificate corrette. Se ad esempio il modello identificasse 100 immagini come cani e 99 di essi fossero effettivamente cani, la precisione sarebbe del 99%.
  • Il recupero indica la frazione delle classificazioni effettive identificate correttamente. Se ad esempio fossero effettivamente presenti 100 immagini di mele e il modello ne identificasse 80 come mele, il recupero sarebbe dell'80%.
  • Mean Average Precision corrisponde al valore medio della precisione media. L'API è l'area sotto la curva di precisione/richiamo (precisione tracciata rispetto al richiamo per ogni stima eseguita).

The training results show the overall precision and recall, and mean average precision.

Soglia di probabilità

Si noti il dispositivo di scorrimento Probabilità soglia nel riquadro sinistro della scheda Prestazioni . Questo è il livello di attendibilità che una stima deve avere per essere considerata corretta (ai fini del calcolo della precisione e del richiamo).

Quando si interpretano le chiamate di stima con una soglia di probabilità elevata, tendono a restituire risultati con precisione elevata a scapito del richiamo, ovvero le classificazioni rilevate sono corrette, ma molte rimangono non rilevate. Una soglia di probabilità bassa fa l'opposto: la maggior parte delle classificazioni effettive viene rilevata, ma sono presenti più falsi positivi all'interno di tale set. Tenendo presente questo aspetto, è consigliabile impostare la soglia di probabilità in base alle esigenze specifiche del progetto. In seguito, quando si ricevono i risultati della stima sul lato client, è consigliabile usare lo stesso valore di soglia di probabilità usato qui.

Soglia di sovrapposizione

Il dispositivo di scorrimento della soglia di sovrapposizione gestisce il livello di accuratezza che la previsione di un oggetto deve raggiungere per essere considerata "corretta" nel training. Imposta la sovrapposizione minima consentita tra il rettangolo di selezione dell'oggetto stimato e il rettangolo di selezione effettivo immesso dall'utente. Se i rettangoli delimitatori non si sovrappongono a questo livello, la previsione non verrà considerata corretta.

Gestire le iterazioni di training

Ogni volta che si esegue il training del rilevatore, si crea una nuova iterazione con le relative metriche delle prestazioni aggiornate. È possibile visualizzare tutte le iterazioni nel riquadro sinistro della scheda Prestazioni . Nel riquadro sinistro troverai anche il pulsante Elimina , che puoi usare per eliminare un'iterazione se è obsoleta. Quando si elimina un'iterazione, vengono eliminate anche tutte le immagini associate in modo univoco a tale iterazione.

Per informazioni su come accedere ai modelli sottoposti a training a livello di codice, vedere Usare il modello con l'API Previsioni.

Passaggi successivi

In questa esercitazione dell'avvio rapido si è appreso a creare ed eseguire il training di un modello di rilevamento oggetti tramite il sito Web di Visione personalizzata. È ora possibile ottenere altre informazioni sul processo iterativo per migliorare il modello.