Share via


extractPixels: trasformazione estrazione di dati pixel di Machine Learning

Estrae i valori pixel da un'immagine.

Utilizzo

  extractPixels(vars, useAlpha = FALSE, useRed = TRUE, useGreen = TRUE,
    useBlue = TRUE, interleaveARGB = FALSE, convert = TRUE, offset = NULL,
    scale = NULL)

Arguments

vars

Elenco denominato di vettori di caratteri di nomi di variabili di input e nome della variabile di output. Si noti che le variabili di input devono essere dello stesso tipo. Per i mapping uno-a-uno tra le variabili di input e di output, è possibile usare un vettore di caratteri denominato.

useAlpha

Specifica se usare il canale alfa. Il valore predefinito è FALSE.

useRed

Specifica se usare il canale rosso. Il valore predefinito è TRUE.

useGreen

Specifica se usare il canale verde. Il valore predefinito è TRUE.

useBlue

Specifica se usare il canale blu. Il valore predefinito è TRUE.

interleaveARGB

Indica se separare ogni canale o eseguire l'interleave nell'ordine ARGB. Questo potrebbe essere importante, ad esempio, se si esegue il training di una rete neurale convoluzionale, poiché ciò influisce sulla forma del kernel, stride e così via.

convert

Indica se convertire in virgola mobile. Il valore predefinito è FALSE.

offset

Specifica l'offset (pre-scalabilità). Richiede convert = TRUE. Il valore predefinito è NULL.

scale

Specifica il fattore di scala. Richiede convert = TRUE. Il valore predefinito è NULL.

Dettagli

extractPixels estrae i valori pixel da un'immagine. Le variabili di input sono immagini delle stesse dimensioni, in genere l'output di una trasformazione resizeImage. L'output è costituito da dati pixel in forma vettoriale che vengono in genere usati come funzionalità per uno strumento di apprendimento.

Valore

Oggetto maml che definisce la trasformazione.

Autore/i

Microsoft Corporation Microsoft Technical Support

Esempi


 train <- data.frame(Path = c(system.file("help/figures/RevolutionAnalyticslogo.png", package = "MicrosoftML")), Label = c(TRUE), stringsAsFactors = FALSE)

 # Loads the images from variable Path, resizes the images to 1x1 pixels and trains a neural net.
 model <- rxNeuralNet(
     Label ~ Features,
     data = train,
     mlTransforms = list(
         loadImage(vars = list(Features = "Path")),
         resizeImage(vars = "Features", width = 1, height = 1, resizing = "Aniso"),
         extractPixels(vars = "Features")
         ),
     mlTransformVars = "Path",
     numHiddenNodes = 1,
     numIterations = 1)

 # Featurizes the images from variable Path using the default model, and trains a linear model on the result.
 model <- rxFastLinear(
     Label ~ Features,
     data = train,
     mlTransforms = list(
         loadImage(vars = list(Features = "Path")),
         resizeImage(vars = "Features", width = 224, height = 224), # If dnnModel == "AlexNet", the image has to be resized to 227x227.
         extractPixels(vars = "Features"),
         featurizeImage(var = "Features")
         ),
     mlTransformVars = "Path")