Share via


extractPixels: Machine Learning-Transformation zum Extrahieren von Pixeldaten

Extrahiert die Pixelwerte aus einem Bild.

Verwendung

  extractPixels(vars, useAlpha = FALSE, useRed = TRUE, useGreen = TRUE,
    useBlue = TRUE, interleaveARGB = FALSE, convert = TRUE, offset = NULL,
    scale = NULL)

Argumente

vars

Eine benannte Liste von Zeichenvektoren von Eingabevariablennamen und der Name der Ausgabevariablen. Beachten Sie, dass die Eingabevariablen identischen Typs sein müssen. Für 1:1-Zuordnungen zwischen Eingabe- und Ausgabevariablen kann ein benannter Zeichenvektor verwendet werden.

useAlpha

Gibt an, ob der Alphakanal verwendet werden soll. Der Standardwert ist FALSE.

useRed

Gibt an, ob der rote Kanal verwendet werden soll. Der Standardwert ist TRUE.

useGreen

Gibt an, ob der grüne Kanal verwendet werden soll. Der Standardwert ist TRUE.

useBlue

Gibt an, ob der blaue Kanal verwendet werden soll. Der Standardwert ist TRUE.

interleaveARGB

Gibt an, ob jeder Kanal getrennt oder in ARGB-Reihenfolge zusammengesetzt werden soll. Dies könnte z. B. wichtig sein, wenn Sie ein Convolutional Neural Network (faltendes neuronales Netzwerk) trainieren, da sich dies auf die Form des Kernels, Schritts usw. auswirken würde.

convert

Gibt an, ob eine Konvertierung in eine Gleitkommazahl erfolgen soll. Der Standardwert ist FALSE.

offset

Gibt den Versatz (vor dem Skalieren) an. Dies erfordert convert = TRUE. Standardwert: NULL.

scale

Gibt den Skalierungsfaktor an. Dies erfordert convert = TRUE. Standardwert: NULL.

Details

extractPixels extrahiert die Pixelwerte aus einem Bild. Die Eingabevariablen sind Bilder der gleichen Größe, in der Regel die Ausgabe einer resizeImage-Transformation. Bei der Ausgabe handelt es sich um Pixeldaten in Vektorform, die in der Regel als Features für ein Lernmodul verwendet werden.

Wert

Ein maml-Objekt, das die Transformation definiert.

Autor(en)

Microsoft Corporation Microsoft Technical Support

Beispiele


 train <- data.frame(Path = c(system.file("help/figures/RevolutionAnalyticslogo.png", package = "MicrosoftML")), Label = c(TRUE), stringsAsFactors = FALSE)

 # Loads the images from variable Path, resizes the images to 1x1 pixels and trains a neural net.
 model <- rxNeuralNet(
     Label ~ Features,
     data = train,
     mlTransforms = list(
         loadImage(vars = list(Features = "Path")),
         resizeImage(vars = "Features", width = 1, height = 1, resizing = "Aniso"),
         extractPixels(vars = "Features")
         ),
     mlTransformVars = "Path",
     numHiddenNodes = 1,
     numIterations = 1)

 # Featurizes the images from variable Path using the default model, and trains a linear model on the result.
 model <- rxFastLinear(
     Label ~ Features,
     data = train,
     mlTransforms = list(
         loadImage(vars = list(Features = "Path")),
         resizeImage(vars = "Features", width = 224, height = 224), # If dnnModel == "AlexNet", the image has to be resized to 227x227.
         extractPixels(vars = "Features"),
         featurizeImage(var = "Features")
         ),
     mlTransformVars = "Path")