OnnxCatalog.ApplyOnnxModel Methode
Definition
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Überlädt
ApplyOnnxModel(TransformsCatalog, OnnxOptions) |
Erstellen Sie eine OnnxScoringEstimator Verwendung der angegebenen OnnxOptions. Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter . |
ApplyOnnxModel(TransformsCatalog, String, Nullable<Int32>, Boolean) |
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die Eingabespalte anwendet. Eingabe-/Ausgabespalten werden basierend auf den Eingabe-/Ausgabespalten des bereitgestellten ONNX-Modells bestimmt. Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter . |
ApplyOnnxModel(TransformsCatalog, String, IDictionary<String,Int32[]>, Nullable<Int32>, Boolean) |
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die Eingabespalte anwendet. Eingabe-/Ausgabespalten werden basierend auf den Eingabe-/Ausgabespalten des bereitgestellten ONNX-Modells bestimmt. Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter . |
ApplyOnnxModel(TransformsCatalog, String, String, String, Nullable<Int32>, Boolean) |
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die |
ApplyOnnxModel(TransformsCatalog, String[], String[], String, Nullable<Int32>, Boolean) |
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die |
ApplyOnnxModel(TransformsCatalog, String, String, String, IDictionary<String,Int32[]>, Nullable<Int32>, Boolean) |
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die |
ApplyOnnxModel(TransformsCatalog, String[], String[], String, IDictionary<String,Int32[]>, Nullable<Int32>, Boolean) |
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die |
ApplyOnnxModel(TransformsCatalog, String[], String[], String, IDictionary<String,Int32[]>, Nullable<Int32>, Boolean, Int32) |
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die |
ApplyOnnxModel(TransformsCatalog, OnnxOptions)
Erstellen Sie eine OnnxScoringEstimator Verwendung der angegebenen OnnxOptions. Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter .
public static Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator ApplyOnnxModel (this Microsoft.ML.TransformsCatalog catalog, Microsoft.ML.Transforms.Onnx.OnnxOptions options);
static member ApplyOnnxModel : Microsoft.ML.TransformsCatalog * Microsoft.ML.Transforms.Onnx.OnnxOptions -> Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator
<Extension()>
Public Function ApplyOnnxModel (catalog As TransformsCatalog, options As OnnxOptions) As OnnxScoringEstimator
Parameter
- catalog
- TransformsCatalog
Der Katalog der Transformation.
- options
- OnnxOptions
Optionen für die OnnxScoringEstimator.
Gibt zurück
Hinweise
Wenn die Optionen vorhanden sind. GpuDeviceId-Wert ist null
der MLContext.GpuDeviceId Wert, der verwendet wird, wenn es nicht null
ist.
Gilt für:
ApplyOnnxModel(TransformsCatalog, String, Nullable<Int32>, Boolean)
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die Eingabespalte anwendet. Eingabe-/Ausgabespalten werden basierend auf den Eingabe-/Ausgabespalten des bereitgestellten ONNX-Modells bestimmt. Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter .
public static Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator ApplyOnnxModel (this Microsoft.ML.TransformsCatalog catalog, string modelFile, int? gpuDeviceId = default, bool fallbackToCpu = false);
static member ApplyOnnxModel : Microsoft.ML.TransformsCatalog * string * Nullable<int> * bool -> Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator
<Extension()>
Public Function ApplyOnnxModel (catalog As TransformsCatalog, modelFile As String, Optional gpuDeviceId As Nullable(Of Integer) = Nothing, Optional fallbackToCpu As Boolean = false) As OnnxScoringEstimator
Parameter
- catalog
- TransformsCatalog
Der Katalog der Transformation.
- modelFile
- String
Der Pfad der Datei, die das ONNX-Modell enthält.
Optionale GPU-Geräte-ID zum Ausführen der Ausführung, null
um auf CPU auszuführen.
- fallbackToCpu
- Boolean
Wenn GPU-Fehler auftreten, lösen Sie Ausnahme oder Fallback auf CPU aus.
Gibt zurück
Beispiele
using System;
using System.IO;
using System.Linq;
using Microsoft.ML;
using Microsoft.ML.Data;
namespace Samples.Dynamic
{
public static class ApplyOnnxModel
{
public static void Example()
{
// Download the squeeznet image model from ONNX model zoo, version 1.2
// https://github.com/onnx/models/tree/master/squeezenet or
// https://s3.amazonaws.com/download.onnx/models/opset_8/squeezenet.tar.gz
// or use Microsoft.ML.Onnx.TestModels nuget.
var modelPath = @"squeezenet\00000001\model.onnx";
// Create ML pipeline to score the data using OnnxScoringEstimator
var mlContext = new MLContext();
// Generate sample test data.
var samples = GetTensorData();
// Convert training data to IDataView, the general data type used in
// ML.NET.
var data = mlContext.Data.LoadFromEnumerable(samples);
// Create the pipeline to score using provided onnx model.
var pipeline = mlContext.Transforms.ApplyOnnxModel(modelPath);
// Fit the pipeline and get the transformed values
var transformedValues = pipeline.Fit(data).Transform(data);
// Retrieve model scores into Prediction class
var predictions = mlContext.Data.CreateEnumerable<Prediction>(
transformedValues, reuseRowObject: false);
// Iterate rows
foreach (var prediction in predictions)
{
int numClasses = 0;
foreach (var classScore in prediction.softmaxout_1.Take(3))
{
Console.WriteLine("Class #" + numClasses++ + " score = " +
classScore);
}
Console.WriteLine(new string('-', 10));
}
// Results look like below...
// Class #0 score = 4.544065E-05
// Class #1 score = 0.003845858
// Class #2 score = 0.0001249467
// ----------
// Class #0 score = 4.491953E-05
// Class #1 score = 0.003848222
// Class #2 score = 0.0001245592
// ----------
}
// inputSize is the overall dimensions of the model input tensor.
private const int inputSize = 224 * 224 * 3;
// A class to hold sample tensor data. Member name should match
// the inputs that the model expects (in this case, data_0)
public class TensorData
{
[VectorType(inputSize)]
public float[] data_0 { get; set; }
}
// Method to generate sample test data. Returns 2 sample rows.
public static TensorData[] GetTensorData()
{
// This can be any numerical data. Assume image pixel values.
var image1 = Enumerable.Range(0, inputSize).Select(x => (float)x /
inputSize).ToArray();
var image2 = Enumerable.Range(0, inputSize).Select(x => (float)(x +
10000) / inputSize).ToArray();
return new TensorData[] { new TensorData() { data_0 = image1 }, new
TensorData() { data_0 = image2 } };
}
// Class to contain the output values from the transformation.
// This model generates a vector of 1000 floats.
class Prediction
{
[VectorType(1000)]
public float[] softmaxout_1 { get; set; }
}
}
}
Hinweise
Der Name/typ der Eingabespalten muss genau mit dem Namen/typ der ONNX-Modelleingaben übereinstimmen. Der Name/Typ der erzeugten Ausgabespalten entspricht dem Namen/Typ der ONNX-Modellausgabe. Wenn der gpuDeviceId-Wert der MLContext.GpuDeviceId Wert istnull
, wird der Wert verwendet, wenn es nicht null
ist.
Gilt für:
ApplyOnnxModel(TransformsCatalog, String, IDictionary<String,Int32[]>, Nullable<Int32>, Boolean)
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die Eingabespalte anwendet. Eingabe-/Ausgabespalten werden basierend auf den Eingabe-/Ausgabespalten des bereitgestellten ONNX-Modells bestimmt. Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter .
public static Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator ApplyOnnxModel (this Microsoft.ML.TransformsCatalog catalog, string modelFile, System.Collections.Generic.IDictionary<string,int[]> shapeDictionary, int? gpuDeviceId = default, bool fallbackToCpu = false);
static member ApplyOnnxModel : Microsoft.ML.TransformsCatalog * string * System.Collections.Generic.IDictionary<string, int[]> * Nullable<int> * bool -> Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator
<Extension()>
Public Function ApplyOnnxModel (catalog As TransformsCatalog, modelFile As String, shapeDictionary As IDictionary(Of String, Integer()), Optional gpuDeviceId As Nullable(Of Integer) = Nothing, Optional fallbackToCpu As Boolean = false) As OnnxScoringEstimator
Parameter
- catalog
- TransformsCatalog
Der Katalog der Transformation.
- modelFile
- String
Der Pfad der Datei, die das ONNX-Modell enthält.
- shapeDictionary
- IDictionary<String,Int32[]>
ONNX-Shapes, die über diese geladen modelFile
werden sollen.
Bei Schlüsseln werden Namen wie im ONNX-Modell angegeben, z. B. "Eingabe". Die Angabe der Shapes mit diesem Parameter ist besonders nützlich für das Arbeiten mit variablen Dimensioneingaben und -ausgaben.
Optionale GPU-Geräte-ID zum Ausführen der Ausführung, null
um auf CPU auszuführen.
- fallbackToCpu
- Boolean
Wenn GPU-Fehler auftreten, lösen Sie Ausnahme oder Fallback auf CPU aus.
Gibt zurück
Beispiele
using System;
using System.IO;
using System.Linq;
using Microsoft.ML;
using Microsoft.ML.Data;
namespace Samples.Dynamic
{
public static class ApplyOnnxModel
{
public static void Example()
{
// Download the squeeznet image model from ONNX model zoo, version 1.2
// https://github.com/onnx/models/tree/master/squeezenet or
// https://s3.amazonaws.com/download.onnx/models/opset_8/squeezenet.tar.gz
// or use Microsoft.ML.Onnx.TestModels nuget.
var modelPath = @"squeezenet\00000001\model.onnx";
// Create ML pipeline to score the data using OnnxScoringEstimator
var mlContext = new MLContext();
// Generate sample test data.
var samples = GetTensorData();
// Convert training data to IDataView, the general data type used in
// ML.NET.
var data = mlContext.Data.LoadFromEnumerable(samples);
// Create the pipeline to score using provided onnx model.
var pipeline = mlContext.Transforms.ApplyOnnxModel(modelPath);
// Fit the pipeline and get the transformed values
var transformedValues = pipeline.Fit(data).Transform(data);
// Retrieve model scores into Prediction class
var predictions = mlContext.Data.CreateEnumerable<Prediction>(
transformedValues, reuseRowObject: false);
// Iterate rows
foreach (var prediction in predictions)
{
int numClasses = 0;
foreach (var classScore in prediction.softmaxout_1.Take(3))
{
Console.WriteLine("Class #" + numClasses++ + " score = " +
classScore);
}
Console.WriteLine(new string('-', 10));
}
// Results look like below...
// Class #0 score = 4.544065E-05
// Class #1 score = 0.003845858
// Class #2 score = 0.0001249467
// ----------
// Class #0 score = 4.491953E-05
// Class #1 score = 0.003848222
// Class #2 score = 0.0001245592
// ----------
}
// inputSize is the overall dimensions of the model input tensor.
private const int inputSize = 224 * 224 * 3;
// A class to hold sample tensor data. Member name should match
// the inputs that the model expects (in this case, data_0)
public class TensorData
{
[VectorType(inputSize)]
public float[] data_0 { get; set; }
}
// Method to generate sample test data. Returns 2 sample rows.
public static TensorData[] GetTensorData()
{
// This can be any numerical data. Assume image pixel values.
var image1 = Enumerable.Range(0, inputSize).Select(x => (float)x /
inputSize).ToArray();
var image2 = Enumerable.Range(0, inputSize).Select(x => (float)(x +
10000) / inputSize).ToArray();
return new TensorData[] { new TensorData() { data_0 = image1 }, new
TensorData() { data_0 = image2 } };
}
// Class to contain the output values from the transformation.
// This model generates a vector of 1000 floats.
class Prediction
{
[VectorType(1000)]
public float[] softmaxout_1 { get; set; }
}
}
}
Hinweise
Der Name/typ der Eingabespalten muss genau mit dem Namen/typ der ONNX-Modelleingaben übereinstimmen. Der Name/Typ der erzeugten Ausgabespalten entspricht dem Namen/Typ der ONNX-Modellausgabe. Wenn der gpuDeviceId-Wert der MLContext.GpuDeviceId Wert istnull
, wird der Wert verwendet, wenn es nicht null
ist.
Gilt für:
ApplyOnnxModel(TransformsCatalog, String, String, String, Nullable<Int32>, Boolean)
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die inputColumnName
Spalte anwendet.
Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter .
public static Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator ApplyOnnxModel (this Microsoft.ML.TransformsCatalog catalog, string outputColumnName, string inputColumnName, string modelFile, int? gpuDeviceId = default, bool fallbackToCpu = false);
static member ApplyOnnxModel : Microsoft.ML.TransformsCatalog * string * string * string * Nullable<int> * bool -> Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator
<Extension()>
Public Function ApplyOnnxModel (catalog As TransformsCatalog, outputColumnName As String, inputColumnName As String, modelFile As String, Optional gpuDeviceId As Nullable(Of Integer) = Nothing, Optional fallbackToCpu As Boolean = false) As OnnxScoringEstimator
Parameter
- catalog
- TransformsCatalog
Der Katalog der Transformation.
- outputColumnName
- String
Die Ausgabespalte, die aus der Transformation resultiert.
- inputColumnName
- String
Die Eingabespalte.
- modelFile
- String
Der Pfad der Datei, die das ONNX-Modell enthält.
Optionale GPU-Geräte-ID zum Ausführen der Ausführung, null
um auf CPU auszuführen.
- fallbackToCpu
- Boolean
Wenn GPU-Fehler auftreten, lösen Sie Ausnahme oder Fallback auf CPU aus.
Gibt zurück
Beispiele
using System;
using System.Linq;
using Microsoft.ML;
using Microsoft.ML.Data;
using Microsoft.ML.Transforms.Image;
namespace Samples.Dynamic
{
public static class ApplyOnnxModelWithInMemoryImages
{
// Example of applying ONNX transform on in-memory images.
public static void Example()
{
// Download the squeeznet image model from ONNX model zoo, version 1.2
// https://github.com/onnx/models/tree/master/vision/classification/squeezenet or use
// Microsoft.ML.Onnx.TestModels nuget.
// It's a multiclass classifier. It consumes an input "data_0" and
// produces an output "softmaxout_1".
var modelPath = @"squeezenet\00000001\model.onnx";
// Create ML pipeline to score the data using OnnxScoringEstimator
var mlContext = new MLContext();
// Create in-memory data points. Its Image/Scores field is the
// input /output of the used ONNX model.
var dataPoints = new ImageDataPoint[]
{
new ImageDataPoint(red: 255, green: 0, blue: 0), // Red color
new ImageDataPoint(red: 0, green: 128, blue: 0) // Green color
};
// Convert training data to IDataView, the general data type used in
// ML.NET.
var dataView = mlContext.Data.LoadFromEnumerable(dataPoints);
// Create a ML.NET pipeline which contains two steps. First,
// ExtractPixle is used to convert the 224x224 image to a 3x224x224
// float tensor. Then the float tensor is fed into a ONNX model with an
// input called "data_0" and an output called "softmaxout_1". Note that
// "data_0" and "softmaxout_1" are model input and output names stored
// in the used ONNX model file. Users may need to inspect their own
// models to get the right input and output column names.
// Map column "Image" to column "data_0"
// Map column "data_0" to column "softmaxout_1"
var pipeline = mlContext.Transforms.ExtractPixels("data_0", "Image")
.Append(mlContext.Transforms.ApplyOnnxModel("softmaxout_1",
"data_0", modelPath));
var model = pipeline.Fit(dataView);
var onnx = model.Transform(dataView);
// Convert IDataView back to IEnumerable<ImageDataPoint> so that user
// can inspect the output, column "softmaxout_1", of the ONNX transform.
// Note that Column "softmaxout_1" would be stored in ImageDataPont
//.Scores because the added attributed [ColumnName("softmaxout_1")]
// tells that ImageDataPont.Scores is equivalent to column
// "softmaxout_1".
var transformedDataPoints = mlContext.Data.CreateEnumerable<
ImageDataPoint>(onnx, false).ToList();
// The scores are probabilities of all possible classes, so they should
// all be positive.
foreach (var dataPoint in transformedDataPoints)
{
var firstClassProb = dataPoint.Scores.First();
var lastClassProb = dataPoint.Scores.Last();
Console.WriteLine("The probability of being the first class is " +
(firstClassProb * 100) + "%.");
Console.WriteLine($"The probability of being the last class is " +
(lastClassProb * 100) + "%.");
}
// Expected output:
// The probability of being the first class is 0.002542659%.
// The probability of being the last class is 0.0292684%.
// The probability of being the first class is 0.02258059%.
// The probability of being the last class is 0.394428%.
}
// This class is used in Example() to describe data points which will be
// consumed by ML.NET pipeline.
private class ImageDataPoint
{
// Height of Image.
private const int height = 224;
// Width of Image.
private const int width = 224;
// Image will be consumed by ONNX image multiclass classification model.
[ImageType(height, width)]
public MLImage Image { get; set; }
// Expected output of ONNX model. It contains probabilities of all
// classes. Note that the ColumnName below should match the output name
// in the used ONNX model file.
[ColumnName("softmaxout_1")]
public float[] Scores { get; set; }
public ImageDataPoint()
{
Image = null;
}
public ImageDataPoint(byte red, byte green, byte blue)
{
byte[] imageData = new byte[width * height * 4]; // 4 for the red, green, blue and alpha colors
for (int i = 0; i < imageData.Length; i += 4)
{
// Fill the buffer with the Bgra32 format
imageData[i] = blue;
imageData[i + 1] = green;
imageData[i + 2] = red;
imageData[i + 3] = 255;
}
Image = MLImage.CreateFromPixels(width, height, MLPixelFormat.Bgra32, imageData);
}
}
}
}
Hinweise
Wenn der gpuDeviceId-Wert der MLContext.GpuDeviceId Wert istnull
, wird der Wert verwendet, wenn es nicht null
ist.
Gilt für:
ApplyOnnxModel(TransformsCatalog, String[], String[], String, Nullable<Int32>, Boolean)
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die inputColumnNames
Spalten anwendet.
Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter .
public static Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator ApplyOnnxModel (this Microsoft.ML.TransformsCatalog catalog, string[] outputColumnNames, string[] inputColumnNames, string modelFile, int? gpuDeviceId = default, bool fallbackToCpu = false);
static member ApplyOnnxModel : Microsoft.ML.TransformsCatalog * string[] * string[] * string * Nullable<int> * bool -> Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator
<Extension()>
Public Function ApplyOnnxModel (catalog As TransformsCatalog, outputColumnNames As String(), inputColumnNames As String(), modelFile As String, Optional gpuDeviceId As Nullable(Of Integer) = Nothing, Optional fallbackToCpu As Boolean = false) As OnnxScoringEstimator
Parameter
- catalog
- TransformsCatalog
Der Katalog der Transformation.
- outputColumnNames
- String[]
Die Ausgabespalten, die aus der Transformation resultieren.
- inputColumnNames
- String[]
Die Eingabespalten.
- modelFile
- String
Der Pfad der Datei, die das ONNX-Modell enthält.
Optionale GPU-Geräte-ID zum Ausführen der Ausführung, null
um auf CPU auszuführen.
- fallbackToCpu
- Boolean
Wenn GPU-Fehler auftreten, lösen Sie Ausnahme oder Fallback auf CPU aus.
Gibt zurück
Hinweise
Wenn der gpuDeviceId-Wert der MLContext.GpuDeviceId Wert istnull
, wird der Wert verwendet, wenn es nicht null
ist.
Gilt für:
ApplyOnnxModel(TransformsCatalog, String, String, String, IDictionary<String,Int32[]>, Nullable<Int32>, Boolean)
Erstellen Sie einen OnnxScoringEstimator, der ein vorab trainiertes Onnx-Modell auf die inputColumnName
Spalte anwendet.
Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter .
public static Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator ApplyOnnxModel (this Microsoft.ML.TransformsCatalog catalog, string outputColumnName, string inputColumnName, string modelFile, System.Collections.Generic.IDictionary<string,int[]> shapeDictionary, int? gpuDeviceId = default, bool fallbackToCpu = false);
static member ApplyOnnxModel : Microsoft.ML.TransformsCatalog * string * string * string * System.Collections.Generic.IDictionary<string, int[]> * Nullable<int> * bool -> Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator
<Extension()>
Public Function ApplyOnnxModel (catalog As TransformsCatalog, outputColumnName As String, inputColumnName As String, modelFile As String, shapeDictionary As IDictionary(Of String, Integer()), Optional gpuDeviceId As Nullable(Of Integer) = Nothing, Optional fallbackToCpu As Boolean = false) As OnnxScoringEstimator
Parameter
- catalog
- TransformsCatalog
Der Katalog der Transformation.
- outputColumnName
- String
Die Ausgabespalte, die aus der Transformation resultiert.
- inputColumnName
- String
Die Eingabespalte.
- modelFile
- String
Der Pfad der Datei, die das ONNX-Modell enthält.
- shapeDictionary
- IDictionary<String,Int32[]>
ONNX-Shapes, die über diese geladen modelFile
werden sollen.
Bei Schlüsseln werden Namen wie im ONNX-Modell angegeben, z. B. "Eingabe". Die Angabe der Shapes mit diesem Parameter ist besonders nützlich für das Arbeiten mit variablen Dimensioneingaben und -ausgaben.
Optionale GPU-Geräte-ID zum Ausführen der Ausführung, null
um auf CPU auszuführen.
- fallbackToCpu
- Boolean
Wenn GPU-Fehler auftreten, lösen Sie Ausnahme oder Fallback auf CPU aus.
Gibt zurück
Beispiele
using System;
using System.Linq;
using Microsoft.ML;
using Microsoft.ML.Data;
using Microsoft.ML.Transforms.Image;
namespace Samples.Dynamic
{
public static class ApplyOnnxModelWithInMemoryImages
{
// Example of applying ONNX transform on in-memory images.
public static void Example()
{
// Download the squeeznet image model from ONNX model zoo, version 1.2
// https://github.com/onnx/models/tree/master/vision/classification/squeezenet or use
// Microsoft.ML.Onnx.TestModels nuget.
// It's a multiclass classifier. It consumes an input "data_0" and
// produces an output "softmaxout_1".
var modelPath = @"squeezenet\00000001\model.onnx";
// Create ML pipeline to score the data using OnnxScoringEstimator
var mlContext = new MLContext();
// Create in-memory data points. Its Image/Scores field is the
// input /output of the used ONNX model.
var dataPoints = new ImageDataPoint[]
{
new ImageDataPoint(red: 255, green: 0, blue: 0), // Red color
new ImageDataPoint(red: 0, green: 128, blue: 0) // Green color
};
// Convert training data to IDataView, the general data type used in
// ML.NET.
var dataView = mlContext.Data.LoadFromEnumerable(dataPoints);
// Create a ML.NET pipeline which contains two steps. First,
// ExtractPixle is used to convert the 224x224 image to a 3x224x224
// float tensor. Then the float tensor is fed into a ONNX model with an
// input called "data_0" and an output called "softmaxout_1". Note that
// "data_0" and "softmaxout_1" are model input and output names stored
// in the used ONNX model file. Users may need to inspect their own
// models to get the right input and output column names.
// Map column "Image" to column "data_0"
// Map column "data_0" to column "softmaxout_1"
var pipeline = mlContext.Transforms.ExtractPixels("data_0", "Image")
.Append(mlContext.Transforms.ApplyOnnxModel("softmaxout_1",
"data_0", modelPath));
var model = pipeline.Fit(dataView);
var onnx = model.Transform(dataView);
// Convert IDataView back to IEnumerable<ImageDataPoint> so that user
// can inspect the output, column "softmaxout_1", of the ONNX transform.
// Note that Column "softmaxout_1" would be stored in ImageDataPont
//.Scores because the added attributed [ColumnName("softmaxout_1")]
// tells that ImageDataPont.Scores is equivalent to column
// "softmaxout_1".
var transformedDataPoints = mlContext.Data.CreateEnumerable<
ImageDataPoint>(onnx, false).ToList();
// The scores are probabilities of all possible classes, so they should
// all be positive.
foreach (var dataPoint in transformedDataPoints)
{
var firstClassProb = dataPoint.Scores.First();
var lastClassProb = dataPoint.Scores.Last();
Console.WriteLine("The probability of being the first class is " +
(firstClassProb * 100) + "%.");
Console.WriteLine($"The probability of being the last class is " +
(lastClassProb * 100) + "%.");
}
// Expected output:
// The probability of being the first class is 0.002542659%.
// The probability of being the last class is 0.0292684%.
// The probability of being the first class is 0.02258059%.
// The probability of being the last class is 0.394428%.
}
// This class is used in Example() to describe data points which will be
// consumed by ML.NET pipeline.
private class ImageDataPoint
{
// Height of Image.
private const int height = 224;
// Width of Image.
private const int width = 224;
// Image will be consumed by ONNX image multiclass classification model.
[ImageType(height, width)]
public MLImage Image { get; set; }
// Expected output of ONNX model. It contains probabilities of all
// classes. Note that the ColumnName below should match the output name
// in the used ONNX model file.
[ColumnName("softmaxout_1")]
public float[] Scores { get; set; }
public ImageDataPoint()
{
Image = null;
}
public ImageDataPoint(byte red, byte green, byte blue)
{
byte[] imageData = new byte[width * height * 4]; // 4 for the red, green, blue and alpha colors
for (int i = 0; i < imageData.Length; i += 4)
{
// Fill the buffer with the Bgra32 format
imageData[i] = blue;
imageData[i + 1] = green;
imageData[i + 2] = red;
imageData[i + 3] = 255;
}
Image = MLImage.CreateFromPixels(width, height, MLPixelFormat.Bgra32, imageData);
}
}
}
}
Hinweise
Wenn der gpuDeviceId-Wert der MLContext.GpuDeviceId Wert istnull
, wird der Wert verwendet, wenn es nicht null
ist.
Gilt für:
ApplyOnnxModel(TransformsCatalog, String[], String[], String, IDictionary<String,Int32[]>, Nullable<Int32>, Boolean)
Erstellen Sie ein OnnxScoringEstimator, das ein vortrainiertes Onnx-Modell auf die inputColumnNames
Spalten anwendet.
Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter .
public static Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator ApplyOnnxModel (this Microsoft.ML.TransformsCatalog catalog, string[] outputColumnNames, string[] inputColumnNames, string modelFile, System.Collections.Generic.IDictionary<string,int[]> shapeDictionary, int? gpuDeviceId = default, bool fallbackToCpu = false);
static member ApplyOnnxModel : Microsoft.ML.TransformsCatalog * string[] * string[] * string * System.Collections.Generic.IDictionary<string, int[]> * Nullable<int> * bool -> Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator
<Extension()>
Public Function ApplyOnnxModel (catalog As TransformsCatalog, outputColumnNames As String(), inputColumnNames As String(), modelFile As String, shapeDictionary As IDictionary(Of String, Integer()), Optional gpuDeviceId As Nullable(Of Integer) = Nothing, Optional fallbackToCpu As Boolean = false) As OnnxScoringEstimator
Parameter
- catalog
- TransformsCatalog
Der Katalog der Transformation.
- outputColumnNames
- String[]
Die Ausgabespalten, die aus der Transformation resultieren.
- inputColumnNames
- String[]
Die Eingabespalten.
- modelFile
- String
Der Pfad der Datei, die das ONNX-Modell enthält.
- shapeDictionary
- IDictionary<String,Int32[]>
ONNX-Shapes, die über diese geladenen modelFile
Shapes verwendet werden sollen.
Bei Schlüsseln werden Namen wie im ONNX-Modell angegeben, z. B. "Eingabe". Die Angabe der Shapes mit diesem Parameter ist besonders nützlich für die Arbeit mit variablen Bemaßungseingaben und Ausgaben.
Optionale GPU-Geräte-ID, um die Ausführung auszuführen, null
um auf CPU auszuführen.
- fallbackToCpu
- Boolean
Wenn GPU-Fehler auftritt, lösen Sie Ausnahme oder Fallback auf CPU aus.
Gibt zurück
Hinweise
Wenn der gpuDeviceId-Wert der Wert ist null
, MLContext.GpuDeviceId wird verwendet, wenn er nicht null
.
Gilt für:
ApplyOnnxModel(TransformsCatalog, String[], String[], String, IDictionary<String,Int32[]>, Nullable<Int32>, Boolean, Int32)
Erstellen Sie ein OnnxScoringEstimator, das ein vortrainiertes Onnx-Modell auf die inputColumnNames
Spalten anwendet.
Weitere Informationen zu den erforderlichen Abhängigkeiten und zum Ausführen auf einer GPU finden OnnxScoringEstimator Sie unter .
public static Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator ApplyOnnxModel (this Microsoft.ML.TransformsCatalog catalog, string[] outputColumnNames, string[] inputColumnNames, string modelFile, System.Collections.Generic.IDictionary<string,int[]> shapeDictionary, int? gpuDeviceId = default, bool fallbackToCpu = false, int recursionLimit = 100);
static member ApplyOnnxModel : Microsoft.ML.TransformsCatalog * string[] * string[] * string * System.Collections.Generic.IDictionary<string, int[]> * Nullable<int> * bool * int -> Microsoft.ML.Transforms.Onnx.OnnxScoringEstimator
<Extension()>
Public Function ApplyOnnxModel (catalog As TransformsCatalog, outputColumnNames As String(), inputColumnNames As String(), modelFile As String, shapeDictionary As IDictionary(Of String, Integer()), Optional gpuDeviceId As Nullable(Of Integer) = Nothing, Optional fallbackToCpu As Boolean = false, Optional recursionLimit As Integer = 100) As OnnxScoringEstimator
Parameter
- catalog
- TransformsCatalog
Der Katalog der Transformation.
- outputColumnNames
- String[]
Die Ausgabespalten aus der Transformation.
- inputColumnNames
- String[]
Die Eingabespalten.
- modelFile
- String
Der Pfad der Datei, die das ONNX-Modell enthält.
- shapeDictionary
- IDictionary<String,Int32[]>
ONNX-Shapes, die über diese geladenen modelFile
Shapes verwendet werden sollen.
Bei Schlüsseln werden Namen wie im ONNX-Modell angegeben, z. B. "Eingabe". Die Angabe der Shapes mit diesem Parameter ist besonders nützlich für die Arbeit mit variablen Bemaßungseingaben und Ausgaben.
Optionale GPU-Geräte-ID, um die Ausführung auszuführen, null
um auf CPU auszuführen.
- fallbackToCpu
- Boolean
Wenn GPU-Fehler auftritt, lösen Sie Ausnahme oder Fallback auf CPU aus.
- recursionLimit
- Int32
Optional, gibt den Protobuf CodedInputStream-Rekursionsgrenzwert an. Der Standardwert ist 100.
Gibt zurück
Hinweise
Wenn der gpuDeviceId-Wert der Wert ist null
, MLContext.GpuDeviceId wird verwendet, wenn er nicht null
.