다음을 통해 공유


OnnxScoringEstimator 클래스

정의

IEstimator<TTransformer> ML.NET 프레임워크에서 ONNX 모델 점수 매기기

public sealed class OnnxScoringEstimator : Microsoft.ML.Data.TrivialEstimator<Microsoft.ML.Transforms.Onnx.OnnxTransformer>
type OnnxScoringEstimator = class
    inherit TrivialEstimator<OnnxTransformer>
Public NotInheritable Class OnnxScoringEstimator
Inherits TrivialEstimator(Of OnnxTransformer)
상속
OnnxScoringEstimator

설명

추정기 특성

이 예측 도구는 매개 변수를 학습하기 위해 데이터를 확인해야 합니까? 아니요
입력 열 데이터 형식 알려진 크기의 벡터 Single 또는 Double 형식
출력 열 데이터 형식 ONNX 모델에서 지정한 대로
Microsoft.ML 외에도 필요한 NuGet Microsoft.ML.OnnxTransformer(항상), Microsoft.ML.OnnxRuntime 1.6.0(CPU 처리용) 또는 Microsoft.ML.OnnxRuntime.Gpu 1.6.0(GPU를 사용할 수 있는 경우 GPU 처리용)
ONNX로 내보낼 수 있습니다. 아니요

이 추정기를 만들려면 다음 API를 사용합니다. ApplyOnnxModel

Microsoft.ML.OnnxRuntime 라이브러리를 사용하여 ONNX 1.6 형식(opset 11)의 모델 추론을 지원합니다. 프로젝트가 Microsoft.ML.OnnxRuntime을 참조하고 프로젝트가 Microsoft.ML.OnnxRuntime.Gpu를 참조하는 경우 GPU에서 모델이 CPU에서 채점됩니다. OnnxScoringEstimator를 사용하는 모든 프로젝트는 위의 두 패키지 중 하나를 참조해야 합니다.

GPU에서 실행하려면 Microsoft.ML.OnnxRuntime nuget(CPU 처리용) 대신 NuGet 패키지 Microsoft.ML.OnnxRuntime.Gpu를 사용합니다. Microsoft.ML.OnnxRuntime.Gpu에는 CUDA 지원 GPU, CUDA 10.2 도구 키트cuDNN 8.0.3 ( Onnxruntime의 설명서에 표시된 대로)이 필요합니다. ApplyOnnxModel을 통해 추정기를 만들 때 매개 변수 'gpuDeviceId'를 유효한 음수가 아닌 정수로 설정합니다. 일반적인 디바이스 ID 값은 0 또는 1입니다. GPU 디바이스를 찾을 수 없지만 'fallbackToCpu = true'이면 예측 도구가 CPU에서 실행됩니다. GPU 디바이스를 찾을 수 없지만 'fallbackToCpu = false'인 경우 예측 도구에서 예외를 throw합니다.

ONNX 모델의 입력 및 출력은 Tensor 형식이어야 합니다. 시퀀스 및 맵은 아직 지원되지 않습니다.

내부적으로 OnnxTransformer(OnnxScoringEstimator.Fit()의 반환 값)는 OnnxRuntime.dll 소유하는 관리되지 않는 메모리를 가리키는 유추 세션에 대한 참조를 보유합니다. 파이프라인에서 ApplyOnnxModel 을 호출할 때마다 Fit() 호출의 반환 값을 IDisposable로 캐스팅하고 Dispose()를 호출하여 메모리 누수가 없는지 확인하는 것이 좋습니다.

OnnxRuntime은 Windows, MacOS 및 Ubuntu 16.04 Linux 64비트 플랫폼에서 작동합니다. 시작하려면 ONNX 모델을 방문하여 쉽게 사용할 수 있는 모델 목록을 확인하세요. 자세한 내용은 ONNX 를 참조하세요.

메서드

Fit(IDataView)

IEstimator<TTransformer> ML.NET 프레임워크에서 ONNX 모델 점수 매기기

(다음에서 상속됨 TrivialEstimator<TTransformer>)
GetOutputSchema(SchemaShape)

변환기에서 SchemaShape 생성할 스키마를 반환합니다. 파이프라인에서 스키마 전파 및 확인에 사용됩니다.

확장 메서드

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

추정기 체인에 '캐싱 검사점'을 추가합니다. 이렇게 하면 다운스트림 추정기가 캐시된 데이터에 대해 학습됩니다. 여러 데이터 전달을 수행하는 트레이너 앞에 캐싱 검사점이 있는 것이 좋습니다.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

추정기가 지정된 경우 호출된 대리 Fit(IDataView) 자를 호출할 래핑 개체를 반환합니다. 예측 도구가 적합한 항목에 대한 정보를 반환하는 것이 중요한 경우가 많습니다. 따라서 Fit(IDataView) 메서드는 일반 ITransformer개체가 아닌 구체적으로 형식화된 개체를 반환합니다. 그러나 동시에 IEstimator<TTransformer> 개체가 많은 파이프라인으로 형성되는 경우가 많으므로 변환기를 가져올 추정기가 이 체인의 어딘가에 묻혀 있는 위치를 통해 EstimatorChain<TLastTransformer> 추정기 체인을 빌드해야 할 수 있습니다. 이 시나리오에서는 이 메서드를 통해 fit이 호출되면 호출될 대리자를 연결할 수 있습니다.

적용 대상