Поделиться через


TextClassificationTrainer Класс

Определение

Для IEstimator<TTransformer> обучения глубокой нейронной сети (DNN) для классификации текста.

public class TextClassificationTrainer : Microsoft.ML.TorchSharp.NasBert.NasBertTrainer<uint,long>
type TextClassificationTrainer = class
    inherit NasBertTrainer<uint32, int64>
Public Class TextClassificationTrainer
Inherits NasBertTrainer(Of UInteger, Long)
Наследование

Комментарии

Чтобы создать этот модуль обучения, используйте TextClassification.

Входные и выходные столбцы

Входные данные столбца метки должны иметь тип ключа , а столбцы предложений должны иметь типTextDataViewType .

Этот алгоритм обучения выводит следующие столбцы:

Имя выходного столбца Тип столбца Описание
PredictedLabel Тип key Индекс прогнозируемой метки. Если его значение равно i, фактическая метка будет i-й категорией во входном типе метки с ключевым значением.
Score ВекторSingle Оценки всех классов. Более высокое значение означает большую вероятность попадания в связанный класс. Если i-й элемент имеет самое большое значение, индекс прогнозируемой метки будет равен i. Обратите внимание, что индекс i отсчитывается от нуля.

Характеристики инструктора

Задача машинного обучения Многоклассовая классификация
Требуется ли нормализация? Нет.
Требуется ли кэширование? Нет.
Обязательный NuGet в дополнение к Microsoft.ML Microsoft.ML.TorchSharp и libtorch-cpu или libtorch-cuda-11.3 или любой из вариантов операционной системы.
Возможность экспорта в ONNX Нет.

Сведения об алгоритме обучения

Обучение глубокой нейронной сети (DNN), используя существующую предварительно обученную модель ROBERTa NAS-BERT для классификации текста.

Методы

Fit(IDataView)

Для IEstimator<TTransformer> обучения глубокой нейронной сети (DNN) для классификации текста.

(Унаследовано от TorchSharpBaseTrainer<TLabelCol,TTargetsCol>)
GetOutputSchema(SchemaShape)

Для IEstimator<TTransformer> обучения глубокой нейронной сети (DNN) для классификации текста.

(Унаследовано от NasBertTrainer<TLabelCol,TTargetsCol>)

Применяется к