Dela via


ImageModelDistributionSettings interface

Distributionsuttryck för att svepa över värden för modellinställningar. <Exempel> Några exempel är:

ModelName = "choice('seresnext', 'resnest50')";
LearningRate = "uniform(0.001, 0.01)";
LayersToFreeze = "choice(0, 2)";
```</example>
All distributions can be specified as distribution_name(min, max) or choice(val1, val2, ..., valn)
where distribution name can be: uniform, quniform, loguniform, etc
For more details on how to compose distribution expressions please check the documentation:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-tune-hyperparameters
For more information on the available settings please visit the official documentation:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-auto-train-image-models.

Egenskaper

amsGradient

Aktivera AMSGrad när optimeraren är "adam" eller "adamw".

augmentations

Inställningar för att använda förhöjda inställningar.

beta1

Värdet för "beta1" när optimizern är "adam" eller "adamw". Måste vara en flottör i intervallet [0, 1].

beta2

Värdet för "beta2" när optimizern är "adam" eller "adamw". Måste vara en flottör i intervallet [0, 1].

distributed

Om distributionsträning ska användas.

earlyStopping

Aktivera tidig stopplogik under träning.

earlyStoppingDelay

Minsta antal epoker eller valideringsutvärderingar som ska vänta innan den primära måttförbättringen spåras för tidigt stopp. Måste vara ett positivt heltal.

earlyStoppingPatience

Minsta antal epoker eller valideringsutvärderingar utan någon primär måttförbättring innan körningen stoppas. Måste vara ett positivt heltal.

enableOnnxNormalization

Aktivera normalisering vid export av ONNX-modell.

evaluationFrequency

Frekvens för att utvärdera valideringsdatauppsättningen för att hämta måttpoäng. Måste vara ett positivt heltal.

gradientAccumulationStep

Toningsansamling innebär att du kör ett konfigurerat antal "GradAccumulationStep"-steg utan att uppdatera modellvikterna samtidigt som du ackumulerar toningarna i dessa steg och sedan använder de ackumulerade toningarna för att beräkna viktuppdateringarna. Måste vara ett positivt heltal.

layersToFreeze

Antal lager som ska frysas för modellen. Måste vara ett positivt heltal. Om du till exempel skickar 2 som värde för "seresnext" innebär det fryslager0 och lager1. En fullständig lista över modeller som stöds och information om lagerfrysning finns i: https://docs.microsoft.com/en-us/azure/machine-learning/how-to-auto-train-image-models.

learningRate

Inledande inlärningsfrekvens. Måste vara en flottör i intervallet [0, 1].

learningRateScheduler

Typ av schemaläggare för inlärningsfrekvens. Måste vara "warmup_cosine" eller "steg".

modelName

Namnet på den modell som ska användas för träning. Mer information om tillgängliga modeller finns i den officiella dokumentationen: https://docs.microsoft.com/en-us/azure/machine-learning/how-to-auto-train-image-models.

momentum

Värdet för momentum när optimeraren är "sgd". Måste vara en flottör i intervallet [0, 1].

nesterov

Aktivera nesterov när optimeraren är "sgd".

numberOfEpochs

Antal träningsepoker. Måste vara ett positivt heltal.

numberOfWorkers

Antal datainläsningsarbetare. Måste vara ett icke-negativt heltal.

optimizer

Typ av optimerare. Måste vara antingen "sgd", "adam" eller "adamw".

randomSeed

Slumpmässigt frö som ska användas vid användning av deterministisk träning.

stepLRGamma

Värdet för gamma när learning rate scheduler är "step". Måste vara en flottör i intervallet [0, 1].

stepLRStepSize

Värdet för stegstorlek när schemaläggaren för inlärningsfrekvens är "steg". Måste vara ett positivt heltal.

trainingBatchSize

Träningsbatchstorlek. Måste vara ett positivt heltal.

validationBatchSize

Valideringsbatchstorlek. Måste vara ett positivt heltal.

warmupCosineLRCycles

Värdet för cosinincykeln när schemaläggaren för inlärningsfrekvens är "warmup_cosine". Måste vara en flottör i intervallet [0, 1].

warmupCosineLRWarmupEpochs

Värdet för uppvärmningsepoker när schemaläggaren för inlärningsfrekvens är "warmup_cosine". Måste vara ett positivt heltal.

weightDecay

Värdet för viktförfall när optimeraren är "sgd", "adam" eller "adamw". Måste vara en float i intervallet[0, 1].

Egenskapsinformation

amsGradient

Aktivera AMSGrad när optimeraren är "adam" eller "adamw".

amsGradient?: string

Egenskapsvärde

string

augmentations

Inställningar för att använda förhöjda inställningar.

augmentations?: string

Egenskapsvärde

string

beta1

Värdet för "beta1" när optimizern är "adam" eller "adamw". Måste vara en flottör i intervallet [0, 1].

beta1?: string

Egenskapsvärde

string

beta2

Värdet för "beta2" när optimizern är "adam" eller "adamw". Måste vara en flottör i intervallet [0, 1].

beta2?: string

Egenskapsvärde

string

distributed

Om distributionsträning ska användas.

distributed?: string

Egenskapsvärde

string

earlyStopping

Aktivera tidig stopplogik under träning.

earlyStopping?: string

Egenskapsvärde

string

earlyStoppingDelay

Minsta antal epoker eller valideringsutvärderingar som ska vänta innan den primära måttförbättringen spåras för tidigt stopp. Måste vara ett positivt heltal.

earlyStoppingDelay?: string

Egenskapsvärde

string

earlyStoppingPatience

Minsta antal epoker eller valideringsutvärderingar utan någon primär måttförbättring innan körningen stoppas. Måste vara ett positivt heltal.

earlyStoppingPatience?: string

Egenskapsvärde

string

enableOnnxNormalization

Aktivera normalisering vid export av ONNX-modell.

enableOnnxNormalization?: string

Egenskapsvärde

string

evaluationFrequency

Frekvens för att utvärdera valideringsdatauppsättningen för att hämta måttpoäng. Måste vara ett positivt heltal.

evaluationFrequency?: string

Egenskapsvärde

string

gradientAccumulationStep

Toningsansamling innebär att du kör ett konfigurerat antal "GradAccumulationStep"-steg utan att uppdatera modellvikterna samtidigt som du ackumulerar toningarna i dessa steg och sedan använder de ackumulerade toningarna för att beräkna viktuppdateringarna. Måste vara ett positivt heltal.

gradientAccumulationStep?: string

Egenskapsvärde

string

layersToFreeze

Antal lager som ska frysas för modellen. Måste vara ett positivt heltal. Om du till exempel skickar 2 som värde för "seresnext" innebär det fryslager0 och lager1. En fullständig lista över modeller som stöds och information om lagerfrysning finns i: https://docs.microsoft.com/en-us/azure/machine-learning/how-to-auto-train-image-models.

layersToFreeze?: string

Egenskapsvärde

string

learningRate

Inledande inlärningsfrekvens. Måste vara en flottör i intervallet [0, 1].

learningRate?: string

Egenskapsvärde

string

learningRateScheduler

Typ av schemaläggare för inlärningsfrekvens. Måste vara "warmup_cosine" eller "steg".

learningRateScheduler?: string

Egenskapsvärde

string

modelName

Namnet på den modell som ska användas för träning. Mer information om tillgängliga modeller finns i den officiella dokumentationen: https://docs.microsoft.com/en-us/azure/machine-learning/how-to-auto-train-image-models.

modelName?: string

Egenskapsvärde

string

momentum

Värdet för momentum när optimeraren är "sgd". Måste vara en flottör i intervallet [0, 1].

momentum?: string

Egenskapsvärde

string

nesterov

Aktivera nesterov när optimeraren är "sgd".

nesterov?: string

Egenskapsvärde

string

numberOfEpochs

Antal träningsepoker. Måste vara ett positivt heltal.

numberOfEpochs?: string

Egenskapsvärde

string

numberOfWorkers

Antal datainläsningsarbetare. Måste vara ett icke-negativt heltal.

numberOfWorkers?: string

Egenskapsvärde

string

optimizer

Typ av optimerare. Måste vara antingen "sgd", "adam" eller "adamw".

optimizer?: string

Egenskapsvärde

string

randomSeed

Slumpmässigt frö som ska användas vid användning av deterministisk träning.

randomSeed?: string

Egenskapsvärde

string

stepLRGamma

Värdet för gamma när learning rate scheduler är "step". Måste vara en flottör i intervallet [0, 1].

stepLRGamma?: string

Egenskapsvärde

string

stepLRStepSize

Värdet för stegstorlek när schemaläggaren för inlärningsfrekvens är "steg". Måste vara ett positivt heltal.

stepLRStepSize?: string

Egenskapsvärde

string

trainingBatchSize

Träningsbatchstorlek. Måste vara ett positivt heltal.

trainingBatchSize?: string

Egenskapsvärde

string

validationBatchSize

Valideringsbatchstorlek. Måste vara ett positivt heltal.

validationBatchSize?: string

Egenskapsvärde

string

warmupCosineLRCycles

Värdet för cosinincykeln när schemaläggaren för inlärningsfrekvens är "warmup_cosine". Måste vara en flottör i intervallet [0, 1].

warmupCosineLRCycles?: string

Egenskapsvärde

string

warmupCosineLRWarmupEpochs

Värdet för uppvärmningsepoker när schemaläggaren för inlärningsfrekvens är "warmup_cosine". Måste vara ett positivt heltal.

warmupCosineLRWarmupEpochs?: string

Egenskapsvärde

string

weightDecay

Värdet för viktförfall när optimeraren är "sgd", "adam" eller "adamw". Måste vara en float i intervallet[0, 1].

weightDecay?: string

Egenskapsvärde

string