BatchDeployment Classe
Entidade de implantação do ponto de extremidade em lote.
- Herança
-
azure.ai.ml.entities._deployment.deployment.DeploymentBatchDeployment
Construtor
BatchDeployment(*, name: str, endpoint_name: str | None = None, description: str | None = None, tags: Dict[str, Any] | None = None, properties: Dict[str, str] | None = None, model: str | Model | None = None, code_configuration: CodeConfiguration | None = None, environment: str | Environment | None = None, compute: str | None = None, resources: ResourceConfiguration | None = None, output_file_name: str | None = None, output_action: BatchDeploymentOutputAction | None = None, error_threshold: int | None = None, retry_settings: BatchRetrySettings | None = None, logging_level: str | None = None, mini_batch_size: int | None = None, max_concurrency_per_instance: int | None = None, environment_variables: Dict[str, str] | None = None, code_path: str | PathLike | None = None, scoring_script: str | PathLike | None = None, instance_count: int | None = None, **kwargs)
Parâmetros
Dicionário de marcas. As marcas podem ser adicionadas, removidas e atualizadas.
Entidade de modelo para a implantação do ponto de extremidade, o padrão é Nenhum
- environment
- Union[str, Environment]
Entidade de ambiente para a implantação do ponto de extremidade., o padrão é Nenhum
- output_action
- str ou BatchDeploymentOutputAction
Indica como a saída será organizada. Os valores possíveis incluem: "summary_only", "append_row". O padrão é "append_row"
- output_file_name
- str
O nome do arquivo de saída personalizado para append_row ação de saída usa como padrão "predictions.csv"
- max_concurrency_per_instance
- int
Indica o número máximo de paralelismo por instância, o padrão é 1
- error_threshold
- int
Limite de erro, se a contagem de erros para toda a entrada ultrapassar esse valor, a inferência do lote será anulada. O intervalo é [-1, int. MaxValue] -1 valor indica, ignore todas as falhas durante a inferência em lote para a contagem fileDataset de falhas de arquivo Para TabularDataset, essa é a contagem de falhas de registro, o padrão é -1
- retry_settings
- BatchRetrySettings
As configurações de repetição para uma operação de inferência em lote, o padrão é Nenhum
- logging_level
- str
Nível de registro em log para a operação de inferência em lote, o padrão é "info"
- mini_batch_size
- int
O tamanho do minilote passado para cada invocação em lote, o padrão é 10
Caminho da pasta para ativos de código local. Equivalente a code_configuration.code.
Nome do script de pontuação. Equivalente a code_configuration.code.scoring_script.
- instance_count
- int
Número de instâncias em que a interferência será executada. Equivalente a resources.instance_count.
Métodos
dump |
Despejar o conteúdo da implantação em um arquivo no formato yaml. |
dump
Despejar o conteúdo da implantação em um arquivo no formato yaml.
dump(dest: str | PathLike | IO, **kwargs) -> None
Parâmetros
O destino para receber o conteúdo dessa implantação. Deve ser um caminho para um arquivo local ou um fluxo de arquivos já aberto. Se dest for um caminho de arquivo, um novo arquivo será criado e uma exceção será gerada se o arquivo existir. Se dest for um arquivo aberto, o arquivo será gravado diretamente e uma exceção será gerada se o arquivo não for gravável.
Atributos
base_path
code_path
creation_context
O contexto de criação do recurso.
Retornos
Os metadados de criação para o recurso.
Tipo de retorno
id
A ID do recurso.
Retornos
A ID global do recurso, uma ID do ARM (Resource Manager do Azure).
Tipo de retorno
instance_count
provisioning_state
Estado de provisionamento de implantação em lote, somente leitura.
Retornos
Estado de provisionamento de implantação em lote.
Tipo de retorno
scoring_script
type
Azure SDK for Python