Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se proporciona referencia a las claves compatibles con la configuración de Conjuntos de recursos de Databricks (YAML). Consulte ¿Qué son las conjuntos de recursos de Databricks?.
Para obtener ejemplos completos de paquetes, consulte los ejemplos de configuración de paquetes y el repositorio de GitHub de ejemplos de paquetes .
artifacts
Type: Map
Especifica los artefactos que se van a compilar automáticamente durante las implementaciones de agrupación que se pueden usar más adelante en las ejecuciones de agrupación. Cada clave es el nombre del artefacto y el valor es un mapa que define la configuración de compilación del artefacto.
Sugerencia
Puede definir, combinar e invalidar la configuración de artefactos en agrupaciones, tal como se describe en Invalidación con la configuración de destino.
Se agregó en la CLI de Databricks, versión 0.229.0
artifacts:
<artifact-name>:
<artifact-field-name>: <artifact-field-value>
| Clave | Tipo | Descripción |
|---|---|---|
build |
Cadena | Conjunto opcional de comandos de compilación que se ejecutarán localmente antes de la implementación. En el caso de las compilaciones de paquetes wheel de Python, la CLI de Databricks supone que puede encontrar una instalación local del paquete wheel de Python para ejecutar compilaciones y ejecuta el comando python setup.py bdist_wheel de forma predeterminada durante cada implementación de agrupación. Especifique varios comandos de compilación en líneas independientes.Se agregó en la CLI de Databricks, versión 0.229.0 |
dynamic_version |
Boolean | Si se va a actualizar dinámicamente la versión del paquete wheel en función de la marca de tiempo del archivo .whl. Si se establece en true, se puede implementar código nuevo sin tener que actualizar la versión en setup.py o pyproject.toml. Esta configuración solo es válida cuando type se establece en whl.Se agregó en la CLI de Databricks, versión 0.245.0 |
executable |
Cadena | Tipo ejecutable. Valores válidos son bash, sh y cmd.Se agregó en la CLI de Databricks, versión 0.229.0 |
files |
Secuencia | Ruta de acceso relativa o absoluta a los archivos de artefacto compilado. Consulte artifacts.name.files. Se agregó en la CLI de Databricks, versión 0.229.0 |
path |
Cadena | Ruta de acceso local del directorio para el artefacto. Las rutas de acceso son relativas a la ubicación del archivo de configuración del paquete. En el caso de las compilaciones wheel de Python, es la ruta de acceso al archivo setup.py del archivo wheel de Python. Si path no se incluye, la CLI de Databricks intenta encontrar el archivo wheel de Python de setup.py en la raíz del lote.Se agregó en la CLI de Databricks, versión 0.229.0 |
type |
Cadena | Obligatorio si el artefacto es una rueda de Python. Tipo del artefacto. Los valores válidos son whl y jar. No es necesario especificar esta configuración para compilar otros artefactos.Se agregó en la CLI de Databricks, versión 0.229.0 |
Examples
La siguiente configuración crea una rueda de Python mediante Poetry:
artifacts:
default:
type: whl
build: poetry build
path: .
La siguiente configuración ejecuta pruebas y crea una rueda. Para ver un tutorial completo de agrupación que usa artifacts para crear una rueda, consulte Creación de un archivo de rueda de Python mediante Conjuntos de recursos de Databricks.
artifacts:
default:
type: whl
build: |-
# run tests
python -m pytest tests/ -v
# build the actual artifact
python setup.py bdist_wheel
path: .
Para un ejemplo de configuración que construye un JAR y lo carga en Unity Catalog, consulte Paquete que carga un JAR en Unity Catalog.
artefactos. name.files
Type: Sequence
Ruta de acceso relativa o absoluta a los archivos de artefacto compilado. Use source para especificar los artefactos creados. Las rutas de acceso son relativas a la ubicación del archivo de configuración del paquete.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
source |
Cadena | Necesario. El archivo de origen del artefacto. Se agregó en la CLI de Databricks, versión 0.229.0 |
agrupación
Type: Map
Atributos de agrupación al implementar en este destino.
Un archivo de configuración de agrupación debe contener solo una asignación de nivel bundle superior.
Esta asignación bundle debe contener una asignación name que especifique un nombre programático (o lógico) para el paquete. En el ejemplo siguiente se declara una agrupación con el nombre programático (o lógico) hello-bundle.
bundle:
name: hello-bundle
Una asignación bundle también puede ser un elemento secundario de uno o varios de los destinos de la asignación targets de nivel superior. Cada una de estas asignaciones bundle secundarias especifica cualquier invalidación no predeterminada en el nivel de destino.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
cluster_id |
Cadena | Identificador de un clúster que se va a usar para ejecutar el paquete. Esta clave le permite especificar el identificador de un clúster que se va a usar como invalidación para los clústeres definidos en otra parte del archivo de configuración de agrupación. Para obtener información sobre cómo recuperar el identificador de un clúster, consulte Compute resource URL and ID (Dirección URL y identificador de recurso de proceso). La invalidación cluster_id está pensada para escenarios de solo desarrollo y solo se admite para el destino que tiene su asignación de mode establecida en development. Para obtener más información sobre el mapeo target, ver destinos.Se agregó en la CLI de Databricks, versión 0.229.0 |
compute_id |
Cadena | En desuso. ID del recurso de computación a utilizar para ejecutar el paquete. Se agregó en la CLI de Databricks, versión 0.229.0 |
databricks_cli_version |
Cadena | La versión de la CLI de Databricks para usar con el paquete. Consulte bundle.databricks_cli_version. Se agregó en la CLI de Databricks, versión 0.229.0 |
deployment |
Map | Definición de la implementación de agrupación. Para los atributos admitidos, consulte modos de implementación de Asset Bundle de Databricks. Consulte bundle.deployment. Se agregó en la CLI de Databricks, versión 0.229.0 |
git |
Map | Detalles del control de versiones de Git asociados a tu paquete. Para ver los atributos admitidos, consulte Git. Se agregó en la CLI de Databricks, versión 0.229.0 |
name |
Cadena | Nombre del lote. Se agregó en la CLI de Databricks, versión 0.229.0 |
uuid |
Cadena | Reservado. Identificador único universal (UUID) para el lote que identifica de forma única el lote en sistemas internos de Databricks. Esto se genera cuando se inicializa un proyecto de agrupación mediante una plantilla de Databricks (mediante el comando databricks bundle init).Se agregó en la CLI de Databricks, versión 0.236.0 |
bundle.databricks_cli_version
La asignación de bundle puede contener una asignación de databricks_cli_version que restringe la versión de la CLI de Databricks requerida por el paquete. Esto puede evitar los problemas causados por el uso de asignaciones que no se admiten en una determinada versión de la CLI de Databricks.
La versión de la CLI de Databricks se ajusta al control de versiones semánticas y la asignación de databricks_cli_version admite la especificación de restricciones de versión. Si el valor actual databricks --version no está dentro de los límites especificados en la asignación del databricks_cli_version paquete, se produce un error cuando databricks bundle validate se ejecuta en el paquete. En los ejemplos siguientes se muestran algunas sintaxis comunes de las restricciones de versión:
bundle:
name: hello-bundle
databricks_cli_version: '0.218.0' # require Databricks CLI 0.218.0
bundle:
name: hello-bundle
databricks_cli_version: '0.218.*' # allow all patch versions of Databricks CLI 0.218
bundle:
name: my-bundle
databricks_cli_version: '>= 0.218.0' # allow any version of Databricks CLI 0.218.0 or higher
bundle:
name: my-bundle
databricks_cli_version: '>= 0.218.0, <= 1.0.0' # allow any Databricks CLI version between 0.218.0 and 1.0.0, inclusive
bundle.deployment
Type: Map
Definición de la implementación del paquete
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
fail_on_active_runs |
Boolean | Si se produce un error en las ejecuciones activas. Si se establece en true, se puede interrumpir una implementación que se está ejecutando. Se agregó en la CLI de Databricks, versión 0.229.0 |
lock |
Map | Atributos de bloqueo de la implementación. Consulte bundle.deployment.lock. Se agregó en la CLI de Databricks, versión 0.229.0 |
bundle.deployment.lock
Type: Map
Atributos de bloqueo de la implementación.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
enabled |
Boolean | Si este bloqueo está habilitado. Se agregó en la CLI de Databricks, versión 0.229.0 |
force |
Boolean | Si se va a forzar este bloqueo si está habilitado. Se agregó en la CLI de Databricks, versión 0.229.0 |
experimental
Type: Map
Define atributos para las características experimentales.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
python |
Map | En desuso. Utilice la asignación de python de nivel superior en su lugar. Se agregó en la CLI de Databricks, versión 0.238.0 |
python_wheel_wrapper |
Boolean | Si se va a usar un contenedor de paquete wheel de Python. Se agregó en la CLI de Databricks, versión 0.229.0 |
scripts |
Map | Los comandos que se ejecutarán. Se agregó en la CLI de Databricks, versión 0.229.0 |
skip_artifact_cleanup |
Boolean | Determina si se omitirá la eliminación de la .internal carpeta dentro de workspace.artifact_path. De forma predeterminada, esta carpeta se elimina antes de cargar nuevos artefactos de compilación (como ruedas de Python) durante la implementación. Establézcalo en true para conservar los artefactos existentes en todas las implementaciones.Se agregó en la CLI de Databricks, versión 0.254.0 |
skip_name_prefix_for_schema |
Boolean | Si se omitirá la adición del prefijo (establecido en presets.name_prefix o calculado cuando mode: development) a los nombres de los esquemas del catálogo de Unity definidos en la agrupación.Se agregó en la CLI de Databricks, versión 0.255.0 |
use_legacy_run_as |
Boolean | Indica si se debe usar el comportamiento del run_as heredado. Se agregó en la CLI de Databricks, versión 0.229.0 |
include
Type: Sequence
Especifica una lista de patrones de ruta que contienen archivos de configuración para incluir en el paquete. Estos globs de ruta de acceso son relativos a la ubicación del archivo de configuración de agrupación en el que se especifican los globs de ruta de acceso. Aparte de databricks.yml, debe usar la include matriz para especificar todos los archivos de configuración que se van a incluir en la agrupación.
Sugerencia
Para incluir o excluir otros archivos de la agrupación, use include y exclude.
Esta matriz include solo puede aparecer como un mapeo de nivel superior.
Se agregó en la CLI de Databricks, versión 0.229.0
En el ejemplo siguiente de configuración se incluyen tres archivos de configuración. Estos archivos están en la misma carpeta que el archivo de configuración de agrupación:
include:
- 'bundle.artifacts.yml'
- 'bundle.resources.yml'
- 'bundle.targets.yml'
La siguiente configuración de ejemplo incluye todos los archivos con nombres de archivo que comienzan con bundle y terminan con .yml. Estos archivos están en la misma carpeta que el archivo de configuración de agrupación:
include:
- 'bundle*.yml'
permisos
Type: Sequence
Define los permisos para aplicar a los recursos definidos en la agrupación, donde cada elemento de la secuencia es un permiso para una entidad específica. Ver Establecer permisos para recursos en paquetes de activos de Databricks.
Los niveles de permisos de nivel superior permitidos son CAN_VIEW, CAN_MANAGE y CAN_RUN.
Si quiere aplicar permisos a un recurso específico, vea Definición de permisos para un recurso específico.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
group_name |
Cadena | Nombre del grupo que tiene el permiso establecido en el nivel. Se agregó en la CLI de Databricks, versión 0.229.0 |
level |
Cadena | El permiso permitido para usuario, grupo, o entidad de servicio está definido por este permiso. Los valores válidos para esta clave son diferentes en función de si los permisos se definen en el nivel superior de la agrupación o para un recurso específico. Ver Establecer permisos para recursos en paquetes de activos de Databricks. Se agregó en la CLI de Databricks, versión 0.229.0 |
service_principal_name |
Cadena | Nombre de la entidad de servicio que tiene el permiso establecido en el nivel. Se agregó en la CLI de Databricks, versión 0.229.0 |
user_name |
Cadena | Nombre del usuario que tiene el permiso establecido en el nivel. Se agregó en la CLI de Databricks, versión 0.229.0 |
Ejemplo
En la siguiente configuración de ejemplo se definen los niveles de permisos de un usuario, un grupo y una entidad de servicio, que se aplican a todos los recursos definidos en resources en la agrupación:
permissions:
- level: CAN_VIEW
group_name: test-group
- level: CAN_MANAGE
user_name: someone@example.com
- level: CAN_RUN
service_principal_name: 123456-abcdef
de optimización
Type: Map
Define los valores preestablecidos de implementación de agrupación. Para obtener más información, consulte Valores preestablecidos personalizados.
A menos que se especifique una excepción para un valor preestablecido, si se establecen y modepresets se establecen, los valores preestablecidos invalidan el comportamiento del modo predeterminado y la configuración de recursos individuales invalida los valores preestablecidos.
Se agregó en la CLI de Databricks, versión 0.229.0
| Preset | Descripción |
|---|---|
artifacts_dynamic_version |
Si se va a actualizar dinámicamente la versión de los artefactos whl durante la implementación. Los valores válidos son true o false. Si se especifica el valor de configuración de artifacts.dynamic_version de nivel superior, invalida este valor preestablecido.Se agregó a la CLI de Databricks, versión 0.256.0 |
jobs_max_concurrent_runs |
Número máximo de ejecuciones simultáneas permitido para los trabajos. Se agregó en la CLI de Databricks, versión 0.229.0 |
name_prefix |
Cadena de prefijo que se va a anteponer a los nombres de recursos. Se agregó en la CLI de Databricks, versión 0.229.0 |
pipelines_development |
Si las implementaciones de canalización deben bloquearse en modo de desarrollo. Los valores válidos son true o false.Se agregó en la CLI de Databricks, versión 0.229.0 |
source_linked_deployment |
Si los recursos creados durante la implementación apuntan a archivos de origen en el área de trabajo en vez de sus copias dentro del área de trabajo. Se agregó en la CLI de Databricks, versión 0.236.0 |
tags |
Conjunto de etiquetas key:value que se aplican a todos los recursos que admiten etiquetas, que incluyen trabajos y experimentos. Los conjuntos de recursos de Databricks no admiten etiquetas para el schema recurso.Se agregó en la CLI de Databricks, versión 0.229.0 |
trigger_pause_status |
Estado de pausa que se aplicará a todos los desencadenadores y programaciones. Los valores válidos son PAUSED o UNPAUSED.Si mode se establece en development, trigger_pause_status siempre es PAUSED.Se agregó en la CLI de Databricks, versión 0.229.0 |
Python
Type: Map
Configura la carga del código de Python definido con el paquete databricks-bundles. Para obtener más información, consulte Configuración de agrupación en Python.
Movido desde en la CLI de experimental Databricks, versión 0.275.0
| Clave | Tipo | Descripción |
|---|---|---|
mutators |
Secuencia | Los mutadores contienen una lista de rutas de acceso de funciones completas a funciones mutadoras, como [my_project.mutators:add_default_cluster].Se agregó en la CLI de Databricks, versión 0.238.0 |
resources |
Secuencia | Los recursos contienen una lista de rutas completas de funciones para cargar los recursos definidos en el código de Python, como ["my_project.resources:load_resources"].Se agregó en la CLI de Databricks, versión 0.238.0 |
venv_path |
Cadena | Ruta de acceso al entorno virtual. Si está habilitado, el código de Python se ejecuta en este entorno. Si está deshabilitado, el valor predeterminado es usar el intérprete de Python disponible en el shell actual. Se agregó en la CLI de Databricks, versión 0.238.0 |
resources
Type: Map
Define los recursos de la agrupación, donde cada clave es el nombre del recurso y el valor es un mapa que define el recurso. Para obtener más información sobre los recursos admitidos de agrupación de recursos de Databricks y la referencia de definición de recursos, consulte Recursos de agrupaciones de recursos de Databricks.
La resources asignación puede aparecer como una asignación de nivel superior o puede ser un elemento secundario de uno o varios de los destinos de la asignación de destinos de nivel superior e incluye cero o uno de los tipos de recursos admitidos. Cada asignación de tipos de recursos incluye una o varias declaraciones de recursos individuales, que deben tener un nombre único. Estas declaraciones de recursos individuales usan la carga de solicitud de la operación de creación del objeto correspondiente, expresada en YAML, para definir el recurso. Las propiedades admitidas para un recurso son los campos admitidos del objeto correspondiente.
Las cargas de solicitud de operación de creación se documentan en la Referencia de la API de REST de Databricks, y el comando databricks bundle schema genera todos los esquemas de objetos admitidos. Además, el comando databricks bundle validate devuelve advertencias si se encuentran propiedades de recursos desconocidas en los archivos de configuración de agrupación.
Para obtener más información sobre los recursos admitidos en conjuntos, así como ejemplos y configuraciones comunes, consulte Recursos de conjuntos de recursos de Databricks y Ejemplos de configuración de agrupación.
Se agregó en la CLI de Databricks, versión 0.229.0
resources:
<resource-type>:
<resource-name>:
<resource-field-name>: <resource-field-value>
| Clave | Tipo | Descripción |
|---|---|---|
alerts |
Map | Las definiciones de alerta (v2) para el paquete, donde cada clave es el nombre del conjunto de alertas. Consulte alerta. Se agregó en la CLI de Databricks, versión 0.279.0 |
apps |
Map | Las definiciones de aplicaciones de Databricks para el paquete, donde cada clave es el nombre de la aplicación. Consulte aplicación. Se agregó en la CLI de Databricks, versión 0.239.0 |
catalogs |
Map | Las definiciones de catálogo (Catálogo de Unity) para la agrupación, donde cada clave es el nombre de un catálogo. Consulte catálogos. Se agregó en la CLI de Databricks, versión 0.287.0 |
clusters |
Map | Las definiciones de clúster para la agrupación, donde cada clave es el nombre de un clúster. Consulte el clúster Se agregó en la CLI de Databricks, versión 0.229.0 |
dashboards |
Map | Las definiciones del tablero de control para el paquete, donde cada clave es el nombre del tablero de control. Consulte el panel. Se agregó en la CLI de Databricks, versión 0.232.0 |
database_catalogs |
Map | Las definiciones del catálogo de bases de datos para la agrupación, donde cada clave es el nombre del catálogo de bases de datos. Consulte database_catalog. Se agregó en la CLI de Databricks, versión 0.265.0 |
database_instances |
Map | Las definiciones de instancia de base de datos para la agrupación, donde cada clave es el nombre de la instancia de base de datos. Consulte database_instance. Se agregó en la CLI de Databricks, versión 0.265.0 |
experiments |
Map | Las definiciones del experimento para la agrupación, donde cada clave es el nombre del experimento. Consulte experimento. Se agregó en la CLI de Databricks, versión 0.229.0 |
jobs |
Map | Las definiciones de tareas para el paquete, donde cada clave es el nombre del trabajo. Ver trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
model_serving_endpoints |
Map | El modelo que atiende las definiciones de punto de conexión para la agrupación, donde cada clave es el nombre del punto de conexión de servicio del modelo. Consulte model_serving_endpoint. Se agregó en la CLI de Databricks, versión 0.229.0 |
models |
Map | Las definiciones de modelo para la agrupación, donde cada clave es el nombre del modelo. Consulte el modelo (heredado). Se agregó en la CLI de Databricks, versión 0.229.0 |
pipelines |
Map | Las definiciones de canalización para la agrupación, donde cada clave es el nombre de la canalización. Consulte pipeline. Se agregó en la CLI de Databricks, versión 0.229.0 |
postgres_branches |
Map | Las definiciones de rama de Postgres para la agrupación, donde cada clave es el nombre de la rama Lakebase. Consulte postgres_branch. Se agregó en la CLI de Databricks, versión 0.287.0 |
postgres_endpoints |
Map | Las definiciones de punto de conexión de Postgres para la agrupación, donde cada clave es el nombre del punto de conexión de proceso de Lakebase. Consulte postgres_endpoint. Se agregó en la CLI de Databricks, versión 0.287.0 |
postgres_projects |
Map | Las definiciones de proyecto de Postgres para la agrupación, donde cada clave es el nombre del proyecto lakebase. Consulte postgres_project. Se agregó en la CLI de Databricks, versión 0.287.0 |
quality_monitors |
Map | Las definiciones del monitor de calidad para la agrupación, donde cada clave es el nombre del monitor de calidad. Consulte quality_monitor (Catálogo de Unity). Se agregó en la CLI de Databricks, versión 0.229.0 |
registered_models |
Map | Las definiciones de modelo registradas para la agrupación, donde cada clave es el nombre del modelo registrado del catálogo de Unity. Consulte registered_model (Catálogo de Unity). Se agregó en la CLI de Databricks, versión 0.229.0 |
schemas |
Map | Las definiciones de esquema para la agrupación, donde cada clave es el nombre del esquema. Consulte esquema (Unity Catalog). Se agregó en la CLI de Databricks, versión 0.229.0 |
secret_scopes |
Map | Las definiciones de ámbito de secreto para la agrupación, donde cada clave es el nombre del ámbito del secreto. Consulte secret_scope. Se agregó en la CLI de Databricks, versión 0.252.0 |
sql_warehouses |
Map | Las definiciones del almacén de SQL para el paquete, donde cada clave es el nombre del almacén de SQL. Consulte sql_warehouse. Se agregó en la CLI de Databricks, versión 0.260.0 |
synced_database_tables |
Map | Definiciones de tabla de base de datos sincronizadas para la agrupación, donde cada clave es el nombre de la tabla de base de datos. Consulte synced_database_table. Se agregó en la CLI de Databricks, versión 0.266.0 |
volumes |
Map | Las definiciones de volumen para la agrupación, donde cada clave es el nombre del volumen. Consulta volumen (Unity Catalog). Se agregó en la CLI de Databricks, versión 0.236.0 |
Ejemplo
La siguiente configuración de ejemplo define un recurso de trabajo:
resources:
jobs:
hello-job:
name: hello-job
tasks:
- task_key: hello-task
existing_cluster_id: 1234-567890-abcde123
notebook_task:
notebook_path: ./hello.py
run_as
Type: Map
La identidad (user_name o service_principal_name) que se va a usar para ejecutar flujos de trabajo de Conjuntos de recursos de Databricks. Proporciona la capacidad de separar la identidad utilizada para desplegar un trabajo de paquete o canalización de la que se utiliza para ejecutar el trabajo o la canalización. Consulte Especificación de una identidad de ejecución para un flujo de trabajo de agrupaciones de recursos de Databricks.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
service_principal_name |
Cadena | Identificador de aplicación de una entidad de servicio activa. Establecer este campo requiere el rol servicePrincipal/user.Se agregó en la CLI de Databricks, versión 0.229.0 |
user_name |
Cadena | Correo electrónico de un usuario de área de trabajo activa. Los usuarios que no son administradores solo pueden establecer este campo en su propio correo electrónico. Se agregó en la CLI de Databricks, versión 0.229.0 |
scripts
Type: Map
Los scripts que se pueden ejecutar mediante bundle run. Cada script nombrado en el mapeo scripts contiene comandos. Consulte Ejecución de scripts.
Se agregó en la CLI de Databricks, versión 0.259.0
scripts:
<script-name>:
<script-field-name>: <script-field-value>
| Clave | Tipo | Descripción |
|---|---|---|
content |
Cadena | Los comandos para ejecutar Se agregó en la CLI de Databricks, versión 0.259.0 |
Examples
scripts:
my_script:
content: uv run pytest -m ${bundle.target}
sincronizar
Type: Map
Los archivos y rutas de archivo a incluir o excluir en el paquete.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
exclude |
Secuencia | Lista de archivos o carpetas que se van a excluir de la agrupación. Consulte incluir y excluir. Se agregó en la CLI de Databricks, versión 0.229.0 |
include |
Secuencia | Lista de archivos o carpetas que se van a incluir en la agrupación. Consulte incluir y excluir. Se agregó en la CLI de Databricks, versión 0.229.0 |
paths |
Secuencia | Las rutas de acceso a carpetas locales, que pueden ubicarse fuera de la raíz del paquete, para sincronizarlas en el área de trabajo cuando se implementa el paquete. Consulte sync.paths. Se agregó en la CLI de Databricks, versión 0.229.0 |
incluir y excluir
Las asignaciones include y exclude dentro de la asignación de sync especifican una lista de archivos o carpetas que se van a incluir dentro de las implementaciones de agrupación, o excluirlas, en función de las reglas siguientes:
- En función de cualquier lista de archivos y los globs de ruta de acceso en un archivo de
.gitignoreen la raíz de la agrupación, la asignaciónincludepuede contener una lista de patrones globales de archivo, patrones globs de ruta de acceso o ambos, en relación con la raíz de la agrupación de trabajos, para incluir explícitamente. - En función de cualquier lista de patrones globales de archivo y ruta de acceso de un archivo
.gitignoreen la raíz de la agrupación, además de la lista de patrones globales de archivo y ruta de acceso de la asignacióninclude, la asignaciónexcludepuede contener una lista de patrones globales de archivo, patrones globales de ruta de acceso o ambos, en relación con la raíz de la agrupación, para excluir explícitamente.
Todas las rutas de acceso a los archivos y carpetas especificados son relativas a la ubicación del archivo de configuración de agrupación en el que se especifican estas rutas de acceso.
La sintaxis de los patrones de archivo y ruta de acceso include y exclude siguen la sintaxis de patrón estándar .gitignore. Consulte formato de patrón de gitignore.
Por ejemplo, si el siguiente archivo .gitignore contiene las siguientes entradas:
.databricks
my_package/dist
Y el archivo de configuración de agrupación contiene la siguiente asignación include:
sync:
include:
- my_package/dist/*.whl
A continuación, se incluyen todos los archivos de la carpeta my_package/dist con una extensión de archivo de *.whl. No se incluye ningún otro archivo de la carpeta my_package/dist.
Sin embargo, si el archivo de configuración de agrupación también contiene la siguiente asignación exclude:
sync:
include:
- my_package/dist/*.whl
exclude:
- my_package/dist/delete-me.whl
A continuación, se incluyen todos los archivos de la carpeta my_package/dist con una extensión de archivo de *.whl, excepto el archivo denominado delete-me.whl. No se incluye ningún otro archivo de la carpeta my_package/dist.
La asignación sync también se puede declarar en la asignación targets para un destino específico. Cualquier asignación sync declarada en un destino se combina con cualquier declaración de asignación sync de nivel superior. Por ejemplo, siguiendo con el ejemplo anterior, la siguiente asignación de include en el nivel targets se combina con la asignación de include en la asignación sync de nivel superior:
targets:
dev:
sync:
include:
- my_package/dist/delete-me.whl
sync.paths
La asignación sync puede contener una asignación paths que especifica rutas de acceso locales para sincronizar con el área de trabajo. La asignación paths permite compartir archivos comunes entre agrupaciones y se puede usar para sincronizar archivos ubicados fuera de la raíz del lote. (La raíz de agrupación es la ubicación del archivo databricks.yml). Esto resulta especialmente útil cuando tienes un único repositorio que hospeda varios conjuntos y deseas compartir bibliotecas, archivos de código o configuración.
Las rutas de acceso especificadas deben ser relativas a los archivos y directorios anclados en la carpeta donde se establece la asignación paths. Si uno o varios valores de ruta de acceso atraviesan el directorio a un antecesor de la raíz del lote, la ruta de acceso raíz se determina dinámicamente para asegurarse de que la estructura de carpetas permanece intacta. Por ejemplo, si la carpeta raíz del lote se denomina my_bundle , esta configuración en databricks.yml sincroniza la carpeta common que se encuentra un nivel por encima de la raíz de la agrupació y la propia raíz de la agrupación:
sync:
paths:
- ../common
- .
Una implementación de este conjunto da como resultado la siguiente estructura de carpetas en el área de trabajo:
common/
common_file.txt
my_bundle/
databricks.yml
src/
...
destinos
Type: Map
Define los contextos de destino de implementación para la agrupación. Cada destino es una colección única de artefactos, la configuración del área de trabajo de Azure Databricks y, a veces, detalles de recursos específicos del destino.
La asignación targets consta de una o varias asignaciones de destino, que deben tener un nombre de programación único (o lógico). Esta asignación es opcional, pero muy recomendable.
La configuración dentro de la targets asignación tiene prioridad sobre la configuración especificada en el área de trabajo de nivel superior, artefactos y asignaciones de recursos .
Un destino también puede invalidar los valores de cualquier variable de nivel superior.
Se agregó en la CLI de Databricks, versión 0.229.0
targets:
<target-name>:
<target-field-name>: <target-field-value>
| Clave | Tipo | Descripción |
|---|---|---|
artifacts |
Map | Artefactos que se van a incluir en la implementación de destino. Consulte artefactos. Se agregó en la CLI de Databricks, versión 0.229.0 |
bundle |
Map | Atributos de agrupación al implementar en este destino. Consulte paquete. Se agregó en la CLI de Databricks, versión 0.229.0 |
cluster_id |
Cadena | Identificador del clúster que se va a usar para este destino. Se agregó en la CLI de Databricks, versión 0.229.0 |
compute_id |
Cadena | En desuso. Identificador del proceso que se va a usar para este destino. |
default |
Boolean | Si este destino es el destino predeterminado. Consulte destinos.name.default. Se agregó en la CLI de Databricks, versión 0.229.0 |
git |
Map | Configuración del control de versiones de Git para el destino. Consulte Git. Se agregó en la CLI de Databricks, versión 0.229.0 |
mode |
Cadena | Modo de implementación del destino. Los valores válidos son development o production. Consulte destinos.name.mode y modos de implementación de Asset Bundle de Databricks.Se agregó en la CLI de Databricks, versión 0.229.0 |
permissions |
Secuencia | Permisos para implementar y ejecutar el paquete en el destino objetivo. Consulte los permisos. Se agregó en la CLI de Databricks, versión 0.229.0 |
presets |
Map | Valores preestablecidos de implementación para el destino. Consulte targets.name.presets. Se agregó en la CLI de Databricks, versión 0.229.0 |
resources |
Map | Definiciones de recursos para el objetivo. Consulte recursos. Se agregó en la CLI de Databricks, versión 0.229.0 |
run_as |
Map | La identidad a utilizar para ejecutar el paquete. Consulte run_as y Especificar una identidad de ejecución para un flujo de trabajo de Conjuntos de recursos de Databricks. Se agregó en la CLI de Databricks, versión 0.229.0 |
sync |
Map | Las rutas de acceso locales que se van a sincronizar con el área de trabajo de destino cuando se ejecuta o se implementa una agrupación. Consulte sync. Se agregó en la CLI de Databricks, versión 0.229.0 |
variables |
Map | Definiciones de variables personalizadas para el destino. Consulte variables. Se agregó en la CLI de Databricks, versión 0.229.0 |
workspace |
Map | Área de trabajo de Databricks para el destino. Consulte workspace. Se agregó en la CLI de Databricks, versión 0.229.0 |
destinos. name.default
Para especificar un valor predeterminado de destino para los comandos de agrupación, establezca la asignación default en true. Por ejemplo, este destino denominado dev es el destino predeterminado:
targets:
dev:
default: true
Si un destino predeterminado no está configurado, o si deseas validar, implementar y ejecutar trabajos o canalizaciones dentro de un destino específico, usa la opción -t de los comandos de agrupación.
Los siguientes comandos validan, implementan y ejecutan my_job dentro de los destinos dev y prod:
databricks bundle validate
databricks bundle deploy -t dev
databricks bundle run -t dev my_job
databricks bundle validate
databricks bundle deploy -t prod
databricks bundle run -t prod my_job
En el ejemplo siguiente declara dos destinos. El primer destino tiene el nombre dev y es el destino predeterminado que se usa cuando no se especifica ningún destino para los comandos de agrupación. El segundo destino tiene el nombre prod y solo se usa cuando se especifica este destino para los comandos de agrupación.
targets:
dev:
default: true
prod:
workspace:
host: https://<production-workspace-url>
destinos. name.mode
Para facilitar un desarrollo sencillo y las mejores prácticas de CI/CD, Databricks Asset Bundles proporciona modos de implementación para entornos que definen comportamientos predeterminados para flujos de trabajo de preproducción y producción. Algunos comportamientos también se pueden configurar mediante destinos.name.presets.
Para obtener más información, consulte Modos de implementación de paquetes de activos de Databricks.
Sugerencia
Para configurar identidades de ejecución para agrupaciones, puede especificar run_as para cada destino, como se describe en Especificación de una identidad de ejecución para un flujo de trabajo de Conjuntos de recursos de Databricks.
Para especificar que un destino se trata como destino de desarrollo, agregue la asignación mode establecida en development. Para especificar que un destino se trata como destino de producción, agregue la asignación mode establecida en production. Por ejemplo, este destino denominado prod se trata como destino de producción:
targets:
prod:
mode: production
destinos. name.presets
Puede personalizar algunos de los comportamientos de implementación mode de destino mediante la presets asignación.
Para obtener una lista de los valores preestablecidos disponibles, consulta Valores preestablecidos personalizados.
El siguiente ejemplo muestra un objetivo de producción personalizado que añade prefijos y etiquetas a todos los recursos de producción.
targets:
prod:
mode: production
presets:
name_prefix: 'production_' # prefix all resource names with production_
tags:
prod: true
variables
Type: Map
Define una variable personalizada para la agrupación. En cada variable, establezca una descripción opcional, un valor predeterminado, si la variable personalizada es un tipo complejo o una búsqueda para recuperar un valor de identificador, y use este formato:
variables:
<variable-name>:
description: <variable-description>
default: <optional-default-value>
type: <optional-type-value> # "complex" is the only valid value
lookup:
<optional-object-type>: <optional-object-name>
Nota:
Se supone que las variables son del tipo string, a menos que type se establezca en complex. Consulte Definición de una variable compleja.
Para hacer referencia a una variable personalizada dentro de la configuración de un paquete, use la sustitución ${var.<variable_name>}.
Para obtener más información sobre las variables y sustituciones personalizadas, vea Sustituciones y variables en Agrupaciones de recursos de Databricks.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
default |
Cualquiera | Valor predeterminado de la variable. Se agregó en la CLI de Databricks, versión 0.229.0 |
description |
Cadena | Descripción de la variable. Se agregó en la CLI de Databricks, versión 0.229.0 |
lookup |
Map | Nombre del alert, cluster_policy, cluster, dashboard, instance_pool, job, metastore, pipeline, query, service_principal, o warehouse objeto para el que se va a recuperar un identificador. Consulte variables.name.lookup.Se agregó en la CLI de Databricks, versión 0.229.0 |
type |
Cadena | Tipo de la variable, simple o compleja. Establezca esta clave solo si la variable es compleja. Valores válidos: complex.Se agregó en la CLI de Databricks, versión 0.229.0 |
variables.name.lookup
Type: Map
Nombre de la alerta, política_de_clúster, clúster, panel, grupo_de_instancias, trabajo, metastore, canalización, consulta, servicio_principal o almacén para el cual se recuperará un identificador. Para obtener información sobre el uso de la búsqueda, vea Recuperar el valor de identificador de un objeto.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
alert |
Cadena | Nombre de la alerta de la que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
cluster |
Cadena | Nombre del clúster para el que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
cluster_policy |
Cadena | El nombre del "cluster_policy" del que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
dashboard |
Cadena | Nombre del panel del que se va a recuperar un identificador Se agregó en la CLI de Databricks, versión 0.229.0 |
instance_pool |
Cadena | Nombre del instance_pool para el que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
job |
Cadena | Nombre del trabajo del que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
metastore |
Cadena | Nombre del metastore del que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
notification_destination |
Cadena | El nombre de notification_destination del que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.236.0 |
pipeline |
Cadena | Nombre de la canalización de la que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
query |
Cadena | Nombre de la consulta para la que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
service_principal |
Cadena | Nombre del service_principal para el que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
warehouse |
Cadena | Nombre del almacén para el que se va a recuperar un identificador. Se agregó en la CLI de Databricks, versión 0.229.0 |
Área de trabajo
Type: Map
Define el área de trabajo de Databricks para la agrupación. El archivo de configuración de agrupación solo puede contener una asignación workspace de nivel superior para especificar cualquier configuración de área de trabajo de Azure Databricks no predeterminada que se va a usar.
Important
También se admiten rutas de acceso válidas del área de trabajo de Databricks con /Workspace o para artefactos /Volumes. Las rutas de acceso del área de trabajo personalizadas tienen asignado automáticamente el prefijo /Workspace, por lo que si usa cualquier sustitución de ruta de acceso del área de trabajo en la ruta de acceso personalizada, como ${workspace.file_path}, no es necesario anteponer /Workspace a la ruta de acceso.
Se agregó en la CLI de Databricks, versión 0.229.0
| Clave | Tipo | Descripción |
|---|---|---|
artifact_path |
Cadena | Ruta de acceso del artefacto que se va a usar en el área de trabajo para las implementaciones y ejecuciones de flujo de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
auth_type |
Cadena | El tipo de autenticación que se va a usar, especialmente importante en los casos en los que la CLI de Databricks deduce un tipo de autenticación inesperado. Consulte Autorización del acceso a los recursos de Azure Databricks. Se agregó en la CLI de Databricks, versión 0.229.0 |
azure_client_id |
Cadena | Identificador de cliente de Azure. Consulte Autenticación del área de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
azure_environment |
Cadena | Entorno de Azure. Consulte Autenticación del área de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
azure_login_app_id |
Cadena | Identificador de la aplicación de inicio de sesión de Azure. Consulte Autenticación del área de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
azure_tenant_id |
Cadena | Identificador de inquilino de Azure. Consulte Autenticación del área de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
azure_use_msi |
Boolean | Si se usa MSI para Azure. Consulte Autenticación del área de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
azure_workspace_resource_id |
Cadena | Identificador de recurso del área de trabajo de Azure. Consulte Autenticación del área de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
client_id |
Cadena | Identificador de cliente del área de trabajo. Consulte Autenticación del área de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
file_path |
Cadena | Ruta de acceso del archivo que se va a usar en el área de trabajo tanto para implementaciones como para ejecuciones de flujo de trabajo. Consulte workspace.file_path. Se agregó en la CLI de Databricks, versión 0.229.0 |
google_service_account |
Cadena | Nombre de la cuenta de servicio de Google. Consulte Autenticación del área de trabajo. Se agregó en la CLI de Databricks, versión 0.229.0 |
host |
Cadena | Dirección URL del host del área de trabajo de Databricks. Consulte Nombres de instancia, direcciones URL e identificadores del área de trabajo. Al establecer la asignación de host, se indica a la CLI de Databricks que busque un perfil coincidente en el archivo .databrickscfg y, a continuación, use los campos de ese perfil para determinar qué tipo de autenticación de Databricks se va a usar. Si existen varios perfiles con un campo coincidente host dentro .databrickscfg del archivo, debe usar la profile asignación (o las --profile opciones de línea de comandos) -p para especificar un perfil.Se agregó en la CLI de Databricks, versión 0.229.0 |
profile |
Cadena | Nombre del perfil del área de trabajo de Databricks. Consulte workspace.profile. Se agregó en la CLI de Databricks, versión 0.229.0 |
resource_path |
Cadena | Ruta de acceso del recurso del área de trabajo Se agregó en la CLI de Databricks, versión 0.230.0 |
root_path |
Cadena | Ruta de acceso raíz del área de trabajo de Databricks. Consulte workspace.root_path. Se agregó en la CLI de Databricks, versión 0.229.0 |
state_path |
Cadena | Ruta de acceso de estado del área de trabajo. Esta clave tiene como valor predeterminado la ruta de acceso predeterminada de y representa la ruta de ${workspace.root}/state acceso dentro del área de trabajo para almacenar información de estado de Terraform sobre las implementaciones.Se agregó en la CLI de Databricks, versión 0.229.0 |
autenticación del área de trabajo
La asignación del área de trabajo también puede contener asignaciones para especificar el mecanismo de autenticación de Databricks que se va a usar. Si no se especifican dentro de la asignación del área de trabajo de nivel superior, deben especificarse en una asignación de área de trabajo como elemento secundario de uno o varios de los destinos de la asignación de destinos de nivel superior.
Para la autenticación de máquina a máquina (M2M) de OAuth, se emplea la asignación
client_id. Como alternativa, puede establecer este valor en la variable de entorno localDATABRICKS_CLIENT_ID. O bien, puede crear un perfil de configuración con el valorclient_idy, a continuación, especificar el nombre del perfil con la asignaciónprofile(o mediante la opción--profileo-pal ejecutar los comandos de validación, implementación, ejecución y destrucción del paquete con la CLI de Databricks). Consulte Autorización del acceso de la entidad de servicio a Azure Databricks con OAuth.Nota:
No se puede especificar un valor de secreto de OAuth de Azure Databricks en el archivo de configuración de agrupación. En su lugar, establezca la variable de entorno local
DATABRICKS_CLIENT_SECRET. O bien, puede agregar el valorclient_secreta un perfil de configuración y, a continuación, especificar el nombre del perfil con la asignaciónprofile(o usando las opciones--profileo-pal ejecutar los comandos de validar, implementar, ejecutar y destruir del paquete con la CLI de Databricks).Para la autenticación de la CLI de Azure, se usa la asignación
azure_workspace_resource_id. Como alternativa, puede establecer este valor en la variable de entorno localDATABRICKS_AZURE_RESOURCE_ID. O bien, puede crear un perfil de configuración con el valorazure_workspace_resource_idy, a continuación, especificar el nombre del perfil con la asignaciónprofile(o mediante la opción--profileo-pal ejecutar los comandos de validación, implementación, ejecución y destrucción del paquete con la CLI de Databricks). Consulte Autenticación con la CLI de Azure.Para la autenticación de secretos de cliente de Azure con entidades de servicio, se usan las asignaciones
azure_workspace_resource_id,azure_tenant_idyazure_client_id. Como alternativa, puede establecer estos valores en las variables de entorno localDATABRICKS_AZURE_RESOURCE_ID,ARM_TENANT_IDyARM_CLIENT_ID, respectivamente. O bien, puede crear un perfil de configuración con los valoresazure_workspace_resource_id,azure_tenant_idyazure_client_idy, a continuación, especificar el nombre del perfil con la asignaciónprofile(o utilizando las opciones--profileo-pal ejecutar los comandos bundle validate, deploy, run y destroy con la CLI de Databricks). Consulte Autenticación con entidades de servicio de Microsoft Entra.Nota:
No se puede especificar un valor de secreto de cliente de Azure en el archivo de configuración de agrupación. En su lugar, establezca la variable de entorno local
ARM_CLIENT_SECRET. O bien, puede agregar el valorazure_client_secreta un perfil de configuración y, a continuación, especificar el nombre del perfil con la asignaciónprofile(o usando las opciones--profileo-pal ejecutar los comandos de validar, implementar, ejecutar y destruir del paquete con la CLI de Databricks).Para la autenticación de identidades administradas de Azure, se usan las asignaciones
azure_use_msi,azure_client_idyazure_workspace_resource_id. Como alternativa, puede establecer estos valores en las variables de entorno localARM_USE_MSI,ARM_CLIENT_IDyDATABRICKS_AZURE_RESOURCE_ID, respectivamente. O bien, puede crear un perfil de configuración con los valoresazure_use_msi,azure_client_idyazure_workspace_resource_idy, a continuación, especificar el nombre del perfil con la asignaciónprofile(o utilizando las opciones--profileo-pal ejecutar los comandos bundle validate, deploy, run y destroy con la CLI de Databricks). Consulte Autenticación con identidades administradas de Azure.La asignación
azure_environmentespecifica el tipo de entorno de Azure (como Public, UsGov, China y Alemania) para un conjunto específico de puntos de conexión de API. El valor predeterminado esPUBLIC. Como alternativa, puede establecer este valor en la variable de entorno localARM_ENVIRONMENT. O bien, puede agregar el valorazure_environmenta un perfil de configuración y, a continuación, especificar el nombre del perfil con la asignaciónprofile(o usando las opciones--profileo-pal ejecutar los comandos de validar, implementar, ejecutar y destruir del paquete con la CLI de Databricks).La asignación
azure_login_app_idno es operativa y está reservada para uso interno.
workspace.root_path
Esta asignación workspace puede contener una asignación root_path para especificar una ruta de acceso raíz no predeterminada que se usará en el área de trabajo tanto para las implementaciones como para las ejecuciones de flujo de trabajo, por ejemplo:
workspace:
root_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}
De manera predeterminada, para root_path, la CLI de Databricks usa la ruta de acceso predeterminada /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/${bundle.target}, que usa substitutions.
workspace.artifact_path
Esta asignación workspace también puede contener una asignación artifact_path para especificar una ruta de artefactos no predeterminada que se usará tanto para las implementaciones como para las ejecuciones de flujo de trabajo en el área de trabajo, por ejemplo:
workspace:
artifact_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/artifacts
De manera predeterminada, para artifact_path, la CLI de Databricks usa la ruta de acceso predeterminada ${workspace.root}/artifacts, que usa substitutions.
Nota:
La asignación artifact_path no admite rutas de acceso del sistema de archivos de Databricks (DBFS).
workspace.file_path
Esta asignación workspace también puede contener una asignación file_path para especificar una ruta de acceso de archivo no predeterminada que se usará en el área de trabajo tanto para las implementaciones como para las ejecuciones de flujo de trabajo, por ejemplo:
workspace:
file_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/files
De manera predeterminada, para file_path, la CLI de Databricks usa la ruta de acceso predeterminada ${workspace.root}/files, que usa substitutions.
Important
No se pueden especificar variables personalizadas para estos valores de autenticación mediante la ${var.*} sintaxis .
workspace.profile
Nota:
Databricks recomienda usar la asignación host (o las opciones --profile o -p al ejecutar los comandos de validación, implementación, ejecución y destrucción del conjunto con la CLI de Databricks) en lugar de la asignación profile, ya que esto hace que los archivos de configuración en conjunto sean más portátiles.
La profile asignación especifica el nombre de un perfil de configuración que se va a usar para autenticarse en este área de trabajo de Azure Databricks. Este perfil de configuración corresponde al que usted creó cuando configuró la CLI de Databricks.
Objetos comunes
Git (sistema de control de versiones)
Type: Map
Define los detalles del control de versiones de Git. Esto resulta útil para propagar los metadatos de implementación que se pueden usar más adelante para identificar los recursos. Por ejemplo, puede realizar un seguimiento del origen del repositorio de un trabajo implementado por CI/CD.
Siempre que ejecute un bundle comando como validate, deploy o run, el bundle comando rellena el árbol de configuración del comando con la siguiente configuración predeterminada:
Para recuperar o invalidar la configuración de Git, la agrupación debe estar dentro de un directorio asociado a un repositorio de Git, por ejemplo, un directorio local que se inicializa mediante la ejecución del comando git clone. Si el directorio no está asociado a un repositorio de Git, esta configuración de Git está vacía.
| Clave | Tipo | Descripción |
|---|---|---|
branch |
Cadena | Nombre actual de la rama de Git. Este es el mismo valor que obtendría si ejecutara el comando git branch --show-current desde el repositorio clonado. Puede usar sustituciones para hacer referencia a este valor con los archivos de configuración de agrupación, como ${bundle.git.branch}. |
origin_url |
Cadena | Dirección URL de origen del repositorio. Este es el mismo valor que obtendría si ejecutara el comando git config --get remote.origin.url desde el repositorio clonado. Puede usar sustituciones para hacer referencia a este valor con los archivos de configuración de agrupación, como ${bundle.git.origin_url}. |
Examples
Puede invalidar la origin_url configuración y branch dentro de la asignación de la git asignación de nivel bundle superior si es necesario:
bundle:
git:
origin_url: <some-non-default-origin-url>
branch: <some-non-current-branch-name>