Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Note
Эта информация относится к Интерфейсу командной строки Databricks версии 0.205 и выше. Интерфейс командной строки Databricks находится в общедоступной предварительной версии.
Использование интерфейса командной строки Databricks регулируется лицензией Databricks и уведомлением о конфиденциальности Databricks, включая положения о данных использования.
Группа clusters команд в интерфейсе командной строки Databricks позволяет создавать, запускать, изменять, перечислять, завершать и удалять кластеры.
Кластер Databricks — это набор вычислительных ресурсов и конфигураций, в которых выполняется проектирование данных, обработка и анализ данных, такие как рабочие конвейеры ETL, потоковая аналитика, аналитика нерегламентированных данных и машинное обучение. Обзор классических вычислений.
Important
Databricks сохраняет сведения о конфигурации кластера для завершенных кластеров в течение 30 дней. Чтобы сохранить универсальную конфигурацию кластера даже после его удаления более чем на 30 дней, администратор может закрепить кластер в списке кластеров.
Изменение владельца для кластеров Databricks
Измените владельца кластера. Для выполнения этой операции необходимо быть администратором, а кластер должен быть остановлен. Идентификатор приложения служебного принципала можно указать в качестве аргумента для owner_username.
databricks clusters change-owner CLUSTER_ID OWNER_USERNAME [flags]
Arguments
CLUSTER_ID
Идентификатор кластера.
OWNER_USERNAME
Новый владелец для cluster_id после выполнения этого RPC.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
Создание кластеров Databricks
Создайте кластер. При необходимости эта команда получает новые экземпляры от облачного провайдера. Эта команда асинхронна; возвращенный cluster_id можно использовать для опроса состояния кластера. Когда эта команда возвращается, кластер находится в состоянии PENDING. Кластер доступен после ввода состояния RUNNING. Databricks может не иметь возможности получить некоторые запрошенные узлы из-за ограничений поставщика облачных служб (ограничения учетной записи, точечные цены и т. д.) или временных сетевых проблем.
Если Databricks получает по крайней мере 85% запрошенных узлов по запросу, создание кластера завершится успешно. В противном случае кластер завершается информативным сообщением об ошибке.
Вместо создания определения JSON кластера с нуля Databricks рекомендует заполнить пользовательский интерфейс вычислений , а затем скопировать созданное определение JSON из пользовательского интерфейса.
databricks clusters create SPARK_VERSION [flags]
Arguments
SPARK_VERSION
Версия Кластера Spark, например 13.3.x-scala2.12. Список доступных версий Spark можно получить с помощью API доступных версий Spark .
Options
--apply-policy-default-values
Если задано значение true, фиксированные значения и значения по умолчанию по политике применяются к полям, которые опущены.
--autotermination-minutes int
Автоматически завершает кластер после его бездействия в течение указанного времени в минутах.
--cluster-name string
Имя кластера, запрошенное пользователем.
--data-security-mode DataSecurityMode
Режим безопасности данных решает, какую модель управления данными следует использовать при доступе к данным из кластера. Поддерживаемые значения: DATA_SECURITY_MODE_AUTO, , DATA_SECURITY_MODE_DEDICATEDDATA_SECURITY_MODE_STANDARDLEGACY_PASSTHROUGHLEGACY_SINGLE_USERLEGACY_SINGLE_USER_STANDARDLEGACY_TABLE_ACLNONESINGLE_USERUSER_ISOLATION
--driver-instance-pool-id string
Необязательный идентификатор пула экземпляров, к которому принадлежит драйвер кластера.
--driver-node-type-id string
Тип узла драйвера Spark.
--enable-elastic-disk
Автоматическое масштабирование локального хранилища: когда включено, этот кластер динамически получает дополнительное дисковое пространство, если пользователи Spark испытывают недостаток места на диске.
--enable-local-disk-encryption
Следует ли включить LUKS на локальных дисках виртуальных машин кластера.
--instance-pool-id string
Необязательный идентификатор пула экземпляров, к которому принадлежит кластер.
--is-single-node
Это поле можно использовать только в том случае, если тип = CLASSIC_PREVIEW.
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
--kind Kind
Тип вычислений, описанных в этой спецификации вычислений. Поддерживаемые значения: CLASSIC_PREVIEW
--no-wait
Не подождите, чтобы достичь состояния ВЫПОЛНЕНИЯ
--node-type-id string
Используя отдельное значение, это поле кодирует доступные ресурсы для каждого узла Spark в этом кластере.
--num-workers int
Необходимое число рабочих узлов текущего кластера.
--policy-id string
Идентификатор политики кластера, используемой для создания кластера, если это применимо.
--runtime-engine RuntimeEngine
Определяет движок среды выполнения кластера, стандартный или Photon. Поддерживаемые значения: NULL, PHOTON, STANDARD
--single-user-name string
Одно имя пользователя, если data_security_mode SINGLE_USER.
--timeout duration
максимальное время достижения состояния ВЫПОЛНЕНИЯ (по умолчанию 20m0s)
--use-ml-runtime
Это поле можно использовать только в том случае, если тип = CLASSIC_PREVIEW.
Удаление кластеров Databricks
Завершите кластер с указанным идентификатором. Кластер удаляется асинхронно. После завершения кластер находится в состоянии TERMINATED. Если кластер уже находится в состоянии TERMINATING или TERMINATED, ничего не происходит.
databricks clusters delete CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, который необходимо завершить.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
--no-wait
Не подождите, чтобы достичь TERMINATED состояния
--timeout duration
Максимальное время достижения TERMINATED состояния (по умолчанию 20m0s)
Редактирование кластеров Databricks
Обновите конфигурацию кластера, чтобы она соответствовала указанным атрибутам и размеру. Кластер можно обновить, если он находится в статусе RUNNING или TERMINATED.
Если кластер обновляется во время выполнения, он перезапускается таким образом, чтобы новые атрибуты вступили в силу.
Если кластер обновляется в состоянии ОСТАНОВЛЕННЫМ, он остается ОСТАНОВЛЕННЫМ. При следующем запуске с помощью API кластеров или запуска новые атрибуты вступают в силу. Любая попытка обновить кластер в любом другом состоянии отклоняется с помощью кода ошибки INVALID_STATE.
Кластеры, созданные службой заданий Databricks, не могут быть изменены.
databricks clusters edit CLUSTER_ID SPARK_VERSION [flags]
Arguments
CLUSTER_ID
Идентификатор кластера
SPARK_VERSION
Версия Кластера Spark, например 13.3.x-scala2.12. Список доступных версий Spark можно получить с помощью API доступных версий Spark .
Options
--apply-policy-default-values
Используйте фиксированные значения и значения по умолчанию из политики для полей, которые опущены.
--autotermination-minutes int
Кластер автоматически завершится после того, как он будет неактивен в течение указанного времени в минутах.
--cluster-name string
Имя кластера, запрошенное пользователем.
--data-security-mode DataSecurityMode
Режим безопасности данных решает, какую модель управления данными следует использовать при доступе к данным из кластера. Поддерживаемые значения: DATA_SECURITY_MODE_AUTO, , DATA_SECURITY_MODE_DEDICATED``, DATA_SECURITY_MODE_STANDARDLEGACY_PASSTHROUGHLEGACY_SINGLE_USERLEGACY_SINGLE_USER_STANDARDLEGACY_TABLE_ACLNONESINGLE_USERUSER_ISOLATION
--driver-instance-pool-id string
Необязательный идентификатор пула экземпляров, к которому принадлежит драйвер кластера.
--driver-node-type-id string
Тип узла драйвера Spark.
--enable-elastic-disk
Автоматическое масштабирование локального хранилища: когда включено, этот кластер динамически получает дополнительное дисковое пространство, если пользователи Spark испытывают недостаток места на диске.
--enable-local-disk-encryption
Следует ли включить LUKS на локальных дисках виртуальных машин кластера.
--instance-pool-id string
Необязательный идентификатор пула экземпляров, к которому принадлежит кластер.
--is-single-node
Это поле можно использовать только в том случае, если тип = CLASSIC_PREVIEW.
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
--kind Kind
Тип вычислений, описанных в этой спецификации вычислений. Поддерживаемые значения: CLASSIC_PREVIEW
--no-wait
Не ждите достижения состояния RUNNING
--node-type-id string
Используя отдельное значение, это поле кодирует доступные ресурсы для каждого узла Spark в этом кластере.
--num-workers int
Необходимое число рабочих узлов текущего кластера.
--policy-id string
Идентификатор политики кластера, используемой для создания кластера, если это применимо.
--runtime-engine RuntimeEngine
Определяет движок среды выполнения кластера, стандартный или Photon. Поддерживаемые значения: NULL, PHOTON, STANDARD
--single-user-name string
Одно имя пользователя, если режим data_security_mode установлен в SINGLE_USER.
--timeout duration
максимальное время достижения состояния ВЫПОЛНЕНИЯ (по умолчанию 20m0s)
--use-ml-runtime
Это поле можно использовать только в том случае, если тип = CLASSIC_PREVIEW.
События кластеров databricks
Перечислить события, связанные с функционированием кластера. Этот API разбиен на страницы. Если есть больше событий для чтения, ответ включает все параметры, необходимые для запроса следующей страницы событий.
databricks clusters events CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Идентификатор кластера для получения информации о событиях.
Options
--end-time int
Время окончания в миллисекундах временной эпохи.
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
--limit int
Не рекомендуется: вместо этого используйте page_token в сочетании с page_size.
--offset int
Не рекомендуется: вместо этого используйте page_token в сочетании с page_size.
--order GetEventsOrder
Порядок перечисления событий. Поддерживаемые значения: ASC, DESC
--page-size int
Максимальное количество событий, включаемых на страницу событий.
--page-token string
Используйте next_page_token или prev_page_token, возвращенные из предыдущего запроса, чтобы отобразить следующую или предыдущую страницу событий соответственно.
--start-time int
Время начала в миллисекундах эпохи.
Получение кластеров Databricks
Возвращает сведения для кластера по его идентификатору. Кластеры можно описать во время их выполнения или до 60 дней после завершения работы.
databricks clusters get CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, о котором требуется получить сведения.
Options
Список кластеров Databricks
Представьте список сведений обо всех закрепленных и активных кластерах, и всех кластеров, завершенных за последние 30 дней. Кластеры, завершаемые до этого периода, не включаются.
databricks clusters list [flags]
Arguments
None
Options
--cluster-sources []string
Фильтрация кластеров по источнику
--cluster-states []string
Фильтрация кластеров по состояниям
--is-pinned
Фильтрация кластеров по прикреплённому статусу
--page-size int
Используйте это поле, чтобы указать максимальное количество результатов, возвращаемых сервером.
--page-token string
Используйте next_page_token или prev_page_token, возвращенные из предыдущего запроса, чтобы отобразить следующую или предыдущую страницу кластеров соответственно.
--policy-id string
Фильтрация кластеров по идентификатору политики
databricks кластеры list-node-types
Список поддерживаемых типов узлов Spark. Эти типы узлов можно использовать для запуска кластера.
databricks clusters list-node-types [flags]
Arguments
None
Options
кластеры databricks список-зон
Список зон доступности, в которых можно создать кластеры (например, us-west-2a). Эти зоны можно использовать для запуска кластера.
databricks clusters list-zones [flags]
Arguments
None
Options
кластеры databricks безвозвратно удаляются
Окончательное удаление кластера. Этот кластер завершается, а ресурсы асинхронно удаляются.
Кроме того, пользователи больше не увидят безвозвратно удаленные кластеры в списке кластеров, а пользователи API больше не могут выполнять какие-либо действия в кластерах безвозвратно удаленных.
databricks clusters permanent-delete CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, который нужно удалить.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
Закрепление кластеров Databricks
Закрепите кластер, чтобы гарантировать, что кластер всегда будет возвращен API ListClusters. Закрепление кластера, который уже закреплен, не будет иметь эффекта. Этот API может вызываться только администраторами рабочей области.
databricks clusters pin CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Идентификатор кластера.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
Изменение размера кластеров Databricks
Настройте размер кластера до необходимого количества рабочих узлов. Это завершится ошибкой, если кластер не находится в состоянии RUNNING.
databricks clusters resize CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, который необходимо изменить по размеру.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
--no-wait
Не подождите, чтобы достичь состояния ВЫПОЛНЕНИЯ
--num-workers int
Необходимое число рабочих узлов текущего кластера.
--timeout duration
Максимальное время достижения состояния RUNNING (по умолчанию 20m0s)
Перезапуск кластеров Databricks
Перезапустите кластер с указанным идентификатором. Если кластер в настоящее время не находится в состоянии RUNNING, ничего не происходит.
databricks clusters restart CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, который необходимо запустить.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
--no-wait
Не подождите, чтобы достичь состояния ВЫПОЛНЕНИЯ
--restart-user string
Пользователь, перезагрузивший кластер.
--timeout duration
Максимальное время достижения состояния RUNNING (по умолчанию 20m0s)
Кластеры Databricks, версии Spark
Список доступных версий Spark. Эти версии можно использовать для запуска кластера.
databricks clusters spark-versions [flags]
Arguments
None
Options
Запуск кластеров databricks
Запустите остановленный кластер с указанным идентификатором. Это работает аналогично созданиюCluster, кроме того: — сохраняются предыдущие идентификаторы и атрибуты кластера. — кластер начинается с последнего указанного размера кластера. — Если предыдущий кластер был кластером автомасштабирования, текущий кластер начинается с минимального количества узлов. — Если кластер в настоящее время не находится в состоянии TERMINATED, ничего не происходит. — Кластеры, предназначенные для выполнения задания, не могут быть запущены.
databricks clusters start CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, который необходимо запустить.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
--no-wait
Не подождите, чтобы достичь состояния ВЫПОЛНЕНИЯ
--timeout duration
Максимальное время достижения состояния RUNNING (по умолчанию 20m0s)
Снять закрепление кластеров databricks
Открепите кластер, чтобы в будущем разрешить его удаление из API ListClusters. Отмена закрепления кластера, который не закреплен, не будет иметь никакого эффекта. Этот API может вызываться только администраторами рабочей области.
databricks clusters unpin CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Идентификатор кластера.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
Обновление кластеров databricks
Обновите конфигурацию кластера, чтобы соответствовать частичному набору атрибутов и размеров. Указывает, какие поля следует обновить с помощью поля update_mask в тексте запроса. Кластер можно обновить, если он находится в статусе RUNNING или TERMINATED. Если кластер обновляется во время выполнения, он будет перезапущен таким образом, чтобы новые атрибуты вступили в силу. Если кластер обновляется в состоянии TERMINATED, он останется завершенным. Обновленные атрибуты вступают в силу при следующем запуске кластера с помощью API запуска кластеров. Попытки обновить кластер в любом другом состоянии будут отклонены с помощью кода ошибки INVALID_STATE. Кластеры, созданные службой заданий Databricks, не могут быть обновлены.
databricks clusters update CLUSTER_ID UPDATE_MASK [flags]
Arguments
CLUSTER_ID
Идентификатор кластера.
UPDATE_MASK
Используется для указания атрибутов кластера и полей размера для обновления. Дополнительные сведения см. в https://google.aip.dev/161. Маска поля должна быть одной строкой, с несколькими полями, разделенными запятыми (без пробелов). Путь к полю задан относительно объекта ресурса и использует точку (.) для доступа к вложенным полям (например, author.given_name). Спецификация элементов в полях последовательности или карты запрещена, так как можно указать только все поле коллекции. Имена полей должны точно совпадать с именами полей ресурсов. Маска _ поля указывает на полную замену. Рекомендуется всегда явно перечислять обновляемые поля и избегать использования _ подстановочных знаков, так как это может привести к непредвиденным результатам, если API изменится в будущем.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
--no-wait
Не подождите, чтобы достичь состояния ВЫПОЛНЕНИЯ
--timeout duration
Максимальное время достижения состояния RUNNING (по умолчанию 20m0s)
кластеры databricks с уровнем разрешений
Получение уровней разрешений кластера.
databricks clusters get-permission-levels CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, для которого нужно получить или управлять разрешениями.
Options
Кластеры Databricks получить права
Получите разрешения кластера. Кластеры могут наследовать разрешения от корневого объекта.
databricks clusters get-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, для которого нужно получить или управлять разрешениями.
Options
настройка разрешений для кластеров Databricks
Задайте разрешения кластера, заменив существующие разрешения, если они существуют. Удаляет все прямые разрешения, если они не указаны. Объекты могут наследовать разрешения от корневого объекта.
databricks clusters set-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, для которого нужно получить или управлять разрешениями.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
databricks кластеры обновление разрешений
Обновите разрешения в кластере. Кластеры могут наследовать разрешения от корневого объекта.
databricks clusters update-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Кластер, для которого нужно получить или управлять разрешениями.
Options
--json JSON
Встроенная строка JSON или @path JSON-файл с текстом запроса
Глобальные флаги
--debug
Следует ли включить ведение журнала отладки.
-h или --help
Отобразить справку по интерфейсу командной строки Databricks, связанной группе команд или отдельной команде.
--log-file струна
Строка, представляющая файл для записи журналов выходных данных. Если этот флаг не указан, по умолчанию используется запись журналов выходных данных в stderr.
--log-format формат
Тип text формата журнала или json. Значение по умолчанию — text.
--log-level струна
Строка, представляющая уровень формата журнала. Если не указано, уровень формата журнала отключен.
типа -o, --output
Тип text выходных данных команды или json. Значение по умолчанию — text.
-p, --profile струна
Имя профиля в ~/.databrickscfg файле, используемого для выполнения команды. Если этот флаг не указан, то если он существует, используется DEFAULT профиль.
--progress-format формат
Формат для отображения журналов хода выполнения: default, appendinplace, илиjson
-t, --target струна
Если применимо, целевой объект пакета для использования