Поделиться через


Справочник по API Python для Мозаики AutoML

В этой статье описывается API Python Для Мозаики AutoML, который предоставляет методы для запуска классификации, регрессии и прогнозирования запусков AutoML. Каждый вызов метода обучает набор моделей и создает пробную записную книжку для каждой модели.

Дополнительные сведения о Параметре пользовательского интерфейса с низким кодом см. в разделе "Что такое Мозаика AutoML?".

Классификация

Метод databricks.automl.classify настраивает запуск AutoML для мозаики для обучения модели классификации.

Примечание.

Параметр max_trials не рекомендуется использовать в Databricks Runtime 10.4 ML и не поддерживается в Databricks Runtime 11.0 ML и выше. Используйте timeout_minutes для управления продолжительностью выполнения AutoML.

databricks.automl.classify(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "f1",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  pos_label: Optional[Union[int, bool, str]] = None,                 # <DBR> 11.1 ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None                           # <DBR> 15.4 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Классифицировать параметры

Наименование параметра Тип Описание
dataset str, , pandas.DataFramepyspark.DataFramepyspark.sql.DataFrame Имя входной таблицы или кадр данных, содержащий функции обучения и целевой объект. Имя таблицы может быть в формате "<database_name>".<>table_name или "<schema_name>".<>table_name" для таблиц, отличных от каталога Unity.
target_col str Имя столбца для целевой метки.
primary_metric str Метрика, используемая для оценки и ранжирования производительности модели.

Поддерживаемые метрики для регрессии: "r2" (по умолчанию), "mae", "rmse", "mse"

Поддерживаемые метрики для классификации: "f1" (по умолчанию), "log_loss", "precision", "accuracy", "roc_auc"
data_dir str формат dbfs:/<folder-name> Необязательно. Путь DBFS , используемый для хранения обучаемого набора данных. Этот путь виден как для драйверов, так и для рабочих узлов.

Databricks рекомендует оставить это поле пустым, поэтому AutoML может сохранить набор данных обучения в качестве артефакта MLflow.

Если указан пользовательский путь, набор данных не наследует разрешения на доступ к эксперименту AutoML.
experiment_dir str Необязательно. Путь к каталогу в рабочей области для сохранения созданных записных книжек и экспериментов.

По умолчанию: /Users/<username>/databricks_automl/
experiment_name str Необязательно. Имя создаваемого эксперимента MLflow.

По умолчанию: имя создается автоматически.
exclude_cols List[str] Необязательно. Список столбцов, которые следует игнорировать во время вычислений AutoML.

Default: []
exclude_frameworks List[str] Необязательно. Список платформ алгоритмов, которые autoML не должны рассматриваться в качестве разработки моделей. Возможные значения: пустой список или одно или несколько из следующих — "sklearn", "lightgbm", "xgboost".

По умолчанию: [] (все платформы учитываются)
feature_store_lookups List[Dict] Необязательно. Список словарей, представляющих функции из Хранилища компонентов для расширения данных. Допустимые ключи в каждом словаре:

- table_name (str): Обязательный. Имя таблицы признаков.
- lookup_key (список или стр.): Обязательный. Имена столбцов, которые используются в качестве ключа при присоединении к таблице компонентов с данными, переданными в dataset параме. Порядок имен столбцов должен соответствовать порядку первичных ключей таблицы признаков.
- timestamp_lookup_key(str): Требуется, если указанная таблица является таблицей функций временных рядов. Имя столбца, используемое при поиске на определенный момент времени в таблице признаков с данными, переданными в dataset параме.

Default: []
imputers Dict[str, Union[str, Dict[str, Any]]] Необязательно. Словарь, где каждый ключ является именем столбца, и каждое значение является строкой или словарем, описывающим стратегию вменения. Если значение указано в виде строки, оно должно иметь одно из значений: "mean", "median" или "most_frequent". Чтобы ввести в качестве словаря {"strategy": "constant", "fill_value": <desired value>}имя известного значения, укажите значение. Можно также указать параметры строки в качестве словарей, например {"strategy": "mean"}.

Если для столбца не указана стратегия оцепления, AutoML выбирает стратегию по умолчанию на основе типа столбца и содержимого. При выборе метода добавления отсутствующих данных, кроме заданного по умолчанию, AutoML не выполняет Обнаружение семантических типов.

По умолчанию: {}
pos_label Union[int, bool, str] (Только классификация) Положительный класс. Он удобен для вычисления таких метрик, как точность и полнота. Он должен указываться только для задач двоичной классификации.
time_col str Доступно в Databricks Runtime 10.1 ML и более поздних версий.

Необязательно. Имя столбца для столбца времени.

Если оно указано, AutoML пытается разделить набор данных на наборы для обучения, проверки и тестирования в хронологическом порядке, используя самые ранние точки в качестве обучающих данных и самые последние точки в качестве набора для тестирования.

Допустимые типы столбцов — метка времени и целое число. В Databricks Runtime 10.2 ML и более поздних версий также поддерживаются строковые столбцы.

Если тип столбца — строковый, AutoML пытается преобразовать его в метку времени с помощью семантического обнаружения. Если преобразование завершается сбоем, запуск AutoML тоже завершается сбоем.
split_col str Необязательно. Имя столбца для разделенного столбца. Доступно только в Databricks Runtime 15.3 ML и более поздних версиях для рабочих процессов API. Если это указано, AutoML пытается разделить наборы обучения и проверки и тестирования по пользовательским значениям, и этот столбец автоматически исключается из функций обучения.

Допустимый тип столбца — строка. Значение каждой записи в этом столбце должно быть одним из следующих значений: "train", "validate" или "test".
sample_weight_col str Доступно в Databricks Runtime 15.4 ML и более поздних версиях для рабочих процессов API классификации.

Необязательно. Имя столбца в наборе данных, содержащего примеры весов для каждой строки. Классификация поддерживает весы выборки для каждого класса. Эти весы корректируют важность каждого класса во время обучения модели. Каждый образец в классе должен иметь одинаковый вес выборки и весы должны быть неотрицательных десятичных или целых значений, начиная от 0 до 10 000. Классы с более высокими весами выборки считаются более важными и имеют большее влияние на алгоритм обучения. Если этот столбец не указан, предполагается, что все классы имеют равный вес.
max_trials int Необязательно. Максимальное количество выполняемых пробных версий. Этот параметр доступен до версии Databricks Runtime 10.5 ML, но является устаревшим, начиная с Databricks Runtime 10.3 ML. Начиная с Databricks Runtime 11.0 ML, этот параметр не поддерживается.

По умолчанию: 20

Если timeout_minutes=None, AutoML выполняет максимальное число пробных запусков.
timeout_minutes int Необязательно. Максимальное время ожидания завершения пробной версии AutoML. Более длительные тайм-ауты позволяют AutoML выполнять больше запусков и идентифицировать модель с большей точностью.

Значение по умолчанию: 120 минут

Минимальное значение: 5 минут

Если тайм-аут слишком мал для по крайней мере одного пробного выполнения, выводится сообщение об ошибке.

Регресс

Метод databricks.automl.regress настраивает запуск AutoML для обучения модели регрессии. Этот метод возвращает autoMLSummary.

Примечание.

Параметр max_trials не рекомендуется использовать в Databricks Runtime 10.4 ML и не поддерживается в Databricks Runtime 11.0 ML и выше. Используйте timeout_minutes для управления продолжительностью выполнения AutoML.

databricks.automl.regress(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "r2",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None,                          # <DBR> 15.3 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Параметры регрессии

Наименование параметра Тип Описание
dataset str, , pandas.DataFramepyspark.DataFramepyspark.sql.DataFrame Имя входной таблицы или кадр данных, содержащий функции обучения и целевой объект. Имя таблицы может быть в формате "<database_name>".<>table_name или "<schema_name>".<>table_name" для таблиц, отличных от каталога Unity.
target_col str Имя столбца для целевой метки.
primary_metric str Метрика, используемая для оценки и ранжирования производительности модели.

Поддерживаемые метрики для регрессии: "r2" (по умолчанию), "mae", "rmse", "mse"

Поддерживаемые метрики для классификации: "f1" (по умолчанию), "log_loss", "precision", "accuracy", "roc_auc"
data_dir str формат dbfs:/<folder-name> Необязательно. Путь DBFS , используемый для хранения обучаемого набора данных. Этот путь виден как для драйверов, так и для рабочих узлов.

Databricks рекомендует оставить это поле пустым, поэтому AutoML может сохранить набор данных обучения в качестве артефакта MLflow.

Если указан пользовательский путь, набор данных не наследует разрешения на доступ к эксперименту AutoML.
experiment_dir str Необязательно. Путь к каталогу в рабочей области для сохранения созданных записных книжек и экспериментов.

По умолчанию: /Users/<username>/databricks_automl/
experiment_name str Необязательно. Имя создаваемого эксперимента MLflow.

По умолчанию: имя создается автоматически.
exclude_cols List[str] Необязательно. Список столбцов, которые следует игнорировать во время вычислений AutoML.

Default: []
exclude_frameworks List[str] Необязательно. Список платформ алгоритмов, которые autoML не должны рассматриваться в качестве разработки моделей. Возможные значения: пустой список или одно или несколько из следующих — "sklearn", "lightgbm", "xgboost".

По умолчанию: [] (все платформы учитываются)
feature_store_lookups List[Dict] Необязательно. Список словарей, представляющих функции из Хранилища компонентов для расширения данных. Допустимые ключи в каждом словаре:

- table_name (str): Обязательный. Имя таблицы признаков.
- lookup_key (список или стр.): Обязательный. Имена столбцов, которые используются в качестве ключа при присоединении к таблице компонентов с данными, переданными в dataset параме. Порядок имен столбцов должен соответствовать порядку первичных ключей таблицы признаков.
- timestamp_lookup_key(str): Требуется, если указанная таблица является таблицей функций временных рядов. Имя столбца, используемое при поиске на определенный момент времени в таблице признаков с данными, переданными в dataset параме.

Default: []
imputers Dict[str, Union[str, Dict[str, Any]]] Необязательно. Словарь, где каждый ключ является именем столбца, и каждое значение является строкой или словарем, описывающим стратегию вменения. Если значение указано в виде строки, оно должно иметь одно из значений: "mean", "median" или "most_frequent". Чтобы ввести в качестве словаря {"strategy": "constant", "fill_value": <desired value>}имя известного значения, укажите значение. Можно также указать параметры строки в качестве словарей, например {"strategy": "mean"}.

Если для столбца не указана стратегия оцепления, AutoML выбирает стратегию по умолчанию на основе типа столбца и содержимого. При выборе метода добавления отсутствующих данных, кроме заданного по умолчанию, AutoML не выполняет Обнаружение семантических типов.

По умолчанию: {}
time_col str Доступно в Databricks Runtime 10.1 ML и более поздних версий.

Необязательно. Имя столбца для столбца времени.

Если оно указано, AutoML пытается разделить набор данных на наборы для обучения, проверки и тестирования в хронологическом порядке, используя самые ранние точки в качестве обучающих данных и самые последние точки в качестве набора для тестирования.

Допустимые типы столбцов — метка времени и целое число. В Databricks Runtime 10.2 ML и более поздних версий также поддерживаются строковые столбцы.

Если тип столбца — строковый, AutoML пытается преобразовать его в метку времени с помощью семантического обнаружения. Если преобразование завершается сбоем, запуск AutoML тоже завершается сбоем.
split_col str Необязательно. Имя столбца для разделенного столбца. Доступно только в Databricks Runtime 15.3 ML и более поздних версиях для рабочих процессов API. Если это указано, AutoML пытается разделить наборы обучения и проверки и тестирования по пользовательским значениям, и этот столбец автоматически исключается из функций обучения.

Допустимый тип столбца — строка. Значение каждой записи в этом столбце должно быть одним из следующих значений: "train", "validate" или "test".
sample_weight_col str Доступно в Databricks Runtime 15.3 ML и более поздних версиях для рабочих процессов API регрессии.

Необязательно. Имя столбца в наборе данных, содержащего примеры весов для каждой строки. Эти весы корректируют важность каждой строки во время обучения модели. Весы должны быть неотрицательных десятичных или целых значений, начиная от 0 до 10 000. Строки с более высокими весами выборки считаются более важными и имеют большее влияние на алгоритм обучения. Если этот столбец не указан, предполагается, что все строки имеют равный вес.
max_trials int Необязательно. Максимальное количество выполняемых пробных версий. Этот параметр доступен до версии Databricks Runtime 10.5 ML, но является устаревшим, начиная с Databricks Runtime 10.3 ML. Начиная с Databricks Runtime 11.0 ML, этот параметр не поддерживается.

По умолчанию: 20

Если timeout_minutes=None, AutoML выполняет максимальное число пробных запусков.
timeout_minutes int Необязательно. Максимальное время ожидания завершения пробной версии AutoML. Более длительные тайм-ауты позволяют AutoML выполнять больше запусков и идентифицировать модель с большей точностью.

Значение по умолчанию: 120 минут

Минимальное значение: 5 минут

Если тайм-аут слишком мал для по крайней мере одного пробного выполнения, выводится сообщение об ошибке.

Прогноз

Метод databricks.automl.forecast настраивает запуск AutoML для обучения модели прогнозирования. Этот метод возвращает autoMLSummary. Чтобы использовать Auto-ARIMA, временные ряды должны иметь регулярную частоту (то есть интервал между двумя точками должен быть одинаковым во всех временных рядах). Частота должна соответствовать единице частоты, указанной в вызове API. AutoML обрабатывает пропущенные временные шаги, заполняя эти значения предыдущим.

databricks.automl.forecast(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  time_col: str,
  primary_metric: str = "smape",
  country_code: str = "US",                                         # <DBR> 12.0 ML and above
  frequency: str = "D",
  horizon: int = 1,
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_frameworks: Optional[List[str]] = None,
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 12.2 LTS ML and above
  identity_col: Optional[Union[str, List[str]]] = None,
  sample_weight_col: Optional[str] = None,                          # <DBR> 16.0 ML and above
  output_database: Optional[str] = None,                            # <DBR> 10.5 ML and above
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Параметры прогнозирования

Наименование параметра Тип Описание
dataset str, , pandas.DataFramepyspark.DataFramepyspark.sql.DataFrame Имя входной таблицы или кадр данных, содержащий функции обучения и целевой объект.

Имя таблицы может быть в формате ".". или "." для таблиц каталога Unity, отличных от Unity
target_col str Имя столбца для целевой метки.
time_col str Имя столбца времени для прогнозирования.
primary_metric str Метрика, используемая для оценки и ранжирования производительности модели.

Поддерживаемые метрики: "smape" (по умолчанию), "mse", "rmse", "mae" или "mdape".
country_code str Доступно в Databricks Runtime 12.0 ML и более поздних версиях. Поддерживается только моделью прогнозирования Пророка.

Необязательно. Двухбуквенный код страны, указывающий, какие праздники страны следует использовать модель прогнозирования. Чтобы игнорировать праздники, задайте для этого параметра пустую строку ("").

Поддерживаемые страны.

По умолчанию: США (США праздники).
frequency str Частота временных рядов для прогнозирования. Это период времени, в течение которого ожидается появление событий. По умолчанию используется значение "D", то есть данные по дням. Не забудьте изменить этот параметр, если ваши данные имеют другую частоту.

Возможные значения:

"W" (недели)

"D" / "days" / "day"

"hours" / "hour" / "hr" / "h"

"m" / "minute" / "min" / "minutes" / "T"

"S" / seconds" / "sec" / "second"

Следующие возможности доступны только в Databricks Runtime 12.0 ML и более поздних версиях:

"M" / "месяц" / "месяц" / "месяцы"

"Q" / "квартал" / "кварталы"

"Y" / "год" / "годы"

Значение по умолчанию: "D"
horizon int Количество периодов в будущем, для которых должны быть возвращены прогнозы.

Единицы измерения — частота временных рядов.

По умолчанию: 1
data_dir str формат dbfs:/<folder-name> Необязательно. Путь DBFS , используемый для хранения обучаемого набора данных. Этот путь виден как для драйверов, так и для рабочих узлов.

Databricks рекомендует оставить это поле пустым, поэтому AutoML может сохранить набор данных обучения в качестве артефакта MLflow.

Если указан пользовательский путь, набор данных не наследует разрешения на доступ к эксперименту AutoML.
experiment_dir str Необязательно. Путь к каталогу в рабочей области для сохранения созданных записных книжек и экспериментов.

По умолчанию: /Users/<username>/databricks_automl/
experiment_name str Необязательно. Имя создаваемого эксперимента MLflow.

По умолчанию: имя создается автоматически.
exclude_frameworks List[str] Необязательно. Список платформ алгоритмов, которые autoML не должны рассматриваться в качестве разработки моделей. Возможные значения: пустой список или одно или несколько из следующих — "prophet", "arima".

По умолчанию: [] (все платформы учитываются)
feature_store_lookups List[Dict] Необязательно. Список словарей, представляющих функции из Хранилища компонентов для расширения данных ковариации. Допустимые ключи в каждом словаре:

- table_name (str): Обязательный. Имя таблицы признаков.
- lookup_key (список или стр.): Обязательный. Имена столбцов, которые используются в качестве ключа при присоединении к таблице компонентов с данными, переданными в dataset параме. Порядок имен столбцов должен соответствовать порядку первичных ключей таблицы признаков.
- timestamp_lookup_key(str): Требуется, если указанная таблица является таблицей функций временных рядов. Имя столбца, используемое при поиске на определенный момент времени в таблице признаков с данными, переданными в dataset параме.

Default: []
identity_col Union[str, list] Необязательно. Столбцы, определяющие временные ряды для прогнозирования нескольких рядов. AutoML группирует по этим столбцам и столбцу времени для прогнозирования.
sample_weight_col str Доступно в Databricks Runtime 16.0 ML и более поздних версиях. Только для рабочих процессов с несколькими временными рядами.

Необязательно. Указывает столбец в наборе данных, который содержит примеры весов. Эти весы указывают на относительную важность каждого временных рядов во время обучения и оценки модели.

Временные ряды с более высоким весом имеют большее влияние на модель. Если это не указано, все временные ряды обрабатываются равным весом.

Все строки, принадлежащие одному временным рядам, должны иметь одинаковый вес.

Весы должны быть неотрицательных значений, десятичных или целых чисел, а также от 0 до 10 000.
output_database str Необязательно. При условии AutoML сохраняет прогнозы лучшей модели в новой таблице в указанной базе данных.

Значение по умолчанию: прогнозы не сохраняются.
timeout_minutes int Необязательно. Максимальное время ожидания завершения пробной версии AutoML. Более длительные тайм-ауты позволяют AutoML выполнять больше запусков и идентифицировать модель с большей точностью.

Значение по умолчанию: 120 минут

Минимальное значение: 5 минут

Если тайм-аут слишком мал для по крайней мере одного пробного выполнения, выводится сообщение об ошибке.

Импорт записной книжки

Метод databricks.automl.import_notebook импортирует записную книжку, сохраненную в виде артефакта MLflow. Этот метод возвращает ImportNotebookResult.

databricks.automl.import_notebook(
  artifact_uri: str,
  path: str,
  overwrite: bool = False
) -> ImportNotebookResult:
Параметры Тип Описание
artifact_uri str URI артефакта MLflow, содержащего пробную записную книжку.
path str Путь в рабочей области Databricks, в которой записная книжка должна быть импортирована. Это должен быть абсолютный путь. Каталог будет создан, если он не существует.
overwrite bool Следует ли перезаписать записную книжку, если она уже существует. По умолчанию это False.

Пример импорта записной книжки

summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)

AutoMLSummary

Сводный объект для выполнения AutoML, которое описывает метрики, параметры и другие сведения для каждого из пробных запусков. Также этот объект используется для загрузки модели, обученной определенным пробным запуском.

Свойство Type Описание
experiment mlflow.entities.Experiment Эксперимент MLflow, используемый для регистрации пробных запусков.
trials List[TrialInfo] Список объектов TrialInfo , содержащих сведения обо всех запущенных пробных версиях.
best_trial TrialInfo Объект TrialInfo, содержащий сведения о пробной версии, которая привела к оптимальной оценке для первичной метрики.
metric_distribution str Распределение взвешенных показателей для основной метрики по всем пробным запускам.
output_table_name str Используется только с прогнозированием и только в том случае, если поле output_database предоставлено.

Имя таблицы в output_database, содержащей прогнозы модели.

TrialInfo

Сводный объект для каждого отдельного пробного запуска.

Свойство Type Описание
notebook_path Optional[str] Путь к созданной записной книжке для этого пробного запуска в рабочей области.

Для классификации и регрессии это значение устанавливается только для лучшей пробной версии, а все остальные пробные версии имеют значение None.

Для прогнозирования это значение присутствует для всех пробных версий.
notebook_url Optional[str] URL-адрес созданной записной книжки для этого пробного запуска.

Для классификации и регрессии это значение устанавливается только для лучшей пробной версии, а все остальные пробные версии имеют значение None.

Для прогнозирования это значение присутствует для всех пробных версий.
artifact_uri Optional[str] URI артефакта MLflow для созданной записной книжки.
mlflow_run_id str Идентификатор запуска MLflow, связанный с этим пробным запуском.
metrics Dict[str, float] Метрики, зарегистрированные в MLflow для этого пробного запуска.
params Dict[str, str] Параметры, зарегистрированные в MLflow, которые использовались для этого пробного запуска.
model_path str URL-адрес артефакта MLflow модели, обученной в этом пробном запуске.
model_description str Краткое описание модели и гиперпараметров, используемых для обучения этой модели.
duration str Длительность обучения в минутах
preprocessors str Описание препроцессоров, выполняемых перед обучением модели.
evaluation_metric_score float Оценка основной метрики, вычисленная для набора данных для проверки.

TrialInfo имеет метод загрузки модели, созданной для пробной версии.

Метод Description
load_model() Загрузите модель, созданную при этом пробном запуске, зарегистрированную в качестве артефакта MLflow.

ImportNotebookResult

Свойство Type Описание
path str Путь в рабочей области Databricks, в которой записная книжка должна быть импортирована. Это должен быть абсолютный путь. Каталог будет создан, если он не существует.
url str URI артефакта MLflow, содержащего пробную записную книжку.