次の方法で共有


azdata bdc

適用対象: Azure Data CLI (azdata)

以前に Azure Data CLI (azdata) によって処理された一部のシナリオは、 Azure CLI (az) 拡張機能Azure Arc ベースのワークフローを通じて管理されるようになりました。 すべての azdata コマンドに 1 対 1 の置換はありません。 次の表では、一般的に関連する Azure CLI の代替手段が存在する場所を示します。

azdata コマンド領域 Azure CLI 拡張機能/コマンド グループ Azure CLI リファレンス
azdata arc dc * az arcdata Azure Arc データ CLI リファレンス
azdata arc sql mi * az arcdata sql mi CLI を使用して Azure SQL Managed Instance を管理する
azdata arc postgres * az arcdata postgres CLI を使用して PostgreSQL サーバーを管理する
azdata migrate * az datamigration CLI を使用した移行
azdata extension * az extension * Azure CLI 拡張機能の概要
azdata login az login az login
azdata sql shell / azdata sql query Azure CLI に相当するものはありません ( sqlcmd、SSMS、またはその他の SQL ツールを使用) sqlcmd ユーティリティ

SQL Server Management Studio

新しい自動化と管理のシナリオでは、 Azure CLI (az)Azure CLI 拡張機能Azure Arc portal エクスペリエンスを優先します。

以下の記事では、azdata ツールの sql コマンドに関するリファレンスを提供します。 他の azdata コマンドの詳細については、azdata リファレンスに関するページを参照してください。

コマンド

命令 説明
azdata bdc create ビッグ データ クラスターを作成します。
azdata bdc delete ビッグ データ クラスターを削除します。
azdata bdc upgrade SQL Server ビッグ データ クラスター内の各コンテナーにデプロイされているイメージを更新します。
azdata bdc config 構成コマンド。
azdata bdc endpoint エンドポイント コマンド。
azdata bdc debug デバッグ コマンド。
azdata bdc status ビッグ データ クラスターの状態コマンド。
azdata bdc control サービス コマンドを制御します。
azdata bdc sql Sql サービス コマンド。
azdata bdc hdfs Hdfs サービス コマンド。
azdata bdc spark Spark サービス コマンド。
azdata bdc gateway ゲートウェイ サービス コマンド。
azdata bdc app App Service コマンド。
azdata bdc hdfs HDFS モジュールには、HDFS ファイル システムにアクセスするためのコマンドが用意されています。
azdata bdc settings ビッグ データ クラスター設定コマンド。
azdata bdc spark Spark コマンドを使用すると、ユーザーはセッション、ステートメント、バッチを作成して管理することで、Spark システムと対話できます。
azdata bdc rotate このコマンドは、ビッグ データ クラスター内の自動生成された AD アカウントのパスワードをローテーションします。 詳細については、「 AD パスワードローテーションの概要」を参照してください。

azdata bdc create

SQL Server ビッグ データ クラスターの作成 - Kubernetes 構成は、次の環境変数 ['AZDATA_USERNAME'、'AZDATA_PASSWORD') と共にシステムで必要です。

azdata bdc create [--name -n] 
                  [--config-profile -c]  
                  
[--accept-eula -a]  
                  
[--node-label -l]  
                  
[--force -f]

例示

ガイド付き SQL Server ビッグ データ クラスターのデプロイ エクスペリエンス - 必要な値のプロンプトが表示されます。

azdata bdc create

azdata bdc config initを使用して初期化された引数とカスタム構成プロファイルを使用したビッグ データ クラスターのデプロイ。

azdata bdc create --accept-eula yes --config-profile ./path/to/config/profile

カスタム クラスター名を指定し、既定の構成プロファイル aks-dev-test を使用したビッグ データ クラスターのデプロイ。

azdata bdc create --name <cluster_name> --accept-eula yes --config-profile aks-dev-test

引数を使用したビッグ データ クラスターのデプロイ - --force フラグが使用されるため、プロンプトは表示されません。

azdata bdc create --accept-eula yes --config-profile aks-dev-test --force

省略可能なパラメーター

--name -n

Kubernetes 名前空間に使用されるビッグ データ クラスター名。

--config-profile -c

クラスターのデプロイに使用されるビッグ データ クラスター構成プロファイル: ['kubeadm-dev-test'、'kubeadm-prod'、'openshift-prod'、'aks-dev-test-ha'、'aks-dev-test'、'aro-dev-test'、'openshift-dev-test'、'aro-dev-test-ha']

--accept-eula -a

ライセンス条項に同意しますか? [はい/いいえ]。 この引数を使用しない場合は、環境変数ACCEPT_EULAを "yes" に設定できます。 azdata のライセンス条項は、 https://aka.ms/eula-azdata-enで確認できます。

--node-label -l

ビッグ データ クラスター ノード ラベル。デプロイするノードを指定するために使用されます。

--force -f

強制的に作成すると、ユーザーは値の入力を求められるのではなく、すべての問題が stderr の一部として出力されます。

グローバル引数

--debug

ログの詳細度を上げて、すべてのデバッグ ログを表示します。

--help -h

このヘルプ メッセージを表示して終了します。

--output -o

出力フォーマット。 使用できる値: json、jsonc、table、tsv。 既定値: json。

--query -q

JMESPath クエリ文字列。 詳細と例については、http://jmespath.org/ を参照してください。

--verbose

ログの詳細度を高める。 完全なデバッグ ログには --debug を使用します。

azdata bdc delete

SQL Server ビッグ データ クラスターを削除する - Kubernetes 構成がシステムで必要です。

azdata bdc delete --name -n 
                  [--force -f]

例示

ビッグ データ クラスターが削除されます。

azdata bdc delete --name <cluster_name>

必須パラメーター

--name -n

Kubernetes 名前空間に使用されるビッグ データ クラスター名。

省略可能なパラメーター

--force -f

ビッグ データ クラスターを強制的に削除します。

グローバル引数

--debug

ログの詳細度を上げて、すべてのデバッグ ログを表示します。

--help -h

このヘルプ メッセージを表示して終了します。

--output -o

出力フォーマット。 使用できる値: json、jsonc、table、tsv。 既定値: json。

--query -q

JMESPath クエリ文字列。 詳細と例については、http://jmespath.org/ を参照してください。

--verbose

ログの詳細度を高める。 完全なデバッグ ログには --debug を使用します。

azdata bdc upgrade

SQL Server ビッグ データ クラスター内の各コンテナーにデプロイされているイメージを更新します。 更新されたイメージは、渡された Docker イメージに基づいています。 更新されたイメージが現在デプロイされているイメージとは異なる Docker イメージ リポジトリからの場合は、"repository" パラメーターも必要です。

azdata bdc upgrade --name -n 
                   --tag -t  
                   
[--repository -r]  
                   
[--controller-timeout -k]  
                   
[--stability-threshold -s]  
                   
[--component-timeout -p]  
                   
[--force -f]

例示

ビッグ データ クラスターは、同じリポジトリから新しいイメージ タグ "cu2" にアップグレードされます。

azdata bdc upgrade -t cu2

ビッグ データ クラスターは、新しいリポジトリ "foo/bar/baz" からタグ "cu2" を持つ新しいイメージにアップグレードします。

azdata bdc upgrade -t cu2 -r foo/bar/baz

ビッグ データ クラスターは、同じリポジトリからタグ "cu2" を持つ新しいイメージにアップグレードされます。アップグレードは、コントローラーがアップグレードされるまで 30 分、コントローラー DB がアップグレードされるまで 30 分待機します。 その後、クラスターの残りの部分をアップグレードせずに、コントローラーとコントローラー db が 3 分間実行されるまで待機します。 アップグレードの後続の各フェーズは、完了するまでに 40 分かかります。

azdata bdc upgrade -t cu2 --controller-timeout=30 --component-timeout=40 --stability-threshold=3

必須パラメーター

--name -n

Kubernetes 名前空間に使用されるビッグ データ クラスター名。

--tag -t

クラスター内のすべてのコンテナーをアップグレードするターゲット Docker イメージ タグ。

省略可能なパラメーター

--repository -r

クラスター内のすべてのコンテナーがイメージをプルする Docker リポジトリ。

--controller-timeout -k

アップグレードをロールバックする前に、コントローラーまたはコントローラー データベースのアップグレードを待機する時間 (分)。

--stability-threshold -s

アップグレード後に安定した状態としてマークされるまでに待機する時間 (分)。

--component-timeout -p

アップグレードの各フェーズ (コントローラーのアップグレード後) が完了するまで待機してからアップグレードを一時停止するまでの時間 (分)。

--force -f

存在する場合は、アップグレードを開始する前にクラスターの正常性チェックを無視します

グローバル引数

--debug

ログの詳細度を上げて、すべてのデバッグ ログを表示します。

--help -h

このヘルプ メッセージを表示して終了します。

--output -o

出力フォーマット。 使用できる値: json、jsonc、table、tsv。 既定値: json。

--query -q

JMESPath クエリ文字列。 詳細と例については、http://jmespath.org/ を参照してください。

--verbose

ログの詳細度を高める。 完全なデバッグ ログには --debug を使用します。

次のステップ

他の azdata コマンドの詳細については、azdata リファレンスに関するページを参照してください。

azdata ツールをインストールする方法の詳細については、「azdata のインストール」を参照してください。