次の方法で共有


Azure での Linux VM の最適化

コマンド ラインやポータルを使用すると、Linux 仮想マシン (VM) を簡単に作成できます。 このチュートリアルでは、Microsoft Azure Platform でのパフォーマンスが最適化されるように Linux 仮想マシンがセットアップされていることを確認する方法を説明します。 このトピックでは Ubuntu Server VM を使用しますが、 テンプレートとして独自のイメージを使用して Linux 仮想マシンを作成することもできます。

前提条件

このトピックでは、利用中の Azure サブスクリプション (無料試用版のサインアップ) が既にあり、VM を Azure サブスクリプションにプロビジョニング済みであることを前提としています。 VM を作成する前に、最新の Azure CLI がインストールされていることを確認し、az login を使用して Azure サブスクリプションにログインしておく必要があります。

Azure OS ディスク

Azure に Linux VM を作成すると、その VM には 2 つのディスクが関連付けられています。 /dev/sda は OS ディスクを表し、 /dev/sdb は一時ディスクを表します。 メインの OS ディスク ( /dev/sda) は、VM の高速起動用に最適化されており、ワークロードでは優れたパフォーマンスを発揮しないため、オペレーティング システム以外の用途には使用しないでください。 データ用の永続的で最適化されたストレージにするために、1 つ以上のディスクを VM に接続することができます。

サイズとパフォーマンスの目標に向けたディスクの追加

VM サイズに基づいて、A シリーズのマシンでは最大 16 個、D シリーズのマシンでは 32 個、G シリーズのマシンでは 64 個のディスクを接続できます (ディスクのサイズはそれぞれ、最大 32 TB)。 スペースと IOPS の要件に従って、必要に応じてさらにディスクを追加します。 各ディスクのパフォーマンス目標は、Standard Storage の場合は 500 IOPS、Premium Storage の場合は最大 20,000 IOPS です。

キャッシュ設定が ReadOnly または None に設定されている Premium Storage ディスクで最高レベルの IOPS を実現するには、Linux でファイル システムをマウントするときにバリアを無効にする必要があります。 Premium Storage ディスクでこれらのキャッシュ設定を使用する場合は、ディスクへの書き込みの耐久性が保証されるため、バリアは必要ありません。

  • reiserFS: バリアを無効にするには、マウント オプション barrier=none を使用します (バリアを有効にするには barrier=flush を使用します)。
  • ext3/ext4: バリアを無効にするには、マウント オプション barrier=0 を使用します (バリアを有効にするには barrier=1 を使用します)。
  • XFS: バリアを無効にするには、マウント オプション nobarrier を使用します (バリアを有効にするには barrier を使用します)。

非管理対象ストレージ アカウントに関する考慮事項

Azure CLI で VM を作成したときの既定のアクションでは、Azure Managed Disks が使用されます。 これらのディスクは Azure プラットフォームによって処理されるため、ディスクを格納するための準備も場所も必要ありません。 非管理対象ディスクではストレージ アカウントが必要であり、パフォーマンスに関するその他の考慮事項がいくつかあります。 マネージド ディスクの詳細については、「Azure Managed Disks の概要」をご覧ください。 次のセクションで説明するパフォーマンスに関する考慮事項は、非管理対象ディスクを使用する場合にのみ適用されます。 既定の推奨ストレージ ソリューションは、マネージド ディスクを使用することです。

非管理対象ディスクを使用する VM を作成する場合は、近接性を確保し、ネットワーク待ち時間を最小限に抑えるために、VM と同じリージョンに存在するストレージ アカウントからディスクを接続する必要があります。 各 Standard Storage アカウントには、最大 20,000 IOPS および 500 TB のサイズ容量が適用されます。 この制限は、OS ディスクと作成したすべてのデータディスクの両方を含む、約40の使用率が高いディスクに適用されます。 Premium Storage アカウントの場合、最大 IOPS に関する制限はありませんが、32 TB のサイズ制限があります。

IOPS が高いワークロードを処理していて、ディスクに Standard Storage を選択した場合は、ディスクを複数のストレージ アカウントに分割して、Standard Storage アカウントの上限である 20,000 IOPS に達しないようにすることが必要になる可能性があります。 VM には、ストレージ アカウントやストレージ アカウントの種類が異なるディスクを組み合わせて使用し、最適な構成を実現することができます。

VM の一時ドライブ

既定では、VM の作成時に、Azure から OS ディスク ( /dev/sda) と一時ディスク ( /dev/sdb) が提供されます。 ユーザーが追加するその他のディスクはすべて、 /dev/sdc/dev/sdd/dev/sde のように表示されます。 一時ディスク ( /dev/sdb) 上のすべてのデータは持続性がないため、VM のサイズ変更、再デプロイ、メンテナンスなどの特定のイベントによって VM が再起動された場合に失われる可能性があります。 一時ディスクのサイズと種類は、デプロイ時に選択した VM サイズに関連付けられています。 プレミアム サイズの VM (DS、G、DS_V2 の各シリーズ) では、ローカル SSD が一時ドライブに使用され、さらに最大 48,000 IOPS のパフォーマンスが実現します。

Linux スワップ パーティション

Azure VM が Ubuntu イメージまたは CoreOS イメージから作成されている場合は、CustomData を使用して cloud-config を cloud-init に送信できます。 cloud-init を使用するカスタム Linux イメージをアップロードしている場合は、cloud-init を使用してスワップ パーティションも構成します。

cloud-init によってプロビジョニングおよびサポートされたすべてのイメージのスワップを管理するために、 /etc/waagent.conf ファイルを使用することはできません。 イメージの完全な一覧については、cloud-init の使用に関する記事を参照してください。

これらのイメージのスワップを管理する方法としては、次の手順を行うのが最も簡単です。

  1. /var/lib/cloud/scripts/per-boot フォルダーで、create_swapfile.sh という名前でファイルを作成します。

    $ sudo touch /var/lib/cloud/scripts/per-boot/create_swapfile.sh

  2. 次の行をファイルに追加します。

    $ sudo vi /var/lib/cloud/scripts/per-boot/create_swapfile.sh

    #!/bin/sh
    if [ ! -f '/mnt/swapfile' ]; then
    fallocate --length 2GiB /mnt/swapfile
    chmod 600 /mnt/swapfile
    mkswap /mnt/swapfile
    swapon /mnt/swapfile
    swapon -a ; fi
    

    Note

    必要に応じて、およびリソース ディスクの使用可能な領域に基づいて値を変更できます。これは、使用中の VM のサイズによって異なります。

  3. ファイルを実行可能ファイルにします。

    $ sudo chmod +x /var/lib/cloud/scripts/per-boot/create_swapfile.sh

  4. swapfile を作成するには、最後の手順の直後にスクリプトを実行します。

    $ sudo /var/lib/cloud/scripts/per-boot/./create_swapfile.sh

cloud-init のサポートがないイメージの場合、Azure Marketplace からデプロイされた VM イメージで VM Linux エージェントが OS と統合されています。 このエージェントにより、VM がさまざまな Azure サービスと対話できるようになります。 Azure Marketplace から標準イメージをデプロイしたことを想定すると、Linux スワップ ファイルの設定を正しく構成するには、次の操作を行う必要があります。

/etc/waagent.conf ファイル内で 2 つのエントリを探して変更します。 これらのエントリは、専用のスワップ ファイルの存在と、そのスワップ ファイルのサイズを制御します。 確認する必要のあるパラメーターは ResourceDisk.EnableSwapResourceDisk.SwapSizeMB です。

適切に有効化されたディスクとマウントされたスワップファイルを有効にするには、パラメーターの設定が次のようになっていることを確認します。

  • ResourceDisk.EnableSwap=Y
  • ResourceDisk.SwapSizeMB={ニーズに合わせたサイズ (MB)}

この変更を行ったら、変更を反映するために waagent を再起動するか、Linux VM を再起動する必要があります。 free コマンドを使用して空き領域を表示すると、変更が実装され、スワップ ファイルが作成されたことがわかります。 次の例では、waagent.conf ファイルを変更した結果として、512 MB のスワップ ファイルが作成されています。

azuseruser@myVM:~$ free
            total       used       free     shared    buffers     cached
Mem:       3525156     804168    2720988        408       8428     633192
-/+ buffers/cache:     162548    3362608
Swap:       524284          0     524284

Premium Storage の I/O スケジューリング アルゴリズム

2\.6.18 Linux カーネルでは、既定の I/O スケジューリング アルゴリズムが Deadline から CFQ (Completely fair queuing アルゴリズム) に変更されました。 ランダム アクセス I/O パターンの場合、CFQ と Deadline のパフォーマンスの違いはごくわずかです。 ディスク I/O パターンの大部分がシーケンシャルである SSD ベースのディスクの場合、NOOP または Deadline アルゴリズムに戻すと I/O パフォーマンスが向上する可能性があります。

現在の I/O スケジューラの表示

次のコマンドを使用します。

cat /sys/block/sda/queue/scheduler

現在のスケジューラを示す次の出力が表示されます。

noop [deadline] cfq

I/O スケジューリング アルゴリズムの現在のデバイス (/dev/sda) を変更します。

次のコマンドを使用します。

azureuser@myVM:~$ sudo su -
root@myVM:~# echo "noop" >/sys/block/sda/queue/scheduler
root@myVM:~# sed -i 's/GRUB_CMDLINE_LINUX=""/GRUB_CMDLINE_LINUX_DEFAULT="quiet splash elevator=noop"/g' /etc/default/grub
root@myVM:~# update-grub

Note

この設定を /dev/sda だけに適用しても役立ちません。 I/O パターンの大部分がシーケンシャル I/O であるすべてのデータ ディスクで設定します。

次の出力では、grub.cfg が正常に再構築され、既定のスケジューラが NOOP に更新されたことを確認できます。

Generating grub configuration file ...
Found linux image: /boot/vmlinuz-3.13.0-34-generic
Found initrd image: /boot/initrd.img-3.13.0-34-generic
Found linux image: /boot/vmlinuz-3.13.0-32-generic
Found initrd image: /boot/initrd.img-3.13.0-32-generic
Found memtest86+ image: /memtest86+.elf
Found memtest86+ image: /memtest86+.bin
done

Red Hat 配布ファミリでは、次のコマンドのみが必要です。

echo 'echo noop >/sys/block/sda/queue/scheduler' >> /etc/rc.local

Azure で調整されたカーネルを使用した Ubuntu 18.04 では、マルチキュー I/O スケジューラが使用されます。 このシナリオでは、noop ではなく none が適切な選択です。 詳細については、Ubuntu の I/O スケジューラに関するページを参照してください。

ソフトウェア RAID の使用による IOPS の向上

単一のディスクで実現できる以上の IOPS を必要とするワークロードの場合、複数のディスクから成るソフトウェア RAID 構成を使用する必要があります。 Azure は既にローカルのファブリック層でディスクの回復性を実現しているため、RAID 0 のストライピング構成を使用することで最高レベルのパフォーマンスが実現されます。 ドライブのパーティション分割、フォーマット、マウントを実行する前に、Azure 環境でディスクをプロビジョニングして作成し、それらを Linux VM に接続します。 Azure の Linux VM でのソフトウェア RAID セットアップの構成の詳細については、「 Linux でのソフトウェア RAID の構成 」を参照してください。

従来の RAID 構成の代わりとして、複数の物理ディスク を 1 つのストライプ論理ストレージ ボリュームに構成するために、論理ボリューム マネージャー (LVM) をインストールすることもできます。 この構成では、読み取りと書き込みが、ボリューム グループに含まれる複数のディスクに分散されます (RAID0 に似ています)。 パフォーマンス上の理由で、論理ボリュームをストライピングして、アタッチされたすべてのデータ ディスクを読み取りと書き込みで利用できるようにすることを選択できます。 Azure の Linux VM でのストライプ論理ボリュームの構成の詳細については、「 Azure で Linux VM の LVM を構成する 」を参照してください。

次の手順

最適化に関するあらゆる話題と同様に、それぞれの変更の前後にテストを行って、その変更の影響を評価する必要があります。 最適化は段階的なプロセスであり、環境内のコンピューターごとに結果は異なります。 ある構成に効果があっても、それが他の構成に効果があるとは限りません。

関連リソースへの便利なリンクは次のとおりです。