クラウド構築のベースとなるVMware vSphere 5を試す【ESXiインストール編】
vSphere 5がリリースされて、4カ月ほどたつ。やっとテストを行う時間ができたので、今回から数回に渡って、vSphere 5のさまざまな機能を紹介していく。
なお、以前の記事で紹介したように、vSphere 5ではハイパーバイザーがESXiだけになった。このため、vSphere 4.1でESX 4.1を利用しているユーザーは、ESXi 5.0への移行が必要になる。VMwareでは、ESXからESXiへの移行に関する注意点などをまとめたドキュメントをWebサイトで掲載している。現在ESXを使用してるユーザーがESXi 5.0に移行する場合は、このドキュメントを見て、注意しながら移行作業を行ってほしい。
■vSphere 5の新機能や変更点
前回掲載したvSphere 5の記事でESXi 5.0の機能を紹介したが、ここでは再度簡単に紹介していく。
ESXi 5.0では、仮想マシンあたり32個の仮想CPUをサポートしている(以前は8つの仮想CPU)。仮想マシンあたりの最大仮想メモリ容量としては、1TBまでサポート。
また、ESXi 5.0では、CPUのスケジューラを改良して、IntelのHyper Threading Technologyへのチューニングが行われ、最新のCPUにおいて、高いパフォーマンスが得られるようになった。
このほか、グラフィック関連では、仮想マシンでWindows AeroおよびBasic 3Dアプリケーションを実行できるよう、3Dグラフィックスをサポートした。また、USB 3.0にも対応している。
もう一つESXi 5で追加された機能としては、ESXi Firewallがある。ESXではLinux OSがベースとなっていたので、Linuxのファイアウォールが使用できた。しかし、ESXiは、VMware独自のプラットフォームのため、Linux用のファイアウォールは使用できない。そこでVMwareが、ESXi上で動作するファイアウォールを用意したのだ。
ネットワークI/Oコントロールに関しても、機能が向上している。vSphere 5では、仮想マシンごとにネットワークの帯域をコントロールすることが可能になった。これにより、重要度の高い仮想マシンがネットワークI/Oがボトルネックになることがなくなる。なお、仮想マシンごとに使用できる帯域を指定するのではなく、優先度を指定する方法を採用している。
■USBメモリへのインストールをサポートしたESXi 5
昨年掲載したvSphereの記事において、配布されているESXiのインストールISOイメージから、ブートイメージを抜き出し、USBメモリにインストールする方法を紹介してきた。
vSphere 5.0からは、インストールISOイメージの構造が変わり、直接ブートイメージを抜き出して、USBメモリに書き込むことができなくなった。その代わり、ESXi 5.0のインストーラで、直接USBメモリにブートイメージを書き込むことができるようになった。
いったん、インストールISOイメージをCD-R/RWなどに焼き、CDからサーバーをブートする。この時、あらかじめUSBメモリを挿しておき、サーバーで認識させておく必要がある。
作成したESXi 5.0のUSBメモリは、個々のサーバー専用のUSBメモリとなる。このため、複数のサーバーをvSphereで利用するには、サーバー分のUSBメモリを作成する必要がある。もし、クラウドでの運用などで、多数のサーバーにESXi 5.0ハイパーバイザーをインストールする必要があるなら、SANブート、もしくはネットワークブートを利用するのがベストだろう。
以下、ステップバイステップでインストール作業を紹介する。
■SSDホストキャッシュの設定
SSD Swap Cacheのイメージ図。SSDを搭載することで、スワップデータを高速なSSDを中心に保存する。これにより、システム全体としては性能が向上する(VMwareの米国サイトにあるテクニカルペーパーより) |
ESXi 5.0には、新機能としてSSDホストキャッシュ機能が用意された。この機能は、メモリのスワップを一時的に高速なSSDに置くことで、HDDなどの低速なデバイスにスワップしないようにするものである。
仮想化においてパフォーマンスを低下させる大きな要因が、仮想マシンのOS上で動作メモリが不足して、仮想ディスク上にスワップが行われる。仮想ディスクは、実体としてデータをディスクに読み書きするため、低速なHDDを使用することになる。CPUやメモリなどの性能から見れば、低速なディスクI/Oへのアクセスは、相当なボトルネックといえる。
SSDホストキャッシュ機能では、スワップデータを直接HDDに書き込まずに、HDDに比べると高速なSSDを使うことで、スワップが起こったとしても、パフォーマンスの低下を抑えている。
SSDホストキャッシュの設定は、ESXi 5.0をインストール後、vSphere Clientから行うことができる。vSphere Clientの「構成」→「ソフトウェア」→「ホストキャッシュの構成」を選び、「ホストキャッシュの構成」から、ストレージの追加を選択し、データストアのリストからSSDを追加すればOKだ。
ただし、ストレージインターフェイス(特にRAIDカードに接続されたSSD)によっては、データストアのリストでSSDが非SSDとして表示される場合がある。この場合は、ESXi 5.0では、SSDを単なるディスクストレージとして認識しているため、、SSDをホストキャッシュとして利用することができない。この場合は、ESXi 5.0にコマンドラインでアクセスして(SSHなど)、手動でディスクタイプをSSDに変更する。
(1)コマンドラインで「esxcli storage nmp device list」と入力して、ストレージの一覧を表示する。
(2)表示されたストレージ一覧から、SSDをデバイス名、Storage Array Typeを確認して、「esxcli storage nmp satp rule add -s [Storage Array Type] --device [デバイス名] --option=enable_ssd」というコマンドを入力する。これで、ESXi 5.0に指定したデバイスがSSDだということを認識させる。
(3)「esxcli storage core claiming unclaim --type device --device [デバイス名]」を入力して、いったんデバイスの認識を解除する。
(4)「esxcli storage core claimrule load」、「esxcli storage core claimrule run」を入力して、再度デバイスを認識させる。
(5)これらのコマンド入力すれば、データストアの一覧にドライブタイプにSSDとして認識される。
(6)その後、ホストキャッシュの構成で、SSDを選択して、ホストキャッシュとして使用する容量を設定する。
詳細に関しては、VMwareのサイトにあるvSphere Storage ガイドの15章 Solid State Disks Enablementを参考にしてほしい。
■ファイアウォールの設定
ESXi 5.0では、ハイパーバイザー層に標準でファイアウォールの機能が搭載された。
「構成」→「ソフトウェア」→「セキュリティ プロファイル」の「ファイアウォール」では、あらかじめ設定されたサービスに対して、ポートを開けるかどうかの設定が行える。初期設定で、必要最低限のポートに関する設定が行われている。後は、ユーザーの環境ごとに、必要なポート設定を行えばOKだ。
ただし、vSphere Clientのファイアウォール設定では、システムがあらかじめ用意したサービスのポート設定しか行えなくなっている。もし、ユーザー自身が、新しいサービスを追加したい場合は、/etc/vmware/firewall/の下に新しいサービス用にXMLファイルを作成する必要がある。
「セキュリティ プロファイル」でファイアウォールの設定を確認する | プロパティを選択して、詳細を表示。vSphere Clientからは、あらかじめVMwareが設定したサービスやポートしか、設定変更できない。もし、ファイアウォールに新しいサービスやポートを指定したい場合は、コマンドラインで追加する必要がある |
今回は、ESXi 5.0のインストールした。その後、ストレージの設定、ネットワークの設定などを行い、vSphere 5.0を正常に動作できる状態にする。このあたりは、以前の記事とあまり変わらないので、割愛する。
次回は、vCenter関連の設定を紹介していく。