wiki:linux/kvm

Version 34 (modified by yuna, 13 years ago) (diff)

--

KVMメモ

このページは、kvmをlibvirt(virsh)で使いたい人向けのメモです。簡単に使いたい人は、virt-managerを使ってください。

準備

Fedora13

kvmを利用するのに、libvirtを利用します。libvirtをインストールしておきます。virt-managerをインストールすると必要なパッケージが一通り入って便利です。また、kvmで仮想マシンを実行するのに必要なqemu-kvmもインストールしておきます。

# yum install virt-manager
# yum install qemu-kvm

次に、kvmのモジュールをカーネルにロードします。AMDの場合は、kvm_intelの代わりにkvm_amdを使ってください。

# modprobe kvm
# modprobe kvm_intel

libvirtを利用するには、libvirtdの起動が必要です。libvirtdを起動しておきます。

# /etc/init.d/libvirtd start

その他、下記のパッケージを入れておくとよいかもしれません。

# yum install virt-top
# yum install qemu-kvm-tools

Ubuntu 10.10

# apt-get install qemu-kvm virt-manager
# apt-get install virt-top

virshを利用したKVM仮想マシンの作り方

イメージ作成

# qemu-img create -f raw ubuntu.img 10G

libvirt XMLファイルの作成方法

下記のXMLを適当に編集。特に、

  • name(他の仮想マシンとユニークな名前になるように)
  • memory(メモリ容量)
  • vcpu(CPUの数)
  • diskとcdromのsource file
  • acpiを有効にしないと、virshからshutdownコマンドでシャットダウンできない。
  • mac addressを他と被らないように

辺りに注意しておく。下記は、Fedora13の例。

<domain type='kvm' id='3'>
  <name>UbuntuVM</name>
  <memory>524288</memory>
  <currentMemory>524288</currentMemory>
  <vcpu>1</vcpu>
  <os>
    <type arch='x86_64' machine='fedora-13'>hvm</type>
    <boot dev='hd'/>
    <boot dev='cdrom'/>
  </os>

  <features>
    <acpi />
  </features> 

  <clock offset='utc'/>
  <devices>
    <emulator>/usr/bin/qemu-kvm</emulator>
    
    <!-- DISKの定義 -->
    <disk type='file' device='disk'>  
      <driver name='qemu' type='raw'/>
      <source file='/mnt/sda5/ubuntu.img'/>
      <target dev='hda' bus='ide'/>
    </disk>
    
    <!-- CDROMの定義 -->
    <disk type='file' device='cdrom'>
      <driver name='qemu'/>
      <source file='/mnt/sda5/iso/ubuntu-ja-10.04-desktop-i386-20100512.iso'/>
      <target dev='hdc' bus='ide'/>
      <readonly/>
    </disk>
    
    <!-- ネットワークインタフェースの定義 -->       
    <interface type='network'>
      <mac address='52:54:00:1d:18:5e'/>
      <source network='default'/>
      <target dev='vnet0'/>  
    </interface>
    
    <input type='mouse' bus='ps2'/>
    <graphics type='vnc' port='5902' autoport='yes' keymap='ja'/>
  </devices>

</domain>

Ubuntuの場合は、typeタグのmachineをpcなどにする。

...
<type arch='x86-64' machine='pc'>hvm</type>
...

virshに登録して起動

# virsh  (virsh実行。以下、virshのコンソールで実行)
virsh # define virt-kvm.xml

defineで仮想マシンを定義したXMLを登録すると、/etc/libvirt/qemuディレクトリにDomain名のファイルで定義ファイルが作られる。

# ls /etc/libvirt/qemu
UbuntuVM.xml  networks

起動と起動状態の確認は、次の通りです。

virsh # start UbuntuVM
virsh # list 
 Id 名前               状態
----------------------------------
  1 UbuntuVM           実行中

VNCクライアントのスクリーン1で接続可能(vnc://localhost:1)です。vncのポートなどは、次の行で設定します。

    <graphics type='vnc' port='5902' autoport='yes' keymap='ja'/>

デフォルトでは、仮想マシンを起動したホスト以外からのVNCクライアントの接続を受け付けないようになっています。ホストマシンとは別のマシンからvncで接続するには、/etc/libvirt/qemu.confに次の設定を追加します

vnc_listen = "0.0.0.0"

停止はshutdownを使います。

virsh # shutdown UbuntuVM

acpiが有効になっていないと、virshからのシャットダウンを受け付けないので注意してください。また、linuxの場合、acpidをインストール/起動しておく必要があります。ubuntu serverの場合デフォルトではインストールされないので、

# apt-get install acpid

としてacpidをインストールします。

ハイバネートとレジューム

virsh # save UbuntuVM UbuntuVM.mem
virsh # restore UbuntuVM UbuntuVM.mem

Windows利用時に注意

libvirt xmlを記述するときの注意

  • clock offsetをlocaltimeにしないと時間がずれます。
  • acpiを有効にしないと、Windows7移行でインストールできません。

Windowsゲストドライバ

Windowsゲストドライバを利用すると、ネットワークI/OやディスクI/Oが速くなります。 ゲストドライバの取得とインストール方法は下記のURLを参照。

ネットワーク接続

ルーティングして接続

仮想マシンのIPアドレスから、ホストOSのNICにルーティングして接続します。

  • ゲスト側のネットワークを適当設定(例えば192.168.100.2,GWを192.168.100.1)。ネットワークセグメントはホストと別にする。
  • ホスト側のネットワークを設定する。
    # ifconfig vnet0 192.168.100.1 netmask 255.255.255.0
    

IPフォワードの設定をしていなければ、IPフォワードの設定を行う。

# echo  1 >  /proc/sys/net/ipv4/ip_forward 

図で説明すると、上記の設定で次のようなネットワークが構築できる。

         +--------------+            +---------------+
      +--+-+          +-+---+     +--+-+             |
LAN---|eth0| ホストOS |vnet0|-----|eth0|  仮想マシン |
      +--+-+          +-+---+     +--+-+             |
         +--------------+            +---------------+
             vnet0:192.168.100.1   eth0:192.168.100.2

NATによるLAN上のIPからの接続

プライベートIPをeth0に割り振り、NATで接続します。

         +--------------+            +---------------+
      +--+-+          +-+---+     +--+-+             |
LAN---|eth0| ホストOS |vnet0|-----|eth0|  仮想マシン |
      +--+-+          +-+---+     +--+-+             |
         +--------------+            +---------------+
         vnet0:192.168.100.1   eth0:192.168.100.2
  • eth0に10.8.99.6でアクセスするとホストOSに接続。
  • eth0に10.8.99.7でアクセスすると仮想マシン(192.168.100.2)に接続。

するように設定してみる。普通にeth0に10.8.99.6を設定しておく。 次に10.8.99.7へのアクセスを192.168.100.2に転送するNAT用のnat.iptファイルを用意する。

*nat
:PREROUTING ACCEPT [5318:237514]
:POSTROUTING ACCEPT [162:9112]
:OUTPUT ACCEPT [14132:847744]
-A PREROUTING -d 10.8.99.7 -j DNAT --to-destination 192.168.100.2
-A POSTROUTING -d ! 192.168.100.0/255.255.255.0 -j MASQUERADE
-A POSTROUTING -s 192.168.100.2  -j SNAT --to-source 10.8.99.7
-A OUTPUT -d 10.8.99.7 -j DNAT --to-destination 192.168.100.2
COMMIT

NATを読み込む。

# cat nat.ipt | iptables-restore

eth0に10.8.99.7を割り振らないとLAN上のマシンからアクセスできないので、ipコマンドでNICにIPを割り振っておきます。

# ip addr add 10.8.99.7 dev eth0

ブリッジによるホストのNICと同じセグメントへの設定

ホストIPアドレスが192.168.1.5で、仮想マシンのIPアドレスを192.168.1.6のようにホストのNICと同じセグメントのネットワークに仮想マシンを所属させたい場合は、ブリッジを利用します。

まず、/etc/network/interfacesに次のように記述し、ブリッジを有効にする。

auto sharebr0
iface sharebr0 inet static
        address 192.168.1.5
        netmask 255.255.255.0
        network 192.168.1.0
        broadcast 192.168.1.255
        gateway 192.168.1.1
        bridge_ports eth0

eth0を無効にし、ブリッジを有効にする。

# ifdown eth0
# ifup sharebr0

libvirt.xmlのinterface定義にブリッジに含めるように定義

    <interface type='bridge'>
      <source bridge='sharebr0' />
      <mac address='02:00:00:21:11:01'/>
      <target dev='vnet0' />
    </interface>

仮想マシンを起動すると、ブリッジに含まれた形で起動してくる。

# brctl show
bridge name     bridge id               STP enabled     interfaces
sharebr0        8000.0016d32ff458       no              eth0
                                                        vnet0

下記のようにすると、interfacesに書くことなくテストすることができる。

# brctl addbr sharebr0
# brctl addif sharebr0 eth0
# ifconfig sharebr0 192.168.1.5 netmask 255.255.255.0

あとは、仮想マシン側のeth0でifconfigでIPアドレスを指定するなどすればok。

ポートフォワードによる仮想マシンIPを利用したルートコンソールの接続

仮想マシンのIPでVNCに接続すると、ブレードサーバのOAのようにルートコンソールが取得できると嬉しくありませんか? ポートフォワードを使うと実現することができます。

例えば、ゲストOSの5900番(VNCのデフォルトポート)をホストOS上の仮想マシンのコンソールのポートに転送するようにすれば、VNCで仮想マシンに接続するとルートコンソールが取れるようになります。

*nat
:PREROUTING ACCEPT [5318:237514]
:POSTROUTING ACCEPT [162:9112]
:OUTPUT ACCEPT [14132:847744]
-A PREROUTING -d 10.8.99.7 -p tcp --dport 5900 -j DNAT --to-destination 10.8.99.6:5900
-A PREROUTING -d 10.8.99.7 -j DNAT --to-destination 192.168.100.2
-A POSTROUTING -d ! 192.168.100.0/255.255.255.0 -j MASQUERADE
-A POSTROUTING -s 192.168.100.2  -j SNAT --to-source 10.8.99.7
-A OUTPUT -d 10.8.99.7 -j DNAT --to-destination 192.168.100.2
COMMIT

DHCPでIPを付与

DHCPでIPを付与するようにするには、/var/lib/libvirt/network/default.xmlを次のように編集します。

<network>
  <name>default</name>
  <uuid>631f86c8-5469-468a-a361-3a91d4b99a35</uuid>
  <forward mode='nat'/>
  <bridge name='virbr0' stp='on' delay='0' />
  <ip address='192.168.122.1' netmask='255.255.255.0'>
    <dhcp>
      <range start='192.168.122.100' end='192.168.122.254' />
      <host mac='52:54:00:1d:18:5e' name='foo.com' ip='192.168.122.28' />
    </dhcp>
  </ip>
</network>

上記のネットワーク設定ファイルを再設定して、ネットワークを再起動(net-destroy,net-start)します。

virsh # net-define /var/lib/libvirt/network/default.xml
ネットワーク default が /var/lib/libvirt/network/default.xml から定義されました

virsh # net-destroy default 
ネットワーク default は停止されました

virsh # net-start default 
ネットワーク default が起動されました

リソース取得

下記のvirt-xxxコマンドにより、CPU、メモリ、ディスクのリソースを取得することができます。

コマンド説明
virt-top仮想マシンのCPU使用率、メモリの使用率を表示
virt-df仮想マシンのディスクの使用量を表示
virt-mem仮想マシンのメモリの使用量を表示
virt-ctrl??

KVMのもうちょっと高度な使い方

そのうち書く予定

  • リソースの取得方法
  • iscsiのDISKから起動
  • ライブマイグレーション
  • block migration
  • pythonからの操作