之前在裝 Openstack 時, 沒有裝 nova-volume, 所以都無法 attach 一個 persistent storage
其實在玩的過程, 也可以間接了解一下 Openstack 對於這塊的設計方式
安裝上沒有很困難, nova.conf 相關的設定是 volume_driver, 預設是 compute 端使用 iscsi 連線, controller 用 LVM 來管理
volume_driver = "nova.volume.driver.ISCSIDriver"
所以要記得在 lvm 裡面加上一個叫 nova-volumes 的 virtual group
wistor@ubuntu83:~$ sudo apt-get install -y nova-volume wistor@ubuntu83:~$ sudo vgcreate nova-volumes /dev/sdb No physical volume label read from /dev/sdb Physical volume "/dev/sdb" successfully created Volume group "test" successfully created
http://www.mail-archive.com/openstack@lists.launchpad.net/msg07989.html
在 nova 裡面, 它將 volume 分成了兩個類型, 一種是關機後就會消失的 ephemeral volume, 另一種則是會繼續存在的 persistent volume, 即使 Virtual Machine 關機後, 你仍可以產生新的 Virtual Machine, 然後將這個 persistent volume 掛上去
而 ephemeral volume 目前會用在兩個地方, 第一個是開機用的主硬碟 (Root Disk), 如果你跑的程式有需要使用額外的空間, 那可以要求多一顆暫用硬碟(Ephemeral Disk), 但仍要注意這個 disk 在關機後就會消失.
我們可以在 Flavor 內看到 Openstack 預設的幾種組合(tiny 的那個雖然寫著沒有 root disk, 但其實仍然有, 只是比較小, 只有 2G)
m1.tiny (1VCPU / 0GB disk / 512MB RAM) 的狀況
ubuntu@vm1:~$ sudo fdisk -l Disk /dev/vda: 2147 MB, 2147483648 bytes 255 heads, 63 sectors/track, 261 cylinders, total 4194304 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Device Boot Start End Blocks Id System /dev/vda1 * 16065 4192964 2088450 83 Linux ubuntu@vm1:~$ sudo less /proc/meminfo | grep -i total MemTotal: 503520 kB SwapTotal: 0 kB VmallocTotal: 34359738367 kB HugePages_Total: 0 ubuntu@vm1:~$ sudo less /proc/cpuinfo | grep CPU model name : QEMU Virtual CPU version 1.0 ubuntu@vm1:~$ sudo df -h Filesystem Size Used Avail Use% Mounted on /dev/vda1 2.0G 667M 1.3G 35% / udev 242M 12K 242M 1% /dev tmpfs 99M 204K 99M 1% /run none 5.0M 0 5.0M 0% /run/lock none 246M 0 246M 0% /run/shm
m1.small (1VCPU / 10GB disk / 2048MB RAM) 的狀況, 可以看到比 m1.tiny 多了一個 /dev/vdb , 大小是 20G
ubuntu@vm2:~$ sudo fdisk -l Disk /dev/vda: 10.7 GB, 10737418240 bytes 255 heads, 63 sectors/track, 1305 cylinders, total 20971520 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Device Boot Start End Blocks Id System /dev/vda1 * 16065 20964824 10474380 83 Linux Disk /dev/vdb: 21.5 GB, 21474836480 bytes 16 heads, 63 sectors/track, 41610 cylinders, total 41943040 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/vdb doesn't contain a valid partition table ubuntu@vm2:~$ sudo less /proc/meminfo | grep -i total MemTotal: 2051772 kB SwapTotal: 0 kB VmallocTotal: 34359738367 kB HugePages_Total: 0 ubuntu@vm2:~$ sudo less /proc/cpuinfo | grep CPU model name : QEMU Virtual CPU version 1.0 ubuntu@vm2:~$ sudo df -h Filesystem Size Used Avail Use% Mounted on /dev/vda1 9.9G 670M 8.7G 7% / udev 998M 8.0K 998M 1% /dev tmpfs 401M 208K 401M 1% /run none 5.0M 0 5.0M 0% /run/lock none 1002M 0 1002M 0% /run/shm /dev/vdb 20G 173M 19G 1% /mnt
回到 compute node 上面去看
# 可以看到有兩個 virtual machine 正在跑 wistor@ubuntu83:~$ sudo virsh list [sudo] password for wistor: Id Name State ---------------------------------- 3 instance-00000007 running 4 instance-00000009 running # 這個只有 vda, 合理的判斷應該是 m1.tiny wistor@ubuntu83:~$ sudo virsh domblklist 3 Target Source ------------------------------------------------ vda /var/lib/nova/instances/instance-00000007/disk # 這個有 vda 和 vdb, 應該就是 m1.small wistor@ubuntu83:~$ sudo virsh domblklist 4 Target Source ------------------------------------------------ vda /var/lib/nova/instances/instance-00000009/disk vdb /var/lib/nova/instances/instance-00000009/disk.local # 先到 tiny 的資料夾去看, 可以發現有 disk 這個檔案, 還有一個 libvirt.xml # 但為什麼 disk 大小只有 118M ? 而不是 2G? wistor@ubuntu83:/var/lib/nova/instances/instance-00000007$ ll -h total 115M drwxrwxr-x 2 nova nova 4.0K May 29 13:54 ./ drwxr-xr-x 6 nova nova 4.0K May 29 13:57 ../ -rw-rw---- 1 libvirt-qemu kvm 21K May 29 13:55 console.log -rw-r--r-- 1 libvirt-qemu kvm 118M May 29 14:07 disk -rw-rw-r-- 1 nova nova 1.5K May 29 13:54 libvirt.xml # 看一下 disk 是什麼東西, 結果發現他是 QCOW 格式, backing file 在 _base 裡面 wistor@ubuntu83:/var/lib/nova/instances/instance-00000007$ file disk disk: QEMU QCOW Image (v2), has backing file (path /var/lib/nova/instances/_base/20938b475c7d805e707888fb2a3196550), 2147483648 bytes # 看一下 _base 底下有什麼東西 wistor@ubuntu83:/var/lib/nova/instances/_base$ ll -h total 3.1G drwxrwxr-x 2 nova nova 4.0K May 27 23:35 ./ drwxr-xr-x 6 nova nova 4.0K May 29 13:57 ../ -rw-r--r-- 1 libvirt-qemu kvm 2.0G May 27 23:57 20938b475c7d805e707888fb2a31965508d0bb4b -rw-r--r-- 1 libvirt-qemu kvm 10G May 27 23:57 20938b475c7d805e707888fb2a31965508d0bb4b_10 -rw-r--r-- 1 libvirt-qemu kvm 20G May 27 23:28 ephemeral_0_20_None # 而這個 backend 的大小剛好就是 2G, 而且是個 boot sector, 所以他就是 tiny 的 boot disk wistor@ubuntu83:/var/lib/nova/instances/_base$ file 20938b475c7d805e707888fb2a31965508d0bb4b 20938b475c7d805e707888fb2a31965508d0bb4b: x86 boot sector; partition 1: ID=0x83, active, starthead 0, startsector 16065, 4176900 sectors, code offset 0x63 # 接下來看看 small 的資料夾, 可以發現多一個 disk.local wistor@ubuntu83:/var/lib/nova/instances/instance-00000009$ ll -h total 395M drwxrwxr-x 2 nova nova 4.0K May 29 13:57 ./ drwxr-xr-x 6 nova nova 4.0K May 29 13:57 ../ -rw-rw---- 1 libvirt-qemu kvm 21K May 29 13:58 console.log -rw-r--r-- 1 libvirt-qemu kvm 390M May 29 14:13 disk -rw-r--r-- 1 libvirt-qemu kvm 12M May 29 13:58 disk.local -rw-rw-r-- 1 nova nova 1.7K May 29 13:57 libvirt.xml # 發現他也是 qcow 格式, backing file 也在 _base 下 wistor@ubuntu83:/var/lib/nova/instances/instance-00000009$ file disk.local disk.local: QEMU QCOW Image (v2), has backing file (path /var/lib/nova/instances/_base/ephemeral_0_20_None), 21474836480 bytes # 這個就是 ephemeral disk, 大小為 20G wistor@ubuntu83:/var/lib/nova/instances/_base$ file ephemeral_0_20_None ephemeral_0_20_None: Linux rev 1.0 ext3 filesystem data, UUID=e886c848-3a77-4e2c-b6d6-4d77eb51f8da, volume name "ephemeral0" (large files)
另下來就是測試一下 persistent volume. 透過 UI 或是 command line, 我們生成一個大小為 10G 的 volume, 並且把它 attach 到 vm2 (m1.small)
# 從 nova 的 command line 可以看到新增的 volume wistor@ubuntu83:~$ sudo -i nova volume-list +----+-----------+--------------+------+-------------+-------------+ | ID | Status | Display Name | Size | Volume Type | Attached to | +----+-----------+--------------+------+-------------+-------------+ | 3 | available | volume1 | 10 | None | | +----+-----------+--------------+------+-------------+-------------+ # 在 lvm 內也可以看到這個新的 volume wistor@ubuntu83:~$ sudo lvscan ACTIVE '/dev/nova-volumes/volume-00000003' [10.00 GiB] inherit # 可以看到 tgt 把這個 volume export 出去變成一個 iscsi target wistor@ubuntu83:~$ sudo tgt-admin -s Target 1: iqn.2010-10.org.openstack:volume-00000003 System information: Driver: iscsi State: ready I_T nexus information: LUN information: LUN: 0 Type: controller SCSI ID: IET 00010000 SCSI SN: beaf10 Size: 0 MB, Block size: 1 Online: Yes Removable media: No Readonly: No Backing store type: null Backing store path: None Backing store flags: LUN: 1 Type: disk SCSI ID: IET 00010001 SCSI SN: beaf11 Size: 10737 MB, Block size: 512 Online: Yes Removable media: No Readonly: No Backing store type: rdwr Backing store path: /dev/nova-volumes/volume-00000003 Backing store flags: Account information: ACL information: ALL # 然後使用 open iscsi initiator 連線到這個 iscsi target wistor@ubuntu83:~$ sudo iscsiadm -m session tcp: [5] 172.17.123.83:3260,1 iqn.2010-10.org.openstack:volume-00000003 # 然後就多一個 device wistor@ubuntu83:/dev/disk/by-path$ ll lrwxrwxrwx 1 root root 9 May 29 14:23 ip-172.17.123.83:3260-iscsi-iqn.2010-10.org.openstack:volume-00000003-lun-1 -> ../../sdf wistor@ubuntu83:~$ sudo fdisk -l /dev/sdf Disk /dev/sdf: 10.7 GB, 10737418240 bytes 64 heads, 32 sectors/track, 10240 cylinders, total 20971520 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdf doesn't contain a valid partition table # 然後也可以看到 vm2 上面又多了一個 device wistor@ubuntu83:~$ sudo virsh domblklist 4 Target Source ------------------------------------------------ vda /var/lib/nova/instances/instance-00000009/disk vdb /var/lib/nova/instances/instance-00000009/disk.local vdc /dev/disk/by-path/ip-172.17.123.83:3260-iscsi-iqn.2010-10.org.openstack:volume-00000003-lun-1
PS1. 目前發現在 vm 有掛載額外的 volume 時, 重開機會有問題
1 則留言:
Dear Pjack:
你好,最近我也準備開始架swift的部份。因為諸多原因,所以沒有用官方建議的五台server,而是想選用了all-in-one的作法。(有點好奇,不知道你們實驗室是採用何種方式?)
而在Dashboard的部份,在試用了一些功能後,實在不能說很滿意。因為有時候在其他compute node暫停提供compute服務時,並沒有反應到Dashboard的部分,只能手動去停掉該node。不知道第五版的時候會不會有同樣情況。
此外,在架設多台compute node時,我發現即使在nova.conf加入
--multi_host=T
--enabled_apis=metadata
等選項似乎都無法順利啟動vm instance
總是打開database看,進度可能停在networking或是spawning
用nova list觀察期狀態都是在bulid的部分
不知道您是否知道關於此問題是不是有遺漏了甚麼東西沒加到。
在此先感謝您的回覆,謝謝
張貼留言