- 积分
- 16840
在线时间 小时
最后登录1970-1-1
|

楼主 |
发表于 2021-9-10 16:49:47
|
显示全部楼层
热迁移
: ]1 ]% a% c" a, S6 f1 d, G
" g3 m! x* d7 Q: J! k; C+ M热迁移(Live Migration,又叫动态迁移、实时迁移),即虚拟机保存/恢复(Save/Restore):将整个虚拟机的运行状态完整保存下来,同时可以快速的恢复到原有硬件平台甚至是不同硬件平台上。恢复以后,虚拟机仍旧平滑运行,用户不会察觉到任何差异。
8 `) k: I* V5 e7 B. ?$ I) N. D0 o, L# k7 a) o2 h( `8 u# T# c
openstack热迁移; Z( F' X Y* T) \
; F; }% ~7 I( X# kOpenStack有两种在线迁移类型:live migration和block migration。Livemigration需要实例保存在NFS共享存储中,这种迁移主要是实例的内存状态的迁移,速度应该会很快。Block migration除了实例内存状态要迁移外,还得迁移磁盘文件,速度会慢些,但是它不要求实例存储在共享文件系统中。/ h! l" d. G1 H4 t6 c4 ~
* NFS允许一个系统在网络上与他人共享目录和文件。通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件。
* ~5 P: z4 ^- G% j; A& `8 U# e3 c* W3 d) @9 w# e; _& i, z$ X+ E
' L, r/ z: a8 d) J0 }2 D6 G
Live Migration 的实现9 Z; z5 A* O: u0 k/ F
! }0 \* A9 P; n' B1 e$ ^1.机器:: k$ ?$ R, X7 ^
jovi-controller 是控制节点 192.168.3.10
/ N- V, e5 }3 E1 Ojovi-compute1 是计算节点 192.168.3.12- ?. P2 P2 i- P( ^$ i$ y
jovi-compute3 是计算节点 192.168.3.14( Z# r* h- g. m6 a) [0 O6 v$ G9 i
实验阶段,为了避免不必要的麻烦,请用命令service ufw stop关闭各个节点的防火墙,同时修改/etc/hosts文件,确定节点之间能互相ping通主机名。利用id nova命令查看下控制节点nova的uid和gid,并记录,在两个计算节点同样利用id nova查看uid和gid是否和控制节点保持一致,如果不一致则利用usermod -u 控制节点的uid nova和gropumod -g 控制节点的gid nova 两条命令进行修改,同时在所有计算节点运行如下命令,保证所有nova相关文件使用新的uid和gid
, k+ H' Z5 Z) \, U: p; K- G[root@vmcom1-mn ~]#service nova-api stop
% K4 n2 G* `1 N& s% x9 u/ s[root@vmcom1-mn ~]#service libvirt-bin stop
+ ~$ L5 r" c* D. U5 I' r[root@vmcom1-mn ~]#find / -uid 106 -exec chown nova {} \; # note the 106 here is the old nova uid before the change6 r+ v) \ Q; k1 d1 w; Y% Q. u+ W
[root@vmcom1-mn ~]# find / -gid 107 -exec chgrp nova {} \; #note the 107 here is the old nova uid before the change
$ n3 W+ K: k$ [8 ?[root@vmcom1-mn ~]#service nova-api restart
# _ I' k7 Y( E9 m[root@vmcom1-mn ~]#service libvirt-bin restart
$ O5 R- V4 z# N- d$ m: Q6 K' t9 m
1 Q+ l1 u* ?: \! R' c- j2.修改各个节点的nova.conf: U9 c" C2 l0 i& x& B# w
vncserver_proxyclient_address=本机ip
5 A$ @: `% C( i& C6 V2 uvncserver_listen=0.0.0.0
9 n9 }! Y/ U& B. t- e' h+ t& g T/ J5 C: k( l2 x# ^( x, J8 J
3.控制节点,配置nfs
; f( G1 Y- v# V+ S8 }
3 g6 g/ a: Q0 g0 Tapt-get install nfs-kernel-server portmap# R5 E/ @& D% E$ C; T# a& @% C* f6 D3 r
在/etc/exports中加入/var/lib/nova/instances *(rw,sync,fsid=0,no_root_squash)
5 U0 i- R$ i7 ~重新启动nfs服务,portmap服务% j* n3 j: x5 O. U
3 T% t% D! a$ W z
4.计算节点,配置nfs和挂载) ~2 o+ R' n& Z6 Y
k M# U1 R7 B5 R' x. n2 Napt-get install nfs-common portmap
0 L5 \ f2 }3 [: Qchmod o+x /var/lib/nova/instances,确保节点有执行和查找目录的权限6 n" ~' v& B/ q' N+ ?1 C$ R( t
在计算节点的/etc/fstab的目录中加入
7 G# ^% |( U6 \* d* M8 q8 K控制节点ip:/var/lib/nova/instances /var/lib/nova/instances nfs defaults 0 0
+ N: ^5 F3 l H+ I1 W; W挂载目录,执行
- O$ d: s5 ]7 p! y4 Y! L5 E; Vmount -a -v
' z! r3 C, ?: _" k5 F7 sdf -k 查看已挂在目录,可以在最后看到远程控制节点的目录已被挂在6 _. Q" _1 r. u, X7 `: y( j: W# y
# ^$ P% ~* V8 E/ B0 ]3 r5.修改计算节点的相关的四个配置文件,可以手工如下修改) m) ~5 Q/ j- o( o/ W
2 y3 L- G0 {3 E& t
附修改脚本:
: `: A$ p) G: w8 v( U- jsed -i '/vncserver_proxyclient_address/d' /etc/nova/nova.conf- ?# h+ b* Z. M# }( ?
sed -i '/vncserver_listen/d' /etc/nova/nova.conf. ~: W0 Q5 l6 E. t3 v4 n8 H
sed -i '$a\vncserver_listen=0.0.0.0' /etc/nova/nova.conf
" u; ?; |9 E; a) r/ n1 T! g hsed -i 's/#listen_tls = 0/listen_tls = 0/g' /etc/libvirt/libvirtd.conf
9 T: `$ E, H# o4 @( m) u7 r0 Ksed -i 's/#listen_tcp = 1/listen_tcp = 1/g' /etc/libvirt/libvirtd.conf
; K9 Q2 b$ i8 A$ p; Z, hsed -i '$a\auth_tcp="none"' /etc/libvirt/libvirtd.conf
1 C4 y# l- [/ W. m" U8 h9 xsed -i 's/env libvirtd_opts="-d "/env libvirtd_opts="-d -l"/g' /etc/init/libvirt-bin.conf
! e# z9 ]# q2 V+ b! R7 bsed -i 's/libvirtd_opts=" -d"/libvirtd_opts=" -d -l"/g' /etc/default/libvirt-bin
! Y3 Z8 U. d/ t$ R! a( ?$ _2 g% Used -i 's/#vnc_listen = “0.0.0.0″/vnc_listen = “0.0.0.0″/g' /etc/libvirt/qemu.conf# \; W4 O) r" M' e, U2 K3 N
sed -i 's/#user = "root"/user = "root"/g' /etc/libvirt/qemu.conf3 A* c1 P1 U, ^, u' n, W
sed -i 's/#group = "root"/group = "root"/g' /etc/libvirt/qemu.conf
7 A' Z E) J- Y1 [3 u- K. f6 R, p( w/ c& n
* o) z. U" x* `$ K
6.重新启动libvirt-bin
! {7 c5 n$ D- @0 J- S% h1 ~9 {( k9 G1 j0 D
service libvirt-bin restart: b: ?" Z, l8 ~. N5 Y. C9 L
确定进程已启动。
7 I; S" `: c* A) h) n8 s7 ~' p0 E0 Q8 lps -ef | grep libvirt
/ c. B$ p# D4 e* ^- q- j确定有libvirtd -d -l进程存在
- } X6 j% S8 J/ Proot 5277 1 004:06 ? 00:00:01/usr/sbin/libvirtd -d -l
0 R9 ?, p5 L9 Y# G0 j4 N$ p4 v, D h2 E5 z/ _6 ?' }: o
7.重新启动nova-compute服务,portmap服务
# S& s3 h" @; v( y5 O5 S
. u& P+ S8 u7 H8 U, J( F2 ~1 Nservice nova-compute restart+ M& k+ ^6 j. G; h& p
service portmap restart# L0 i; N, {+ J% ^7 ?, A
6 ^0 l# Y/ O/ G H
8.测试0 O3 N) B% H( f7 A, C$ i6 u8 j
2 O2 C5 r* P+ _3 Eroot@jovi-controller:~# nova list 查看实例
; W- i$ o' \; broot@jovi-controller:~# nova show 11fd9622-a948-4cdb-94d0-d8f2558cf179 查看需要迁移的实例# Z" a# r( @4 W7 w; w- Q5 X
root@jovi-controller:~# nova-manage service list查看可用的计算节点
% q9 S# M/ e) b- [- yroot@jovi-controller:~# nova-manage service describe_resource compute-node2查看目标节点资源
$ n1 ^( q: [7 E Q% ~& Kroot@jovi-controller:~#nova live-migration 11fd9622-a948-4cdb-94d0-d8f2558cf179 jovi-compute3 迁移成功,应该没有输出。' T( N5 X4 {) T- c( y7 V* s h
6 R. @9 `# y( K) O g1 [/ r相关问题的总结:# P+ Y, q, F7 ? `. }
/ l( B6 I+ z, d& K
部署过程中曾遇到两个导致无法迁移成功的错误,一个是在日志文件中发现cpu info incapable,另外一个问题是在日志文件中发现failed to connect remote host uri,经过与最后实验成功的环境相对照,发现实际上导致这两个问题的最终原因是计算节点的计算资源不匹配,例如之前失败的情况是compute1节点 cpu 4核心,8g内存,compute3节点 cpu 2核心,内存4g,所以提示出现上述错误。
" M! ?+ E V Z/ ^% @/ A5 H7 Q
% C% s5 o8 S1 d8 e" A) X6 M* n本质是因为在openstack源码中,有一段针对热迁移时节点计算资源检测的函数,该函数的作用检测迁移的源节点和目的节点的计算资源是否匹配,从而判断能否承载实例的运行。
' p3 h1 c2 G9 f0 U7 m3 }0 s8 t$ I) q7 |0 Z. |; H5 W! y* ^# M3 C
因此后来将两个计算节点都调整为双核,4g内存,按之前方案配置后,即可成功实现迁移。7 j5 p& w5 V: m. O" j9 a
- P3 g! ^ y! x& u5 ]4 o& s另外网上的部署方案都提到了要修改nova.conf中vncserver_proxyclient_address=127.0.0.1,笔者经过测试,这这种方法只适用于单网卡的计算节点,多网卡情况下应该注意填写的是与控制节点以及其他计算节点互联网口的ip,这样dashboard中的vnc才可以成功运行,否则会提示faild to connect to server错误。 |
|