易陆发现互联网技术论坛

 找回密码
 开始注册
查看: 2492|回复: 1
收起左侧

Centos8最小化部署安装OpenStack Ussuri

[复制链接]
发表于 2021-7-13 08:30:21 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?开始注册

x
#!/bin/bash: _; r) G+ `3 ?. n
#Centos8最小化部署安装openstack Ussuri
6 o# g/ R/ e5 e  `#共两台主机,分别是一台控制节点,一台计算节点
( K/ \! t% B9 ^0 L  L#1、控制节点内存4096M。双网卡,分别为eth0:10.0.0.11,eth1:10.0.0.12  N0 x1 ^$ m* v, ^
#2、计算节点内存2048M。双网卡,分别为eth0:10.0.0.31,eth1:10.0.0.32
. }8 L1 }' l4 v% G#设置阿里云yum源
- Z7 e1 X2 J3 Kcurl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-8.repo
$ h, i/ P6 J. B: ]rm -f /etc/yum.repos.d/CentOS-AppStream.repo /etc/yum.repos.d/CentOS-PowerTools.repo /etc/yum.repos.d/CentOS-centosplus.repo /etc/yum.repos.d/CentOS-Extras.repo && rm -rf /var/cache/yum && yum makecache && yum -y update && yum -y autoremove
9 Z* s4 t0 n! I1 ?4 i" k#关闭防火墙
; d$ t2 a$ x9 X( ~systemctl stop firewalld && systemctl disable firewalld
$ I. t: v" a# O( ?7 N% x# G& p#关闭SELinux
+ z. S0 J; R7 _9 @* i" bsetenforce 0
; l$ g$ W1 J7 vsed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config
0 b7 f4 U( [6 {#关闭swap分区
0 O9 f* i$ f+ l8 b' v+ c1 @swapoff -a
/ G7 @* H' \. o4 I4 p- G1 Ksed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
/ x+ L! v3 q0 ^0 _#设置内核- e5 h. Z6 P  B* ]/ l
modprobe bridge7 T: ]% a4 j  p7 b6 n4 _
modprobe br_netfilter! U0 V# r- ]) M
cat > /etc/sysconfig/modules/neutron.modules <<EOF* ^& R' w5 V% r1 l) Y* ]$ {
#!/bin/bash
" X$ K2 N9 M$ P* p. ^; `6 qmodprobe -- bridge" e# K9 W; y* f, H( D
modprobe -- br_netfilter% `# o& N6 q0 @3 I/ o- _! ^; M! ?
EOF
7 Q7 K4 [- ~5 ?6 ]# L: Fchmod 755 /etc/sysconfig/modules/neutron.modules && bash /etc/sysconfig/modules/neutron.modules* S- p% Q6 }2 e. Q. M1 Q
echo "vm.max_map_count=262144" >> /etc/sysctl.conf
$ W8 q5 i( K! x: _echo "net.ipv4.ip_forward=1" >> /etc/sysctl.conf) P$ }$ d" b$ N- n! u! u5 w& }& p; i
echo "net.bridge.bridge-nf-call-iptables=1" >> /etc/sysctl.conf
! m! I5 w( S& P0 Y! z' _5 ~echo "net.bridge.bridge-nf-call-ip6tables=1" >> /etc/sysctl.conf7 E6 \" m! [/ H# T
sysctl -p
  X5 I# x* `" F! N+ M#设置时间同步# R  D, K6 S( a6 y
yum install -y chrony && yum -y autoremove$ l+ e/ n& k0 ?2 A5 x
sed -i '/^pool/d' /etc/chrony.conf
( L# G/ j5 Q9 R. D  V/ Psed -i '/^server/d' /etc/chrony.conf
$ l* H) y: f% \* s* secho "pool ntp.aliyun.com iburst" >> /etc/chrony.conf
( ?2 |7 O0 M7 |6 }: t* }9 H9 O. hsystemctl start chronyd.service && systemctl enable chronyd.service9 Z, O+ [+ v8 `+ y* z) `* s
#控制节点 设置hostname
0 X$ B. m  B, fhostnamectl set-hostname controller# G# N$ f2 |! x6 I4 k
#计算节点 设置hostname
8 C8 w) V, u. c3 o8 W* ~9 w' thostnamectl set-hostname compute1
6 q, S9 y& }9 a. U9 e- k! p; O#添加host) Z/ ^$ r# N. y0 E
echo "10.0.0.11 controller" >> /etc/hosts
; m0 y. Z7 J; o- h7 Zecho "10.0.0.31 compute1" >> /etc/hosts9 v! |& N1 h& o2 P, h  @% T
#安装基础组件0 e4 |% _! P# w! o2 {/ Q
yum install -y centos-release-openstack-ussuri
, q+ [: V( y2 M3 ^yum config-manager --set-enabled PowerTools
$ P: g4 Q$ r5 Gyum upgrade -y- ?8 f& }  y) a! o% ~# C
yum install -y python3-openstackclient; n: ~( ~0 `1 h4 t5 s( A3 x
#控制节点 安装Mariadb
$ [9 L! ]# J! p  ~yum install -y mariadb mariadb-server python2-PyMySQL
' J$ w, a# z6 \8 @  v' Etee /etc/my.cnf.d/openstack.cnf <<-'EOF'( {6 Q4 e# Z  Z  C6 _) f$ k3 d
[mysqld]. U+ s: G- C' {& T
bind-address = 10.0.0.11
7 Z! K; V. t$ n- A1 Y# q: y( _default-storage-engine = innodb
& f0 L; f5 ~1 N0 Z5 y; kinnodb_file_per_table = on& q. @8 T- k1 H: {& e1 {
max_connections = 4096' j% f% X4 [+ f
collation-server = utf8_general_ci
9 f3 U+ e. D3 r2 K. h0 d4 C7 ^( Ocharacter-set-server = utf83 j$ a1 M; ~# F5 \% z) ^
EOF
% _$ P* z1 I' Q: @3 l+ Csystemctl enable mariadb.service && systemctl start mariadb.service& G  m3 L0 l6 W5 L8 p: M
echo -e "\nY\n123456\n123456\nY\nn\nY\nY\n" | mysql_secure_installation2 Y/ ~+ N6 {1 `& j( ?" |9 X8 ?' h$ {
#控制节点 安装RabbitMQ
$ c8 U  p9 `/ Z/ [& x: O% vyum install -y rabbitmq-server5 l  O* [; m( T* S
systemctl enable rabbitmq-server.service && systemctl start rabbitmq-server.service9 y5 ^) Q6 I3 R, F
rabbitmqctl add_user openstack 123456
+ W  s! A% H5 t$ |0 @* }0 {rabbitmqctl set_permissions openstack ".*" ".*" ".*"
# N% F( A  R* q, ~. c4 J" B. G3 {#控制节点 安装Memcached$ L$ ]; q  l( L4 C+ r
yum install -y memcached python3-memcached
% L  z9 q# C0 U" h! K% k4 U) csed -i "s/-l 127.0.0.1,::1/-l 127.0.0.1,::1,controller/g" /etc/sysconfig/memcached1 g$ _# K) n: v
systemctl enable memcached.service && systemctl start memcached.service
  k) ]8 ]' i. M1 l#控制节点 安装Etcd
/ S& p7 W3 _2 j: p2 kyum install -y etcd9 f2 e( z/ I% r$ O' A' }& x! x% d2 t1 ?
rm -f /etc/etcd/etcd.conf
6 ~- Q: V7 R" e7 r$ O# R6 C% ctee /etc/etcd/etcd.conf <<-'EOF'7 R5 y3 E# o* I
#[Member]
2 ]$ D# b2 l4 Y- M4 f; u8 o# EETCD_DATA_DIR="/var/lib/etcd/default.etcd"
3 p0 [- v( a5 ?, ^4 x- J$ wETCD_LISTEN_PEER_URLS="http://10.0.0.11:2380"5 ?+ |$ w  ^) T
ETCD_LISTEN_CLIENT_URLS="http://10.0.0.11:2379"
# b. r* Z6 {2 p. C2 METCD_NAME="controller"
3 ~- [9 l5 k3 s( e. ]#[Clustering]1 }# }% t4 E9 g7 e) }6 {6 H
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://10.0.0.11:2380"4 z$ R7 I: m) v2 n; v
ETCD_ADVERTISE_CLIENT_URLS="http://10.0.0.11:2379"* ~; ^" O/ K- H6 U5 Z$ x- B6 A8 R
ETCD_INITIAL_CLUSTER="controller=http://10.0.0.11:2380"9 B" m/ Z7 P" i4 Q
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
+ ~2 y! I; \; f, D) o2 L1 gETCD_INITIAL_CLUSTER_STATE="new"4 n' m5 p3 F3 E- N- Q
EOF
, @& @! Z/ A2 w2 C1 M! s5 Psystemctl enable etcd && systemctl start etcd
# L2 X) v9 z4 h  ~* d1 l#控制节点 安装Identity service  s# y2 L( Q# V: r4 t  K1 t0 O
mysql -uroot -p123456 -e "CREATE DATABASE keystone"5 f) }8 O% H4 ^8 U- Y
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' IDENTIFIED BY '123456'"! ^6 z- M$ ~: e. F
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'%' IDENTIFIED BY '123456'"
' X' A2 |/ m' L/ o" F! vyum install -y openstack-keystone httpd python3-mod_wsgi' c  Q" f6 W; N+ ~
sed -i "556c connection = mysql+pymysql://keystone:123456@controller/keystone" /etc/keystone/keystone.conf
6 r& g( X9 c# Y4 rsed -i "2418c provider = fernet" /etc/keystone/keystone.conf
8 o; j* ]$ R* j; v) ?0 usu -s /bin/sh -c "keystone-manage db_sync" keystone; ~) m+ ]; C- d$ r$ Z
keystone-manage fernet_setup --keystone-user keystone --keystone-group keystone4 I: M$ V2 F7 ?* ?! x+ \
keystone-manage credential_setup --keystone-user keystone --keystone-group keystone- }  T$ T! T7 j4 S
keystone-manage bootstrap --bootstrap-password 123456 \' W: v) N5 u+ _" u# E& r# ?
--bootstrap-admin-url http://controller:5000/v3/ \
. p+ W4 ]6 m7 T) L--bootstrap-internal-url http://controller:5000/v3/ \
. Y$ x% |" g7 y8 b/ j% L. V7 b--bootstrap-public-url http://controller:5000/v3/ \- q6 F$ W1 M! K$ _
--bootstrap-region-id RegionOne( T; ?! d, e, t$ ]2 R" V+ o2 n
echo "ServerName controller" >> /etc/httpd/conf/httpd.conf1 m- @+ `2 {3 a8 |8 q. M4 C* ^
ln -s /usr/share/keystone/wsgi-keystone.conf /etc/httpd/conf.d/% J4 n( h- H  g  G- ?5 x
systemctl enable httpd.service && systemctl start httpd.service
3 d9 T3 g  T1 n4 `  Gecho "export OS_USERNAME=admin" >> /etc/profile
( |: A7 X2 v0 C  O, Uecho "export OS_PASSWORD=123456" >> /etc/profile
. r5 k2 z7 U' |1 ~  S  ^7 Kecho "export OS_PROJECT_NAME=admin" >> /etc/profile
3 S) q$ Y) W5 U+ Techo "export OS_USER_DOMAIN_NAME=Default" >> /etc/profile$ C8 H$ R: `- ^6 C
echo "export OS_PROJECT_DOMAIN_NAME=Default" >> /etc/profile
8 D5 V/ X+ {8 a" @echo "export OS_AUTH_URL=http://controller:5000/v3" >> /etc/profile, T+ n& l8 A  a% F
echo "export OS_IDENTITY_API_VERSION=3" >> /etc/profile
7 @2 u0 a; X, Ysource /etc/profile
" h5 j0 k6 N; U2 Oopenstack project create --domain default --description "Service Project" service
) s: x9 H" N  \5 ~& N#控制节点 安装Image service5 `7 k1 m# @( R$ E  u4 R
mysql -uroot -p123456 -e "CREATE DATABASE glance"
3 s/ o' {/ L3 U0 M* {- Xmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED BY '123456'"; b8 n$ V6 N; D4 W. [0 i
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%' IDENTIFIED BY '123456'"
# f  {6 t1 ~% W0 ~9 F* s/ |# B3 P" l0 ^openstack user create --domain default --password 123456 glance
0 U( q$ g3 o& K3 Eopenstack role add --project service --user glance admin* H3 X& v& u" d: x1 o& F
openstack service create --name glance --description "OpenStack Image" image! Y$ X: r: W% H6 L7 K! s# r" t$ Y
openstack endpoint create --region RegionOne image public http://controller:9292
, H. P- h5 k+ v2 Mopenstack endpoint create --region RegionOne image internal http://controller:9292
% N+ ?9 `7 d$ l) [/ Xopenstack endpoint create --region RegionOne image admin http://controller:9292- u* v, o! w9 ^0 ~
yum install -y openstack-glance
! H2 o2 h9 F8 h% i3 _sed -i "2062c connection = mysql+pymysql://glance:123456@controller/glance" /etc/glance/glance-api.conf. ^+ ?+ j+ V0 w3 \: A$ X6 [
sed -i "5034c www_authenticate_uri = http://controller:5000" /etc/glance/glance-api.conf
$ h. C5 d3 p6 y# A5 u* E# Ksed -i "5035c auth_url = http://controller:5000" /etc/glance/glance-api.conf
6 F$ M. i$ P( f2 J& Q1 H/ _sed -i "5036c memcached_servers = controller:11211" /etc/glance/glance-api.conf4 n- Z+ B+ T; U/ b) ?& m
sed -i "5037c auth_type = password" /etc/glance/glance-api.conf
2 m" q; j' N! `' A9 rsed -i "5038c project_domain_name = Default" /etc/glance/glance-api.conf7 C9 M3 M  u# @/ M$ N, q
sed -i "5039c user_domain_name = Default" /etc/glance/glance-api.conf: g. ?/ a  ^  d* R( V+ p* W: |. r
sed -i "5040c project_name = service" /etc/glance/glance-api.conf
4 h) E6 k. ^4 F- t7 used -i "5041c username = glance" /etc/glance/glance-api.conf
  o* u7 E* n6 c, J& Tsed -i "5042c password = 123456" /etc/glance/glance-api.conf1 u* i* f: S7 ]7 Z
sed -i "5678c flavor = keystone" /etc/glance/glance-api.conf1 l) Y$ a# w* ?3 {, k- s& Q7 [
sed -i "3413c stores = file,http" /etc/glance/glance-api.conf
/ [. t& P& P+ [; F) d7 O3 zsed -i "3414c default_store = file" /etc/glance/glance-api.conf
3 r7 u0 K4 s" z( {/ e& E* Gsed -i "3415c filesystem_store_datadir = /var/lib/glance/images/" /etc/glance/glance-api.conf/ K6 Y8 Z% g; i. R5 |! c
su -s /bin/sh -c "glance-manage db_sync" glance$ Y" N% G; w% q1 [; J" r# m& j
systemctl enable openstack-glance-api.service && systemctl start openstack-glance-api.service
/ [* ~1 ~; Y, o- y  n$ d" J#控制节点 安装Placement service
/ `8 B' I4 |) o1 `mysql -uroot -p123456 -e "CREATE DATABASE placement"
5 h: D7 U. e5 L7 F& Mmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' IDENTIFIED BY '123456'"
( u' p- l! L+ |7 u0 M4 hmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' IDENTIFIED BY '123456'"% ^3 z- o7 Q' d( _# o. @3 ?! N
openstack user create --domain default --password 123456 placement3 w) V0 y. u- o
openstack role add --project service --user placement admin2 x( j( ]3 ~2 O/ w( w
openstack service create --name placement --description "Placement API" placement
8 g% H( M8 |5 [* a" {0 P) j* ~openstack endpoint create --region RegionOne placement public http://controller:87783 b+ F1 `# N: f; e$ F) ~0 u
openstack endpoint create --region RegionOne placement internal http://controller:8778
, p2 S, `  y9 ^4 ~  j9 I) Xopenstack endpoint create --region RegionOne placement admin http://controller:8778
2 I' D2 ^: o* \$ e, |. y- cyum install -y openstack-placement-api
0 a3 k! ]/ `5 Y$ E( A! e# M1 Wsed -i "507c connection = mysql+pymysql://placement:123456@controller/placement" /etc/placement/placement.conf4 v7 Z+ T# F  Q* `: G4 r8 z
sed -i "192c auth_strategy = keystone" /etc/placement/placement.conf9 Q1 T" ^9 Z9 x; U3 n" U+ g, h
sed -i "241c auth_url = http://controller:5000/v3" /etc/placement/placement.conf6 a1 \1 J5 v, ?$ m; n5 }2 o: q
sed -i "242c memcached_servers = controller:11211" /etc/placement/placement.conf' Q& z: Z# f$ T) \% A
sed -i "243c auth_type = password" /etc/placement/placement.conf
( G! r& ^* ]% ~: B! c3 D9 W' L5 wsed -i "244c project_domain_name = Default" /etc/placement/placement.conf
. W+ b3 s/ B* \( F* Wsed -i "245c user_domain_name = Default" /etc/placement/placement.conf
" z) D6 m% \' A3 B- f7 \) }sed -i "246c project_name = service" /etc/placement/placement.conf* l% z- X2 }" l& z$ g
sed -i "247c username = placement" /etc/placement/placement.conf! @5 ]9 b; m9 Y, U) o$ A% @6 a
sed -i "248c password = 123456" /etc/placement/placement.conf
9 q1 M7 [  V7 lsu -s /bin/sh -c "placement-manage db sync" placement+ `- Q, t/ S: u! K6 X
systemctl restart httpd
; q' N5 V! G  z) |* v6 E#控制节点 安装Compute service
, c: b9 O. U, f9 Mmysql -uroot -p123456 -e "CREATE DATABASE nova_api"
9 S9 z/ r( E, U! G9 o# C6 hmysql -uroot -p123456 -e "CREATE DATABASE nova"
  c; I0 x  u- s- I9 omysql -uroot -p123456 -e "CREATE DATABASE nova_cell0"6 V9 ~+ E7 T; T3 {  B5 t
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"
; |0 ~& ~! B$ d( A+ {+ F5 _mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' IDENTIFIED BY '123456'"5 L2 s3 B  z" w, h+ H$ l
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"% I! Z; P# d' [8 F
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' IDENTIFIED BY '123456'"
3 z5 G  u# u7 S( J' y4 hmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"% Q* @, a7 r1 y5 z) W- d0 B
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' IDENTIFIED BY '123456'"
! @0 G* [% y7 b7 s4 lopenstack user create --domain default --password 123456 nova$ k, s! S- t2 u3 T" Z4 F( u
openstack role add --project service --user nova admin) m3 m8 q9 E5 s! g
openstack service create --name nova --description "OpenStack Compute" compute
  ]8 f) f; v6 M" t: n4 N1 ]openstack endpoint create --region RegionOne compute public http://controller:8774/v2.1
: F- p" I& j7 U# Gopenstack endpoint create --region RegionOne compute internal http://controller:8774/v2.1
) ~# [5 \0 B' l6 P+ |openstack endpoint create --region RegionOne compute admin http://controller:8774/v2.1
5 s8 L. r; z! T  P7 Fyum install -y openstack-nova-api openstack-nova-conductor openstack-nova-novncproxy openstack-nova-scheduler( {) b, S. A% f# q
sed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf
+ u2 R6 r& Y4 rsed -i "3c transport_url = rabbit://openstack:123456@controller:5672/" /etc/nova/nova.conf
+ @$ W2 v' Q' w6 xsed -i "4c my_ip = 10.0.0.11" /etc/nova/nova.conf
3 h$ H( _- W: d1 v0 s: Osed -i "1079c connection = mysql+pymysql://nova:123456@controller/nova_api" /etc/nova/nova.conf
' K% l0 a0 v1 [sed -i "1622c connection = mysql+pymysql://nova:123456@controller/nova" /etc/nova/nova.conf
9 E  B+ k- X  f' e7 j9 xsed -i "872c auth_strategy = keystone" /etc/nova/nova.conf2 h3 D3 x* ?$ c9 L3 {
sed -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf+ c" Z. r' O8 p; X, K5 s8 A
sed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf
# c) A. O/ X5 k- @9 Jsed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf
0 J- e6 W" R7 T* {3 Ased -i "2564c auth_type = password" /etc/nova/nova.conf/ b; `4 a- {' ]' P
sed -i "2565c project_domain_name = Default" /etc/nova/nova.conf
8 I% H; y0 R6 l, h3 M" N. z4 osed -i "2566c user_domain_name = Default" /etc/nova/nova.conf9 i+ i& K; L3 D; s/ a. h
sed -i "2567c project_name = service" /etc/nova/nova.conf* W7 `/ K. i+ j: j. e
sed -i "2568c username = nova" /etc/nova/nova.conf8 p2 D+ g$ k* m$ @& ~7 x
sed -i "2569c password = 123456" /etc/nova/nova.conf  r: L3 x! l  |9 k) [
sed -i "5171c enabled = true" /etc/nova/nova.conf
8 s. J  }! J' `% d! Lsed -i '5172c server_listen = $my_ip' /etc/nova/nova.conf
0 `4 j# }. l/ U6 Msed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf* h- ^. a; J8 x' \
sed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf2 {6 ^7 M9 M9 \6 d1 T/ b
sed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf) E) W, l* b$ A! u5 R- q/ F  s
sed -i "4093c region_name = RegionOne" /etc/nova/nova.conf
  F' |6 N$ z# E( |1 _sed -i "4094c project_domain_name = Default" /etc/nova/nova.conf
0 D# n1 C/ t$ ^9 I0 gsed -i "4095c project_name = service" /etc/nova/nova.conf5 w, w5 U% g# h- o2 y5 ^
sed -i "4096c auth_type = password" /etc/nova/nova.conf
7 c7 Z0 g1 @+ H  F- X  i% f* Jsed -i "4097c user_domain_name = Default" /etc/nova/nova.conf
1 c7 l- s3 L5 l3 n% t- L; Jsed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf+ r/ o7 \# s# f
sed -i "4099c username = placement" /etc/nova/nova.conf5 z8 g% q  l3 i: D
sed -i "4100c password = 123456" /etc/nova/nova.conf
, q' v: w1 c9 j# N5 \7 p; Y$ ased -i "4509c discover_hosts_in_cells_interval = 300" /etc/nova/nova.conf
8 X, D. t& {. F0 C# r: s2 H+ Ssu -s /bin/sh -c "nova-manage api_db sync" nova
3 F. E- i6 J( e; Y" Tsu -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova3 N. L8 n. l- G( j8 G# {
su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
% C' O, a9 |* t/ E/ F) E1 y1 G- Bsu -s /bin/sh -c "nova-manage db sync" nova9 F. c" W7 w- r( z
systemctl enable openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service && systemctl start openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service7 C) \& b; C$ g+ z8 b8 `
#计算节点 安装Compute service5 T( i' W3 L3 @. N$ s8 C- G
yum install -y openstack-nova-compute( M! f- F  {% ^' }( m
sed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf& x# l# ]) o4 |' X( A. @* z  l
sed -i "3c transport_url = rabbit://openstack:123456@controller" /etc/nova/nova.conf  F2 ?( K2 u% O; x6 T
sed -i "4c my_ip = 10.0.0.31" /etc/nova/nova.conf
% ~% n3 j4 w7 p; x: _$ D6 ^1 _! U! ased -i "872c auth_strategy = keystone" /etc/nova/nova.conf! \  J; o5 l; |% ^. @8 A& A- x; Q( p
sed -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf& ~/ _3 N2 _8 w# P8 f. f
sed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf
2 @* B: P( _+ v) H8 _3 msed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf: v( L7 G7 R" Z% l: F& @! w
sed -i "2564c auth_type = password" /etc/nova/nova.conf
# ?+ }9 c6 B+ {+ ]- I, Ksed -i "2565c project_domain_name = Default" /etc/nova/nova.conf
! l; g* N6 v# \) T: R# T( `' Zsed -i "2566c user_domain_name = Default" /etc/nova/nova.conf. A8 R( {& u- @- M& [0 @7 P. `" |
sed -i "2567c project_name = service" /etc/nova/nova.conf
# I0 s- ^$ t) Esed -i "2568c username = nova" /etc/nova/nova.conf
, ?; c6 F" m! Y$ ksed -i "2569c password = 123456" /etc/nova/nova.conf
, J  ]$ L5 M, L% ksed -i "5171c enabled = true" /etc/nova/nova.conf
/ p* f: x5 {  Xsed -i "5172c server_listen = 0.0.0.0" /etc/nova/nova.conf
% Q  }  R5 K( Y/ nsed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf
2 Q9 o' K% B- P+ P! Jsed -i "5174c novncproxy_base_url = http://controller:6080/vnc_auto.html" /etc/nova/nova.conf7 r( e, V& F0 N# p' c% p# k
sed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf
  i2 l8 f' R  k# wsed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf/ v/ Y9 Y9 [  O, a
sed -i "4093c region_name = RegionOne" /etc/nova/nova.conf
% V# _4 q4 K# R! }sed -i "4094c project_domain_name = Default" /etc/nova/nova.conf
* o' A( T; l# l2 S1 J& X: Esed -i "4095c project_name = service" /etc/nova/nova.conf
& z' R. c4 F" q1 {% \sed -i "4096c auth_type = password" /etc/nova/nova.conf
) \% @. B1 j$ E- x8 ~: Ssed -i "4097c user_domain_name = Default" /etc/nova/nova.conf
& U- u: [, v* \2 h4 v" X( Y4 ?sed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf
8 F6 _' P: l! H& S$ a; g; z3 psed -i "4099c username = placement" /etc/nova/nova.conf
$ ~: C2 {( B# H8 ^sed -i "4100c password = 123456" /etc/nova/nova.conf4 `# s9 y$ L8 b; i# Q* ~
#执行命令,查看是否支持CPU虚拟化,如果大于0则支持。3 H5 [3 d+ k5 j3 O4 p" [
egrep -c '(vmx|svm)' /proc/cpuinfo
1 G- A  y# L/ t+ S#如果不支持的话还需要执行下面的命令4 V1 U( n( M& f- z3 `) p
sed -i "2722c virt_type = qemu" /etc/nova/nova.conf
1 U# G  Y$ }# B7 `6 f9 n& `systemctl enable libvirtd.service openstack-nova-compute.service && systemctl start libvirtd.service openstack-nova-compute.service
: J3 ]  l/ {3 D" @  i$ p7 e1 a#控制节点 计算节点从注册到发现会有延迟,根据discover_hosts_in_cells_interval 配置轮询发现时间,可以执行下面命令手动发现计算节点* i$ ]  o$ O1 w% X
su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova- r3 U7 H+ Z. g6 f5 E% B+ b7 I+ a
#控制节点 安装Networking service
% }# Z# ^) \; {+ n) T( X% p- `mysql -uroot -p123456 -e "CREATE DATABASE neutron"( t7 P( J* K6 T) P
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' IDENTIFIED BY '123456'"6 {0 x- V& k' N+ B& z) Z( l' ~, w) _# P3 a
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' IDENTIFIED BY '123456'"
- ~# P* _! U, H5 j8 O& Nopenstack user create --domain default --password 123456 neutron4 J" K1 x7 T' _: m+ j$ Z
openstack role add --project service --user neutron admin
# u# e8 q0 Z! wopenstack service create --name neutron --description "OpenStack Networking" network
1 ?% l# _. z+ f3 h7 Mopenstack endpoint create --region RegionOne network public http://controller:9696
8 v# S- f+ S* M. ]openstack endpoint create --region RegionOne network internal http://controller:9696' n- z, }! k4 x$ O) `
openstack endpoint create --region RegionOne network admin http://controller:9696! }# M+ w$ _1 E- p# s) P: ]
yum install -y openstack-neutron openstack-neutron-ml2 openstack-neutron-linuxbridge ebtables6 \* Q& @# k& L" m
#配置服务器组件
/ s: d% T# y6 d! z: b9 _; t0 wsed -i "2c core_plugin = ml2" /etc/neutron/neutron.conf9 j" F% ^* m9 a! M
sed -i "3c service_plugins = router" /etc/neutron/neutron.conf
7 H5 Y$ w5 G' W) }1 jsed -i "4c allow_overlapping_ips = true" /etc/neutron/neutron.conf
( l1 H9 i( `6 e- L' d2 N6 K' d( psed -i "5c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf
2 g& u( ]$ h, C/ D( msed -i "6c auth_strategy = keystone" /etc/neutron/neutron.conf
1 h& D8 @: \" z0 ysed -i "7c notify_nova_on_port_status_changes = true" /etc/neutron/neutron.conf. _, {+ F! Y5 [5 G0 W3 Z
sed -i "8c notify_nova_on_port_data_changes = true" /etc/neutron/neutron.conf
' H; }' D# p4 d* w# Y- K0 ksed -i "254c connection = mysql+pymysql://neutron:123456@controller/neutron" /etc/neutron/neutron.conf
4 ?- @0 u6 F! J. |0 hsed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf: @" x3 j5 H: z6 _0 V$ G- `+ t: P
sed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf
- I' z6 L9 T, i$ H. t  ]0 ksed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf
1 U+ m1 d6 {' E2 ysed -i "362c auth_type = password" /etc/neutron/neutron.conf
3 a' ]9 x$ `% C3 A6 w$ msed -i "363c project_domain_name = default" /etc/neutron/neutron.conf
  |9 F- k, S( |9 m1 Z0 f, h! U' c2 [2 ~sed -i "364c user_domain_name = default" /etc/neutron/neutron.conf
7 y+ m5 W) S9 ^sed -i "365c project_name = service" /etc/neutron/neutron.conf1 b' D1 |% H& \& V
sed -i "366c username = neutron" /etc/neutron/neutron.conf/ {0 l7 v: N# p! ^& q
sed -i "367c password = 123456" /etc/neutron/neutron.conf1 o  s; v, m/ L5 M9 F9 c* h
sed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf2 L7 w7 K) e. h. A/ a- V- ~
echo "[nova]" >> /etc/neutron/neutron.conf% e7 ~  G: ~" P( H, P  p/ h) L
echo "auth_url = http://controller:5000" >> /etc/neutron/neutron.conf# C5 Z6 j; V9 A/ E' q
echo "auth_type = password" >> /etc/neutron/neutron.conf
1 k; o% W& C# g9 T+ Y: u3 U/ Gecho "project_domain_name = default" >> /etc/neutron/neutron.conf4 L* h+ V  }/ m) {1 i( Y" `$ ^2 K! E
echo "user_domain_name = default" >> /etc/neutron/neutron.conf
9 [( g1 L, `9 N6 Z/ I; Becho "region_name = RegionOne" >> /etc/neutron/neutron.conf0 u& O4 y+ u5 E0 G4 l  J* T1 Z
echo "project_name = service" >> /etc/neutron/neutron.conf
" R; Y* B5 Q% k3 [' V: n8 U( \echo "username = nova" >> /etc/neutron/neutron.conf9 H) K. @) l5 S7 }3 P
echo "password = 123456" >> /etc/neutron/neutron.conf$ k4 g" X$ N2 E$ l  U2 p
#配置Modular Layer 2 (ML2) plug-in
$ k# M2 _5 B3 Z" Cecho "[ml2]" >> /etc/neutron/plugins/ml2/ml2_conf.ini
" K2 P, N$ F7 g4 [4 Zecho "type_drivers = flat,vlan,vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini7 l, K* i7 z' c
echo "tenant_network_types = vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini
* Q( P( e6 x+ r$ E3 z; kecho "mechanism_drivers = linuxbridge,l2population" >> /etc/neutron/plugins/ml2/ml2_conf.ini
1 T+ [  b, m, C* decho "extension_drivers = port_security" >> /etc/neutron/plugins/ml2/ml2_conf.ini( y/ u$ D- ~2 y: v0 O
echo "[ml2_type_flat]" >> /etc/neutron/plugins/ml2/ml2_conf.ini4 t& Z8 G6 X, \* M
echo "flat_networks = provider" >> /etc/neutron/plugins/ml2/ml2_conf.ini' r, ]/ W  @- F( v: T
echo "vni_ranges = 1:1000" >> /etc/neutron/plugins/ml2/ml2_conf.ini
0 H# R$ j' |: Xecho "[securitygroup]" >> /etc/neutron/plugins/ml2/ml2_conf.ini
0 m$ O  h5 w! a, ]5 Fecho "enable_ipset = true" >> /etc/neutron/plugins/ml2/ml2_conf.ini
( _0 l9 S' D  c/ n+ x0 ^+ J#配置Linux bridge agent) L# b9 C. i/ w" ^& h' g8 }
echo "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini: P5 z  N4 W8 T" J
#eth1为另外第二张网卡% V% j" `6 S! ^7 a2 ?
echo "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini0 X) w1 F: x5 J) T; x
echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
& e$ ?5 }. Z# P" zecho "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
4 e" l+ U7 v0 O9 w4 }% r0 ?; y7 a2 M#10.0.0.12为第二张网卡的IP
0 N9 r. b% D- ~% g  x5 qecho "local_ip = 10.0.0.12" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini- u% s( ]7 O, J  W- F
echo "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini7 c: J3 S! ], `
echo "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
" a+ b% p0 ~4 `, b1 k/ zecho "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
; \0 J  v) C# E0 J4 Fecho "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
/ f7 G( U% ]9 L6 E6 e7 m1 C/ z#配置layer-3 agent! ^. H* u7 ?7 x
sed -i "2c interface_driver = linuxbridge" /etc/neutron/l3_agent.ini
- V+ {' [, A4 P( J% w( x7 b: S8 P6 v#配置DHCP agent
. m' B% d  |3 _sed -i "2c interface_driver = linuxbridge" /etc/neutron/dhcp_agent.ini
$ U* x8 p; p& G) |sed -i "3c dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq" /etc/neutron/dhcp_agent.ini
: C/ x3 H  h. gsed -i "4c enable_isolated_metadata = true" /etc/neutron/dhcp_agent.ini
2 [- d+ S/ T. r/ N( N#配置metadata agent
1 f9 I' w' E0 fsed -i "2c nova_metadata_host = controller" /etc/neutron/metadata_agent.ini& B: [$ g% I/ G" d4 b
sed -i "3c metadata_proxy_shared_secret = 123456" /etc/neutron/metadata_agent.ini. P( e0 N  z+ h+ j4 Z
#配置计算服务使用网络服务% R7 r) X4 S6 j
sed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf
. U) M1 t( }- P5 B" Lsed -i " 3335c auth_type = password" /etc/nova/nova.conf
- X- a+ M% r  @, h! osed -i " 3336c project_domain_name = default" /etc/nova/nova.conf
1 [2 o: j" e9 t# p/ _sed -i " 3337c user_domain_name = default" /etc/nova/nova.conf
9 z9 N  ^" A' c/ o% [5 q' gsed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf( a% s, r9 N0 m! A
sed -i " 3339c project_name = service" /etc/nova/nova.conf
0 r$ Y1 j1 [* hsed -i " 3340c username = neutron" /etc/nova/nova.conf# S8 e/ R) [: D5 w1 g- N: e7 A
sed -i " 3341c password = 123456" /etc/nova/nova.conf# T2 W& H. z( B- O/ s  S
sed -i " 3342c service_metadata_proxy = true" /etc/nova/nova.conf( T' `& H  D5 W9 H6 e) {
sed -i " 3343c metadata_proxy_shared_secret = 123456" /etc/nova/nova.conf
( Y1 p7 U/ F( wln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini# a$ u3 N7 e; F. z4 \
su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron
& j/ C: x. a: b6 dsystemctl restart openstack-nova-api.service
8 e0 ?% F# q. U0 z" _systemctl enable neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service && systemctl start neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service6 F7 L- ^* j" X0 K: F' W
systemctl enable neutron-l3-agent.service && systemctl start neutron-l3-agent.service8 u: a7 j. ], V( i7 O& }( ?
#计算节点 安装Networking service
. {7 W8 S$ q* k2 d& K8 gyum install -y openstack-neutron-linuxbridge ebtables ipset
3 V5 Q! j/ X# _8 z6 ?6 @1 s3 M- Used -i "2c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf& X8 _7 R4 t, Z/ p4 ?& n7 E
sed -i "3c auth_strategy = keystone" /etc/neutron/neutron.conf+ P* u7 c, j4 j! _! F/ P2 \
sed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf4 ]7 t; x6 y. j% c- |! M: k) l) Y2 M
sed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf$ D, x1 b' @2 P4 g
sed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf
& I& }( w: e- Esed -i "362c auth_type = password" /etc/neutron/neutron.conf
; n* c, n4 O, o7 V4 a; V6 J/ zsed -i "363c project_domain_name = default" /etc/neutron/neutron.conf
, J" |! _# i5 A; e- xsed -i "364c user_domain_name = default" /etc/neutron/neutron.conf  t% F$ @$ M2 B* ^/ a
sed -i "365c project_name = service" /etc/neutron/neutron.conf. p: D6 b$ L  M$ b- Z* M6 E6 t
sed -i "366c username = neutron" /etc/neutron/neutron.conf
" W( @% n' ~% D- u/ Z, z% Z( ksed -i "367c password = 123456" /etc/neutron/neutron.conf  [6 Z' l+ ~( f! x7 `1 R7 [
sed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf8 `- @! W) H2 u$ m2 }' T9 H6 Z( l
echo "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini0 U" q1 w- k6 Z
#eth1为另外第二张网卡
% K' @% r) W% x: P: qecho "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
% M6 V( w) f' l& z  H4 U3 E# |echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini! W2 O, N" \4 Z7 z' k. Y
echo "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
, @# A5 h/ }5 R: W) U  d6 ?#10.0.0.32为第二张网卡的IP6 U- z0 X( A; C! A! ?! {- B
echo "local_ip = 10.0.0.32" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini* V6 i+ q9 z: F2 M
echo "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
2 f& Y8 }. i' Y' P5 k' iecho "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
# n5 z. E6 o  p+ S, |( b$ w( w* }# {echo "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
/ _* A& p, ]1 C3 j- @echo "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
. m, q4 d1 a8 a+ a, a1 G#配置计算服务使用网络服务7 N  N; h* m* b) Q
sed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf8 l) N* o- n( u  ], O1 w
sed -i " 3335c auth_type = password" /etc/nova/nova.conf3 l. v9 S- R- F7 z" \' W* R) p
sed -i " 3336c project_domain_name = default" /etc/nova/nova.conf
) j- X9 a# B" v2 H. _3 @sed -i " 3337c user_domain_name = default" /etc/nova/nova.conf# M9 ~  u, p, e
sed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf
. M. s6 U5 b4 h, s: q. Y  U0 |* Zsed -i " 3339c project_name = service" /etc/nova/nova.conf# o- n  B9 N- ?; U& r9 k) B
sed -i " 3340c username = neutron" /etc/nova/nova.conf, {  {9 j! E+ R# U1 S2 s9 ]
sed -i " 3341c password = 123456" /etc/nova/nova.conf! F: b2 N, Q2 B2 I0 u* a* g
systemctl restart openstack-nova-compute.service
- `/ C0 [6 C  N7 Isystemctl enable neutron-linuxbridge-agent.service && systemctl start neutron-linuxbridge-agent.service# W. B' m* s( F( C1 h
#控制节点 安装Dashboard/ y: H& O. o& M& t) t# H) N  t5 K
yum install -y openstack-dashboard% [- R) ?1 r. D6 Q' s
sed -i '118c OPENSTACK_HOST = "controller"' /etc/openstack-dashboard/local_settings
4 a# Y  E2 X# }% y( z: ^/ Nsed -i "39c ALLOWED_HOSTS = ['*']" /etc/openstack-dashboard/local_settings
; a) d% M1 A; ?+ ]: E. U, }9 n- Ised -i "104c SESSION_ENGINE = 'django.contrib.sessions.backends.cache'" /etc/openstack-dashboard/local_settings9 \$ H5 C5 [6 c: I! V
sed -i "94c CACHES = {" /etc/openstack-dashboard/local_settings6 x& c9 U, N* g" I' Y$ [2 o
sed -i "95c 'default': {" /etc/openstack-dashboard/local_settings
* N1 P6 S6 G5 y. B9 p5 k6 gsed -i "96c 'BACKEND': 'django.core.cache.backends.memcached.MemcachedCache'," /etc/openstack-dashboard/local_settings/ h( O8 O3 i& \2 o3 J3 g
sed -i "97c 'LOCATION': 'controller:11211'," /etc/openstack-dashboard/local_settings9 v# X4 `" F3 ]- @
sed -i "98c }" /etc/openstack-dashboard/local_settings
2 F4 _& t7 P' T% f. N6 lsed -i "99c }" /etc/openstack-dashboard/local_settings
, y* d( _- S) \sed -i '119c OPENSTACK_KEYSTONE_URL = "http://%s:5000/v3" % OPENSTACK_HOST' /etc/openstack-dashboard/local_settings
( y7 e; D$ y) ~. ]2 p* aecho 'OPENSTACK_KEYSTONE_MULTIDOMAIN_SUPPORT = True' >> /etc/openstack-dashboard/local_settings
/ x/ u$ D, \6 @" Oecho 'OPENSTACK_API_VERSIONS = {' >> /etc/openstack-dashboard/local_settings
7 t$ I9 \, p: s$ @8 G2 Vecho '  "identity": 3,' >> /etc/openstack-dashboard/local_settings
2 `3 Y. h9 p3 l' b+ X& y  Eecho '  "image": 2,' >> /etc/openstack-dashboard/local_settings
- ^+ S& c5 v7 x* W; z* Q3 O$ mecho '  "volume": 3' >> /etc/openstack-dashboard/local_settings! h& Q& r/ J" \& {4 H& R
echo '}' >> /etc/openstack-dashboard/local_settings. ?+ B& ~+ M% a6 z- m+ G6 ?. w0 l4 C
echo 'OPENSTACK_KEYSTONE_DEFAULT_DOMAIN = "Default"' >> /etc/openstack-dashboard/local_settings, y$ O; @; k! p
echo 'OPENSTACK_KEYSTONE_DEFAULT_ROLE = "user"' >> /etc/openstack-dashboard/local_settings7 N, ?( J8 \  k- e' K1 b9 r
sed -i '123c TIME_ZONE = "Asia/Shanghai"' /etc/openstack-dashboard/local_settings# W. F: q7 ^) s; W) \
echo "WEBROOT = '/dashboard/'" >> /etc/openstack-dashboard/local_settings3 H5 ~: |$ M5 Y' Y3 S2 t. A! c
echo 'WSGIApplicationGroup %{GLOBAL}' >> /etc/httpd/conf.d/openstack-dashboard.conf, `: {5 i* V& ]! M% u
systemctl restart httpd.service memcached.service
! E1 E& n0 Y& s& Y; P#安装完成,可访问http://controller/dashboard/查看- ?4 z2 \+ @0 f5 ]
 楼主| 发表于 2021-9-13 11:07:27 | 显示全部楼层
目录:
5 _2 q# S( d$ ]- t4 D
  • 为何选择云计算/云计算之前遇到的问题
  • 什么是云计算
  • 云服务模式
  • 云应用形式
  • 传统应用与云感知应用8 e4 ?9 ?. g) u% x% I) C. J
  • openstack及其相关组件介绍
  • flat/vlan/gre/vxlan介绍
  • 分布式存储ceph介绍
  • openstack mitaka三节点部署实战
    & c2 x( S; l9 y9 v" I6 w* L
% W  G5 x9 f3 Z1 w
一:为何选择云计算/云计算之前遇到的问题
    一、有效解决硬件单点故障问题
    单点故障是指某个硬件的故障造成网站某个服务的中断。要真正解决这个问题,需要为每个硬件准备冗余,这不仅大大增加了硬件购置成本,而且部署与维护成本也不容小视。
    而云计算平台是基于服务器集群,从设计之初就考虑了单点故障问题,并在建设时有效地解决了这个问题。如果一家云服务商出现单点故障问题,就如同存在银行的钱丢了。
    二、按需增/减硬件资源
    自己托管服务器,增/减硬件一直是头疼的问题。
    1. 增加服务器的时候,购买服务器需要时间,而且这个时间自己无法控制。而使用云服务器,随时可以增加服务器——垂手可得。
    2. 减服务器只能从机房拉回办公室,无法再把服务器退给厂商,购置服务器的成本就浪费了。而使用云服务器,如果下个月不用,不续费就行了(针对阿里云按月购买的情况)——想用就用,想扔就扔。
    3. 不能按需增加满足基本需求的服务器配置。假如我们现在需要一台低配置的服务器用Linux跑缓存服务,如果为之单独购买一台便宜的低配置的服务器很不合算,因为这台服务器仅仅一年的电费就至少要3000元左右。所以只能尽量减少服务器数量,提高单台服务器的配置,在让一台服务器跑更多东西。而使用云服务器,需要什么样的配置就买什么样的配置,让各个服务器的职责更单一,互相之间的影响更小——职责分明,效率更高。
    三、BGP线路解决南北互通问题
    南北互通问题是南方电信与北方联通线路之间的互通问题,这个问题困扰我们多年,之前用过双线机房,解决的也不是很好。目前只有BGP线路才能有效解决这个问题,而拥有真正的BGP线路的机房不是很多,成本也非常高。而我准备使用的阿里云用的就是BGP线路,这也是吸引我们的主要地方之一。
    究竟什么是南北互通问题?基于我们的理解简体描述一下,不对之处欢迎指出。南北互通问题实际就是路由问题。假设我们的服务器放在上海电信的机房,上海一位联通的用户访问我们的服务器,要先绕到联通的北京总出口(假设总出口在北京),然后再绕回上海。实际上这位联通用户可以通过上海的线路直接到达我们的服务器,不用绕这么远,但上海电信的机房无法告知联通的路由器走近路过来,只能按照联通路由器设定好的路由走。本来即使走北京绕一下也没有大的影响,毕竟是光的速度,但是由于大多数联通的用户访问电信网络都这么绕着走,联通的总出口成为了瓶颈,总出口流量太大时,联通的用户访问电信的网络速度就会慢。BGP线路也没什么神奇之处,只是它能决定走什么路由过来,不绕远路,问题自然解决了。它有这样的特权,就不仅能解决南北互通的问题,而且能解决其他网络的互通问题,比如教育网。因为有权限决定路由,就可以优化路由,哪条路堵,我就换条路。
    四、按需增/减带宽
    带宽是主要成本,托管服务器时,与ISP服务商签一年合同之前就要确定带宽。用了一段时间之后,你发现带宽买多了,想减一些是不允许的。中途要临时增加带宽一段时间也是不行的,要买就买一年(这是根据我们接触过的ISP服务商)。所以,一般都会多买一些带宽,留一些余量。
    使用云服务器可以灵活地增减带宽,不会浪费带宽,即使买少了也不用担心,随时可以增加。虽然各个云服务商会有一定的限制,比如在阿里云一次至少要购买1个月的带宽,但比自己托管服务器灵活很多,同样的带宽条件,会节省不少成本,尤其是带宽需求在一年中变化比较大的网站。
    五、更有吸引力的费用支付方式
    在IDC机房托管服务器一般是签一年合同,一次支付一个季度的费用。
    而使用云服务,一次可以支付更短时间的费用,比如阿里云可以一次只支付一个月的费用,节约了流动资金。
    从总体上考虑,差不多的成本,却拥有更多的内存、更多的CPU、更多的硬盘空间、更优质的带宽线路,更重要的是可以随时按需扩展计算资源。

6 _9 {6 |% e3 t' g9 ~9 `
二:什么是云计算(资源和服务的交互方式)

3 `. F3 V7 M" J6 n" x
    一、概念分解:   
        云:云计算中的云,代表循环利用的意思(云多了变成雨,落到地面,云减少,水蒸发到空中,云增加)。
       计算:云计算中的计算,代表计算资源,涵盖虚机、存储、网络等。
       云计算:代表计算资源向云水循环一样,按需分配,循环利用。
       附:企业数据中心部署在云计算分布式平台上,类似于从原来单台发电机转向电厂集中供电模式,它意味着访问计算机和存储系统也可以作为一种商品流通,就像煤气、水电一样,取用方便,费用低廉,只不过它是通过互联网传输的,云就是互联网的一种比喻
    二、云计算分类:
        狭义:IT基础设施的交互和使用模式,通过网络以按需,易扩展的方式获取资源
        广义:服务(IT基础设施、软件等)的交互和使用模式,通过网络以按需、易扩展的方式获取资源。
        ! D$ k8 r! h5 L+ m- U4 N( r4 P( x
三:云服务模式

# g7 j5 i7 a1 A5 c2 W
     一、IaaS:基础设施即服务
        用户通过网络获取虚机、存储、网络,然后用户根据自己的需求操作获取的资源。  典型应用:亚马逊AWS等
# a, H: `7 D1 O( |1 x( M
     二、PaaS:平台即服务
        将软件研发平台作为一种服务, 如Eclipse/Java编程平台,服务商提供编程接口/运行平台等。典型应用:Google AppEngine、Force.com、微软Azure等
4 f$ R# W' P  P1 q3 Q- V+ v
     三、SaaS:软件即服务  
        将软件作为一种服务通过网络提供给用户,如web的电子邮件、HR系统、订单管理系统、客户关系系统等。用户无需购买软件,而是向提供商租用基于web的软件,来管理企业经营活动。典型应用:Google Doc、Saleforce.com、Oracle CRM On Demand、Office Live Workspace等
- g# s7 j. j8 p( b. {" B5 D
6 F5 c: O4 L1 V: }% O
四:云应用形式
   
    一.私有云
        将基础设施与软硬件资源构建于防火墙内,基于iaas构建私有云平台供企业内部使用,开源组件有:openstack(最为出色),cloudstack等
; m: `/ ]8 C5 u5 M
    二.云存储
        云存储系统是一个以数据存储和管理为核心的云计算系统
" I3 E6 x- K% Q- g/ D
    三.云游戏
        游戏运行云平台服务端,云平台将游戏画面解压缩后传给用户,用户端无需高配置处理器和显卡,只需要基本的视频解压缩能力即可。
1 l, W' j2 @2 B8 N; y; s$ D( I
    四.云物联
        基于云平台实现物物相连的互联网。
9 S; g7 X+ z) B  Z% }$ e. X
    五.云安全
        通过网状的大量客户端检测网络中软件的异常,获取木马,恶意程序的最新信息,推送到云平台服务端自动分析和处理,再把解决方案发送给每一个客户端。云平台使用者越多,越安全。( ]: ?* X" E: V' x
    六.公有云
        云平台对外开放,主要以Iaas和Paas为主,较为成熟的是Iaas,如阿里云,腾讯云,×××,ucloud,首都在线等/ c1 s: b" C, E: b4 k8 K' [
    七.混合云  
1 D- e! j' c/ e% ~# I# `
        公有云和私有云的结合,即对企业内部又对企业外部,例如AWS
9 h/ M0 s" r# a7 ]) X' g
   
2 r( O9 {- ~% b# T2 S" m, m: \
五:传统应用与云感知应用

2 b+ I5 t  L  ?9 q/ L
    一、传统应用! Y6 B4 {0 x. @
    传统应用像养宠物,宠物病了要细心呵护
    每个应用都是独特的、专门的
    专门的服务器、硬件和软件保证可靠性
    资源不够,增加cpu、内存、磁盘
    专门的技术支持
    二、云感知应用
% P2 s# t* l6 T  B1 Y3 u
    云感知应用像养牛,牛生病了,你需要一头新的牛
    应用跑在一个或多个虚拟机里
    资源不够,增加新的虚拟机
    应用挂起,重启或创建新的虚拟机

% B" P! @7 Q7 H$ b% M  v, U
2 _, V1 Q5 j: q9 z' _+ C- m% y
六:openstack与及其相关组件介绍

" w8 b- z3 Q% i: d
    一、openstack由来6 j  c" o2 G3 E; X. r1 J' y
            openstack最早由美国国家航空航天局NASA研发的Nova和Rackspace研发的swift组成。后来以apache许可证授权,旨在为公共及私有云平台建设。openstack主要用来为企业内部实现类似于Amazon EC2和S3的云基础架构服务(Iaas).每6个月更新一次,基本与ubuntu同步,命名是以A-Z作为首字母来的。
     二、openstack项目与组件(服务名是项目名的别名)
' Z+ n' m# D) _' l9 |
    核心项目3个
    1.控制台
    服务名:Dashboard
    项目名:Horizon
    功能:web方式管理云平台,建云主机,分配网络,配安全组,加云盘
    $ a  V7 x+ K6 X2 ~$ a1 ^) V1 R8 n0 {; r
    2.计算
    服务名:计算
    项目名:Nova
    功能:负责响应虚拟机创建请求、调度、销毁云主机
   
3 k0 B9 N5 g2 h& g& i. s4 m: \0 H
    3.网络
    服务名:网络
    项目名:Neutron
    功能:实现SDN(软件定义网络),提供一整套API,用户可以基于该API实现自己定义专属网络,不同厂商可以基于此API提供自己的产品实现
        ) ]# Q' v6 g6 O5 S2 H. Q
         存储项目2个
    1.对象存储
    服务名:对象存储
    项目名:Swift
    功能:REST风格的接口和扁平的数据组织结构。RESTFUL HTTP API来保存和访问任意非结构化数据,ring环的方式实现数据自动复制和高度可以扩展架构,保证数据的高度容错和可靠性
      R( @6 T/ m9 n! F  h4 I
    2.块存储
    服务名:块存储
    项目名:Cinder
    功能:提供持久化块存储,即为云主机提供附加云盘。

' d1 |$ j+ E& G* M# ~
    共享服务项目3个
    1.认证服务
    服务名:认证服务
    项目名:Keystone
    功能:为访问openstack各组件提供认证和授权功能,认证通过后,提供一个服务列表(存放你有权访问的服务),可以通过该列表访问各个组件。
   
: {6 j( t) E5 u& F) J, t
    2.镜像服务
    服务名:镜像服务
    项目名:Glance
    功能:为云主机安装操作系统提供不同的镜像选择
6 r# Z3 r+ j0 y- X5 u. o
    3.计费服务
    服务名:计费服务
    项目名:Ceilometer
    功能:收集云平台资源使用数据,用来计费或者性能监控
3 \/ P/ V8 L' `" a% j6 J
    高层服务项目1个
    1.编排服务
    服务名:编排服务
    项目名:Heat
    功能:自动化部署应用,自动化管理应用的整个生命周期.主要用于Paas

4 {7 X1 t, z7 y1 C
# f- f& \+ w! P' Q- i' d
    三、openstack各组件详解及运行流程
) c& X  M& F" g* p3 e+ T1 R
各组件逻辑关系图:

# W! `0 X0 X$ e/ m/ |7 ~

+ h2 {" d- J7 x- Iopenstack新建云主机流程图:
虚拟机启动过程如下:
  • 界面或命令行通过RESTful API向keystone获取认证信息。
  • keystone通过用户请求认证信息,并生成auth-token返回给对应的认证请求。
  • 界面或命令行通过RESTful API向nova-api发送一个boot instance的请求(携带auth-token)。
  • nova-api接受请求后向keystone发送认证请求,查看token是否为有效用户和token。
  • keystone验证token是否有效,如有效则返回有效的认证和对应的角色(注:有些操作需要有角色权限才能操作)。
  • 通过认证后nova-api和数据库通讯。
  • 初始化新建虚拟机的数据库记录。
  • nova-api通过rpc.call向nova-scheduler请求是否有创建虚拟机的资源(Host ID)。
  • nova-scheduler进程侦听消息队列,获取nova-api的请求。
  • nova-scheduler通过查询nova数据库中计算资源的情况,并通过调度算法计算符合虚拟机创建需要的主机。
  • 对于有符合虚拟机创建的主机,nova-scheduler更新数据库中虚拟机对应的物理主机信息。
  • nova-scheduler通过rpc.cast向nova-compute发送对应的创建虚拟机请求的消息。
  • nova-compute会从对应的消息队列中获取创建虚拟机请求的消息。
  • nova-compute通过rpc.call向nova-conductor请求获取虚拟机消息。(Flavor)
  • nova-conductor从消息队队列中拿到nova-compute请求消息。
  • nova-conductor根据消息查询虚拟机对应的信息。
  • nova-conductor从数据库中获得虚拟机对应信息。
  • nova-conductor把虚拟机信息通过消息的方式发送到消息队列中。
  • nova-compute从对应的消息队列中获取虚拟机信息消息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求glance-api获取创建虚拟机所需要镜像。
  • glance-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机镜像信息(URL)。
  • nova-compute通过keystone的RESTfull API拿到认证k的token,并通过HTTP请求neutron-server获取创建虚拟机所需要的网络信息。
  • neutron-server向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机网络信息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求cinder-api获取创建虚拟机所需要的持久化存储信息。
  • cinder-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机持久化存储信息。
  • nova-compute根据instance的信息调用配置的虚拟化驱动来创建虚拟机。
    $ u' d1 u0 H/ a

. t! N% m0 Q6 H
0 W  g% W7 B$ c) |$ R, x
下面我们就围绕上图流程展开
7 u  ]! I! B* H/ b& K. m1 a
% d* h/ a  Y" y5 d
1.keystone

User:指使用Openstack service的用户,可以是人、服务、系统,但凡使用了Openstack service的对象都可以称为User。

Project(Tenant):可以理解为一个人、或服务所拥有的 资源集合 。在一个Project(Tenant)中可以包含多个User,每一个User都会根据权限的划分来使用Project(Tenant)中的资源。比如通过Nova创建虚拟机时要指定到某个Project中,在Cinder创建卷也要指定到某个Project中。User访问Project的资源前,必须要与该Project关联,并且指定User在Project下的Role。

Role:用于划分权限。可以通过给User指定Role,使User获得Role对应的操作权限。Keystone返回给User的Token包含了Role列表,被访问的Services会判断访问它的User和User提供的Token中所包含的Role。系统默认使用管理Role admin和成员Role _member_ 。

Policy:OpenStack对User的验证除了OpenStack的身份验证以外,还需要鉴别User对某个Service是否有访问权限。Policy机制就是用来控制User对Tenant中资源(包括Services)的操作权限。对于Keystone service来说,Policy就是一个JSON文件,默认是/etc/keystone/policy.json。通过配置这个文件,Keystone Service实现了对User基于Role的权限管理。

Token:是一个字符串表示,作为访问资源的令牌。Token包含了在 指定范围和有效时间内 可以被访问的资源。EG. 在Nova中一个tenant可以是一些虚拟机,在Swift和Glance中一个tenant可以是一些镜像存储,在Network中一个tenant可以是一些网络资源。Token一般被User持有。

Credentials:用于确认用户身份的凭证

Authentication:确定用户身份的过程

Service:Openstack service,即Openstack中运行的组件服务。

Endpoint:一个可以通过网络来访问和定位某个Openstack service的地址,通常是一个URL。比如,当Nova需要访问Glance服务去获取p_w_picpath 时,Nova通过访问Keystone拿到Glance的endpoint,然后通过访问该endpoint去获取Glance服务。我们可以通过Endpoint的region属性去定义多个region。Endpoint 该使用对象分为三类:

  • admin url –> 给admin用户使用,Post:35357
  • internal url –> OpenStack内部服务使用来跟别的服务通信,Port:5000
  • public url –> 其它用户可以访问的地址,Post:5000
    8 j% X) Z- Q% g3 w' |- \" _

创建完service后创建API EndPoint. 在openstack中,每一个service都有三种end points. Admin, public, internal。 Admin是用作管理用途的,如它能够修改user/tenant(project)。 public 是让客户调用的,比如可以部署在外网上让客户可以管理自己的云。internal是openstack内部调用的。三种endpoints 在网络上开放的权限一般也不同。Admin通常只能对内网开放,public通常可以对外网开放internal通常只能对安装有openstack对服务的机器开放。

V3新增
  • Tenant 重命名为 Project
  • 添加了 Domain 的概念
  • 添加了 Group 的概念
    : u7 b0 b" l/ p2 g0 L, F  t
& Q! o& q: g6 G  m0 f
& W: N7 I$ l7 L# U; ?

9 g/ o9 H# Z# y/ L
  • 用户alice登录keystone系统(password或者token的方式),获取一个临时的token和catalog服务目录(v3版本登录时,如果没有指定scope,project或者domain,获取的临时token没有任何权限,不能查询project或者catalog)。
  • alice通过临时token获取自己的所有的project列表。
  • alice选定一个project,然后指定project重新登录,获取一个正式的token,同时获得服务列表的endpoint,用户选定一个endpoint,在HTTP消息头中携带token,然后发送请求(如果用户知道project name或者project id可以直接第3步登录)。
  • 消息到达endpoint之后,由服务端(nova)的keystone中间件(pipeline中的filter:authtoken)向keystone发送一个验证token的请求。(token类型:uuid需要在keystone验证token,pki类型的token本身是包含用户详细信息的加密串,可以在服务端完成验证)
  • keystone验证token成功之后,将token对应用户的详细信息,例如:role,username,userid等,返回给服务端(nova)。
  • 服务端(nova)完成请求,例如:创建虚拟机。
  • 服务端返回请求结果给alice。

    5 C9 I: x' J$ j4 d6 g  k+ g1 O

/ }+ z: }& {6 d* @* \
2.glance
v1
) w+ |( m% S5 n: b) x

" d* u$ N1 D5 j
v2
8 r& O) i% ~+ [# |, y
' `1 b# q( H/ D
3.nova与cinder
nova主要组成:
    nova-api2 _( m' F" r; S8 ]( f. k
    nova-scheduler- A5 c% L0 H- V% l7 |' P. b) e
    nova-compute
    nova-conductor8 q( ^/ t& _% |  N$ z% l7 @, n
cinder主要组成:
    cinder-api
5 r. y# ~+ R9 f' ^  Y$ u! R5 A
    cinder-scheduler
+ S! U3 N& F, |3 E8 N
    cinder-volume
0 B3 q4 n2 B. ?  _4 w7 f! d
[size=1.16em]cinder各组件功能:
[size=1.16em]Cinder-api 是 cinder 服务的 endpoint,提供 rest 接口,负责处理 client 请求,并将 RPC 请求发送至 cinder-scheduler 组件。
[size=1.16em]Cinder-scheduler 负责 cinder 请求调度,其核心部分就是 scheduler_driver, 作为 scheduler manager 的 driver,负责 cinder-volume 具体的调度处理,发送 cinder RPC 请求到选择的 cinder-volume。
[size=1.16em]Cinder-volume 负责具体的 volume 请求处理,由不同后端存储提供 volume 存储空间。目前各大存储厂商已经积极地将存储产品的 driver 贡献到 cinder 社区

- Y' u4 `$ x2 y9 ]' l
cinder架构图:
1 k2 V3 H' r2 {1 ]1 g- u
3 i( E: x& H& i
0 v! j# c2 [) i* `$ n, X  f" J2 y
! k+ \0 A. J! N7 _: @8 s5 w' ^7 I2 w
openstack组件间通信:调用各组件api提供的rest接口,组件内通信:基于rpc(远程过程调用)机制,而rpc机制是基于AMQP模型实现的
从rpc使用的角度出发,nova,neutron,和cinder的流程是相似的,我们以cinder为例阐述rpc机制

, t& A5 @& u6 B2 s2 {$ n- i3 S
Openstack 组件内部的 RPC(Remote Producer Call)机制的实现是基于 AMQP(Advanced Message Queuing Protocol)作为通讯模型,从而满足组件内部的松耦合性。AMQP 是用于异步消息通讯的消息中间件协议,AMQP 模型有四个重要的角色:
    Exchange:根据 Routing key 转发消息到对应的 Message Queue 中
    Routing key:用于 Exchange 判断哪些消息需要发送对应的 Message Queue
    Publisher:消息发送者,将消息发送的 Exchange 并指明 Routing Key,以便 Message Queue           可以正确的收到消息
    Consumer:消息接受者,从 Message Queue 获取消息
消息发布者 Publisher 将 Message 发送给 Exchange 并且说明 Routing Key。Exchange 负责根据 Message 的 Routing Key 进行路由,将 Message 正确地转发给相应的 Message Queue。监听在 Message Queue 上的 Consumer 将会从 Queue 中读取消息。
Routing Key 是 Exchange 转发信息的依据,因此每个消息都有一个 Routing Key 表明可以接受消息的目的地址,而每个 Message Queue 都可以通过将自己想要接收的 Routing Key 告诉 Exchange 进行 binding,这样 Exchange 就可以将消息正确地转发给相应的 Message Queue。
3 a1 z* j) v5 c  w
Publisher可以分为4类:
    Direct Publisher发送点对点的消息;
    Topic Publisher采用“发布——订阅”模式发送消息;
    Fanout Publisher发送广播消息的发送;
    Notify Publisher同Topic Publisher,发送 Notification 相关的消息。
& X) I& C# ~7 c- |5 _( k0 D
Exchange可以分为3类:
    1.Direct Exchange根据Routing Key进行精确匹配,只有对应的 Message Queue 会接受到消息;
    2.Topic Exchange根据Routing Key进行模式匹配,只要符合模式匹配的Message Queue都会收到消息;
    3.Fanout Exchange将消息转发给所有绑定的Message Queue。

AMQP消息模型


" J5 k' _6 E! ~: U
RPC 发送请求
Client 端发送 RPC 请求由 publisher 发送消息并声明消息地址,consumer 接收消息并进行消息处理,如果需要消息应答则返回处理请求的结果消息。
( m5 H7 h+ Z7 {) \5 Q
OpenStack RPC 模块提供了 rpc.call,rpc.cast, rpc.fanout_cast 三种 RPC 调用方法,发送和接收 RPC 请求。

& \1 _0 |4 U% z) x# x) }3 E" k
1.rpc.call 发送 RPC 请求并返回请求处理结果,请求处理流程如图 5 所示,由 Topic Publisher 发送消息,Topic Exchange 根据消息地址进行消息转发至对应的 Message Queue 中,Topic Consumer 监听 Message Queue,发现需要处理的消息则进行消息处理,并由 Direct Publisher 将请求处理结果消息,请求发送方创建 Direct Consumer 监听消息的返回结果
2.rpc.cast 发送 RPC 请求无返回,请求处理流程如图 6 所示,与 rpc.call 不同之处在于,不需要请求处理结果的返回,因此没有 Direct Publisher 和 Direct Consumer 处理。
3.rpc.fanout_cast 用于发送 RPC 广播信息无返回结果

  y) _  @  x: A3 t- c
4.neutron
neutron包含组件:
    neutron-server
; m+ M! B, d9 m4 U: F( w& r% ]% y
    neutron-plugin
8 ~: c3 u+ r; X
    neutron-agent
/ }0 P& J: ?7 o  G+ o- o
neutron各组件功能介绍:
1.Neutron-server可以理解为一个专门用来接收Neutron REST API调用的服务器,然后负责将不同的rest api分发到不同的neutron-plugin上。
2.Neutron-plugin可以理解为不同网络功能实现的入口,各个厂商可以开发自己的plugin。Neutron-plugin接收neutron-server分发过来的REST API,向neutron database完成一些信息的注册,然后将具体要执行的业务操作和参数通知给自身对应的neutron agent。
3.Neutron-agent可以直观地理解为neutron-plugin在设备上的代理,接收相应的neutron-plugin通知的业务操作和参数,并转换为具体的设备级操作,以指导设备的动作。当设备本地发生问题时,neutron-agent会将情况通知给neutron-plugin。
4.Neutron database,顾名思义就是Neutron的数据库,一些业务相关的参数都存在这里。
5.Network provider,即为实际执行功能的网络设备,一般为虚拟交换机(OVS或者Linux Bridge)。
- o9 l. N" n+ }' }$ R7 q
neutron-plugin分为core-plugin和service-plugin两类。
Core-plugin,Neutron中即为ML2(Modular Layer 2),负责管理L2的网络连接。ML2中主要包括network、subnet、port三类核心资源,对三类资源进行操作的REST API被neutron-server看作Core API,由Neutron原生支持。其中:
Service-plugin,即为除core-plugin以外其它的plugin,包括l3 router、firewall、loadbalancer、×××、metering等等,主要实现L3-L7的网络服务。这些plugin要操作的资源比较丰富,对这些资源进行操作的REST API被neutron-server看作Extension API,需要厂家自行进行扩展。
“Neutron对Quantum的插件机制进行了优化,将各个厂商L2插件中独立的数据库实现提取出来,作为公共的ML2插件存储租户的业务需求,使得厂商可以专注于L2设备驱动的实现,而ML2作为总控可以协调多厂商L2设备共同运行”。在Quantum中,厂家都是开发各自的Service-plugin,不能兼容而且开发重复度很高,于是在Neutron中就为设计了ML2机制,使得各厂家的L2插件完全变成了可插拔的,方便了L2中network资源扩展与使用。

3 f6 i, t. z0 ~3 u' h9 H1 |! H
(注意,以前厂商开发的L2 plugin跟ML2都存在于neutron/plugins目录下,而可插拔的ML2设备驱动则存在于neutron/plugins/ml2/drivers目录下)

5 T/ y; A+ k1 \7 `1 Y2 Q6 d
ML2作为L2的总控,其实现包括Type和Mechanism两部分,每部分又分为Manager和Driver。Type指的是L2网络的类型(如Flat、VLAN、VxLAN等),与厂家实现无关。Mechanism则是各个厂家自己设备机制的实现,如下图所示。当然有ML2,对应的就可以有ML3,不过在Neutron中L3的实现只负责路由的功能,传统路由器中的其他功能(如Firewalls、LB、×××)都被独立出来实现了,因此暂时还没有看到对ML3的实际需求。
一般而言,neutron-server和各neutron-plugin部署在控制节点或者网络节点上,而neutron agent则部署在网络节点上和计算节点上。我们先来分析控制端neutron-server和neutron-plugin的工作,然后再分析设备端neutron-agent的工作。
neutron新进展(dragon  flow):
https://www.ustack.com/blog/neutron-dragonflow/
网络模式介绍:
根据创建网络的用户的权限,Neutron network 可以分为:
  • Provider network:管理员创建的和物理网络有直接映射关系的虚拟网络。
  • Tenant network:租户普通用户创建的网络,物理网络对创建者透明,其配置由 Neutorn 根据管理员在系统中的配置决定。
    + l% e: {# u, O  \! L
根据网络的类型,Neutron network 可以分为:
  • VLAN network(虚拟局域网) :基于物理 VLAN 网络实现的虚拟网络。共享同一个物理网络的多个 VLAN 网络是相互隔离的,甚至可以使用重叠的 IP 地址空间。每个支持 VLAN network 的物理网络可以被视为一个分离的 VLAN trunk,它使用一组独占的 VLAN ID。有效的 VLAN ID 范围是 1 到 4094。
  • Flat network:基于不使用 VLAN 的物理网络实现的虚拟网络。每个物理网络最多只能实现一个虚拟网络。
  • local network(本地网络):一个只允许在本服务器内通信的虚拟网络,不知道跨服务器的通信。主要用于单节点上测试。
  • GRE network (通用路由封装网络):一个使用 GRE 封装网络包的虚拟网络。GRE 封装的数据包基于 IP 路由表来进行路由,因此 GRE network 不和具体的物理网络绑定。
  • VXLAN network(虚拟可扩展网络):基于 VXLAN 实现的虚拟网络。同 GRE network 一样, VXLAN network 中 IP 包的路由也基于 IP 路由表,也不和具体的物理网络绑定。
    / \" t3 [6 ?5 V4 B+ Q
注:在AWS中,该概念对应 VPC 概念。AWS 对 VPC 的数目有一定的限制,比如每个账户在每个 region 上默认最多只能创建 5 个VPC,通过特别的要求最多可以创建 100 个。
+ n1 ]5 I& a; ?3 ~
1.vlan
9 f+ Y0 r! S) |! b1 M$ a, \3 s2 r
2.gre与vxlan请参考
http://www.cnblogs.com/sammyliu/p/4622563.html

. ~6 J+ j! I% s: ^
gre网络

4 ~- y0 G  i  J( p6 M: ^
gre与vxlan区别
  `5 g8 R4 D* T, j& t4 R
关于gre和vxlan二次封装数据包的MTU问题
VXLAN 模式下虚拟机中的 mtu 最大值为1450,也就是只能小于1450,大于这个值会导致 openvswitch 传输分片,进而导致虚拟机中数据包数据重传,从而导致网络性能下降。GRE 模式下虚拟机 mtu 最大为1462。
计算方法如下:
  • vxlan mtu = 1450 = 1500 – 20(ip头) – 8(udp头) – 8(vxlan头) – 14(以太网头)
  • gre mtu = 1462 = 1500 – 20(ip头) – 4(gre头) – 14(以太网头)

    + l3 W+ l, p* N8 Y' h4 r3 K
可以配置 Neutron DHCP 组件,让虚拟机自动配置 mtu,
#/etc/neutron/dhcp_agent.ini[DEFAULT]dnsmasq_config_file = /etc/neutron/dnsmasq-neutron.conf#/etc/neutron/dnsmasq-neutron.confdhcp-option-force=26,1450或1462
  • 1.
  • 2.
  • 3.
  • 4.
    / j5 q7 g7 k- I
重启 DHCP Agent,让虚拟机重新获取 IP,然后使用 ifconfig 查看是否正确配置 mtu。
/ K+ n. |( U7 S( }' Q0 L
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

北京云银创陇科技有限公司以云计算运维,代码开发

QQ|返回首页|Archiver|小黑屋|易陆发现技术论坛 点击这里给我发消息

GMT+8, 2026-4-8 15:22 , Processed in 0.091636 second(s), 22 queries .

Powered by Discuz! X3.4 Licensed

© 2012-2025 Discuz! Team.

快速回复 返回顶部 返回列表