易陆发现互联网技术论坛

 找回密码
 开始注册
查看: 2493|回复: 1
收起左侧

Centos8最小化部署安装OpenStack Ussuri

[复制链接]
发表于 2021-7-13 08:30:21 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?开始注册

x
#!/bin/bash
: {4 I! O+ c: }+ f1 w% |#Centos8最小化部署安装openstack Ussuri
& ?& s" U+ y7 N' B#共两台主机,分别是一台控制节点,一台计算节点
; y0 S( Y8 |3 f" J  P#1、控制节点内存4096M。双网卡,分别为eth0:10.0.0.11,eth1:10.0.0.12
8 M; y% ?  _& d#2、计算节点内存2048M。双网卡,分别为eth0:10.0.0.31,eth1:10.0.0.32/ \- d, Z0 b1 \& E+ ^7 ~8 L- i
#设置阿里云yum源
7 }; Y' c8 o. j* pcurl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-8.repo
( [+ n/ P3 V5 C+ c6 H* orm -f /etc/yum.repos.d/CentOS-AppStream.repo /etc/yum.repos.d/CentOS-PowerTools.repo /etc/yum.repos.d/CentOS-centosplus.repo /etc/yum.repos.d/CentOS-Extras.repo && rm -rf /var/cache/yum && yum makecache && yum -y update && yum -y autoremove
" R$ ?2 j6 |* j  P, l. n#关闭防火墙
4 |! a1 m- t4 e; @+ tsystemctl stop firewalld && systemctl disable firewalld
6 r! q; b5 G# u6 D4 Y( ?6 S#关闭SELinux
; w  T. I$ q" R  jsetenforce 0
  f+ d6 a6 Q. tsed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config; A" ~* Z: I$ S6 ?. N: ^
#关闭swap分区  s* e; L( S* R' k8 d" l3 t6 J0 Q( t
swapoff -a- V# @4 ?, O# T! W0 K) b4 C
sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab! ^) u! c4 {7 V3 ]- x- x
#设置内核- ]) Q% x" [3 c5 G7 [
modprobe bridge; [& X/ A; t# S3 [
modprobe br_netfilter
& \- _6 h! P  D' }  u) N- Ucat > /etc/sysconfig/modules/neutron.modules <<EOF3 @# [8 N  T5 m  T- y6 V/ t
#!/bin/bash
2 M0 {9 C% }% d+ `/ cmodprobe -- bridge
9 \6 O: v1 F/ }modprobe -- br_netfilter+ ~0 ^- p3 ?( I2 a$ J) q% O, j5 n8 q- F
EOF
6 @2 K/ r% j0 R; o  E- a% Q" d2 xchmod 755 /etc/sysconfig/modules/neutron.modules && bash /etc/sysconfig/modules/neutron.modules# [9 F' g$ w( }
echo "vm.max_map_count=262144" >> /etc/sysctl.conf
9 ?% q2 r( H. q* fecho "net.ipv4.ip_forward=1" >> /etc/sysctl.conf; }9 j3 Z, @( k) [0 X* _
echo "net.bridge.bridge-nf-call-iptables=1" >> /etc/sysctl.conf
3 q6 _( Z; e. [. z4 `9 }# Gecho "net.bridge.bridge-nf-call-ip6tables=1" >> /etc/sysctl.conf
6 K6 T5 w" e9 z2 K1 asysctl -p
* ^4 ~( ^3 N8 Q4 z#设置时间同步
1 O" x3 Y6 k4 Q) {6 Eyum install -y chrony && yum -y autoremove
7 v# m/ B4 r8 J3 m; N9 o1 E" Qsed -i '/^pool/d' /etc/chrony.conf
* Q) D% }) c6 i$ O7 }& ksed -i '/^server/d' /etc/chrony.conf! y! y( t5 F! C* Q6 d
echo "pool ntp.aliyun.com iburst" >> /etc/chrony.conf/ o8 ^3 A) a4 d- e/ y5 m9 I
systemctl start chronyd.service && systemctl enable chronyd.service
! {& B, _/ ~7 d8 R* x! V  n7 X#控制节点 设置hostname
. m4 z9 {1 Y% p& i  ~hostnamectl set-hostname controller) U) n6 G7 m0 X9 A8 s
#计算节点 设置hostname
! `+ S: `, m% S9 i" J5 Bhostnamectl set-hostname compute1. M5 _5 y: j/ q8 R: t  A: a: @4 m
#添加host
6 C0 o( ~. Y0 w. S3 r% iecho "10.0.0.11 controller" >> /etc/hosts1 R' j+ m( {; k3 W' A
echo "10.0.0.31 compute1" >> /etc/hosts
& z7 g0 E; H# r5 z7 {. J6 k; ^#安装基础组件: N8 ?5 k/ L) d* F5 R5 w  R
yum install -y centos-release-openstack-ussuri
: n7 X1 t; z1 Ryum config-manager --set-enabled PowerTools
5 |$ Y. |7 X& B8 @: l! uyum upgrade -y
2 t$ X- N+ w$ h3 F/ F! L2 Y" K# eyum install -y python3-openstackclient
) Z+ J5 E# I/ b2 Z4 J& |#控制节点 安装Mariadb3 ?7 _2 @- R+ q. u& ~6 H. c' y
yum install -y mariadb mariadb-server python2-PyMySQL( ]# D7 a- U" i% u
tee /etc/my.cnf.d/openstack.cnf <<-'EOF'
; P) P8 n5 s( u2 J! @  r3 H9 P3 [$ F[mysqld]
5 k- v1 n0 P; X1 Lbind-address = 10.0.0.11( |. `0 M& M& `' r( H% l, {
default-storage-engine = innodb
  B3 A7 V0 i: G5 ~3 Pinnodb_file_per_table = on% W& H2 p2 G- m1 O. @! t
max_connections = 4096! G; [+ F- g6 A. \9 p* T; M* y
collation-server = utf8_general_ci2 w8 ^2 X# B$ ?2 s, U& Z
character-set-server = utf8  y/ V" O, b7 E& q7 r
EOF# k7 W: O4 h0 r1 m) z/ v0 K$ y% ^
systemctl enable mariadb.service && systemctl start mariadb.service
6 X' p2 }9 U6 n* M* Hecho -e "\nY\n123456\n123456\nY\nn\nY\nY\n" | mysql_secure_installation% m4 X5 z# g. p5 V
#控制节点 安装RabbitMQ
3 Z$ Y( Y, `: ^8 l( [. l) }yum install -y rabbitmq-server+ j: g* z+ U+ G' o. j
systemctl enable rabbitmq-server.service && systemctl start rabbitmq-server.service* ]* b% \( `8 e. p5 v" a
rabbitmqctl add_user openstack 123456' M: a  _  j, a( ^
rabbitmqctl set_permissions openstack ".*" ".*" ".*"
+ L1 z, q* g! x# v" h#控制节点 安装Memcached
. V7 C" _; F! J; e& a9 r5 fyum install -y memcached python3-memcached
! ]/ l0 K1 j# W& ]5 i. |  {; used -i "s/-l 127.0.0.1,::1/-l 127.0.0.1,::1,controller/g" /etc/sysconfig/memcached  B& y6 d2 o0 ]
systemctl enable memcached.service && systemctl start memcached.service% j2 }) A+ ]# h# C. x+ F8 J
#控制节点 安装Etcd
5 n9 \4 e2 {, c# |yum install -y etcd
7 h+ q3 X4 x3 s) G8 P+ `rm -f /etc/etcd/etcd.conf
) i  C# ~! V# Ktee /etc/etcd/etcd.conf <<-'EOF'
+ c( U' l. D- i3 ~+ K#[Member]
+ ^) t- y3 I& K" i- D. AETCD_DATA_DIR="/var/lib/etcd/default.etcd". R5 Z& V' ^- X0 w$ H; h* x/ i3 b
ETCD_LISTEN_PEER_URLS="http://10.0.0.11:2380"
3 ]- i& o" h+ v. S/ r7 X, sETCD_LISTEN_CLIENT_URLS="http://10.0.0.11:2379"
5 Y/ v) [& Z4 F: N5 u) kETCD_NAME="controller"
5 G- `& s. {( \/ p#[Clustering]
" n" Z0 I5 F" ]( KETCD_INITIAL_ADVERTISE_PEER_URLS="http://10.0.0.11:2380"
1 V# z) g# h' r8 U  s- p; qETCD_ADVERTISE_CLIENT_URLS="http://10.0.0.11:2379"
' N  v2 z, L9 E; y8 l$ kETCD_INITIAL_CLUSTER="controller=http://10.0.0.11:2380"2 v( Q8 p9 b# R6 p% m3 T9 w6 {
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"/ Q1 M5 a. e# {# W% t
ETCD_INITIAL_CLUSTER_STATE="new"
! C( Z. w0 }* [EOF
2 w. p5 @/ c0 d% L% C0 Ksystemctl enable etcd && systemctl start etcd
$ b& G! w! Q1 y$ D! t  a! y#控制节点 安装Identity service# @4 ^& m- H' }8 @" J( {) A
mysql -uroot -p123456 -e "CREATE DATABASE keystone"
; P  s7 X* N, d7 {/ o+ h3 a* _; pmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' IDENTIFIED BY '123456'"7 f5 z) Z2 C4 R$ F4 U
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'%' IDENTIFIED BY '123456'"" ~( e8 E* t8 R; `& a
yum install -y openstack-keystone httpd python3-mod_wsgi
2 y- s1 m6 ?+ l1 ?2 m! A0 x% ?4 gsed -i "556c connection = mysql+pymysql://keystone:123456@controller/keystone" /etc/keystone/keystone.conf$ q( {2 H6 M" j$ S
sed -i "2418c provider = fernet" /etc/keystone/keystone.conf
- @4 c9 y$ E6 _( `0 ~5 \su -s /bin/sh -c "keystone-manage db_sync" keystone2 ]& S: T0 _5 m+ [6 k
keystone-manage fernet_setup --keystone-user keystone --keystone-group keystone
: J' y4 q0 \+ \6 V/ D# K" mkeystone-manage credential_setup --keystone-user keystone --keystone-group keystone9 y5 y' g' b3 _8 e$ ^
keystone-manage bootstrap --bootstrap-password 123456 \
, V2 w, j; K: ~# \6 j--bootstrap-admin-url http://controller:5000/v3/ \3 j9 @( I' _3 n
--bootstrap-internal-url http://controller:5000/v3/ \
# n8 x. \, [6 n--bootstrap-public-url http://controller:5000/v3/ \/ f3 g& g  J- f- E# t! W# v
--bootstrap-region-id RegionOne
) S- e0 w$ `7 ?: d5 R9 w) Pecho "ServerName controller" >> /etc/httpd/conf/httpd.conf
. s3 I$ V* L1 g9 p1 h4 m* xln -s /usr/share/keystone/wsgi-keystone.conf /etc/httpd/conf.d/
9 v! T% H% V. osystemctl enable httpd.service && systemctl start httpd.service
  S& j. B4 p! |echo "export OS_USERNAME=admin" >> /etc/profile3 T$ c" w3 P4 }- r' C) L4 A! J& Z
echo "export OS_PASSWORD=123456" >> /etc/profile! i1 r  y5 W- i
echo "export OS_PROJECT_NAME=admin" >> /etc/profile
8 U' j5 _1 i3 r1 Jecho "export OS_USER_DOMAIN_NAME=Default" >> /etc/profile
7 |6 [3 i% N3 w) ~echo "export OS_PROJECT_DOMAIN_NAME=Default" >> /etc/profile
! g3 Q  \6 s/ `) ?echo "export OS_AUTH_URL=http://controller:5000/v3" >> /etc/profile, q" C9 H, r8 J  z
echo "export OS_IDENTITY_API_VERSION=3" >> /etc/profile
+ d% g( D2 w7 S$ K, [+ [/ H! [' Fsource /etc/profile
5 c& c5 C% \, O. L9 fopenstack project create --domain default --description "Service Project" service
* L- b$ c0 M# O* e# G#控制节点 安装Image service
) J3 h4 y$ v2 {mysql -uroot -p123456 -e "CREATE DATABASE glance"4 [8 ^3 g/ F4 [8 X+ ?
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED BY '123456'"4 V5 r; D4 v8 G4 s
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%' IDENTIFIED BY '123456'"6 G) r* z: g4 y( I. o
openstack user create --domain default --password 123456 glance
) I7 x" y+ Y, s( L' R3 _7 aopenstack role add --project service --user glance admin
% w5 i+ G: d$ D* M0 Kopenstack service create --name glance --description "OpenStack Image" image
) Z6 Z8 {/ q! m  R9 @; O3 gopenstack endpoint create --region RegionOne image public http://controller:92924 v  W" J7 M: f; [' k% _9 W
openstack endpoint create --region RegionOne image internal http://controller:92923 t9 _. H  B- k- ^- @) m& B
openstack endpoint create --region RegionOne image admin http://controller:9292
% g1 L/ W' y# l. Jyum install -y openstack-glance* }' }$ ?% Q) R9 `* m1 O6 L
sed -i "2062c connection = mysql+pymysql://glance:123456@controller/glance" /etc/glance/glance-api.conf
0 M/ Y# c9 Q: {7 F: z/ K! Ased -i "5034c www_authenticate_uri = http://controller:5000" /etc/glance/glance-api.conf* u8 {+ v) m4 h/ o6 ]9 \
sed -i "5035c auth_url = http://controller:5000" /etc/glance/glance-api.conf0 j3 V2 F& e7 Z
sed -i "5036c memcached_servers = controller:11211" /etc/glance/glance-api.conf
2 x& ]: @6 c9 P9 bsed -i "5037c auth_type = password" /etc/glance/glance-api.conf1 ?# L3 A& b' L8 O
sed -i "5038c project_domain_name = Default" /etc/glance/glance-api.conf  t- y0 W& H1 c  z3 T3 r
sed -i "5039c user_domain_name = Default" /etc/glance/glance-api.conf
& W- T" o, o# u; j' d; y4 c  |4 a1 psed -i "5040c project_name = service" /etc/glance/glance-api.conf4 Y8 \- U. j5 H) }/ p
sed -i "5041c username = glance" /etc/glance/glance-api.conf
( |" j8 O' Q, O8 M  S1 p& Msed -i "5042c password = 123456" /etc/glance/glance-api.conf# c6 x/ Q5 [0 g' w1 f* u0 C
sed -i "5678c flavor = keystone" /etc/glance/glance-api.conf) k5 n5 \( z2 S
sed -i "3413c stores = file,http" /etc/glance/glance-api.conf7 }& Q( p1 x: m4 C- c
sed -i "3414c default_store = file" /etc/glance/glance-api.conf) m8 n* r. w* ^# \- Y' Q4 D
sed -i "3415c filesystem_store_datadir = /var/lib/glance/images/" /etc/glance/glance-api.conf, L3 G) o# {+ j4 |, N
su -s /bin/sh -c "glance-manage db_sync" glance' Q9 b4 X6 f3 |! L: L
systemctl enable openstack-glance-api.service && systemctl start openstack-glance-api.service8 ^6 E$ S# B6 @  d+ f4 z
#控制节点 安装Placement service
4 N5 Y) {& {9 y) `6 k, u& amysql -uroot -p123456 -e "CREATE DATABASE placement"2 g, O; Q' m6 T7 e7 D3 s7 }
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' IDENTIFIED BY '123456'"
6 U$ j1 ]  P/ v7 V+ tmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' IDENTIFIED BY '123456'"8 ]; {  e8 V* G( F( c, a
openstack user create --domain default --password 123456 placement; H+ k# u# e. v5 ?. U5 c% J
openstack role add --project service --user placement admin$ [$ L& \/ H* |) c0 V. G' o
openstack service create --name placement --description "Placement API" placement
7 k( E+ s7 M9 o% `- x$ zopenstack endpoint create --region RegionOne placement public http://controller:8778
! F; k* x( I( @& e6 z) copenstack endpoint create --region RegionOne placement internal http://controller:8778
1 F0 B$ y9 b  E, oopenstack endpoint create --region RegionOne placement admin http://controller:8778/ i8 T: I0 S& u! V+ h$ z% ~
yum install -y openstack-placement-api6 s2 P7 ~. n4 W! R1 }! p
sed -i "507c connection = mysql+pymysql://placement:123456@controller/placement" /etc/placement/placement.conf
/ f) I1 S/ ~# l; Ksed -i "192c auth_strategy = keystone" /etc/placement/placement.conf8 s! f, ^+ c6 p3 w8 M5 Y$ Q1 F9 g
sed -i "241c auth_url = http://controller:5000/v3" /etc/placement/placement.conf% z1 l0 ^! ?: f5 s6 h
sed -i "242c memcached_servers = controller:11211" /etc/placement/placement.conf9 A: G! `9 @; H) Q" ]2 B9 [
sed -i "243c auth_type = password" /etc/placement/placement.conf- e+ s" x% w8 t: t1 y
sed -i "244c project_domain_name = Default" /etc/placement/placement.conf& s1 L8 X# s6 A  o
sed -i "245c user_domain_name = Default" /etc/placement/placement.conf
" w2 a8 r; R( u" Y# Osed -i "246c project_name = service" /etc/placement/placement.conf) i* J1 I# q5 y. g! y- o9 f
sed -i "247c username = placement" /etc/placement/placement.conf; N8 Q# L9 e  k! C
sed -i "248c password = 123456" /etc/placement/placement.conf
, v( Y/ V% o. Z+ osu -s /bin/sh -c "placement-manage db sync" placement+ z: J% {  G0 K, t' Q
systemctl restart httpd+ u" m8 X, ~1 E. Q
#控制节点 安装Compute service! I" x: d: k) u, ^9 V, o
mysql -uroot -p123456 -e "CREATE DATABASE nova_api"# `% E1 C2 Z* A7 [
mysql -uroot -p123456 -e "CREATE DATABASE nova"
" m; @# p! D. `4 ~mysql -uroot -p123456 -e "CREATE DATABASE nova_cell0"  s# F5 T" Q4 x# {' W% r! T
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"
( L- c6 G# R) X9 k) smysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' IDENTIFIED BY '123456'". F5 X4 I/ {- D' z! r
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"2 a/ ^( H) L0 _  R9 w/ a
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' IDENTIFIED BY '123456'"
, [3 W- O9 T3 k% X" F& Z$ pmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"
! k, Z7 C" v9 h; lmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' IDENTIFIED BY '123456'") R" Z0 C& Z& {3 |2 Q: v; k
openstack user create --domain default --password 123456 nova
0 j) J" G, W8 [% H; d7 Zopenstack role add --project service --user nova admin8 H* B% S5 w. `! k, C
openstack service create --name nova --description "OpenStack Compute" compute4 S' v0 T$ D' T5 n, X& a8 b/ r
openstack endpoint create --region RegionOne compute public http://controller:8774/v2.1
1 I9 f# E; D8 f+ t- S- Bopenstack endpoint create --region RegionOne compute internal http://controller:8774/v2.14 c0 z% t4 d( i8 A* t& U
openstack endpoint create --region RegionOne compute admin http://controller:8774/v2.1+ @4 ~$ [* A: I% j4 x) _. _
yum install -y openstack-nova-api openstack-nova-conductor openstack-nova-novncproxy openstack-nova-scheduler! ^4 P$ ~+ A$ f& b9 O' `
sed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf
6 s  s: k  C( Esed -i "3c transport_url = rabbit://openstack:123456@controller:5672/" /etc/nova/nova.conf9 k: Z6 ^2 D8 ?& [* [" k
sed -i "4c my_ip = 10.0.0.11" /etc/nova/nova.conf
7 R2 |: V9 j; C/ Hsed -i "1079c connection = mysql+pymysql://nova:123456@controller/nova_api" /etc/nova/nova.conf' N! ~. n& ]. w- E# a. ^- U. A
sed -i "1622c connection = mysql+pymysql://nova:123456@controller/nova" /etc/nova/nova.conf0 W3 j+ K" a: A7 l% R0 F# T- i( A+ q  j
sed -i "872c auth_strategy = keystone" /etc/nova/nova.conf6 R, L5 o% _/ ?# N
sed -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf
8 u) \4 \) k2 dsed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf7 D9 n1 j3 I" S( R# Y
sed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf: o! _0 b" A; Q6 U
sed -i "2564c auth_type = password" /etc/nova/nova.conf
. |2 _6 w4 ^. F! ised -i "2565c project_domain_name = Default" /etc/nova/nova.conf4 w1 O0 b9 @$ g" t
sed -i "2566c user_domain_name = Default" /etc/nova/nova.conf5 \9 f/ ^/ r* s& j5 X
sed -i "2567c project_name = service" /etc/nova/nova.conf9 Y) ~" B0 s4 D5 k
sed -i "2568c username = nova" /etc/nova/nova.conf' m3 X. T) {# q2 _0 y1 \
sed -i "2569c password = 123456" /etc/nova/nova.conf
- i  u$ L9 h' M4 }& f& k6 p! ^  ~sed -i "5171c enabled = true" /etc/nova/nova.conf3 r; ]: M/ p- M3 X
sed -i '5172c server_listen = $my_ip' /etc/nova/nova.conf
3 ]. U  H; L  a1 Osed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf* s  h7 X6 b( ?, E; {. y% P
sed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf4 R; l$ }0 f+ a- [
sed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf
; l9 R! a- o% L! ^: U6 tsed -i "4093c region_name = RegionOne" /etc/nova/nova.conf* `, F4 @" j. J
sed -i "4094c project_domain_name = Default" /etc/nova/nova.conf
2 t0 {3 Y% C3 }& rsed -i "4095c project_name = service" /etc/nova/nova.conf
/ V. L( ?- ]0 Z6 S7 e+ W+ fsed -i "4096c auth_type = password" /etc/nova/nova.conf3 [/ f# m' l% e
sed -i "4097c user_domain_name = Default" /etc/nova/nova.conf
* K0 c: Q4 x% b: J- rsed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf
  s1 x" m) H! _6 ^sed -i "4099c username = placement" /etc/nova/nova.conf9 s( T: S: {! t, M) I  G/ z; S
sed -i "4100c password = 123456" /etc/nova/nova.conf% t$ ~* {( Z' U& w/ C
sed -i "4509c discover_hosts_in_cells_interval = 300" /etc/nova/nova.conf
' e5 U3 V7 ?. @  H# N* Hsu -s /bin/sh -c "nova-manage api_db sync" nova
. ~) ?) B- S' }6 P" s1 gsu -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova3 M1 |% k# j/ }$ t
su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
4 n, N3 C, U5 G9 I1 q! E) gsu -s /bin/sh -c "nova-manage db sync" nova5 Q% _! |; T* E( @$ i+ d6 \
systemctl enable openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service && systemctl start openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service& W9 D9 s5 ~- |# _! r; @% s, W
#计算节点 安装Compute service
$ F* e6 V# x+ |yum install -y openstack-nova-compute. Y0 t9 A% k! ]2 h
sed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf
) S: p  ~1 J3 ~' V( {& ]sed -i "3c transport_url = rabbit://openstack:123456@controller" /etc/nova/nova.conf
8 V7 z$ d; M3 C, ?sed -i "4c my_ip = 10.0.0.31" /etc/nova/nova.conf8 f! R6 \$ M. {% I
sed -i "872c auth_strategy = keystone" /etc/nova/nova.conf
0 V5 Q7 E; u2 g4 U& `. qsed -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf% _8 F$ K# i3 q$ w1 }) f2 k% c
sed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf2 F  I' V* o% p! V' g  }/ m
sed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf
8 B' _" ]: s* U1 M" Esed -i "2564c auth_type = password" /etc/nova/nova.conf
$ J) I  K7 L, H6 used -i "2565c project_domain_name = Default" /etc/nova/nova.conf
* s1 y  H9 M2 o: bsed -i "2566c user_domain_name = Default" /etc/nova/nova.conf
: D6 `+ Z% t9 y5 Lsed -i "2567c project_name = service" /etc/nova/nova.conf0 L& J2 [( o! P6 f/ [
sed -i "2568c username = nova" /etc/nova/nova.conf) V( D3 T3 ?$ v9 n
sed -i "2569c password = 123456" /etc/nova/nova.conf
& V& X8 c7 K3 n, ^7 Used -i "5171c enabled = true" /etc/nova/nova.conf
% q- v0 U+ X7 r1 s* q# Ysed -i "5172c server_listen = 0.0.0.0" /etc/nova/nova.conf6 O4 C3 [2 A9 w5 Z! W
sed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf
" G3 B% [) Y* ased -i "5174c novncproxy_base_url = http://controller:6080/vnc_auto.html" /etc/nova/nova.conf
, X3 n. Y$ l( w5 ssed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf
& R4 Y/ S- X# d6 Gsed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf
; v; G" B- f! t5 L6 X2 k7 J1 n. Ysed -i "4093c region_name = RegionOne" /etc/nova/nova.conf2 W+ J9 r  A& V, K
sed -i "4094c project_domain_name = Default" /etc/nova/nova.conf% m' `5 Z  w. _" Y
sed -i "4095c project_name = service" /etc/nova/nova.conf
+ g0 R8 h+ c6 }7 Z% I# Jsed -i "4096c auth_type = password" /etc/nova/nova.conf
2 k% u* {' H2 v" W% U# P1 fsed -i "4097c user_domain_name = Default" /etc/nova/nova.conf
( i% R8 U; R7 @+ Wsed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf
1 q* `: I0 ~  Ised -i "4099c username = placement" /etc/nova/nova.conf8 X1 O6 I" F3 O# O+ \3 f
sed -i "4100c password = 123456" /etc/nova/nova.conf
; E7 K8 p+ ^8 \- C6 }#执行命令,查看是否支持CPU虚拟化,如果大于0则支持。* C( j7 A6 p# ~& `5 B. E: t1 L. K
egrep -c '(vmx|svm)' /proc/cpuinfo& C5 A3 Y( O' ^* q; ~# R- t
#如果不支持的话还需要执行下面的命令
! l& y! Z+ |/ C$ t! Esed -i "2722c virt_type = qemu" /etc/nova/nova.conf* R! T" s5 F( {4 u% X. q+ `5 u
systemctl enable libvirtd.service openstack-nova-compute.service && systemctl start libvirtd.service openstack-nova-compute.service) T4 \+ e7 M1 [
#控制节点 计算节点从注册到发现会有延迟,根据discover_hosts_in_cells_interval 配置轮询发现时间,可以执行下面命令手动发现计算节点; L8 C# ]& Q5 z) X( J
su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova6 Z2 l& C; x" {' w. b6 u! I- d
#控制节点 安装Networking service" E: I( U9 f1 l: k# P$ X% t
mysql -uroot -p123456 -e "CREATE DATABASE neutron"
2 L  M8 M7 ~4 O8 z4 O8 s* umysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' IDENTIFIED BY '123456'"  k: n0 U- B6 l
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' IDENTIFIED BY '123456'"7 b/ L- x- ]0 B. r9 [
openstack user create --domain default --password 123456 neutron
- n& l  B, O3 M8 l/ qopenstack role add --project service --user neutron admin* R0 u" A3 G: V: ~( ~. j% w, _
openstack service create --name neutron --description "OpenStack Networking" network
8 z8 y3 N  i  k9 p3 n1 p1 topenstack endpoint create --region RegionOne network public http://controller:9696
! W1 l8 ?# Q9 m- Topenstack endpoint create --region RegionOne network internal http://controller:9696( y0 k0 }* {; S7 C/ m! y
openstack endpoint create --region RegionOne network admin http://controller:9696- i$ [& P$ E8 \  |
yum install -y openstack-neutron openstack-neutron-ml2 openstack-neutron-linuxbridge ebtables. J3 P' C3 n+ y: w
#配置服务器组件
3 q3 O% B+ z, B/ r% O4 P( m, csed -i "2c core_plugin = ml2" /etc/neutron/neutron.conf
: H; G: m( A( B+ H" C& L* qsed -i "3c service_plugins = router" /etc/neutron/neutron.conf1 Z$ Z# M& S7 t7 h+ m
sed -i "4c allow_overlapping_ips = true" /etc/neutron/neutron.conf( x% j/ c2 l0 f6 t
sed -i "5c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf
6 y- ]" k! ~4 ^, \sed -i "6c auth_strategy = keystone" /etc/neutron/neutron.conf4 S% w$ G# L+ V; f1 t
sed -i "7c notify_nova_on_port_status_changes = true" /etc/neutron/neutron.conf" @- l8 w$ r' o7 s0 m' x7 A, }
sed -i "8c notify_nova_on_port_data_changes = true" /etc/neutron/neutron.conf
- s& C% h8 ~6 i1 ^; gsed -i "254c connection = mysql+pymysql://neutron:123456@controller/neutron" /etc/neutron/neutron.conf
! ?2 t3 w. V6 Y9 F9 rsed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf* M$ @. y: C1 j! u. e1 W' Y
sed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf
  L* ~2 M/ n4 Nsed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf8 O6 F) |, Q$ M& h& \/ j$ c5 n
sed -i "362c auth_type = password" /etc/neutron/neutron.conf
- ^) F+ x3 P1 U) Lsed -i "363c project_domain_name = default" /etc/neutron/neutron.conf9 w; f* d1 J" W0 P
sed -i "364c user_domain_name = default" /etc/neutron/neutron.conf" q) Z- n7 X2 l
sed -i "365c project_name = service" /etc/neutron/neutron.conf: y; @" J! J8 s- W) Y
sed -i "366c username = neutron" /etc/neutron/neutron.conf( l, m+ o0 H1 t0 v
sed -i "367c password = 123456" /etc/neutron/neutron.conf1 |9 J4 B, E* @! W5 h) Y! y
sed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf
( L+ J% C4 T0 J4 [9 p+ techo "[nova]" >> /etc/neutron/neutron.conf- N2 r6 D5 l. w: S3 m
echo "auth_url = http://controller:5000" >> /etc/neutron/neutron.conf- o: D8 w* X/ S$ |4 a+ g
echo "auth_type = password" >> /etc/neutron/neutron.conf
2 Q) v8 Z1 Q. U' l6 w% ?echo "project_domain_name = default" >> /etc/neutron/neutron.conf% F7 q! g: G, |1 A6 P: [
echo "user_domain_name = default" >> /etc/neutron/neutron.conf
; e* m+ r$ G% n: U, X' Aecho "region_name = RegionOne" >> /etc/neutron/neutron.conf: K4 u; o2 P2 l! {, V
echo "project_name = service" >> /etc/neutron/neutron.conf
  k/ q) b2 z/ u! Zecho "username = nova" >> /etc/neutron/neutron.conf
4 j8 V( I# X( o+ q$ G' @" Q0 @1 _echo "password = 123456" >> /etc/neutron/neutron.conf
, t/ U  k7 }: @2 P( @& E#配置Modular Layer 2 (ML2) plug-in4 @6 C* o9 h' B
echo "[ml2]" >> /etc/neutron/plugins/ml2/ml2_conf.ini
$ C* A1 m, t7 G7 R! Z- y+ H$ O/ ~  \1 ^7 pecho "type_drivers = flat,vlan,vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini
2 |8 x( x* g$ p8 k+ A! eecho "tenant_network_types = vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini# |, Z( q9 j; s# o9 O0 k
echo "mechanism_drivers = linuxbridge,l2population" >> /etc/neutron/plugins/ml2/ml2_conf.ini
  R( N# b2 i+ n/ necho "extension_drivers = port_security" >> /etc/neutron/plugins/ml2/ml2_conf.ini# [" a) Y3 c+ {  l4 \. i
echo "[ml2_type_flat]" >> /etc/neutron/plugins/ml2/ml2_conf.ini, o" C' e/ D- K& ]' [& P7 t
echo "flat_networks = provider" >> /etc/neutron/plugins/ml2/ml2_conf.ini& O* n) e( F- {( `1 f, d
echo "vni_ranges = 1:1000" >> /etc/neutron/plugins/ml2/ml2_conf.ini
, T/ Q, a& X7 G, v( h; Cecho "[securitygroup]" >> /etc/neutron/plugins/ml2/ml2_conf.ini
5 L: K5 l% P; d  s) ?echo "enable_ipset = true" >> /etc/neutron/plugins/ml2/ml2_conf.ini
. @* N. c4 G3 P2 @. V6 F' g4 p#配置Linux bridge agent. Y- x" M+ }& q, s$ Y2 C; V7 K- f' r
echo "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
. y' `5 F7 P) R  B#eth1为另外第二张网卡1 A% T; H/ Z% g9 ^- Z& H# S& N
echo "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini1 v: U0 p: B) Y' s
echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini" B( O  Y( N+ K# i+ R  T3 A  }
echo "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini+ ~7 m+ _5 R. s( H# R
#10.0.0.12为第二张网卡的IP- r9 `# _: @) {7 c
echo "local_ip = 10.0.0.12" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
# b7 W- D7 ^) N9 @: K% Uecho "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini- ?6 U+ ?4 a7 L1 T1 d2 \1 T: O
echo "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
- u  f+ f2 a( T+ i$ Yecho "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini9 g7 v, z  g% D+ t4 F
echo "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
9 B0 X: x( I2 C6 q& X+ G; D. ^$ Y#配置layer-3 agent
* b8 O/ x6 L, P6 {7 ?) u& d& j' G- esed -i "2c interface_driver = linuxbridge" /etc/neutron/l3_agent.ini0 V+ z& P- w  G
#配置DHCP agent( z% o! H1 {# i* U
sed -i "2c interface_driver = linuxbridge" /etc/neutron/dhcp_agent.ini
' V, I" N2 Z3 \! [/ Hsed -i "3c dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq" /etc/neutron/dhcp_agent.ini
* o2 d# M9 f$ P1 Ksed -i "4c enable_isolated_metadata = true" /etc/neutron/dhcp_agent.ini
- S  ^3 d: x& M& O7 \7 Z( h#配置metadata agent
' l/ B: P( S* |% L- b+ O" _sed -i "2c nova_metadata_host = controller" /etc/neutron/metadata_agent.ini
7 k; P$ a$ L4 M0 k# p# @. H& S1 zsed -i "3c metadata_proxy_shared_secret = 123456" /etc/neutron/metadata_agent.ini+ r5 Y$ N1 e7 H! q) Y
#配置计算服务使用网络服务
0 d; ~# v& y# ?! Ased -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf
$ b7 U7 u. P) r) k! {& c5 L% gsed -i " 3335c auth_type = password" /etc/nova/nova.conf& s0 o5 v/ J+ V# I
sed -i " 3336c project_domain_name = default" /etc/nova/nova.conf
5 b% w# V/ d& Psed -i " 3337c user_domain_name = default" /etc/nova/nova.conf
5 n9 z- c  ~$ a5 G- C' [sed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf
$ |& K8 |% {9 _sed -i " 3339c project_name = service" /etc/nova/nova.conf
) o6 K! `5 F& v- h/ |+ Psed -i " 3340c username = neutron" /etc/nova/nova.conf; o( V, N7 d/ B5 k
sed -i " 3341c password = 123456" /etc/nova/nova.conf" m& G& C' k) ]& K
sed -i " 3342c service_metadata_proxy = true" /etc/nova/nova.conf
9 _! I; Y; _8 G; b# ased -i " 3343c metadata_proxy_shared_secret = 123456" /etc/nova/nova.conf" [. n0 d6 ]$ M
ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini0 D9 s/ _+ D: A7 ~1 y
su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron/ ?8 A5 e; g1 ^
systemctl restart openstack-nova-api.service
6 q6 r# r8 h8 ~; ?; dsystemctl enable neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service && systemctl start neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service
. P5 _! K- [1 l) Bsystemctl enable neutron-l3-agent.service && systemctl start neutron-l3-agent.service8 {. g1 k8 k9 J
#计算节点 安装Networking service
# ], t- F1 k" l! H& h( e! |yum install -y openstack-neutron-linuxbridge ebtables ipset: d  n; v& b! d! g! U  S
sed -i "2c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf
" u$ Q1 C0 `$ z& ?0 W: e' Fsed -i "3c auth_strategy = keystone" /etc/neutron/neutron.conf
/ T/ P# k8 q9 \  i* i# ?) I5 K4 wsed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf0 D3 a' s' v* o  h$ O4 e/ G
sed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf, i, G8 [2 B$ P4 E0 L: E
sed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf
! g- P) a1 \7 Tsed -i "362c auth_type = password" /etc/neutron/neutron.conf/ d# g6 S- R( L2 h4 z; I' l& V$ i1 z
sed -i "363c project_domain_name = default" /etc/neutron/neutron.conf9 ?2 f3 l8 s" F8 \5 C. N
sed -i "364c user_domain_name = default" /etc/neutron/neutron.conf. n" q0 J$ k7 X1 H
sed -i "365c project_name = service" /etc/neutron/neutron.conf: h+ ?7 D' g2 I2 l
sed -i "366c username = neutron" /etc/neutron/neutron.conf
! c, u6 X; u. c, Gsed -i "367c password = 123456" /etc/neutron/neutron.conf0 ]( I/ ~- H# N+ o2 i
sed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf. d" V% {5 P, U3 t6 e# b
echo "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini9 v8 e; h* C/ C' G2 k' @2 ^
#eth1为另外第二张网卡
7 f6 n% P. Q0 [" h/ gecho "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini5 B5 r% F0 N/ Y  m' A. w# u
echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini0 v& w. ]$ `0 o# U! k5 d+ }5 G! p5 \
echo "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini4 T  m* o8 i- s9 m) f
#10.0.0.32为第二张网卡的IP0 ?3 G7 m; b9 i+ d" f( T) }3 W
echo "local_ip = 10.0.0.32" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini9 r2 y+ ^9 t( h5 b/ S4 a4 K2 S
echo "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
. m/ E# M0 j3 J1 \0 |echo "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
1 }5 J, }( A5 [9 a/ Q1 h; `echo "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini8 h6 r: n. J0 V7 f
echo "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
( d# K/ n, |3 O9 K#配置计算服务使用网络服务! j! t. R$ z! \  r4 r9 W9 ?3 M
sed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf
8 K- E! n2 j" K7 z$ ~* P5 F2 ~% B* vsed -i " 3335c auth_type = password" /etc/nova/nova.conf, k6 q1 d) L. }1 G
sed -i " 3336c project_domain_name = default" /etc/nova/nova.conf
7 B# Y' W+ B7 J& s, p* O8 `* rsed -i " 3337c user_domain_name = default" /etc/nova/nova.conf
8 J3 B* e( D( H5 d3 @sed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf; \6 P$ ~0 S' l
sed -i " 3339c project_name = service" /etc/nova/nova.conf( i% L; r) \) E* `. p- C# u) L  K
sed -i " 3340c username = neutron" /etc/nova/nova.conf
8 ?$ D6 j7 [& c- h) y. U9 u% vsed -i " 3341c password = 123456" /etc/nova/nova.conf; H( ~( N$ [& U. a! i
systemctl restart openstack-nova-compute.service
  q* ]( b! v5 y! P/ T; d& Lsystemctl enable neutron-linuxbridge-agent.service && systemctl start neutron-linuxbridge-agent.service
- C" F" r3 y( o" p#控制节点 安装Dashboard) L- Z0 ?: X! g. f
yum install -y openstack-dashboard
; x6 ]) s' m" vsed -i '118c OPENSTACK_HOST = "controller"' /etc/openstack-dashboard/local_settings2 r4 c1 y; E5 F& M& s4 |
sed -i "39c ALLOWED_HOSTS = ['*']" /etc/openstack-dashboard/local_settings
- D2 @+ W6 U' R6 y# _3 E$ w) zsed -i "104c SESSION_ENGINE = 'django.contrib.sessions.backends.cache'" /etc/openstack-dashboard/local_settings
/ N  p' I6 M/ _& ?sed -i "94c CACHES = {" /etc/openstack-dashboard/local_settings# J6 }  d% e- o; ~9 J( t/ ^3 }
sed -i "95c 'default': {" /etc/openstack-dashboard/local_settings2 \9 U; q' }  J0 Z5 W" f7 R) A% u
sed -i "96c 'BACKEND': 'django.core.cache.backends.memcached.MemcachedCache'," /etc/openstack-dashboard/local_settings( X, k  m7 q2 s- @8 r
sed -i "97c 'LOCATION': 'controller:11211'," /etc/openstack-dashboard/local_settings
7 m& P/ y0 t! A: N, v( Q3 N- q' Wsed -i "98c }" /etc/openstack-dashboard/local_settings
6 p" V6 R4 \; wsed -i "99c }" /etc/openstack-dashboard/local_settings
" L% }$ O7 b6 M. F; Vsed -i '119c OPENSTACK_KEYSTONE_URL = "http://%s:5000/v3" % OPENSTACK_HOST' /etc/openstack-dashboard/local_settings5 B1 D4 `- X; A3 S# p& o- T. {
echo 'OPENSTACK_KEYSTONE_MULTIDOMAIN_SUPPORT = True' >> /etc/openstack-dashboard/local_settings
  e& a) q* C& X6 T3 Vecho 'OPENSTACK_API_VERSIONS = {' >> /etc/openstack-dashboard/local_settings& P: h/ Z. d' B2 U- K& }
echo '  "identity": 3,' >> /etc/openstack-dashboard/local_settings
+ \; j2 l" f5 K) Zecho '  "image": 2,' >> /etc/openstack-dashboard/local_settings
& W5 D# b* A! C6 u3 wecho '  "volume": 3' >> /etc/openstack-dashboard/local_settings2 g. o$ t9 y$ N0 |1 S
echo '}' >> /etc/openstack-dashboard/local_settings, |& J' [5 ?/ R2 a. ~, L
echo 'OPENSTACK_KEYSTONE_DEFAULT_DOMAIN = "Default"' >> /etc/openstack-dashboard/local_settings
% n1 _% o7 c" _& L, g& aecho 'OPENSTACK_KEYSTONE_DEFAULT_ROLE = "user"' >> /etc/openstack-dashboard/local_settings
! V: s+ L' y5 X. s# A3 fsed -i '123c TIME_ZONE = "Asia/Shanghai"' /etc/openstack-dashboard/local_settings3 W2 X1 p  e% e; f2 s9 p) U% z
echo "WEBROOT = '/dashboard/'" >> /etc/openstack-dashboard/local_settings6 _+ ?1 M! ^/ D5 P1 C7 k
echo 'WSGIApplicationGroup %{GLOBAL}' >> /etc/httpd/conf.d/openstack-dashboard.conf
0 A# i9 k0 W% m6 G5 X4 l# Qsystemctl restart httpd.service memcached.service
8 A2 c7 i! U9 e3 z#安装完成,可访问http://controller/dashboard/查看
- T" r* b3 i7 z/ Z- |, P
 楼主| 发表于 2021-9-13 11:07:27 | 显示全部楼层
目录:9 B" y- O) [, _- s  W
  • 为何选择云计算/云计算之前遇到的问题
  • 什么是云计算
  • 云服务模式
  • 云应用形式
  • 传统应用与云感知应用/ Y2 A' x% d! j2 \0 \& C
  • openstack及其相关组件介绍
  • flat/vlan/gre/vxlan介绍
  • 分布式存储ceph介绍
  • openstack mitaka三节点部署实战

    4 g/ [) \. A- }( V5 m' n1 Q
, O4 E# l7 M- X2 [* q/ j& ~9 q% T7 z
一:为何选择云计算/云计算之前遇到的问题
    一、有效解决硬件单点故障问题
    单点故障是指某个硬件的故障造成网站某个服务的中断。要真正解决这个问题,需要为每个硬件准备冗余,这不仅大大增加了硬件购置成本,而且部署与维护成本也不容小视。
    而云计算平台是基于服务器集群,从设计之初就考虑了单点故障问题,并在建设时有效地解决了这个问题。如果一家云服务商出现单点故障问题,就如同存在银行的钱丢了。
    二、按需增/减硬件资源
    自己托管服务器,增/减硬件一直是头疼的问题。
    1. 增加服务器的时候,购买服务器需要时间,而且这个时间自己无法控制。而使用云服务器,随时可以增加服务器——垂手可得。
    2. 减服务器只能从机房拉回办公室,无法再把服务器退给厂商,购置服务器的成本就浪费了。而使用云服务器,如果下个月不用,不续费就行了(针对阿里云按月购买的情况)——想用就用,想扔就扔。
    3. 不能按需增加满足基本需求的服务器配置。假如我们现在需要一台低配置的服务器用Linux跑缓存服务,如果为之单独购买一台便宜的低配置的服务器很不合算,因为这台服务器仅仅一年的电费就至少要3000元左右。所以只能尽量减少服务器数量,提高单台服务器的配置,在让一台服务器跑更多东西。而使用云服务器,需要什么样的配置就买什么样的配置,让各个服务器的职责更单一,互相之间的影响更小——职责分明,效率更高。
    三、BGP线路解决南北互通问题
    南北互通问题是南方电信与北方联通线路之间的互通问题,这个问题困扰我们多年,之前用过双线机房,解决的也不是很好。目前只有BGP线路才能有效解决这个问题,而拥有真正的BGP线路的机房不是很多,成本也非常高。而我准备使用的阿里云用的就是BGP线路,这也是吸引我们的主要地方之一。
    究竟什么是南北互通问题?基于我们的理解简体描述一下,不对之处欢迎指出。南北互通问题实际就是路由问题。假设我们的服务器放在上海电信的机房,上海一位联通的用户访问我们的服务器,要先绕到联通的北京总出口(假设总出口在北京),然后再绕回上海。实际上这位联通用户可以通过上海的线路直接到达我们的服务器,不用绕这么远,但上海电信的机房无法告知联通的路由器走近路过来,只能按照联通路由器设定好的路由走。本来即使走北京绕一下也没有大的影响,毕竟是光的速度,但是由于大多数联通的用户访问电信网络都这么绕着走,联通的总出口成为了瓶颈,总出口流量太大时,联通的用户访问电信的网络速度就会慢。BGP线路也没什么神奇之处,只是它能决定走什么路由过来,不绕远路,问题自然解决了。它有这样的特权,就不仅能解决南北互通的问题,而且能解决其他网络的互通问题,比如教育网。因为有权限决定路由,就可以优化路由,哪条路堵,我就换条路。
    四、按需增/减带宽
    带宽是主要成本,托管服务器时,与ISP服务商签一年合同之前就要确定带宽。用了一段时间之后,你发现带宽买多了,想减一些是不允许的。中途要临时增加带宽一段时间也是不行的,要买就买一年(这是根据我们接触过的ISP服务商)。所以,一般都会多买一些带宽,留一些余量。
    使用云服务器可以灵活地增减带宽,不会浪费带宽,即使买少了也不用担心,随时可以增加。虽然各个云服务商会有一定的限制,比如在阿里云一次至少要购买1个月的带宽,但比自己托管服务器灵活很多,同样的带宽条件,会节省不少成本,尤其是带宽需求在一年中变化比较大的网站。
    五、更有吸引力的费用支付方式
    在IDC机房托管服务器一般是签一年合同,一次支付一个季度的费用。
    而使用云服务,一次可以支付更短时间的费用,比如阿里云可以一次只支付一个月的费用,节约了流动资金。
    从总体上考虑,差不多的成本,却拥有更多的内存、更多的CPU、更多的硬盘空间、更优质的带宽线路,更重要的是可以随时按需扩展计算资源。

# A& D# ~( E) B+ v$ l' D
二:什么是云计算(资源和服务的交互方式)
3 z! f- D! Z0 R% R' ^7 Y
    一、概念分解:   
        云:云计算中的云,代表循环利用的意思(云多了变成雨,落到地面,云减少,水蒸发到空中,云增加)。
       计算:云计算中的计算,代表计算资源,涵盖虚机、存储、网络等。
       云计算:代表计算资源向云水循环一样,按需分配,循环利用。
       附:企业数据中心部署在云计算分布式平台上,类似于从原来单台发电机转向电厂集中供电模式,它意味着访问计算机和存储系统也可以作为一种商品流通,就像煤气、水电一样,取用方便,费用低廉,只不过它是通过互联网传输的,云就是互联网的一种比喻
    二、云计算分类:
        狭义:IT基础设施的交互和使用模式,通过网络以按需,易扩展的方式获取资源
        广义:服务(IT基础设施、软件等)的交互和使用模式,通过网络以按需、易扩展的方式获取资源。
        0 v+ v2 n/ c9 J+ P' u8 g/ ~
三:云服务模式

* x7 ]9 Z" v, ?  S# b
     一、IaaS:基础设施即服务
        用户通过网络获取虚机、存储、网络,然后用户根据自己的需求操作获取的资源。  典型应用:亚马逊AWS等

2 I6 M- ?: i; F3 S! X+ q- Z
     二、PaaS:平台即服务
        将软件研发平台作为一种服务, 如Eclipse/Java编程平台,服务商提供编程接口/运行平台等。典型应用:Google AppEngine、Force.com、微软Azure等
1 [# f0 l1 C9 |
     三、SaaS:软件即服务  
        将软件作为一种服务通过网络提供给用户,如web的电子邮件、HR系统、订单管理系统、客户关系系统等。用户无需购买软件,而是向提供商租用基于web的软件,来管理企业经营活动。典型应用:Google Doc、Saleforce.com、Oracle CRM On Demand、Office Live Workspace等
8 u1 G. g: M' a8 F) z. h" O
$ H9 z% c1 S& v' F( v
四:云应用形式
   
    一.私有云
        将基础设施与软硬件资源构建于防火墙内,基于iaas构建私有云平台供企业内部使用,开源组件有:openstack(最为出色),cloudstack等
; i4 G% T! b3 l: ]
    二.云存储
        云存储系统是一个以数据存储和管理为核心的云计算系统
5 ]' B: e" j7 ?1 e
    三.云游戏
        游戏运行云平台服务端,云平台将游戏画面解压缩后传给用户,用户端无需高配置处理器和显卡,只需要基本的视频解压缩能力即可。" l, l9 y* C& t5 C4 q1 r% {
    四.云物联
        基于云平台实现物物相连的互联网。
2 S+ R+ \2 F; k' K. g5 a& Q
    五.云安全
        通过网状的大量客户端检测网络中软件的异常,获取木马,恶意程序的最新信息,推送到云平台服务端自动分析和处理,再把解决方案发送给每一个客户端。云平台使用者越多,越安全。
4 D0 p& _6 U! r4 C' a
    六.公有云
        云平台对外开放,主要以Iaas和Paas为主,较为成熟的是Iaas,如阿里云,腾讯云,×××,ucloud,首都在线等6 Q& v: r2 v5 J( |0 |! V
    七.混合云  ; h8 W) Q; w; i' x
        公有云和私有云的结合,即对企业内部又对企业外部,例如AWS4 K' B% Q: R" m& j
    - ~9 m( L& N, U
五:传统应用与云感知应用
' A( `# t. a9 K6 p
    一、传统应用
$ ?$ m  c# V1 I  Y/ _: a" t
    传统应用像养宠物,宠物病了要细心呵护
    每个应用都是独特的、专门的
    专门的服务器、硬件和软件保证可靠性
    资源不够,增加cpu、内存、磁盘
    专门的技术支持
    二、云感知应用. o8 S! R1 p! m! g2 |" \  l3 q* ~' ?4 r
    云感知应用像养牛,牛生病了,你需要一头新的牛
    应用跑在一个或多个虚拟机里
    资源不够,增加新的虚拟机
    应用挂起,重启或创建新的虚拟机

1 M1 p0 O2 Q! ~
- e) w0 W  \+ `7 z8 u' W" X: o
六:openstack与及其相关组件介绍
2 f, |! C8 o% l6 U" m
    一、openstack由来* l4 J: [5 B. H0 a3 n: U
            openstack最早由美国国家航空航天局NASA研发的Nova和Rackspace研发的swift组成。后来以apache许可证授权,旨在为公共及私有云平台建设。openstack主要用来为企业内部实现类似于Amazon EC2和S3的云基础架构服务(Iaas).每6个月更新一次,基本与ubuntu同步,命名是以A-Z作为首字母来的。
     二、openstack项目与组件(服务名是项目名的别名)
) q! ?9 H, K' L
    核心项目3个
    1.控制台
    服务名:Dashboard
    项目名:Horizon
    功能:web方式管理云平台,建云主机,分配网络,配安全组,加云盘
    8 V  x3 \& W3 y& l9 D! q7 G
    2.计算
    服务名:计算
    项目名:Nova
    功能:负责响应虚拟机创建请求、调度、销毁云主机
    1 Z* ~& }1 C! [; i. t/ s& Q) F. h+ J
    3.网络
    服务名:网络
    项目名:Neutron
    功能:实现SDN(软件定义网络),提供一整套API,用户可以基于该API实现自己定义专属网络,不同厂商可以基于此API提供自己的产品实现
        
1 Z0 a" g; k5 K2 N1 v8 q0 d
         存储项目2个
    1.对象存储
    服务名:对象存储
    项目名:Swift
    功能:REST风格的接口和扁平的数据组织结构。RESTFUL HTTP API来保存和访问任意非结构化数据,ring环的方式实现数据自动复制和高度可以扩展架构,保证数据的高度容错和可靠性
    * @# t+ P' }! Y5 _% t4 {5 k: g+ U; q1 }
    2.块存储
    服务名:块存储
    项目名:Cinder
    功能:提供持久化块存储,即为云主机提供附加云盘。
3 _$ J: L; i6 c% j, m1 x. N2 C9 P
    共享服务项目3个
    1.认证服务
    服务名:认证服务
    项目名:Keystone
    功能:为访问openstack各组件提供认证和授权功能,认证通过后,提供一个服务列表(存放你有权访问的服务),可以通过该列表访问各个组件。
   
2 n) h3 J# ^5 U
    2.镜像服务
    服务名:镜像服务
    项目名:Glance
    功能:为云主机安装操作系统提供不同的镜像选择
) W% l" P# C# W. {  h$ [. t& ^
    3.计费服务
    服务名:计费服务
    项目名:Ceilometer
    功能:收集云平台资源使用数据,用来计费或者性能监控
4 [% V- X6 O: a7 Y! _3 k# J
    高层服务项目1个
    1.编排服务
    服务名:编排服务
    项目名:Heat
    功能:自动化部署应用,自动化管理应用的整个生命周期.主要用于Paas
/ n9 j( ^( s3 N3 w6 N$ u
1 q! Y9 H: }. V  H' I& X8 ~+ o
    三、openstack各组件详解及运行流程

, R# s- l* Q+ @5 X$ L9 @
各组件逻辑关系图:

3 Y8 b0 v5 l+ I
8 E% C" U+ R) h
openstack新建云主机流程图:
虚拟机启动过程如下:
  • 界面或命令行通过RESTful API向keystone获取认证信息。
  • keystone通过用户请求认证信息,并生成auth-token返回给对应的认证请求。
  • 界面或命令行通过RESTful API向nova-api发送一个boot instance的请求(携带auth-token)。
  • nova-api接受请求后向keystone发送认证请求,查看token是否为有效用户和token。
  • keystone验证token是否有效,如有效则返回有效的认证和对应的角色(注:有些操作需要有角色权限才能操作)。
  • 通过认证后nova-api和数据库通讯。
  • 初始化新建虚拟机的数据库记录。
  • nova-api通过rpc.call向nova-scheduler请求是否有创建虚拟机的资源(Host ID)。
  • nova-scheduler进程侦听消息队列,获取nova-api的请求。
  • nova-scheduler通过查询nova数据库中计算资源的情况,并通过调度算法计算符合虚拟机创建需要的主机。
  • 对于有符合虚拟机创建的主机,nova-scheduler更新数据库中虚拟机对应的物理主机信息。
  • nova-scheduler通过rpc.cast向nova-compute发送对应的创建虚拟机请求的消息。
  • nova-compute会从对应的消息队列中获取创建虚拟机请求的消息。
  • nova-compute通过rpc.call向nova-conductor请求获取虚拟机消息。(Flavor)
  • nova-conductor从消息队队列中拿到nova-compute请求消息。
  • nova-conductor根据消息查询虚拟机对应的信息。
  • nova-conductor从数据库中获得虚拟机对应信息。
  • nova-conductor把虚拟机信息通过消息的方式发送到消息队列中。
  • nova-compute从对应的消息队列中获取虚拟机信息消息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求glance-api获取创建虚拟机所需要镜像。
  • glance-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机镜像信息(URL)。
  • nova-compute通过keystone的RESTfull API拿到认证k的token,并通过HTTP请求neutron-server获取创建虚拟机所需要的网络信息。
  • neutron-server向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机网络信息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求cinder-api获取创建虚拟机所需要的持久化存储信息。
  • cinder-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机持久化存储信息。
  • nova-compute根据instance的信息调用配置的虚拟化驱动来创建虚拟机。

    " r6 H  W& q  G

  v* h! Q& m& R6 x& G5 H2 w  D' d/ ], n  `, B% |4 M
下面我们就围绕上图流程展开
# v8 u0 {$ h. a' w4 ~6 _
$ E5 E, R' q  v! I2 a0 ^9 F. q& N7 R
1.keystone

User:指使用Openstack service的用户,可以是人、服务、系统,但凡使用了Openstack service的对象都可以称为User。

Project(Tenant):可以理解为一个人、或服务所拥有的 资源集合 。在一个Project(Tenant)中可以包含多个User,每一个User都会根据权限的划分来使用Project(Tenant)中的资源。比如通过Nova创建虚拟机时要指定到某个Project中,在Cinder创建卷也要指定到某个Project中。User访问Project的资源前,必须要与该Project关联,并且指定User在Project下的Role。

Role:用于划分权限。可以通过给User指定Role,使User获得Role对应的操作权限。Keystone返回给User的Token包含了Role列表,被访问的Services会判断访问它的User和User提供的Token中所包含的Role。系统默认使用管理Role admin和成员Role _member_ 。

Policy:OpenStack对User的验证除了OpenStack的身份验证以外,还需要鉴别User对某个Service是否有访问权限。Policy机制就是用来控制User对Tenant中资源(包括Services)的操作权限。对于Keystone service来说,Policy就是一个JSON文件,默认是/etc/keystone/policy.json。通过配置这个文件,Keystone Service实现了对User基于Role的权限管理。

Token:是一个字符串表示,作为访问资源的令牌。Token包含了在 指定范围和有效时间内 可以被访问的资源。EG. 在Nova中一个tenant可以是一些虚拟机,在Swift和Glance中一个tenant可以是一些镜像存储,在Network中一个tenant可以是一些网络资源。Token一般被User持有。

Credentials:用于确认用户身份的凭证

Authentication:确定用户身份的过程

Service:Openstack service,即Openstack中运行的组件服务。

Endpoint:一个可以通过网络来访问和定位某个Openstack service的地址,通常是一个URL。比如,当Nova需要访问Glance服务去获取p_w_picpath 时,Nova通过访问Keystone拿到Glance的endpoint,然后通过访问该endpoint去获取Glance服务。我们可以通过Endpoint的region属性去定义多个region。Endpoint 该使用对象分为三类:

  • admin url –> 给admin用户使用,Post:35357
  • internal url –> OpenStack内部服务使用来跟别的服务通信,Port:5000
  • public url –> 其它用户可以访问的地址,Post:5000

    - D: r! H( q, d  T6 }

创建完service后创建API EndPoint. 在openstack中,每一个service都有三种end points. Admin, public, internal。 Admin是用作管理用途的,如它能够修改user/tenant(project)。 public 是让客户调用的,比如可以部署在外网上让客户可以管理自己的云。internal是openstack内部调用的。三种endpoints 在网络上开放的权限一般也不同。Admin通常只能对内网开放,public通常可以对外网开放internal通常只能对安装有openstack对服务的机器开放。

V3新增
  • Tenant 重命名为 Project
  • 添加了 Domain 的概念
  • 添加了 Group 的概念
    - B. u& U! ]1 R+ _+ n

4 y$ U; x% h' B  _! ~

3 D, |7 i; _; m# Y2 D

, z/ W8 z1 V5 w! N6 O
  • 用户alice登录keystone系统(password或者token的方式),获取一个临时的token和catalog服务目录(v3版本登录时,如果没有指定scope,project或者domain,获取的临时token没有任何权限,不能查询project或者catalog)。
  • alice通过临时token获取自己的所有的project列表。
  • alice选定一个project,然后指定project重新登录,获取一个正式的token,同时获得服务列表的endpoint,用户选定一个endpoint,在HTTP消息头中携带token,然后发送请求(如果用户知道project name或者project id可以直接第3步登录)。
  • 消息到达endpoint之后,由服务端(nova)的keystone中间件(pipeline中的filter:authtoken)向keystone发送一个验证token的请求。(token类型:uuid需要在keystone验证token,pki类型的token本身是包含用户详细信息的加密串,可以在服务端完成验证)
  • keystone验证token成功之后,将token对应用户的详细信息,例如:role,username,userid等,返回给服务端(nova)。
  • 服务端(nova)完成请求,例如:创建虚拟机。
  • 服务端返回请求结果给alice。

    " I' N/ F4 k! h7 u; b7 o$ w) E& k

" e3 i+ |1 G2 p& Z+ x
2.glance
v1' v% ?( s2 \; a6 p& q8 M

" t& V& U+ O! F- z. @( P3 R
v2

9 b8 N1 s# P, m# c3 C% p2 h" O
' {) O6 m- h- g% L
3.nova与cinder
nova主要组成:
    nova-api
4 r7 u! o/ x* \: N# ]
    nova-scheduler
- a: Y" n+ C9 S) c
    nova-compute
    nova-conductor
/ w7 n/ d7 e2 x! H6 o
cinder主要组成:
    cinder-api
  J. N/ X) v2 I8 ^$ R
    cinder-scheduler9 I0 m! O/ S  S8 [; g3 b# Z* B
    cinder-volume/ p8 \* n5 i3 x/ `' m, ?
[size=1.16em]cinder各组件功能:
[size=1.16em]Cinder-api 是 cinder 服务的 endpoint,提供 rest 接口,负责处理 client 请求,并将 RPC 请求发送至 cinder-scheduler 组件。
[size=1.16em]Cinder-scheduler 负责 cinder 请求调度,其核心部分就是 scheduler_driver, 作为 scheduler manager 的 driver,负责 cinder-volume 具体的调度处理,发送 cinder RPC 请求到选择的 cinder-volume。
[size=1.16em]Cinder-volume 负责具体的 volume 请求处理,由不同后端存储提供 volume 存储空间。目前各大存储厂商已经积极地将存储产品的 driver 贡献到 cinder 社区

& @* \0 K  [/ y- ~; g
cinder架构图:; d) U5 F& W/ B1 ?  o7 q4 }. B  Q
) O* Q) _- n) B0 R3 r% y6 |
" X! l& N  u, V. y

4 `  C& }9 p+ T8 [
openstack组件间通信:调用各组件api提供的rest接口,组件内通信:基于rpc(远程过程调用)机制,而rpc机制是基于AMQP模型实现的
从rpc使用的角度出发,nova,neutron,和cinder的流程是相似的,我们以cinder为例阐述rpc机制

$ j  ]9 d! R& @2 v& V- M2 O, M/ p
Openstack 组件内部的 RPC(Remote Producer Call)机制的实现是基于 AMQP(Advanced Message Queuing Protocol)作为通讯模型,从而满足组件内部的松耦合性。AMQP 是用于异步消息通讯的消息中间件协议,AMQP 模型有四个重要的角色:
    Exchange:根据 Routing key 转发消息到对应的 Message Queue 中
    Routing key:用于 Exchange 判断哪些消息需要发送对应的 Message Queue
    Publisher:消息发送者,将消息发送的 Exchange 并指明 Routing Key,以便 Message Queue           可以正确的收到消息
    Consumer:消息接受者,从 Message Queue 获取消息
消息发布者 Publisher 将 Message 发送给 Exchange 并且说明 Routing Key。Exchange 负责根据 Message 的 Routing Key 进行路由,将 Message 正确地转发给相应的 Message Queue。监听在 Message Queue 上的 Consumer 将会从 Queue 中读取消息。
Routing Key 是 Exchange 转发信息的依据,因此每个消息都有一个 Routing Key 表明可以接受消息的目的地址,而每个 Message Queue 都可以通过将自己想要接收的 Routing Key 告诉 Exchange 进行 binding,这样 Exchange 就可以将消息正确地转发给相应的 Message Queue。
! w) r: m" w% Y4 N, H
Publisher可以分为4类:
    Direct Publisher发送点对点的消息;
    Topic Publisher采用“发布——订阅”模式发送消息;
    Fanout Publisher发送广播消息的发送;
    Notify Publisher同Topic Publisher,发送 Notification 相关的消息。
- [  J, v+ ?! a% ^' |
Exchange可以分为3类:
    1.Direct Exchange根据Routing Key进行精确匹配,只有对应的 Message Queue 会接受到消息;
    2.Topic Exchange根据Routing Key进行模式匹配,只要符合模式匹配的Message Queue都会收到消息;
    3.Fanout Exchange将消息转发给所有绑定的Message Queue。

AMQP消息模型


/ z; v1 r- t2 I. B9 e1 b4 X  w1 C
RPC 发送请求
Client 端发送 RPC 请求由 publisher 发送消息并声明消息地址,consumer 接收消息并进行消息处理,如果需要消息应答则返回处理请求的结果消息。

% J6 P7 \8 {0 U& p) W
OpenStack RPC 模块提供了 rpc.call,rpc.cast, rpc.fanout_cast 三种 RPC 调用方法,发送和接收 RPC 请求。
$ y7 w0 R/ g- C) N+ j) @- R) \
1.rpc.call 发送 RPC 请求并返回请求处理结果,请求处理流程如图 5 所示,由 Topic Publisher 发送消息,Topic Exchange 根据消息地址进行消息转发至对应的 Message Queue 中,Topic Consumer 监听 Message Queue,发现需要处理的消息则进行消息处理,并由 Direct Publisher 将请求处理结果消息,请求发送方创建 Direct Consumer 监听消息的返回结果
2.rpc.cast 发送 RPC 请求无返回,请求处理流程如图 6 所示,与 rpc.call 不同之处在于,不需要请求处理结果的返回,因此没有 Direct Publisher 和 Direct Consumer 处理。
3.rpc.fanout_cast 用于发送 RPC 广播信息无返回结果

  h* ?4 Q' z0 \0 U
4.neutron
neutron包含组件:
    neutron-server0 m$ y. q2 l; Q3 R3 ^- U
    neutron-plugin
8 G0 V6 r' c1 s$ _
    neutron-agent; D- t* T$ l2 O8 Y1 \. x
neutron各组件功能介绍:
1.Neutron-server可以理解为一个专门用来接收Neutron REST API调用的服务器,然后负责将不同的rest api分发到不同的neutron-plugin上。
2.Neutron-plugin可以理解为不同网络功能实现的入口,各个厂商可以开发自己的plugin。Neutron-plugin接收neutron-server分发过来的REST API,向neutron database完成一些信息的注册,然后将具体要执行的业务操作和参数通知给自身对应的neutron agent。
3.Neutron-agent可以直观地理解为neutron-plugin在设备上的代理,接收相应的neutron-plugin通知的业务操作和参数,并转换为具体的设备级操作,以指导设备的动作。当设备本地发生问题时,neutron-agent会将情况通知给neutron-plugin。
4.Neutron database,顾名思义就是Neutron的数据库,一些业务相关的参数都存在这里。
5.Network provider,即为实际执行功能的网络设备,一般为虚拟交换机(OVS或者Linux Bridge)。
3 a+ p$ Z  P$ z, \/ l8 E: ?) }$ Y
neutron-plugin分为core-plugin和service-plugin两类。
Core-plugin,Neutron中即为ML2(Modular Layer 2),负责管理L2的网络连接。ML2中主要包括network、subnet、port三类核心资源,对三类资源进行操作的REST API被neutron-server看作Core API,由Neutron原生支持。其中:
Service-plugin,即为除core-plugin以外其它的plugin,包括l3 router、firewall、loadbalancer、×××、metering等等,主要实现L3-L7的网络服务。这些plugin要操作的资源比较丰富,对这些资源进行操作的REST API被neutron-server看作Extension API,需要厂家自行进行扩展。
“Neutron对Quantum的插件机制进行了优化,将各个厂商L2插件中独立的数据库实现提取出来,作为公共的ML2插件存储租户的业务需求,使得厂商可以专注于L2设备驱动的实现,而ML2作为总控可以协调多厂商L2设备共同运行”。在Quantum中,厂家都是开发各自的Service-plugin,不能兼容而且开发重复度很高,于是在Neutron中就为设计了ML2机制,使得各厂家的L2插件完全变成了可插拔的,方便了L2中network资源扩展与使用。

/ V. y2 F6 u9 Z- p  R
(注意,以前厂商开发的L2 plugin跟ML2都存在于neutron/plugins目录下,而可插拔的ML2设备驱动则存在于neutron/plugins/ml2/drivers目录下)

  T# k  l3 T+ e" R& G
ML2作为L2的总控,其实现包括Type和Mechanism两部分,每部分又分为Manager和Driver。Type指的是L2网络的类型(如Flat、VLAN、VxLAN等),与厂家实现无关。Mechanism则是各个厂家自己设备机制的实现,如下图所示。当然有ML2,对应的就可以有ML3,不过在Neutron中L3的实现只负责路由的功能,传统路由器中的其他功能(如Firewalls、LB、×××)都被独立出来实现了,因此暂时还没有看到对ML3的实际需求。
一般而言,neutron-server和各neutron-plugin部署在控制节点或者网络节点上,而neutron agent则部署在网络节点上和计算节点上。我们先来分析控制端neutron-server和neutron-plugin的工作,然后再分析设备端neutron-agent的工作。
neutron新进展(dragon  flow):
https://www.ustack.com/blog/neutron-dragonflow/
网络模式介绍:
根据创建网络的用户的权限,Neutron network 可以分为:
  • Provider network:管理员创建的和物理网络有直接映射关系的虚拟网络。
  • Tenant network:租户普通用户创建的网络,物理网络对创建者透明,其配置由 Neutorn 根据管理员在系统中的配置决定。

    & T5 F- d$ S. y
根据网络的类型,Neutron network 可以分为:
  • VLAN network(虚拟局域网) :基于物理 VLAN 网络实现的虚拟网络。共享同一个物理网络的多个 VLAN 网络是相互隔离的,甚至可以使用重叠的 IP 地址空间。每个支持 VLAN network 的物理网络可以被视为一个分离的 VLAN trunk,它使用一组独占的 VLAN ID。有效的 VLAN ID 范围是 1 到 4094。
  • Flat network:基于不使用 VLAN 的物理网络实现的虚拟网络。每个物理网络最多只能实现一个虚拟网络。
  • local network(本地网络):一个只允许在本服务器内通信的虚拟网络,不知道跨服务器的通信。主要用于单节点上测试。
  • GRE network (通用路由封装网络):一个使用 GRE 封装网络包的虚拟网络。GRE 封装的数据包基于 IP 路由表来进行路由,因此 GRE network 不和具体的物理网络绑定。
  • VXLAN network(虚拟可扩展网络):基于 VXLAN 实现的虚拟网络。同 GRE network 一样, VXLAN network 中 IP 包的路由也基于 IP 路由表,也不和具体的物理网络绑定。

    $ z' m2 K# d9 X' N8 K6 y
注:在AWS中,该概念对应 VPC 概念。AWS 对 VPC 的数目有一定的限制,比如每个账户在每个 region 上默认最多只能创建 5 个VPC,通过特别的要求最多可以创建 100 个。

/ x5 W6 V# Y+ V1 u$ b" m
1.vlan
" c# a9 S9 [. u" E' I( j1 ~
2.gre与vxlan请参考
http://www.cnblogs.com/sammyliu/p/4622563.html

) Z4 k# o; K0 n! l- K
gre网络

8 k* X. _! y" {; X) A
gre与vxlan区别
. B; b+ s4 i* X! p# B: q
关于gre和vxlan二次封装数据包的MTU问题
VXLAN 模式下虚拟机中的 mtu 最大值为1450,也就是只能小于1450,大于这个值会导致 openvswitch 传输分片,进而导致虚拟机中数据包数据重传,从而导致网络性能下降。GRE 模式下虚拟机 mtu 最大为1462。
计算方法如下:
  • vxlan mtu = 1450 = 1500 – 20(ip头) – 8(udp头) – 8(vxlan头) – 14(以太网头)
  • gre mtu = 1462 = 1500 – 20(ip头) – 4(gre头) – 14(以太网头)
    4 Y( _" M9 K: D7 G' w$ v
可以配置 Neutron DHCP 组件,让虚拟机自动配置 mtu,
#/etc/neutron/dhcp_agent.ini[DEFAULT]dnsmasq_config_file = /etc/neutron/dnsmasq-neutron.conf#/etc/neutron/dnsmasq-neutron.confdhcp-option-force=26,1450或1462
  • 1.
  • 2.
  • 3.
  • 4.
    ) q  A# G4 Y, x8 ^4 a
重启 DHCP Agent,让虚拟机重新获取 IP,然后使用 ifconfig 查看是否正确配置 mtu。

3 p0 M% L% ]9 V5 |* f6 _
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

北京云银创陇科技有限公司以云计算运维,代码开发

QQ|返回首页|Archiver|小黑屋|易陆发现技术论坛 点击这里给我发消息

GMT+8, 2026-4-8 17:15 , Processed in 0.067067 second(s), 21 queries .

Powered by Discuz! X3.4 Licensed

© 2012-2025 Discuz! Team.

快速回复 返回顶部 返回列表