openstack–T版—nava计算服务

  • 一.nava计算服务概述
  • 二.Nova系统架构
  • 三.组件介绍
    • 3.1 API
    • 3.2 Scheduler
    • 3.3 过滤器
    • 3.4 Nova-compute
    • 3.5 Conductor
  • 四.Nova经典部署模式(中心化集群/架构)
  • 五.cell 架构
  • 六.NOV部署
    • 6.1 OpenStack-Placement组件部署
    • 6.2 nova组件部署

一.nava计算服务概述

①计算服务是openstack最核心的服务之一,负责维护和管理云环境的计算资源,它在openstack项目中代号是nova。

②Nova自身并没有提供任何虚拟化能力,它提供计算服务,使用个同的应1驱动来与底层支持的Hypervisor(虚拟机管理器
进行交互。所有的计算实例(虚拟服务器)由Nova进行生命周期的调度管理(启动、挂起、停止、删除等)

③Nova需要keystone、glance、neutron、cinder和swift等其他服务的支持,能与这些服务集成,实现如加密磁盘、裸金属计算实例等。

openstack–T版—nava计算服务-编程知识网
opstack维度来看:
提供虚拟化支持的是nova
opstack宏观:
nova具有虚拟化功能

组件内部维度:
nova 没有任何的组件有虚拟化的功能
nova-compute(使用不同的虚拟化驱动)和底层vmm
交互,来获取到虚拟化的资源

二.Nova系统架构

Nova由多个服务器进程组成,每个进程执行不同的功
能。

openstack–T版—nava计算服务-编程知识网
scheduler
根据一定的选择,预选、优选
选择出最适合创建实例的计算节点

DB:用于数据存储的sql数据库。
API:用于接收HTTP请求、转换命令、通过消息队列或HTTP与其他组件通信的nova组件。
Scheduler:用于决定哪台计算节点承载计算实例的nova调度器。
根据一定的选择,预选、优选,选择出最适合创建实例的计算节点
Network:管理IP转发、网桥或虚拟局域网的nova网络组件。
Compute:管理虚拟机管理器与虚拟机之间通信的nova计算组件。
Conductor:处理需要协调(构建虚拟机或调整虚拟机大小)的请求,或者处理对象转换

三.组件介绍

3.1 API

API是客户访问nova的http接口,它由nova-api服务实现,nova-api服务接收和响应来自最终用户的计算api请求。作为openstack对外服务的最主要接口,nova-api提供了一个集中的可以查询所有api的端点。

所有对nova的请求都首先由nova-api处理。API提供REST标准调用服务,便于与第三方系统集成。
最终用户不会直接改送RESTful API请求,而是通过openstack命令行、dashbord和其他需要跟nova交换的组件来使用这些API

只要跟虚拟机生命周期相关的操作,nova-api都可响应。

Nova-api对接收到的HTTPAPI请求做以下处理:
1)检查客户端传入的参数是否合法有效
2)调用nova其他服务来处理客户端HTTP请求
3)格式化nova其他子服务返回结果并返回给客户端

Nova-api是外部访问并使用nova提供的各种服务的唯一途径,也是客户端和nova之间的中间层。

3.2 Scheduler

Scheduler可译为调度器,由nova-scheduler服务实现,主要解决的是如何选择在哪个计算节点上启动实例的问题。它可以应用多种规则,如果考虑内存使用率、cpu负载率、cpu构架(intel/amd)等多种因素,根据一定的算法,确定虚拟机实例能够运行在一台计算服务器上。Nova-scheduler服务会从队列中接收一个虚拟机实例的请求,通过读取数据库的内容,从可用资源池中选择最合适的计算节点来创建新的虚拟机实例。

创建虚拟机实例时,用户会提出资源需求,如cpu.内存、磁盘各需要多少。Openstack将这些需求定义在实例类型中,用户只需指定使用哪个实例类型就可以了。

Nova调度器的类型:
随机调度器(chance scheduler) :从所有正常运行nova-compute服务的节点中随机选择。

过滤器调度器(filter scheduler):根据指定的过滤条件以及权重选择最佳的计算节点。Filter又称为筛选器

缓存调度器(caching scheduler):可看作随机调度器的一种特殊类型,在随机调度的基础上将主机资源信息缓存在本地内存中,然后通过后台的定时任务定时从数据库中获取最新的主机资源信息。

过滤器调度器调度过程:
主要分二个阶段
通过指定的过滤器选择满足条件的计算节点,比如内存
使用率小于50%,可以使用多个过滤器依次进行过
滤。
对过滤之后的主机列表进行权重计算并排序,选择最优
的计算节点来创建虚拟机实例。
openstack–T版—nava计算服务-编程知识网

3.3 过滤器

当过滤调度器需要执行调度操作时,会让过滤器对计算节点进行判断,返回True或False。

/etc/nova/nova.conf配置文件中

scheduler_available_filters选项用于配置可用过滤器
,默认是所有nova自带的过滤器都可以用于过滤作用

Scheduler_available_filters = nova.scheduler.filters.all_filters

另外还有一个选项scheduler_default_filters用于指定

nova-scheduler服务真正使用的过滤器,默认值如下Scheduler_default_filters = RetryFilters,AvailabilityZoneFilter, RamFilter,
ComputeFilter,ComputeCapabilitiesFilter,ImagePropertiesFilter,
ServerGroupAntiAffinityFilter, ServerGroupAffinityFilter

过滤调度器将按照列表中的顺序依次过滤。
RetryFilter(再审过滤器)
主要作用是过滤掉之前已经调度过的节点。如A、B、C都通过了过滤,
重最大被选中执行操作,由于某种原因,操作仕A上失败了。Nova-filter讲重新执行过滤操作,那么此时A就被会RetryFilter直接排除,以免再次失败。

AvailabilityZoneFilter (可用区域过滤器)

为提高容灾性并提供隔离服务,可以将计算节点划分到不同的可用区域中。Openstack默认有一个命名为nova的可用区域,所有的计算节点初始是放在nova区域中的。用户可以根据需要创建自己的一个可用区域。创建实例时,需要指定将实例部署在哪个可用区域中。Nova-scheduler执行过滤操作时,会使用AvailabilityZoneFilter不属于指定可用区域计算节点过滤掉

权重(weight)
nova-scheduler服务可以使用多个过滤器依次进行过滤,过滤之后的节点再通过计算权重选出能够部署实例的节点。
注意:
所有权重位于nova/scheduler/weights目录下。目前默认实现是RAMweighter,根据计算节点空闲的内存量计算权重值,空闲越多,权重越大,实例将被部署到当前空闲内存最多的计算节点上

OpenStack源码位置

/usr/lib/python2.7/site-packages

权重源码位于

/usr/liblpython2.7/site-packages/nova/scheduler/weights

3.4 Nova-compute

Nova-compute在计算节点上运行,负责管理节点上的实例。通常一个主机运行一个Nova-compute服务,一个实例部署在哪个可用的主机上取决于调度算法。OpenStack对实例的操作,最后都是提交给Nova-compute来完成。
Nova-compute可分为两类,一类是定向openstack报告计算节点的状态,另一类是实现实例生命周期的管理。

通过Driver(驱动)架构支持多种Hypervisor虚拟机管理器
面对多种Hypervisor, nova-compute为这些Hypervisor定义统
的接口。
Hypervisor只需要实现这些接口,就可以Driver的形式即插即用到OpenStack系统中
openstack–T版—nava计算服务-编程知识网
openstack–T版—nava计算服务-编程知识网
定期向OpenStack报告计算节点的状态
每隔一段时间,nova-compute就会报告当前计算节点的资源使用情况和nova-compute服务状态。
nova-compute是通过Hypervisor的驱动获取这些信息的。

实现虚拟机实例生命周期的管理
OpenStack对虚拟机实例最主要的操作都是通过nova-compute实现的。
创建、关闭、重启、挂起、恢复、中止、调整大小、迁移、快照
以实例创建为例来说明nova-compute的实现过程。
(1)为实例准备资源。
(2)创建实例的镜像文件。
(3)创建实例的XML定义文件。
(4)创建虚拟网络并启动虚拟机。

3.5 Conductor

nova-conductor模块实现,旨在为数据库的访问提供一层安全保障。Nova-conductor作为nova-compute服务与数据库之间交互的中介,避免了直接访问由nova-compute服务创建对接数据库。

Nova-compute访问数据库的全部操作都改到nova-conductor中,nova-conductor作为对数据库操作的一个代理,而且nova-conductor是部署在控制节点上的。

Nova-conductor有助于提高数据库的访问性能,nova-compute可以创建多个线程使用远程过程调用(RPC)访问nova-conductor。

在一个大规模的openstack部署环境里,管理员可以通过增加nova-conductor的数量来应付日益增长的计算,节点对数据库的访问量

1、conductor
对接数据库(agent)
2、安全隔离
3、分压

Nova组件介绍-PlacementAPI

以前对资源的管理全部由计算节点承担,在统计资源使用情况时,只是简单的将所有计算节点的资源情况累加起来,但是系统中还存在外部资源,这些资源由外部系统提供。如ceph、nfs等提供的存储资源等。面对多种多样的资源提供者,管理员需要统一的、简单的管理接口来统计系统中资源使用情况,这个接口就是PlacementAPl。

PlacementAPI由nova-placement-api服务来实现,旨在追踪记录资源提供者的目录和资源使用情况。
被消费的资源类型是按类进行跟踪的。如计算节点类、共享存储池类、IP地址类等。

虚拟机实例化流程
用户可以通过多种方式访问虚拟机的控制台
Nova-novncproxy守护进程:通过vnc连接访问正在运行的实例提供一个代理,支持浏览器novnc客户端。

Nova-spicehtml5proxy守护进程:通过spice连接访问正在运行的实例提供一个代理,支持基于html5浏览器的客户端。

Nova-xvpvncproxy守护进程:通过vnc连接访问正在运行的实例提供一个代理,支持openstack专用的java客户端。

Nova-consoleauth守护进程:负责对访问虚拟机控制台提供用户令牌认证。这个服务必须与控制台代理程序共同使用。

首先用户(可以是OpenStack最终用户,也可以是其他程序)执行Nova Client提供的用于创建虚拟机的命令。

nova-api服务监听到来自于Nova Client的HTTP请求,并将这些请求转换为AMQP消息之后加入消息队列。

通过消息队列调用nova-conductor服务。

nova-conductor服务从消息队列中接收到虚拟机实例化请求消息后,进行一些准备工作。

nova-conductor服务通过消息队列告诉nova-scheduler服务去选择一个合适的计算节点来创建虚拟机,此时nova-scheduler会读取数据库的内容。

nova-conductor服务从nova-scheduler服务得到了合适的将计算节点的信息后,在通过消息队列来通知nova-compute服务实现虚拟机的创建。

四.Nova经典部署模式(中心化集群/架构)

openstack–T版—nava计算服务-编程知识网

Nova负载均衡部署模式
openstack–T版—nava计算服务-编程知识网

五.cell 架构

当openstack nova集群的规模变大时,数据库和消息队列服务就会出现瓶颈问题。Nova为提高水平扩展及分布式、大规模的部署能力,同时又不增加数据库和消息中间件的复杂度,引入了Cell概念。

Cell可译为单元。为支持更大规模的部署,openstack较大的nova集群分成小的单元,每个单元都有自己的消息队列和数据库,可以解决规模增大时引起的瓶颈问题。在Cell中,Keystone、Neutron、Cinder,Glance等资源是共享的。

cell V2的架构
openstack–T版—nava计算服务-编程知识网

Nova的Cell架构

单Cell架构
openstack–T版—nava计算服务-编程知识网
多Cell架构
openstack–T版—nava计算服务-编程知识网
nova的cell架构目的是什么(扩展)
1 DB –>API数据库
2conductor –> super conductor
3.rabbitmq –> api-rabbitmq
以上是原NOVA架构的分层结构扩展扩展后,加入了cell单元

单元是一个个独立存在的结构
1cell的数据库是cell_n数据库
2.cell的控制器:nova-conductor
3cell的消息队列: cell-rabbitmq
以上是cell_n的结构
最底层架构:compute

Nova的元数据
元数据作用是通过向虚拟机实例注入元数据信息,实例启动时获得自己的元数据,实例中的cloud-init工具根据元数据完成个性化配置工作。

openstack将cloud-init定制虚拟机实例配置时获取的元数据信息分成两大类:元数拒(metadata)和用户数据(user data)。

元数据指的是结构化数据,以键值对形式注入实例,包括实例自身的一些常
如主机名、网络配置信息(IP地址和安全组)、SSH密钥等。

用户数据是非结构化数据,通过文件或脚本的方式进行注入,支持多种文件格式,如gzip、shell、cloud-init配置文件等,主要包括一些命令、脚本,比如shell脚本。

Openstack将元数据和用户数据的配置信息注入机制分为两种,一种是配置驱动器机制,另一种是元数据服务机制。

六.NOV部署

6.1 OpenStack-Placement组件部署

一、创建数据库实例和数据库用户

[root@ct ~]# mysql -uroot -p
MariaDB [(none)]> CREATE DATABASE placement;
MariaDB [(none)]> GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' IDENTIFIED BY 'PLACEMENT_DBPASS';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' IDENTIFIED BY 'PLACEMENT_DBPASS';
MariaDB [(none)]> flush privileges;
MariaDB [(none)]> exit;

二、创建Placement服务用户和API的endpoint
● 创建placement用户

[root@ct ~]# openstack user create --domain default --password PLACEMENT_PASS placement

openstack–T版—nava计算服务-编程知识网

● 给与placement用户对service项目拥有admin权限

[root@ct ~]# openstack role add --project service --user placement admin

● 创建一个placement服务,服务类型为placement

[root@ct ~]# openstack service create --name placement --description "Placement API" placement

openstack–T版—nava计算服务-编程知识网

● 注册API端口到placement的service中;注册的信息会写入到mysql中

[root@ct ~]# openstack endpoint create --region RegionOne placement public http://ct:8778
[root@ct ~]# openstack endpoint create --region RegionOne placement internal http://ct:8778
[root@ct~]# openstack endpoint create --region RegionOne placement admin http://ct:8778

openstack–T版—nava计算服务-编程知识网
openstack–T版—nava计算服务-编程知识网

● 安装placement服务

[root@controller ~]# yum -y install openstack-placement-api

● 修改placement配置文件

cp /etc/placement/placement.conf{,.bak}
grep -Ev '^$|#' /etc/placement/placement.conf.bak > /etc/placement/placement.conf
openstack-config --set /etc/placement/placement.conf placement_database connection mysql+pymysql://placement:PLACEMENT_DBPASS@ct/placement
openstack-config --set /etc/placement/placement.conf api auth_strategy keystone
openstack-config --set /etc/placement/placement.conf keystone_authtoken auth_url  http://ct:5000/v3
openstack-config --set /etc/placement/placement.conf keystone_authtoken memcached_servers ct:11211
openstack-config --set /etc/placement/placement.conf keystone_authtoken auth_type password
openstack-config --set /etc/placement/placement.conf keystone_authtoken project_domain_name Default
openstack-config --set /etc/placement/placement.conf keystone_authtoken user_domain_name Default
openstack-config --set /etc/placement/placement.conf keystone_authtoken project_name service
openstack-config --set /etc/placement/placement.conf keystone_authtoken username placement
openstack-config --set /etc/placement/placement.conf keystone_authtoken password PLACEMENT_PASS

#查看placement配置文件

[root@ct placement]# cat placement.conf
[DEFAULT]
[api]
auth_strategy = keystone
[cors]
[keystone_authtoken]
auth_url = http://ct:5000/v3				#指定keystone地址
memcached_servers = ct:11211			    #session信息是缓存放到了memcached中
auth_type = password
project_domain_name = Default
user_domain_name = Default
project_name = service
username = placement
password = PLACEMENT_PASS
[oslo_policy]
[placement]
[placement_database]
connection = mysql+pymysql://placement:PLACEMENT_DBPASS@ct/placement
[profiler]

● 修改Apache配置文件: 00-placemenct-api.conf(安装完placement服务后会自动创建该文件-虚拟主机配置 )

#虚拟主机配置文件

[root@ct ~]# cd /etc/httpd/conf.d/
[root@ct conf.d]# vim  00-placement-api.conf 		#安装完placement会自动创建此文件

在尾行追加以下配置

<Directory /usr/bin>			#此处是bug,必须添加下面的配置来启用对placement api的访问,否则在访问apache的
<IfVersion >= 2.4>				#api时会报403;添加在文件的最后即可Require all granted
</IfVersion>
<IfVersion < 2.4>				#apache版本;允许apache访问/usr/bin目录;否则/usr/bin/placement-api将不允许被访问Order allow,deny				Allow from all			   #允许apache访问
</IfVersion>
</Directory>

● 重新启动apache

[root@ct placement]# systemctl restart httpd

● 测试
① curl 测试访问

[root@ct placement]# curl ct:8778

openstack–T版—nava计算服务-编程知识网
② 查看端口占用(netstat、lsof)

[root@ct placement]# netstat -natp | grep 8778

openstack–T版—nava计算服务-编程知识网
③ 检查placement状态

[root@ct placement]# placement-status upgrade check

openstack–T版—nava计算服务-编程知识网
● 小结
Placement提供了placement-apiWSGI脚本,用于与Apache,nginx或其他支持WSGI的Web服务器一起运行服务(通过nginx或apache实现python入口代理)。
根据用于部署OpenStack的打包解决方案,WSGI脚本可能位于/usr/bin 或中/usr/local/bin
Placement服务是从 S 版本,从nova服务中拆分出来的组件,作用是收集各个node节点的可用资源,把node节点的资源统计写入到mysql,Placement服务会被nova scheduler服务进行调用 Placement服务的监听端口是8778

需修改的配置文件:
① placement.conf
主要修改思路:
Keystone认证相关(url、HOST:PORT、域、账号密码等)
对接数据库(位置)
② 00-placement-api.conf
主要修改思路(虚拟主机):
Apache权限、访问控制

6.2 nova组件部署

一、nova组件部署位置
【控制节点ct】
​nova-api(nova主服务)
​nova-scheduler(nova调度服务)
​nova-conductor(nova数据库服务,提供数据库访问)
​nova-novncproxy(nova的vnc服务,提供实例的控制台)
【计算节点c1、c2】
nova-compute(nova计算服务)

二、计算节点Nova服务配置
● 创建nova数据库,并执行授权操作

[root@ct ~]# mysql -uroot -p
MariaDB [(none)]> CREATE DATABASE nova_api;
MariaDB [(none)]> CREATE DATABASE nova;
MariaDB [(none)]> CREATE DATABASE nova_cell0;
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' IDENTIFIED BY 
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' IDENTIFIED BY ;
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY 
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' IDENTIFIED BY 
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' IDENTIFIED 
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' IDENTIFIED BY '
MariaDB [(none)]> flush privileges;
MariaDB [(none)]> exit

● 管理Nova用户及服务
创建nova用户

[root@ct ~]# openstack user create --domain default --password NOVA_PASS nova

#把nova用户添加到service项目,拥有admin权限

[root@ct ~]# openstack role add --project service --user nova admin

创建nova服务

[root@ct ~]# openstack service create --name nova --description "OpenStack Compute" compute

给Nova服务关联endpoint(端点)

[root@ct ~]# openstack endpoint create --region RegionOne compute public http://ct:8774/v2.1
[root@ct ~]# openstack endpoint create --region RegionOne compute internal http://ct:8774/v2.1
[root@ct ~]# openstack endpoint create --region RegionOne compute admin http://ct:8774/v2.1

安装nova组件(nova-api、nova-conductor、nova-novncproxy、nova-scheduler)

[root@ct ~]# yum -y install openstack-nova-api openstack-nova-conductor openstack-nova-novncproxy openstack-nova-scheduler

● 修改nova配置文件(nova.conf)

 cp -a /etc/nova/nova.conf{,.bak}grep -Ev '^$|#' /etc/nova/nova.conf.bak > /etc/nova/nova.conf
#修改nova.confopenstack-config --set /etc/nova/nova.conf DEFAULT enabled_apis osapi_compute,metadataopenstack-config --set /etc/nova/nova.conf DEFAULT my_ip 192.168.100.20			####修改为 ct的IP(内部IP)openstack-config --set /etc/nova/nova.conf DEFAULT use_neutron trueopenstack-config --set /etc/nova/nova.conf DEFAULT firewall_driver nova.virt.firewall.NoopFirewallDriveropenstack-config --set /etc/nova/nova.conf DEFAULT transport_url rabbit://openstack:RABBIT_PASS@ctopenstack-config --set /etc/nova/nova.conf api_database connection mysql+pymysql://nova:NOVA_DBPASS@ct/nova_apiopenstack-config --set /etc/nova/nova.conf database connection mysql+pymysql://nova:NOVA_DBPASS@ct/novaopenstack-config --set /etc/nova/nova.conf placement_database connection mysql+pymysql://placement:PLACEMENT_DBPASS@ct/placementopenstack-config --set /etc/nova/nova.conf api auth_strategy keystoneopenstack-config --set /etc/nova/nova.conf keystone_authtoken auth_url http://ct:5000/v3openstack-config --set /etc/nova/nova.conf keystone_authtoken memcached_servers ct:11211openstack-config --set /etc/nova/nova.conf keystone_authtoken auth_type passwordopenstack-config --set /etc/nova/nova.conf keystone_authtoken project_domain_name Defaultopenstack-config --set /etc/nova/nova.conf keystone_authtoken user_domain_name Defaultopenstack-config --set /etc/nova/nova.conf keystone_authtoken project_name serviceopenstack-config --set /etc/nova/nova.conf keystone_authtoken username novaopenstack-config --set /etc/nova/nova.conf keystone_authtoken password NOVA_PASSopenstack-config --set /etc/nova/nova.conf vnc enabled trueopenstack-config --set /etc/nova/nova.conf vnc server_listen ' $my_ip'openstack-config --set /etc/nova/nova.conf vnc server_proxyclient_address ' $my_ip'openstack-config --set /etc/nova/nova.conf glance api_servers http://ct:9292openstack-config --set /etc/nova/nova.conf oslo_concurrency lock_path /var/lib/nova/tmpopenstack-config --set /etc/nova/nova.conf placement region_name RegionOneopenstack-config --set /etc/nova/nova.conf placement project_domain_name Defaultopenstack-config --set /etc/nova/nova.conf placement project_name serviceopenstack-config --set /etc/nova/nova.conf placement auth_type passwordopenstack-config --set /etc/nova/nova.conf placement user_domain_name Defaultopenstack-config --set /etc/nova/nova.conf placement auth_url http://ct:5000/v3openstack-config --set /etc/nova/nova.conf placement username placementopenstack-config --set /etc/nova/nova.conf placement password PLACEMENT_PASS

#查看nova.conf

 cat /etc/nova/nova.conf[DEFAULT]
enabled_apis = osapi_compute,metadata		#指定支持的api类型
my_ip = 192.168.100.20			#定义本地IP
use_neutron = true					#通过neutron获取IP地址
firewall_driver = nova.virt.firewall.NoopFirewallDriver
transport_url = rabbit://openstack:RABBIT_PASS@ct	#指定连接的rabbitmq[api]
auth_strategy = keystone				#指定使用keystone认证[api_database]
connection = mysql+pymysql://nova:NOVA_DBPASS@ct/nova_api[barbican]
[cache]
[cinder]
[compute]
[conductor]
[console]
[consoleauth]
[cors][database]
connection = mysql+pymysql://nova:NOVA_DBPASS@ct/nova[devices]
[ephemeral_storage_encryption]
[filter_scheduler][glance]
api_servers = http://ct:9292[guestfs]
[healthcheck]
[hyperv]
[ironic]
[key_manager]
[keystone][keystone_authtoken]				#配置keystone的认证信息
auth_url = http://ct:5000/v3				#到此url去认证
memcached_servers = ct:11211			#memcache数据库地址:端口
auth_type = password
project_domain_name = Default
user_domain_name = Default
project_name = service
username = nova
password = NOVA_PASS[libvirt]
[metrics]
[mks]
[neutron]
[notifications]
[osapi_v21][oslo_concurrency]					#指定锁路径
lock_path = /var/lib/nova/tmp			#锁的作用是创建虚拟机时,在执行某个操作的时候,需要等此步骤执行完后才能执行下一个步骤,不能并行执行,保证操作是一步一步的执行[oslo_messaging_amqp]
[oslo_messaging_kafka]
[oslo_messaging_notifications]
[oslo_messaging_rabbit]
[oslo_middleware]
[oslo_policy][pci]
[placement]
region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://ct:5000/v3
username = placement
password = PLACEMENT_PASS[powervm]
[privsep]
[profiler]
[quota]
[rdp]
[remote_debug]
[scheduler]
[serial_console]
[service_user]
[spice]
[upgrade_levels]
[vault]
[vendordata_dynamic_auth]
[vmware]
[vnc]						                     #此处如果配置不正确,则连接不上虚拟机的控制台
enabled = true		
server_listen =  $my_ip				            #指定vnc的监听地址
server_proxyclient_address =  $my_ip			#server的客户端地址为本机地址;此地址是管理网的地址[workarounds]
[wsgi]
[xenserver]
[xvp]
[zvm][placement_database]
connection = mysql+pymysql://placement:PLACEMENT_DBPASS@ct/placement

● 初始化数据库
初始化nova_api数据库

[root@ct ~]# su -s /bin/sh -c "nova-manage api_db sync" nova

● 注册cell0数据库;nova服务内部把资源划分到不同的cell中,把计算节点划分到不同的cell中;openstack内部基于cell把计算节点进行逻辑上的分组

[root@ct ~]# su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova

#创建cell1单元格;

[root@ct ~]# su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova

#初始化nova数据库;可以通过 /var/log/nova/nova-manage.log 日志判断是否初始化成功

[root@ct ~]# su -s /bin/sh -c "nova-manage db sync" nova

#可使用以下命令验证cell0和cell1是否注册成功

su -s /bin/sh -c "nova-manage cell_v2 list_cells" nova #验证cell0和cell1组件是否注册成功

启动Nova服务

[root@ct ~]# systemctl enable openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service
[root@ct ~]# systemctl start openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service

● 检查nova服务端口

[root@ct ~]# netstat -tnlup|egrep '8774|8775'
[root@ct ~]# curl http://ct:8774

openstack–T版—nava计算服务-编程知识网
openstack–T版—nava计算服务-编程知识网

【计算节点配置Nova服务-c1节点】
● 安装nova-compute组件

yum -y install openstack-nova-compute

修改配置文件

#编辑计算节点节点Nova配置文件(c1和c2、只有IP不同)
cp -a /etc/nova/nova.conf{,.bak}
grep -Ev '^$|#' /etc/nova/nova.conf.bak > /etc/nova/nova.conf
openstack-config --set /etc/nova/nova.conf DEFAULT enabled_apis osapi_compute,metadata
openstack-config --set /etc/nova/nova.conf DEFAULT transport_url rabbit://openstack:RABBIT_PASS@ct
openstack-config --set /etc/nova/nova.conf DEFAULT my_ip 192.168.100.21 				#修改为对应节点的内部IP
openstack-config --set /etc/nova/nova.conf DEFAULT use_neutron true
openstack-config --set /etc/nova/nova.conf DEFAULT firewall_driver nova.virt.firewall.NoopFirewallDriver
openstack-config --set /etc/nova/nova.conf api auth_strategy keystone
openstack-config --set /etc/nova/nova.conf keystone_authtoken auth_url http://ct:5000/v3
openstack-config --set /etc/nova/nova.conf keystone_authtoken memcached_servers ct:11211
openstack-config --set /etc/nova/nova.conf keystone_authtoken auth_type password
openstack-config --set /etc/nova/nova.conf keystone_authtoken project_domain_name Default
openstack-config --set /etc/nova/nova.conf keystone_authtoken user_domain_name Default
openstack-config --set /etc/nova/nova.conf keystone_authtoken project_name service
openstack-config --set /etc/nova/nova.conf keystone_authtoken username nova
openstack-config --set /etc/nova/nova.conf keystone_authtoken password NOVA_PASS
openstack-config --set /etc/nova/nova.conf vnc enabled true
openstack-config --set /etc/nova/nova.conf vnc server_listen 0.0.0.0
openstack-config --set /etc/nova/nova.conf vnc server_proxyclient_address ' $my_ip'
openstack-config --set /etc/nova/nova.conf vnc novncproxy_base_url http://192.168.100.21:6080/vnc_auto.html
openstack-config --set /etc/nova/nova.conf glance api_servers http://ct:9292
openstack-config --set /etc/nova/nova.conf oslo_concurrency lock_path /var/lib/nova/tmp
openstack-config --set /etc/nova/nova.conf placement region_name RegionOne
openstack-config --set /etc/nova/nova.conf placement project_domain_name Default
openstack-config --set /etc/nova/nova.conf placement project_name service
openstack-config --set /etc/nova/nova.conf placement auth_type password
openstack-config --set /etc/nova/nova.conf placement user_domain_name Default
openstack-config --set /etc/nova/nova.conf placement auth_url http://ct:5000/v3
openstack-config --set /etc/nova/nova.conf placement username placement
openstack-config --set /etc/nova/nova.conf placement password PLACEMENT_PASS
openstack-config --set /etc/nova/nova.conf libvirt virt_type qemu
#配置文件内容如下:
[root@c1 nova]# cat nova.conf[DEFAULT]
enabled_apis = osapi_compute,metadata
transport_url = rabbit://openstack:RABBIT_PASS@ct
my_ip = 192.168.100.21
use_neutron = true
firewall_driver = nova.virt.firewall.NoopFirewallDriver[api]
auth_strategy = keystone[api_database]
[barbican]
[cache]
[cinder]
[compute]
[conductor]
[console]
[consoleauth]
[cors]
[database]
[devices]
[ephemeral_storage_encryption]
[filter_scheduler][glance]
api_servers = http://ct:9292[guestfs]
[healthcheck]
[hyperv]
[ironic]
[key_manager]
[keystone][keystone_authtoken]
auth_url = http://ct:5000/v3
memcached_servers = ct:11211
auth_type = password
project_domain_name = Default
user_domain_name = Default
project_name = service
username = nova
password = NOVA_PASS[libvirt]
virt_type = qemu[metrics]
[mks]
[neutron]
[notifications]
[osapi_v21][oslo_concurrency]
lock_path = /var/lib/nova/tmp[oslo_messaging_amqp]
[oslo_messaging_kafka]
[oslo_messaging_notifications]
[oslo_messaging_rabbit]
[oslo_middleware]
[oslo_policy]
[pci][placement]
region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://ct:5000/v3
username = placement
password = PLACEMENT_PASS[powervm]
[privsep]
[profiler]
[quota]
[rdp]
[remote_debug]
[scheduler]
[serial_console]
[service_user]
[spice]
[upgrade_levels]
[vault]
[vendordata_dynamic_auth]
[vmware][vnc]
enabled = true
server_listen = 0.0.0.0
server_proxyclient_address =  $my_ip
novncproxy_base_url = http://192.168.100.20:6080/vnc_auto.html			#比较特殊的地方,需要手动添加IP地址,否则之后搭建成功后,无法通过UI控制台访问到内部虚拟机[workarounds]
[wsgi]
[xenserver]
[xvp]
[zvm]

● 开启服务

 systemctl enable libvirtd.service openstack-nova-compute.servicesystemctl start libvirtd.service openstack-nova-compute.service

【计算节点-c2】与c1相同(除了IP地址)

【controller节点操作】
● 查看compute节点是否注册到controller上,通过消息队列;需要在controller节点执行

[root@ct ~]# openstack compute service list --service nova-compute

openstack–T版—nava计算服务-编程知识网
openstack–T版—nava计算服务-编程知识网

● 扫描当前openstack中有哪些计算节点可用,发现后会把计算节点创建到cell中,后面就可以在cell中创建虚拟机;相当于openstack内部对计算节点进行分组,把计算节点分配到不同的cell中

[root@ct ~]# su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova

openstack–T版—nava计算服务-编程知识网

● 默认每次添加个计算节点,在控制端就需要执行一次扫描,这样会很麻烦,所以可以修改控制端nova的主配置文件:

[root@ct ~]# vim /etc/nova/nova.conf
[scheduler]
discover_hosts_in_cells_interval = 300			#每300秒扫描一次
[root@ct ~]# systemctl restart openstack-nova-api.service

● 验证计算节点服务
#检查 nova 的各个服务是否都是正常,以及 compute 服务是否注册成功

[root@ct ~]# openstack compute service list

#查看各个组件的 api 是否正常

[root@ct ~]# openstack catalog list

openstack–T版—nava计算服务-编程知识网

#查看是否能够拿到镜像

[root@ct ~]# openstack image list

openstack–T版—nava计算服务-编程知识网

#查看cell的api和placement的api是否正常,只要其中一个有误,后期无法创建虚拟机

[root@ct ~]# nova-status upgrade check

openstack–T版—nava计算服务-编程知识网

● 小结
Nova分为控制节点、计算节点
Nova组件核心功能是调度资源,在配置文件中需要体现的部分:指向认证节点位置(URL、ENDPOINT)、调用服务、注册、提供支持等,配置文件中的所有配置参数基本都是围绕此范围(对实例生命周期管理)进行设置