rbd_store_chunk_size = 8

发布时间:2025-06-24 18:52:57  作者:北方职教升学中心  阅读量:526


default_store = rbd。

auth_uri = 。

chown cinder:cinder /etc/ceph/ceph.client.cinder.keyring。

[root@yunwei ceph]#。

2。实施步骤:

(1)客户端还应该有cent用户:

useradd cent && echo "123" | passwd --stdin centecho -e 'Defaults:cent !requiretty\ncent ALL = (root) NOPASSWD:ALL' | tee /etc/sudoers.d/cephchmod 440 /etc/sudoers.d/ceph。

http://controller:5000。

get。rbd_store_chunk_size = 8。

1。

user_domain_name = default。

project_domain_name = default。

flavor = keystone。

[oslo_messaging_notifications]。

显示pool的状态。

[oslo_messaging_zmq]。

systemctl restart openstack-glance-api.service。

[oslo_policy]。

(6)在ceph集群中,创建glance和cinder用户, 只需在ceph节点上操作即可:

ceph auth get-or-create client.glance mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=images'ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rx pool=images'nova使用cinder用户,不单独创建。

4。3。

 。

rbd_store_user = glance。

(4)执行客户端。

(7)复制ceph-ring, 只需在一个ceph节点上操作࿱即可a;

1。

2。

[glance_store]。

default_store = rbd。

Glance配置#xff0c; 在所有controller节点上做以下更改:

vim /etc/glance/glance-api.conf。[keystone_authtoken]。

systemctl status openstack-glance-api.service。

ceph osd lspools。

 。

[matchmaker_redis]。

(8)更改文件的权限(所有客户端节点都执行)。

auth_type = password。

一、

3。

http://controller:35357。

[root@yunwei ceph]# scp ceph.client.glance.keyring ceph.client.cinder.keyring controller:/etc/ceph/。

 。

get。

auth_url = 。2。

[oslo_messaging_amqp]。

 。

或者:安装每个节点 clients(访问ceph集群节点):

yum install python-rbdyum install ceph-如果Common首先使用上述方法安装客户端,其实这两个包已经安装在rpm包里了。  。

[database]。

Glance配置#xff0c; 在所有controller节点上做以下更改:

vim /etc/glance/glance-api.conf。

[paste_deploy]。

 。

[store_type_location_strategy]。

[oslo_concurrency]。

2。

 。

(9)改变libvirt权限(只需在nova-compute节点上操作即可,每个计算节点都做)

uuidgen940f0485-e206-4b49-b878-dcd0cb9c70a4etc/ceph/#xff08目录;什么目录没有影响,放到/etc/ceph目录便于管理):cat > secret.xml <<EOF<secret ephemeral='no' private='no'><uuid>940f0485-e206-4b49-b878-dcd0cb9c70a4</uuid><usage type='ceph'> <name>client.cinder secret</name></usage></secret>EOF将 secret.xml 复制到所有compute节点,并执行::virsh secret-define --file secret.xmlceph auth get-key client.cinder > ./client.cinder.keyvirsh secret-set-value --secret 940f0485-e206-4b49-b878-dcd0cb9c70a4 --base64 $(cat ./client.cinder.key)。

[cors]。[root@controller ~]# rbd ls images。

[root@yunwei ceph]# ls。

[oslo_messaging_kafka]。

在所有controller节点上做以下更改。

ceph.client.admin.keyring  ceph.client.cinder.keyring  ceph.client.glance.keyring  ceph.conf  rbdmap  tmpr3ul7W。[root@controller ~]# openstack image create 。ceph auth 。

[image_format]。

public。-or-create client.glance > /etc/ceph/ceph.client.glance.keyring。

password = glance。

(2)ceph节点(例如compute-node和storage-node)安装下载的软件包:

yum localinstall ./* -y。

(5)create pools,只需在ceph节点上操作即可:

ceph osd pool create images 1024ceph osd pool create vms 1024ceph osd pool create volumes 1024。

[task]。

--file cirros-0.3.3-x86_64-disk.img.img   --disk-format qcow2 --container-format bare --。ceph auth 。

chown glance:glance /etc/ceph/ceph.client.glance.keyring。

将scp复制到其他节点(ceph集群节点和openstack需要ceph节点,

 。

sudo chmod 644 /etc/ceph/ceph.client.admin.keyring。 

 。

memcached_servers = controller:11211。

[oslo_middleware]。

rbd_store_ceph_conf = /etc/ceph/ceph.conf。

connection = mysql+pymysql://glance:GLANCE_DBPASS@controller/glance。

(3)在部署节点上执行,ceph࿱安装openstack节点a;

ceph-deploy install controllerceph-deploy admin controller。

[taskflow_executor]。

 。

1。

[oslo_messaging_rabbit]。

username = glance。

 。

1。

"cirros"

   。

[cors.subdomain]。

[DEFAULT]。

rbd_store_pool = images。5。4。

2。

stores = rbd。如compute-node和openstackstorage-node,这次对接是alll-in-one环境,所以copy可以到controler节点 )

1。

-or-create client.cinder > /etc/ceph/ceph.client.cinder.keyring。

project_name = service。

创建image验证:

1。

[profiler]。9ce5055e-4217-44b4-a237-e7b57a20dac。