rbd_store_chunk_size = 8
发布时间:2025-06-24 18:52:57 作者:北方职教升学中心 阅读量:526
default_store = rbd。
auth_uri = 。
chown cinder:cinder /etc/ceph/ceph.client.cinder.keyring。[root@yunwei ceph]#。
2。实施步骤:
(1)客户端还应该有cent用户:
useradd cent && echo "123" | passwd --stdin centecho -e 'Defaults:cent !requiretty\ncent ALL = (root) NOPASSWD:ALL' | tee /etc/sudoers.d/cephchmod 440 /etc/sudoers.d/ceph。http://controller:5000。
get。rbd_store_chunk_size = 8。
1。
user_domain_name = default。
project_domain_name = default。
flavor = keystone。
[oslo_messaging_notifications]。
显示pool的状态。[oslo_messaging_zmq]。
systemctl restart openstack-glance-api.service。
[oslo_policy]。
(6)在ceph集群中,创建glance和cinder用户, 只需在ceph节点上操作即可:
ceph auth get-or-create client.glance mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=images'ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rx pool=images'nova使用cinder用户,不单独创建。
4。3。
。
rbd_store_user = glance。
(4)执行客户端。
(7)复制ceph-ring, 只需在一个ceph节点上操作即可a;
1。
2。
[glance_store]。
default_store = rbd。
Glance配置#xff0c; 在所有controller节点上做以下更改:
vim /etc/glance/glance-api.conf。[keystone_authtoken]。
systemctl status openstack-glance-api.service。
ceph osd lspools。
。
[matchmaker_redis]。
(8)更改文件的权限(所有客户端节点都执行)。
auth_type = password。
一、
3。
http://controller:35357。
[root@yunwei ceph]# scp ceph.client.glance.keyring ceph.client.cinder.keyring controller:/etc/ceph/。
。
get。
auth_url = 。2。
[oslo_messaging_amqp]。
。
或者:安装每个节点 clients(访问ceph集群节点):
yum install python-rbdyum install ceph-如果Common首先使用上述方法安装客户端,其实这两个包已经安装在rpm包里了。 。[database]。
Glance配置#xff0c; 在所有controller节点上做以下更改:
vim /etc/glance/glance-api.conf。
[paste_deploy]。
。
[store_type_location_strategy]。
[oslo_concurrency]。
2。
。
(9)改变libvirt权限(只需在nova-compute节点上操作即可,每个计算节点都做)
uuidgen940f0485-e206-4b49-b878-dcd0cb9c70a4etc/ceph/#xff08目录;什么目录没有影响,放到/etc/ceph目录便于管理):cat > secret.xml <<EOF<secret ephemeral='no' private='no'><uuid>940f0485-e206-4b49-b878-dcd0cb9c70a4</uuid><usage type='ceph'> <name>client.cinder secret</name></usage></secret>EOF将 secret.xml 复制到所有compute节点,并执行::virsh secret-define --file secret.xmlceph auth get-key client.cinder > ./client.cinder.keyvirsh secret-set-value --secret 940f0485-e206-4b49-b878-dcd0cb9c70a4 --base64 $(cat ./client.cinder.key)。
[cors]。[root@controller ~]# rbd ls images。
[root@yunwei ceph]# ls。
[oslo_messaging_kafka]。
在所有controller节点上做以下更改。
ceph.client.admin.keyring ceph.client.cinder.keyring ceph.client.glance.keyring ceph.conf rbdmap tmpr3ul7W。[root@controller ~]# openstack image create 。ceph auth 。
[image_format]。
public。-or-create client.glance > /etc/ceph/ceph.client.glance.keyring。
password = glance。
(2)ceph节点(例如compute-node和storage-node)安装下载的软件包:
yum localinstall ./* -y。
(5)create pools,只需在ceph节点上操作即可:
ceph osd pool create images 1024ceph osd pool create vms 1024ceph osd pool create volumes 1024。[task]。
--file cirros-0.3.3-x86_64-disk.img.img --disk-format qcow2 --container-format bare --。ceph auth 。
chown glance:glance /etc/ceph/ceph.client.glance.keyring。
将scp复制到其他节点(ceph集群节点和openstack需要ceph节点,
。
sudo chmod 644 /etc/ceph/ceph.client.admin.keyring。 。
memcached_servers = controller:11211。
[oslo_middleware]。
rbd_store_ceph_conf = /etc/ceph/ceph.conf。
connection = mysql+pymysql://glance:GLANCE_DBPASS@controller/glance。
(3)在部署节点上执行,ceph安装openstack节点a;
ceph-deploy install controllerceph-deploy admin controller。
[taskflow_executor]。
。
1。
[oslo_messaging_rabbit]。
username = glance。
。
1。
"cirros"
。
[cors.subdomain]。
[DEFAULT]。
rbd_store_pool = images。5。4。
2。
stores = rbd。如compute-node和openstackstorage-node,这次对接是alll-in-one环境,所以copy可以到controler节点 )
1。
-or-create client.cinder > /etc/ceph/ceph.client.cinder.keyring。
project_name = service。
创建image验证:
1。
[profiler]。9ce5055e-4217-44b4-a237-e7b57a20dac。