这篇文章给大家分享的是有关Docker中ceph pool管理的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。 可以将 PG 看作⼀个逻辑容器,这个容器里包含
这篇文章给大家分享的是有关Docker中ceph pool管理的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
可以将 PG 看作⼀个逻辑容器,这个容器里包含多个对象, pool-pg-osd-disk
建议:少于 5 个 osds时,设置128个pg
5-10osds,设置512个pg。
10-50 osds,设置1024个pg。
查看我们有哪些pool:
[root@k8s-node3 ~]# ceph osd pool lsrbd
查看rbd这个pool里面有几个pg:
[root@k8s-node3 ~]# ceph osd pool get rbd pg_numpg_num: 64
修改pg个数:
[root@k8s-node3 ~]# ceph osd pool set rbd pg_num 128set pool 0 pg_num to 128
CRUSH maps CRUSH 是允许 Ceph 在没有性能瓶颈的情况下扩展的重要组成部分,不受可扩展性的限制,并且没有单点故障。 CRUSH 映射将群集的物理拓扑结构提供给CRUSH 算法,以确定应存储对象及其副本的数据的位置。
查看pool类型
[root@k8s-node3 ~]# ceph osd crush rule list[ "replicated_ruleset"]
类型包含两种:和erasure,一个是复制,另⼀个是擦除池。
[root@k8s-node3 ~]# ceph osd pool get-quota rbd ##rbd是Pool的名字quotas for pool 'rbd': max objects: N/A max bytes : N/A
设置pool的配额
删除⼀个池的操作
ceph osd pool delete vm vm --yes-i-really-really-mean-it #vm是pool的名字
感谢各位的阅读!关于“docker中ceph pool管理的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
--结束END--
本文标题: docker中ceph pool管理的示例分析
本文链接: https://www.lsjlt.com/news/238207.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
下载Word文档到电脑,方便收藏和打印~
2024-05-21
2024-05-21
2024-05-21
2024-05-21
2024-05-21
2024-05-21
2024-05-21
2024-05-21
2024-05-21
2024-05-21
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0