博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
ceph故障:too many PGs per OSD
阅读量:6885 次
发布时间:2019-06-27

本文共 1290 字,大约阅读时间需要 4 分钟。

原文:http://www.linuxidc.com/Linux/2017-04/142518.htm

背景

集群状态报错,如下:

# ceph -s    cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560     health HEALTH_WARN <-- 报错的地方 too many PGs per OSD (912 > max 300) monmap e1: 1 mons at {node1=109.105.115.67:6789/0} election epoch 4, quorum 0 node1 osdmap e49: 2 osds: 2 up, 2 in flags sortbitwise,require_jewel_osds pgmap v1256: 912 pgs, 23 pools, 4503 bytes data, 175 objects 13636 MB used, 497 GB / 537 GB avail 912 active+clean

分析

问题原因是集群osd 数量较少,在我的测试过程中,由于搭建rgw网关、和OpenStack集成等,创建了大量的pool,每个pool要占用一些pg ,ceph集群默认每块磁盘都有默认值,好像每个osd 为300个pgs,不过这个默认值是可以调整的,但调整得过大或者过小都会对集群的性能产生一定影响。因为我们这个是测试环境,只要能消除掉报错即可。查询当前每个osd下最大的pg报警值:

$ ceph --show-config  | grep mon_pg_warn_max_per_osdmon_pg_warn_max_per_osd = 300

解决方案

在配置文件中,调大集群的此选项的告警阀值;方法如下,在mon节点的ceph.conf(/etc/ceph/ceph.conf)配置文件中添加:

$ vi /etc/ceph/ceph.conf[global].......mon_pg_warn_max_per_osd = 1000

重启monitor服务:

$ systemctl restart ceph-mon.target

再次查看ceph集群状态。

$ ceph -s

cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560 health HEALTH_OK monmap e1: 1 mons at {node1=109.105.115.67:6789/0} election epoch 6, quorum 0 node1 osdmap e49: 2 osds: 2 up, 2 in flags sortbitwise,require_jewel_osds pgmap v1273: 912 pgs, 23 pools, 4503 bytes data, 175 objects 13636 MB used, 497 GB / 537 GB avail 912 active+clean

```

转载地址:http://jvnbl.baihongyu.com/

你可能感兴趣的文章
Exchange 2013 前端 MSExchangeFrontEndTransport 2030的解决
查看>>
累并快乐的2014年
查看>>
让WP7下复杂列表选项生动起来
查看>>
在vSphere中为不同服务器配置IPMI功能
查看>>
nagios一键安装脚本
查看>>
MDT 2013 Update 1 Preview 部署 Windows 10之MDT 2013安装配置
查看>>
监控利器Nagios之一:监控本地NFS和外部HTTP、MySQL服务
查看>>
BGP重分布metric详解
查看>>
虚拟机Virtual PC的使用
查看>>
我的友情链接
查看>>
应该知道的自动化测试陷阱1
查看>>
详解linux运维工程师入门级必备技能
查看>>
第三章 MySQL数据库系统
查看>>
使用阿里云Elasticsearch搭建ELK日志系统
查看>>
爬虫爬取“吟”的技术博客
查看>>
运维监控利器Nagios:概念、结构和功能
查看>>
【Absible学习】Ansible常用模块---命令类模块
查看>>
总结:mysql三种灾备与恢复使用解析。
查看>>
Lync Server 2010详解系列1:环境介绍和准备
查看>>
Android系统Surface机制的SurfaceFlinger服务对帧缓冲区(Frame Buffer)的管理分析
查看>>