第⑬讲:OSD硬盘故障处理实战:从诊断到恢复的全流程指南

1.OSD坏盘更换操作

在实际环境中,可能会经常遇到OSD对应的硬盘出现了故障,此时就需要对这个OSD进行操作了。

坏盘更换中包括两个阶段:

  • 首先将OSD从Ceph集群中踢出,也就是所谓的缩减OSD。
  • 硬盘修复完成后再以新的OSD的方式加入到集群中。

OSD从集群中踢出时,也会触发Reblanceing数据重分布机制,将OSD中的数据迁移到其他的OSD中,当OSD的数据全部同步完成后,再将OSD彻底移除。

硬盘修复成功后,以新的OSD加入到集群中,此时也会触发Reblanceing机制,将数据再次同步到这个OSD中。

2.判断OSD是否出现故障的思路

比如说ceph-node-3节点中的osd.5出现了故障,对应的状态就会是down,首先去登陆上这台机器,看看系统日志有没有说明硬盘问题。

image-20220404114337782

如果硬盘出现了坏道的情况,就会影响整个集群的性能,从而拖垮整个Ceph集群,遇到这种情况执行上述命令不会显示down的状态,因为磁盘出现了坏道,磁盘还是可以用的,只不过性能有所下降。

此时我们可以通过以下命令看到OSD的延迟,如果值很高的话,就表示OSD可能出现了坏道,一定要把它从集群中删除。

image-20220404114717184

3.模拟osd.5故障

osd.5运行在ceph-node-3中,直接将服务停掉即可。

[root@ceph-node-1 ~]# ssh ceph-node-3
[root@ceph-node-3 ~]# systemctl stop ceph-osd@5

@后面的数字表示osd的id号

此时osd.5已经出现了故障,下面我们来实现当osd出现故障的更换操作。

image-20220404115105610

当有一个OSD出现故障后,就会触发Reblanceing机制,大概在10分钟后才会真正的迁移数据,等数据同步完再进行更换操作。

image-20220404115313094

4.OSD故障更换硬盘流程

OSD故障更换硬盘的流程:

1、首先将硬盘坏掉的OSD从集群中删除。

2、修复硬盘。

3、将硬盘以新的OSD方式加入到集群中。

4.1.将故障的osd.5从集群中删除

和缩减OSD节点的方式一样。

4.1.1.从OSD Map中将故障的OSD删除
[root@ceph-node-1 ~]# ceph osd out osd.5
marked out osd.5. 

从OSD Map中删除故障的OSD后,此时这个OSD的权限就为0了,不再写入数据。

image-20220404115652152

4.1.2.从Crush Map中将故障的OSD删除

在Crush Map中会记录OSD的信息,我们需要在Crush Map中将OSD删除。

image-20220404120105114

在Crush Map中删除OSD。

[root@ceph-node-1 ~]# ceph osd crush rm osd.5
removed item id 5 name 'osd.5' from crush map
4.1.3.在OSD列表中将故障的OSD删除

虽然在Crush Map中已经将OSD删除了,但是在OSD列表中还是有故障的OSD的。

image-20220404120445298

将故障的OSD在OSD列表中删除。

[root@ceph-node-1 ~]# ceph osd rm osd.5
removed osd.5

再次查看,OSD列表中已经没有故障的OSD了。

image-20220404120539718

4.1.4.将故障的OSD认证信息删除

在OSD的认证信息中会记录所有OSD的认证凭据,在这里也需要将故障的OSD删除。

image-20220404120725184

删除故障的OSD认证信息。

[root@ceph-node-1 ~]# ceph auth rm osd.5
updated

再次查看认证信息列表,就会发现故障的OSD已经被删除了。

image-20220404120910253

4.1.5.验证集群中是否已经将故障的OSD删除

原来集群中有8个OSD,选择已经变成7个OSD了,删除成功。

[root@ceph-node-1 ~]# ceph -s
  cluster:
    id:     a5ec192a-8d13-4624-b253-5b350a616041
    health: HEALTH_WARN
            1 nearfull osd(s)
            9 pool(s) nearfull
            Degraded data redundancy: 80/6966 objects degraded (1.148%), 4 pgs degraded, 2 pgs undersized
 
  services:
    mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 81m)
    mgr: ceph-node-1(active, since 37h), standbys: ceph-node-2, ceph-node-3
    mds: cephfs-storage:1 {0=ceph-node-1=up:active} 2 up:standby
    osd: 7 osds: 7 up (since 20m), 7 in (since 14m); 3 remapped pgs
    rgw: 1 daemon active (ceph-node-1)

4.2.换盘操作

将故障的OSD硬盘修复好之后,将该盘的LVM卷删除,然后通过添加OSD的方式,将该OSD重新加入集群即可。

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-11 13:38:03       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-11 13:38:03       106 阅读
  3. 在Django里面运行非项目文件

    2024-04-11 13:38:03       87 阅读
  4. Python语言-面向对象

    2024-04-11 13:38:03       96 阅读

热门阅读

  1. 设计模式(017)行为型之责任链模式

    2024-04-11 13:38:03       37 阅读
  2. jvm堆知识

    2024-04-11 13:38:03       36 阅读
  3. vue 配置 postcss-px2rem

    2024-04-11 13:38:03       38 阅读
  4. 数据分析 -- pandas

    2024-04-11 13:38:03       40 阅读
  5. 题目 3033: 放苹果

    2024-04-11 13:38:03       35 阅读
  6. 智能成绩表---重点 覆写comparator排序的compare函数

    2024-04-11 13:38:03       43 阅读
  7. TCP的四次挥手

    2024-04-11 13:38:03       35 阅读
  8. uniapp 打包为APP scss 层级嵌套不生效

    2024-04-11 13:38:03       36 阅读
  9. Mybatis中sqlSession.getMapper背后的原理

    2024-04-11 13:38:03       41 阅读
  10. 编程:不只是工作,是我生活的一部分

    2024-04-11 13:38:03       30 阅读
  11. vue 加载动态组件

    2024-04-11 13:38:03       32 阅读