gluster迁移brick故障

阅读 40

2023-04-07

前言:笔者的环境是三个节点的gluster集群,用的是分布式复制卷,由于数据量日益增大,需要增加brick以扩容,本篇文章将介绍brick扩缩容的常见故障及解决方法。

基础操作命令:

(1)添加brick

gluster volume stop mybackup

gluster volume add-brick mybackup replica 3 glusterfs-a:/storage/phd4 glusterfs-b:/storage/phd4 glusterfs-c:/storage/phd4 force

gluster volume start mybackup


(2)移除brick

gluster volume remove-brick mybackup glusterfs-a:/storage/phd3 glusterfs-b:/storage/phd3 glusterfs-c:/storage/phd3 start

注意点:若是副本卷或者条带卷,则一次添加的bricks数是replica的整数倍;且添加brick后,原分布规则就会被打乱,所以一般还需要重新调整分布规则。gluster-3.4.1版本在执行移除brick的时候会将数据迁移到其他可用的brick上,并自动调整数据分布规则,当数据迁移结束之后才将brick移除。执行start命令,开始迁移数据。迁移完需将start改为commit删除brick。若不迁移数据,则直接执行commit删除brick,生产环境谨慎使用。

那么假如迁移过程中发现查看状态是failed,执行gluster大部分命令都是类似如下情况,重启gluster服务也一样。那这时候既想数据不丢失,又想执行gluster命令恢复正常,该如何解决呢?

gluster迁移brick故障_gluster

gluster迁移brick故障_数据_02

精彩评论(0)

0 0 举报