添加OSD

1 格式化盘
如果添加的盘上面有分区,可以通过如下命令清除(分区上的数据也会被清除)

ceph-deploy disk zap {osd-server-name} {disk-name}

2 添加OSD

ceph-deploy osd create {osd-server-name} --data /dev/{disk-name} {osd-server-name}

如果出现类似错误:

ceph-node-1 write cluster configuration to
/etc/ceph/{cluster}.conf ceph_deploy.osd RuntimeError:
config file /etc/ceph/ceph.conf exists with different content; use
--overwrite-conf to overwrite ceph_deploy GenericError: Failed to create 1 OSDs

同步配置文件到其他节点

ceph-deploy --overwrite-conf config push {ceph-node-hostname}

或mv后再次启动服务

mv /etc/ceph/ceph.conf /etc/ceph/ceph.conf.bak

删除OSD(此步骤需要在Down掉的OSD所在节点上操作)

1 查看OSD信息

ceph osd tree

2 暂停要删除OSD的服务

systemctl stop ceph-osd@8

3 取消挂载
安装OSD时,会将osd.8挂载至/var/lib/ceph/osd/ceph-8,因此,删除OSD时,需要首先取消OSD挂载

umount /var/lib/ceph/osd/ceph-8/

4 设置OSD为OUT:对应权重reweight会变为0

ceph osd out 8

5 删除OSD

从集群中删除(如添加则将rm修改为in)

ceph osd rm osd.8

从CRUSH中删除,然后通过ceph osd crush dump确认没有对应信息

ceph osd crush rm osd.8

删除osd.12的认证信息,然后通过ceph auth list确认有没有对应信息

ceph auth del osd.8

清空磁盘数据

wipefs -af /dev/nvme0n1

6 lsblk查看硬盘信息,osd.8是/dev/nvme0n1

[root@ceph-node-1 ~]# lsblk

vme0n1 259:0 0 447.1G 0 disk
└─ceph--b023ab1b--308d--4e1d--b756--206d45addd7b-osd--block--8904048d--ccdd--41d5--aaee--b3b498a7d46f
253:3 0 447.1G 0 lvm

7 删除ceph osd lvm映射关系

dmsetup remove ceph--b023ab1b--308d--4e1d--b756--206d45addd7b-osd--block--8904048d--ccdd--41d5--aaee--b3b498a7d46f

8 移除LV

lvremove /dev/mapper/ceph--b023ab1b--308d--4e1d--b756--206d45addd7b-osd--block--8904048d--ccdd--41d5--aaee--b3b498a7d46f


参考学习自:
https://blog.51cto.com/14758677/2510025
https://www.cnblogs.com/deny/p/14214963.html

标签: Ceph

添加新评论