ceph orch osd rm 排空需要这么长时间正常吗?

问题描述 投票:0回答:1

我尝试通过运行来耗尽主机

sudo ceph orch host drain node-three

但它卡在删除 osd 并具有以下状态

node-one@node-one:~$ sudo ceph orch osd rm status
OSD  HOST        STATE     PGS  REPLACE  FORCE  ZAP    DRAIN STARTED AT            
2    node-three  draining    1  False    False  False  2024-04-20 20:30:34.689946 

这是一个测试设置,我没有向 OSD 写入任何内容。

这是我的 ceph 状态

node-one@node-one:~$ sudo ceph status
  cluster:
    id:     f5ac585a-fe8e-11ee-9452-79c779548dac
    health: HEALTH_OK
 
  services:
    mon: 2 daemons, quorum node-one,node-two (age 21m)
    mgr: node-two.zphgll(active, since 9h), standbys: node-one.ovegfw
    osd: 3 osds: 3 up (since 42m), 3 in (since 42m); 1 remapped pgs
 
  data:
    pools:   1 pools, 1 pgs
    objects: 2 objects, 577 KiB
    usage:   81 MiB used, 30 GiB / 30 GiB avail
    pgs:     2/6 objects misplaced (33.333%)
             1 active+clean+remapped

orch osd rm 排空需要这么长时间正常吗?

ceph
1个回答
0
投票

只有 3 个 OSD 和复制大小为 3 的默认挤压规则,没有目标将 OSD 排出到哪里。如果这只是一个测试集群,您可以将

min_size
减少到 1,将
size
减少到 2。但请不要在生产中这样做。

© www.soinside.com 2019 - 2024. All rights reserved.