Примечание
Важно
/etc.
alt-virtualization-pve-11.1-x86_64.iso.
Предупреждение
/etc/network/interfaces;
/etc/pve/storage.cfg, для подключения внешнего хранилища, используемого для резервного копирования;
/etc/pve/firewall/;
/etc/pve/nodes/<node>/host.fw (если применимо);
sysctl.conf параметр:
net.ipv4.ip_forward = 1
pvecm status).
alt-virtualization-pve-11.1-x86_64.iso.
Предупреждение
/etc/pve синхронизирован и узел появился в кластере.
Примечание
size=3, свободное место в кластере — не менее объёма данных одного OSD (желательно с запасом 30 %), а заполненность OSD не должна превышать 70–75 %. В кластере из трёх OSD любые операции по их выводу допустимы, но считаются пограничными и требуют повышенного контроля.
# pvecm status
…
Quorum information
------------------
Date: Wed Feb 4 16:34:33 2026
Quorum provider: corosync_votequorum
Nodes: 3
Node ID: 0x00000001
Ring ID: 1.27
Quorate: Yes
# ceph -s
cluster:
id: e2a86754-35d1-4e63-a41b-35aafa5e0542
health: HEALTH_OK
services:
mon: 3 daemons, quorum pve01,pve02,pve03 (age 38s)
mgr: pve03(active, since 2m), standbys: pve01
mds: 1/1 daemons up, 1 standby
osd: 3 osds: 3 up (since 24m), 3 in (since 58m)
data:
volumes: 1/1 healthy
pools: 3 pools, 65 pgs
objects: 24 objects, 595 KiB
usage: 222 MiB used, 315 GiB / 315 GiB avail
pgs: 65 active+clean
#pveceph mon destroy <mon_id>#pveceph mgr destroy <mgr_id>#pveceph mds destroy <mds_id>
Примечание
# ceph osd out <osd.id>
#Дождаться, пока все затронутые PG перейдут в состояние active+clean (завершение backfill и rebalancing).ceph -s#ceph pg stat
# ceph osd down <osd.id>
# systemctl stop ceph-osd@<osd.id>.service
#ceph osd rm <osd.id>#ceph osd crush remove <osd.id>#ceph auth del osd.<osd.id>
#ceph osd tree#ceph osd crush tree
Примечание
# ceph-volume lvm zap /dev/X --destroy
#lvremove#vgremove#wipefs -a /dev/X
Примечание
alt-virtualization-pve-11.1-x86_64.iso.
# ceph -s