
pveceph pool create):
-size) — количество реплик на объект. Ceph всегда пытается поддерживать указанное количество копий каждого объекта (по умолчанию 3);
warn выводится предупреждение, если количество PG в пуле неоптимально (по умолчанию on);
-add_storages) — автоматическое создание хранилища. Доступно только при создании пула (по умолчанию true);
-min_size) — минимальное количество реплик, необходимое для записи. Ceph отклонит операции ввода-вывода, если в PG доступно меньше реплик, чем указано (по умолчанию 2);
-crush_rule) — правило размещения данных в кластере;
-pg_num) — начальное количество групп размещения (по умолчанию 128);
-target_size_ratio) — доля пула в общем объёме кластера. Автомасштабирование PG использует это соотношение относительно других пулов. Параметр имеет приоритет над целевым размером, если заданы оба;
-target_size) — ожидаемый объём данных пула (используется для автомасштабирования);
-pg_num_min) — минимальное число PG при автомасштабировании. Используется для задания нижней границы количества PG; autoscaler не будет объединять PG ниже этого значения.
Примечание
min_size=1, так как это приведёт к потере данных при отказе одного OSD.
# pveceph pool create <pool-name> -add_storages
size), тогда как в пулах EC данные разбиваются на k фрагментов данных и m фрагментов кодирования (проверки). Фрагменты кодирования используются для восстановления данных при утрате фрагментов данных.
m определяет, сколько OSD может выйти из строя без потери данных. Общее количество хранимых объектов равно k + m.
pveceph. При их планировании следует учитывать, что они работают иначе, чем реплицированные пулы.
min_size для EC-пула зависит от параметра m:
m = 1, min_size = k;
m > 1, min_size = k + 1.
min_size = k + 2.
min_size, все операции ввода-вывода в пуле будут заблокированы до восстановления достаточного количества доступных OSD.
Примечание
min_size, так как он определяет минимальное число доступных OSD, необходимое для работы пула.
k = 2, m = 1 → size = 3, min_size = 2 (выдерживает 1 отказ);
k = 2, m = 2 → size = 4, min_size = 3 (выдерживает 2 отказа).
# pveceph pool create <pool-name> --erasure-coding k=<integer> ,m=<integer> \
[,device-class=<class>] [,failure-domain=<domain>] [,profile=<profile>]
--add_storages 0. При ручной настройке хранилища необходимо задать параметр data-pool, чтобы EC-пул использовался для хранения.
Примечание
--size, --min_size и --crush_rule применяются только к пулу метаданных. Параметры size и crush_rule нельзя изменить для EC-пулов. Значение min_size для пула данных можно изменить после создания.
profile, например:
# pveceph pool create <pool-name> --erasure-coding profile=<profile-name>
# pvesm add rbd <storage-name> --pool <replicated-pool> --data-pool <ec-pool>
Примечание
keyring и monhost.

# pveceph pool destroy <name>
-cleanup, чтобы дополнительно уничтожить таблицу разделов):
# pveceph osd destroy <ID>
Чтобы также удалить связанное хранилище, следует указать параметр -remove_storages.
Примечание
Примечание
# ceph mgr module enable pg_autoscaler
Список загруженных модулей:
# ceph mgr module ls
warn — выводится предупреждение, если предлагаемое значение pg_num значительно отличается от текущего;
on — pg_num настраивается автоматически без ручного вмешательства;
off — автоматическая корректировка pg_num отключена, предупреждения не выводятся.
target_size, target_size_ratio и pg_num_min.
# ceph osd pool set <pool> pg_autoscale_mode on