vitastor/docs/config/pool.ru.md

22 KiB
Raw Permalink Blame History

ДокументацияКонфигурация → Конфигурация пулов


Read in English

Конфигурация пулов

Настройки пулов задаются в ключе etcd /vitastor/config/pools в JSON-формате:

{
  "<Численный ID>": {
    "name": "<имя>",
    ...остальные параметры...
  }
}

На настройку пулов также влияют:

Параметры:

Примеры:

Дерево размещения

Дерево размещения OSD задаётся в отдельном ключе etcd /vitastor/config/node_placement в следующем JSON-формате:

{ "<имя узла или номер OSD>": { "level": "<уровень>", "parent": "<имя родительского узла, если есть>" }, ... }

Здесь, если название узла - число, считается, что это OSD. Уровень OSD всегда равен "osd" и не может быть переопределён. Для OSD вы можете только переопределить родительский узел. По умолчанию родителем OSD считается его хост.

Нечисловые имена узлов относятся к другим узлам дерева OSD, таким, как хосты (серверы), стойки, датацентры и так далее.

Хосты всех OSD автоматически создаются в дереве с уровнем "host" и именем, равным имени хоста, сообщаемым соответствующим OSD. Вы можете ссылаться на эти хосты, не заводя их в дереве вручную.

Уровень может быть "host", "osd" или относиться к другому уровню размещения из placement_levels.

Родительский узел нужен только для промежуточных узлов дерева.

Настройки OSD

Настройки отдельных OSD задаются в ключах etcd /vitastor/config/osd/<number> в JSON-формате {"<key>":<value>}.

На данный момент поддерживаются следующие настройки:

reweight

  • Тип: число, от 0 до 1
  • По умолчанию: 1

Каждый OSD получает число PG, пропорциональное его размеру. Reweight - это множитель для размера, используемый в процессе распределения PG.

Это значит, что OSD, сконфигурированный с reweight меньше 1 будет получать меньше PG, чем обычно. OSD с reweight, равным 0, не будет участвовать в хранении данных вообще. Вы можете установить reweight в 0, чтобы убрать все данные с OSD.

tags

  • Тип: строка или массив строк

Задаёт тег или набор тегов для данного OSD. Теги можно использовать, чтобы делить OSD на множества и потом размещать пул только на части OSD, а не на всех. Можно, например, пометить SSD OSD тегом "ssd", а HDD тегом "hdd", в этом смысле теги работают аналогично классам устройств.

noout

  • Тип: булево (да/нет)
  • Значение по умолчанию: false

Если установлено в true, то osd_out_time для этого OSD игнорируется и OSD не удаляется из распределения данных монитором.

Параметры

name

  • Тип: строка
  • Обязательный

Название пула.

scheme

  • Тип: строка
  • Обязательный
  • Возможные значения: "replicated", "xor", "ec" или "jerasure"

Схема избыточности, используемая в данном пуле. "jerasure" - синоним для "ec", в обеих схемах используются коды Рида-Соломона-Вандермонда, реализованные на основе библиотек ISA-L или jerasure. Быстрая реализация на основе ISA-L используется автоматически, когда доступна, в противном случае используется более медленная jerasure-версия.

pg_size

  • Тип: целое число
  • Обязательный

Размер PG данного пула, т.е. число реплик для реплицированных пулов или число дисков данных плюс дисков чётности для пулов EC/XOR.

parity_chunks

  • Тип: целое число

Число дисков чётности для EC/XOR пулов. Иными словами, число дисков, при одновременной потере которых данные будут потеряны.

Игнорируется для реплицированных пулов, обязательно для EC/XOR.

pg_minsize

  • Тип: целое число
  • Обязательный

Число доступных дисков для PG данного пула, при котором PG остаются активны. Если становится невозможно размещать новые данные в PG как минимум на pg_minsize OSD, PG деактивируется на чтение и запись. Иными словами, всегда известно, что новые блоки данных всегда записываются как минимум на pg_minsize дисков.

Для примера, разница между pg_minsize 2 и 1 в реплицированном пуле с 3 копиями данных (pg_size=3), проявляется следующим образом:

  • Если 2 сервера отключаются при pg_minsize=2, пул становится неактивным и остаётся неактивным в течение osd_out_time (10 минут), после чего монитор назначает другие OSD/серверы на замену, пул поднимается и начинает восстанавливать недостающие копии данных. Соответственно, если OSD на замену нет - то есть, если у вас всего 3 сервера с OSD и 2 из них недоступны - пул так и остаётся недоступным до тех пор, пока вы не вернёте или не добавите хотя бы 1 сервер (или не переключите failure_domain на "osd").
  • Если 2 сервера отключаются при pg_minsize=1, ввод-вывод лишь приостанавливается на короткое время, до тех пор, пока монитор не поймёт, что OSD отключены (что занимает 5-10 секунд при стандартном etcd_report_interval). После этого ввод-вывод восстанавливается, но новые данные временно пишутся всего в 1 копии. Когда же проходит osd_out_time, монитор точно так же назначает другие OSD на замену выбывшим и пул начинает восстанавливать копии данных.

То есть, pg_minsize регулирует число отказов, которые пул может пережить без временной остановки обслуживания на osd_out_time, но ценой немного пониженных гарантий надёжности.

FIXME: Поведение pg_minsize может быть изменено в будущем с полной деактивации PG на перевод их в режим только для чтения.

pg_count

  • Тип: целое число
  • Обязательный

Число PG для данного пула. Число должно быть достаточно большим, чтобы монитор мог равномерно распределить по ним данные.

Обычно это означает примерно 10-100 PG на 1 OSD, т.е. pg_count можно устанавливать равным (общему числу OSD * 10 / pg_size). Значение можно округлить до ближайшей степени 2, чтобы потом было легче уменьшать или увеличивать число PG, умножая или деля его на 2.

PG в Vitastor эферемерны, то есть вы можете менять их число в любой момент, просто перезаписывая конфигурацию пулов в etcd. Однако объём перемещения данных при этом будет минимален, если новое число PG кратно старому (или наоборот).

failure_domain

  • Тип: строка
  • По умолчанию: host

Домен отказа для пула. Может быть равен "host" или "osd" или любому другому уровню дерева OSD, задаваемому в настройке placement_levels.

Смысл домена отказа в том, что 2 копии, или 2 части одного блока данных в случае кодов коррекции ошибок, никогда не помещаются на OSD, принадлежащие одному домену отказа. Иными словами, домен отказа - это то, от отказа чего вы защищаете себя избыточным хранением.

level_placement

  • Тип: строка

Правила дополнительных доменов отказа, применяемые вместе с failure_domain. Должны задаваться в следующем виде:

<уровень>=<последовательность символов>, <уровень2>=<последовательность2>, ...

Каждая <последовательность> должна состоять ровно из pg_size символов. Каждый символ соответствует одному OSD (размещению одной части PG) этого пула. Одинаковые символы означают, что соответствующие части размещаются в один и тот же узел дерева OSD на заданном <уровне>. Разные символы означают, что части размещаются в разные узлы.

Например, если вы хотите сделать пул EC 4+2 и хотите поместить каждые 2 части данных в свой датацентр, и также вы хотите, чтобы каждая часть размещалась на другом хосте, то вы должны задать level_placement равным dc=112233 host=123456.

Либо вы просто можете задать level_placement равным dc=112233 и оставить failure_domain пустым, т.к. host это его значение по умолчанию и оно также применится автоматически.

Без этого правила может получиться так, что в одном из датацентров окажется 3 части данных одной PG и данные окажутся недоступными при временном отключении этого датацентра.

Естественно, перед установкой правила вам нужно сгруппировать ваши хосты в датацентры, установив placement_levels во что-то типа {"dc":90,"host":100,"osd":110} и добавив датацентры в node_placement, примерно так: {"dc1":{"level":"dc"},"host1":{"parent":"dc1"},...}.

raw_placement

  • Type: string

Низкоуровневые правила генерации PG в форме DSL (доменно-специфичного языка). Используйте, только если действительно знаете, зачем вам это надо :)

Спецификация DSL:

dsl := item | item ("\n" | ",") items
item := "any" | rules
rules := rule | rule rules
rule := level operator arg
level := /\w+/
operator := "!=" | "=" | ">" | "?="
arg := value | "(" values ")"
values := value | value "," values
value := item_ref | constant_id
item_ref := /\d+/
constant_id := /"([^"]+)"/

Оператор "?=" означает "предпочитаемый". Т.е. dc ?= "meow" означает "предпочитать датацентр meow для этой части данных, но разместить её в другом датацентре, если meow недоступен".

Примеры:

  • Простые 3 реплики с failure_domain=host: any, host!=1, host!=(1,2)
  • EC 4+2 в 3 датацентрах: any, dc=1 host!=1, dc!=1, dc=3 host!=3, dc!=(1,3), dc=5 host!=5
  • 1 копия в фиксированном ДЦ + 2 в других ДЦ: dc?=meow, dc!=1, dc!=(1,2)

max_osd_combinations

  • Тип: целое число
  • По умолчанию: 10000

Алгоритм распределения данных Vitastor основан на решателе задачи линейного программирования. При этом для снижения сложности задачи возможные комбинации OSD генерируются случайно и ограничиваются количеством, равным значению этого параметра.

Обычно данный параметр не требует изменений.

block_size

  • Тип: целое число
  • По умолчанию: 131072

Размер блока для данного пула. Если не задан, используется значение из /vitastor/config/global. Если в вашем кластере есть OSD с разными размерами блока, пул будет использовать только OSD с размером блока, равным размеру блока пула. Если вы хотите сильнее ограничить набор используемых для пула OSD - используйте osd_tags.

О самом параметре читайте в разделе Дисковые параметры уровня кластера.

bitmap_granularity

  • Тип: целое число
  • По умолчанию: 4096

Размер "сектора" виртуальных дисков в данном пуле. Если не задан, используется значение из /vitastor/config/global. Аналогично block_size, каждый пул будет использовать только OSD с совпадающей с пулом настройкой bitmap_granularity.

О самом параметре читайте в разделе Дисковые параметры уровня кластера.

immediate_commit

  • Тип: строка "all", "small" или "none"
  • По умолчанию: none

Настройка мгновенного коммита для данного пула. Если не задана, используется значение из /vitastor/config/global. Аналогично block_size, каждый пул будет использовать только OSD с совместимыми настройками immediate_commit. "Совместимыми" означает, что пул с отключенным мгновенным коммитом будет использовать OSD с включённым мгновенным коммитом, но не наоборот. То есть, пул со значением "none" будет использовать все OSD, пул со "small" будет использовать OSD с "all" или "small", а пул с "all" будет использовать только OSD с "all".

О самом параметре читайте в разделе Дисковые параметры уровня кластера.

pg_stripe_size

  • Тип: целое число
  • По умолчанию: 0

Данный параметр задаёт размер полосы "нарезки" образов на PG. Размер полосы не может быть меньше, чем block_size, умноженный на (pg_size - parity_chunks) для EC-пулов или 1 для реплицированных пулов. То же значение используется по умолчанию.

Это означает, что по умолчанию первые pg_stripe_size = (block_size * (pg_size-parity_chunks)) байт образа помещаются в одну PG, следующие pg_stripe_size байт помещаются в другую и т.п.

Данный параметр обычно тоже не требует изменений.

root_node

  • Тип: строка

Корневой узел дерева OSD для ограничения OSD, выбираемых для пула. Задаваемый узел должен быть предварительно задан в /vitastor/config/node_placement.

osd_tags

  • Тип: строка или массив строк

Теги OSD для ограничения OSD, выбираемых для пула. Если задаётся несколько тегов массивом, то выбираются только OSD, у которых есть все эти теги.

primary_affinity_tags

  • Тип: строка или массив строк

Теги OSD, по которым должны выбираться OSD, предпочитаемые в качестве первичных для PG этого пула. Имейте в виду, что для EC-пулов Vitastor также всегда предпочитает помещать первичный OSD на один из OSD с данными, а не с чётностью.

scrub_interval

  • Тип: временной интервал (число + единица измерения s/m/h/d/M/y)

Интервал скраба, то есть, автоматической фоновой проверки данных для данного пула. Переопределяет глобальную настройку scrub_interval.

used_for_fs

  • Type: string

Если непусто, пул помечается как используемый для файловой системы VitastorFS с метаданными, хранимыми в блочном образе Vitastor с именем, равным значению этого параметра.

Когда пул помечается как используемый для VitastorFS, создание обычных блочных образов в нём отключается (vitastor-cli отказывается создавать образы без --force), чтобы защитить пользователя от коллизий ID файлов и блочных образов и, таким образом, от потери данных.

vitastor-nfs, в свою очередь, при запуске отказывается использовать для ФС пулы, не выделенные для неё. Это также означает, что один пул может использоваться только для одной VitastorFS.

Также для ФС-пулов отключается передача статистики в etcd по отдельным инодам, так как ФС-пул может содержать очень много файлов и статистика по ним всем заняла бы очень много места в etcd.

Примеры

Реплицированный пул

{
  "1": {
    "name":"testpool",
    "scheme":"replicated",
    "pg_size":2,
    "pg_minsize":1,
    "pg_count":256,
    "failure_domain":"host"
  }
}

Пул с кодами коррекции ошибок

{
  "2": {
    "name":"ecpool",
    "scheme":"ec",
    "pg_size":3,
    "parity_chunks":1,
    "pg_minsize":2,
    "pg_count":256,
    "failure_domain":"host"
  }
}