|
|
|
@ -36,6 +36,25 @@ WA (мультипликатор записи) для 4 КБ блоков в Vit
|
|
|
|
|
Если вы найдёте SSD, хорошо работающий с 512-байтными блоками данных (Optane?),
|
|
|
|
|
то 1, 3 и 4 можно снизить до 512 байт (1/8 от размера данных) и получить WA всего 2.375.
|
|
|
|
|
|
|
|
|
|
Если реализовать поддержку NVDIMM, то WA можно, условно говоря, ликвидировать вообще - все
|
|
|
|
|
дополнительные операции записи смогут обслуживаться DRAM памятью. Но для этого необходим
|
|
|
|
|
тестовый кластер с NVDIMM - пишите, если готовы предоставить такой для тестов.
|
|
|
|
|
|
|
|
|
|
Кроме того, WA снижается при использовании отложенного/ленивого сброса при параллельной
|
|
|
|
|
нагрузке, т.к. блоки журнала записываются на диск только когда они заполняются или явным
|
|
|
|
|
образом запрашивается fsync.
|
|
|
|
|
|
|
|
|
|
## На практике
|
|
|
|
|
|
|
|
|
|
На практике, используя тесты fio со страницы [Понимание сути производительности систем хранения](understanding.ru.md),
|
|
|
|
|
нормальную TCP-сеть, хорошие серверные SSD/NVMe, при отключённом энергосбережении процессоров вы можете рассчитывать на:
|
|
|
|
|
- От 5000 IOPS в 1 поток (T1Q1) и на чтение, и на запись при использовании репликации (задержка до 0.2мс)
|
|
|
|
|
- От 5000 IOPS в 1 поток (T1Q1) на чтение и 2200 IOPS в 1 поток на запись при использовании EC (задержка до 0.45мс)
|
|
|
|
|
- От 80000 IOPS на чтение в параллельном режиме на 1 ядро, от 30000 IOPS на запись на 1 ядро (на 1 OSD)
|
|
|
|
|
- Скорость параллельного линейного чтения и записи, равная меньшему значению из скорости дисков или сети
|
|
|
|
|
|
|
|
|
|
Худшие результаты означают, что у вас либо медленные диски, либо медленная сеть, либо что-то неправильно настроено.
|
|
|
|
|
|
|
|
|
|
Зафиксированный на данный момент рекорд задержки:
|
|
|
|
|
- 9668 IOPS (0.103 мс задержка) в 1 поток (T1Q1) на запись с TCP и NVMe при использовании репликации
|
|
|
|
|
- 9143 IOPS (0.109 мс задержка) в 1 поток (T1Q1) на чтение с TCP и NVMe при использовании репликации
|
|
|
|
|