-
Notifications
You must be signed in to change notification settings - Fork 735
[docs] move out concepts/cluster/ to contributor/ #7690
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Conversation
✅ Documentation buildRevision built successfully |
❌ Documentation buildRevision build failed Build logsErrors (1)❌ Link is unreachable: ../../cluster/common_scheme_ydb.md#tablets in /ru/concepts/_includes/index/how_it_works.md |
✅ Documentation buildRevision built successfully |
|
⚪ Test history | Ya make output | Test bloat
🟢 |
|
⚪ Test history | Ya make output | Test bloat
🟢 |
✅ Documentation buildRevision built successfully |
|
|
||
|  | ||
|
|
||
| - `mirror-3-dc`. Данные реплицируются между 3 зонами доступности (обычно разными дата-центрами) с использованием как минимум 3 доменов отказа (обычно серверных стоек) в каждой зоне доступности. Кластер {{ ydb-short-name }} остаётся доступным при выходе из строя любой зоны доступности; кроме того, дополнительно может выйти из строя ещё один домен отказа в любой из 2 работоспособных зон доступности без прекращения работы кластера. Этот режим рекомендуется для кластеров с высокими требованиями к отказоустойчивости, размещённых в нескольких дата-центрах. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Очень странно, что для описания mirror-3-dc не используется понятие fail realm. Хотя как раз здесь оно и должно использоваться.
Я читаю статью от начала и до конца, и как пользователь путаюсь. Мне показали: "Модель отказа, используемая в YDB, основана на концепциях домена отказа и области отказа." А дальше при описании разных топологий не используют это введенную терминологию. В результате создается WTF эффект.
| О том, как задать топологию кластера {{ ydb-short-name }}, читайте в разделе [{#T}](../reference/configuration/index.md#domains-blob). | ||
|
|
||
| ### Упрощённые конфигурации {#reduced} | ||
|
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Сорри, в это место ткну, т.к. у меня претензия к тексту, который не менялся.
Сам текст:
"Базовой единицей выделения ресурсов хранения данных в кластере {{ ydb-short-name }} является группа хранения. При создании группы хранения {{ ydb-short-name }} её части — VDisk-и — размещаются на физических дисках, принадлежащих разным доменам отказа. Для режима block-4-2 каждая группа хранения распределена между 8 доменами отказа, а в режиме mirror-3-dc группа хранения распределяется между 3 областями отказа, в каждой из которых используются 3 домена отказа."
Вот здесь появляется VDisk без всякой картинки. И читателю не понятно вообще ничего. Давай улучшим этот текст
| В случаях, когда невозможно использовать [рекомендованное количество](#cluster-config) оборудования, можно разделить серверы одной стойки на 2 фиктивных домена отказа. В такой конфигурации отказ одной стойки будет означать отказ не одного, а сразу двух доменов. При использовании таких упрощённых конфигураций {{ ydb-short-name }} сохраняет работоспособность при отказе сразу двух доменов. Минимальное количество стоек в кластере для режима `block-4-2` составляет 5, а для `mirror-3-dc` — по 2 в каждом дата-центре (т.е. суммарно 6 стоек). | ||
|
|
||
| В минимальной отказоустойчивой конфигурации {{ ydb-short-name }} используется режим `mirror-3-dc-3-nodes`, и кластер состоит из 3 серверов. В такой конфигурации каждый сервер одновременно является доменом отказа и областью отказа, и кластер может выдержать сбой только одного сервера. | ||
| В минимальной отказоустойчивой конфигурации {{ ydb-short-name }} используется режим `mirror-3-dc-3-nodes`, и кластер состоит из 3 серверов, каждый из которых должен содержать как минимум 3 диска для хранения данных. В такой конфигурации каждый сервер одновременно является доменом отказа и областью отказа, и кластер может выдержать сбой только одного сервера. Для обеспечения должного уровня отказоустойчивости каждый сервер должен размещаться в своём независимом дата-центре. **Этот режим рекомендуется только для функционального тестирования или прототипирования.** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
"Этот режим рекомендуется только для функционального тестирования или прототипирования."
Я бы вообще так не писал. Я считаю, что 3-х нодный кластер с mirror-3-dc-3-nodes отлично подходит для прода.
И здесь вообще очень странный текст. mirror-3-dc-3-nodes нигде до этого не вводится, но используется
Changelog category
Additional information
As it is too detailed and unfinished.