--- slug: /ja/architecture/replication sidebar_label: 障害耐性のためのレプリケーション sidebar_position: 10 title: 障害耐性のためのレプリケーション --- import ReplicationShardingTerminology from '@site/docs/ja/_snippets/_replication-sharding-terminology.md'; import ConfigFileNote from '@site/docs/ja/_snippets/_config-files.md'; import KeeperConfigFileNote from '@site/docs/ja/_snippets/_keeper-config-files.md'; ## 説明 このアーキテクチャでは、5台のサーバーが構成されています。2台はデータのコピーをホストするために使われます。残りの3台のサーバーはデータのレプリケーションを調整するために使われます。この例では、ReplicatedMergeTreeテーブルエンジンを使用して、両方のデータノードにわたってレプリケートされるデータベースとテーブルを作成します。 ## レベル: 基本 ## 環境 ### アーキテクチャ図 ![ReplicatedMergeTreeを使用した1シャードと2レプリカのアーキテクチャ図](@site/docs/ja/deployment-guides/images/Architecture.1S_2R_ReplicatedMergeTree_5-nodes.3.CH.Keeper.nodes.2.CH.nodes.png) |Node|説明| |----|-----------| |clickhouse-01|データ| |clickhouse-02|データ| |clickhouse-keeper-01|分散コーディネーション| |clickhouse-keeper-02|分散コーディネーション| |clickhouse-keeper-03|分散コーディネーション| :::note 本番環境では、ClickHouse Keeperのために*専用*のホストを使用することを強くお勧めします。テスト環境では、ClickHouse ServerとClickHouse Keeperを同じサーバー上で組み合わせて実行することが許容されます。他の基本的な例、[スケールアウト](/docs/ja/deployment-guides/horizontal-scaling.md)では、この方法を使用しています。この例では、KeeperとClickHouse Serverを分離する推奨される方法を示します。Keeperサーバーは小さくすることができ、ClickHouse Serversが非常に大きくなるまで、各Keeperサーバーには通常4GB RAMがあれば十分です。 ::: ## インストール 2台のサーバー`clickhouse-01`と`clickhouse-02`にClickHouse serverとclientをインストールします。[アーカイブタイプに応じた手順](/docs/ja/getting-started/install.md/#available-installation-options) (.deb, .rpm, .tar.gzなど)に従ってください。 3台のサーバー`clickhouse-keeper-01`、`clickhouse-keeper-02`、`clickhouse-keeper-03`にClickHouse Keeperをインストールします。[アーカイブタイプに応じた手順に従ってください](/docs/ja/getting-started/install.md/#install-standalone-clickhouse-keeper) (.deb, .rpm, .tar.gzなど)。 ## 設定ファイルの編集 ## clickhouse-01の設定 clickhouse-01には5つの設定ファイルがあります。これらのファイルを1つのファイルにまとめることもできますが、ドキュメントの明確さのために別々に見るほうが簡単かもしれません。設定ファイルを読み進めると、ほとんどの設定がclickhouse-01とclickhouse-02で同じであることがわかり、違いは強調されています。 ### ネットワークとログの設定 これらの値はお好みに応じてカスタマイズできます。この例の設定では、以下を提供します: - 1000Mのロールオーバーを3回行うデバッグログ - `clickhouse-client`で接続したときに表示される名前は `cluster_1S_2R node 1`です - ClickHouseはポート8123と9000でIPV4ネットワークを介してリッスンします。 ```xml title="/etc/clickhouse-server/config.d/network-and-logging.xml on clickhouse-01" debug /var/log/clickhouse-server/clickhouse-server.log /var/log/clickhouse-server/clickhouse-server.err.log 1000M 3 cluster_1S_2R node 1 0.0.0.0 8123 9000 ``` ### マクロの設定 マクロ`shard`と`replica`は分散DDLの複雑さを軽減します。設定された値はDDLクエリで自動的に置き換えられ、DDLを簡単にします。この設定のマクロは、各ノードのシャード番号とレプリカ番号を指定します。 この1シャード2レプリカの例では、レプリカマクロはclickhouse-01で`replica_1`、clickhouse-02で`replica_2`です。シャードマクロは、1つのシャードしかないため、clickhouse-01とclickhouse-02の両方で`1`です。 ```xml title="/etc/clickhouse-server/config.d/macros.xml on clickhouse-01" 01 01 cluster_1S_2R ``` ### レプリケーションとシャーディングの設定 上から始めて: - XMLのremote_serversセクションは環境内の各クラスタを指定します。属性`replace=true`は、デフォルトのClickHouse設定内のサンプルremote_serversを、このファイル内で指定されたremote_server設定で置き換えます。この属性がない場合、このファイル内のリモートサーバーはデフォルトのサンプルリストに追加されます。 - この例では、`cluster_1S_2R`という名前のクラスタが1つあります。 - `cluster_1S_2R`という名前のクラスタには、値`mysecretphrase`のシークレットが作成されます。このシークレットは、環境内のすべてのリモートサーバー間で共有され、正しいサーバーが一緒に参加することを保証します。 - `cluster_1S_2R`クラスタには1つのシャードと2つのレプリカがあります。このドキュメントの冒頭にあるアーキテクチャ図と、以下のXMLのシャード定義を比較してください。シャード定義には2つのレプリカが含まれています。各レプリカのホストとポートが指定されています。1つのレプリカは`clickhouse-01`に保存され、もう1つのレプリカは`clickhouse-02`に保存されます。 - シャードの内部レプリケーションはtrueに設定されています。各シャードは、設定ファイルでinternal_replicationパラメータを定義できます。このパラメータがtrueに設定されている場合、書き込み操作は最初に健康なレプリカを選択してデータを書き込みます。 ```xml title="/etc/clickhouse-server/config.d/remote-servers.xml on clickhouse-01" mysecretphrase true clickhouse-01 9000 clickhouse-02 9000 ``` ### Keeperの使用を設定する この設定ファイル`use-keeper.xml`は、ClickHouse Serverがレプリケーションと分散DDLの調整にClickHouse Keeperを使用するように設定しています。このファイルは、ClickHouse Serverがポート9181でノードclickhouse-keeper-01〜03上のKeeperを使用する必要があることを指定しており、`clickhouse-01`および`clickhouse-02`で同じです。 ```xml title="/etc/clickhouse-server/config.d/use-keeper.xml on clickhouse-01" clickhouse-keeper-01 9181 clickhouse-keeper-02 9181 clickhouse-keeper-03 9181 ``` ## clickhouse-02の設定 設定は、clickhouse-01とclickhouse-02で非常に似ているため、ここでは違いのみを指摘します。 ### ネットワークとログの設定 このファイルは、`display_name`を除き、clickhouse-01とclickhouse-02で同じです。 ```xml title="/etc/clickhouse-server/config.d/network-and-logging.xml on clickhouse-02" debug /var/log/clickhouse-server/clickhouse-server.log /var/log/clickhouse-server/clickhouse-server.err.log 1000M 3 cluster_1S_2R node 2 0.0.0.0 8123 9000 ``` ### マクロの設定 マクロの設定はclickhouse-01とclickhouse-02で異なります。`replica`はこのノードで`02`に設定されています。 ```xml title="/etc/clickhouse-server/config.d/macros.xml on clickhouse-02" 01 02 cluster_1S_2R ``` ### レプリケーションとシャーディングの設定 このファイルは、clickhouse-01とclickhouse-02で同じです。 ```xml title="/etc/clickhouse-server/config.d/remote-servers.xml on clickhouse-02" mysecretphrase true clickhouse-01 9000 clickhouse-02 9000 ``` ### Keeperの使用を設定する このファイルは、clickhouse-01とclickhouse-02で同じです。 ```xml title="/etc/clickhouse-server/config.d/use-keeper.xml on clickhouse-02" clickhouse-keeper-01 9181 clickhouse-keeper-02 9181 clickhouse-keeper-03 9181 ``` ## clickhouse-keeper-01の設定 ClickHouse Keeperは、データレプリケーションと分散DDLクエリの実行を調整するシステムを提供します。ClickHouse KeeperはApache ZooKeeperと互換性があります。この設定はポート9181でClickHouse Keeperを有効にします。強調されている行は、このKeeperのインスタンスがserver_id 1を持っていることを指定しています。これは、3つのサーバーすべての`enable-keeper.xml`ファイルで唯一の違いです。`clickhouse-keeper-02`では`server_id`が`2`に設定され、`clickhouse-keeper-03`では`server_id`が`3`に設定されます。raft設定セクションは3台のサーバーすべてで同じであり、`server_id`とraft設定内の`server`インスタンスの関係を示すために以下で強調されています。 :::note なんらかの理由でKeeperノードが置き換えられたり再構築されたりした場合、既存の`server_id`を再利用しないでください。例えば、`server_id`が`2`のKeeperノードが再構築された場合、`server_id`を`4`以上に設定してください。 ::: ```xml title="/etc/clickhouse-keeper/keeper_config.xml on clickhouse-keeper-01" trace /var/log/clickhouse-keeper/clickhouse-keeper.log /var/log/clickhouse-keeper/clickhouse-keeper.err.log 1000M 3 0.0.0.0 9181 1 /var/lib/clickhouse/coordination/log /var/lib/clickhouse/coordination/snapshots 10000 30000 trace 1 clickhouse-keeper-01 9234 2 clickhouse-keeper-02 9234 3 clickhouse-keeper-03 9234 ``` ## clickhouse-keeper-02の設定 `clickhouse-keeper-01`と`clickhouse-keeper-02`間には1行の違いしかありません。このノードでは`server_id`が`2`に設定されています。 ```xml title="/etc/clickhouse-keeper/keeper_config.xml on clickhouse-keeper-02" trace /var/log/clickhouse-keeper/clickhouse-keeper.log /var/log/clickhouse-keeper/clickhouse-keeper.err.log 1000M 3 0.0.0.0 9181 2 /var/lib/clickhouse/coordination/log /var/lib/clickhouse/coordination/snapshots 10000 30000 trace 1 clickhouse-keeper-01 9234 2 clickhouse-keeper-02 9234 3 clickhouse-keeper-03 9234 ``` ## clickhouse-keeper-03の設定 `clickhouse-keeper-01`と`clickhouse-keeper-03`間には1行の違いしかありません。このノードでは`server_id`が`3`に設定されています。 ```xml title="/etc/clickhouse-keeper/keeper_config.xml on clickhouse-keeper-03" trace /var/log/clickhouse-keeper/clickhouse-keeper.log /var/log/clickhouse-keeper/clickhouse-keeper.err.log 1000M 3 0.0.0.0 9181 3 /var/lib/clickhouse/coordination/log /var/lib/clickhouse/coordination/snapshots 10000 30000 trace 1 clickhouse-keeper-01 9234 2 clickhouse-keeper-02 9234 3 clickhouse-keeper-03 9234 ``` ## テスト ReplicatedMergeTreeとClickHouse Keeperの経験を得るために、以下のコマンドを実行してみてください。これにより、以下の操作が行えます: - 上記で設定されたクラスタにデータベースを作成する - ReplicatedMergeTreeテーブルエンジンを使用してデータベースにテーブルを作成する - 1つのノードにデータを挿入し、別のノードでクエリを実行する - 1つのClickHouseサーバーノードを停止する - 動作中のノードにさらにデータを挿入する - 停止したノードを再起動する - 再起動したノードでクエリを実行して、データが利用可能であることを確認する ### ClickHouse Keeperが動作していることを確認する `mntr`コマンドは、ClickHouse Keeperが動作していることを確認し、3つのKeeperノードの関係に関する状態情報を得るために使用されます。この例で使用されている設定では、3つのノードが一緒に動作します。ノードはリーダーを選出し、残りのノードはフォロワーになります。`mntr`コマンドは、パフォーマンスに関連する情報や、特定のノードがフォロワーかリーダーであるかを示します。 :::tip Keeperに`mntr`コマンドを送信するために`netcat`をインストールする必要があるかもしれません。ダウンロード情報については[nmap.org](https://nmap.org/ncat/)ページをご覧ください。 ::: ```bash title="clickhouse-keeper-01、clickhouse-keeper-02、およびclickhouse-keeper-03のシェルで実行" echo mntr | nc localhost 9181 ``` ```response title="フォロワーからのレスポンス" zk_version v23.3.1.2823-testing-46e85357ce2da2a99f56ee83a079e892d7ec3726 zk_avg_latency 0 zk_max_latency 0 zk_min_latency 0 zk_packets_received 0 zk_packets_sent 0 zk_num_alive_connections 0 zk_outstanding_requests 0 # highlight-next-line zk_server_state follower zk_znode_count 6 zk_watch_count 0 zk_ephemerals_count 0 zk_approximate_data_size 1271 zk_key_arena_size 4096 zk_latest_snapshot_size 0 zk_open_file_descriptor_count 46 zk_max_file_descriptor_count 18446744073709551615 ``` ```response title="リーダーからのレスポンス" zk_version v23.3.1.2823-testing-46e85357ce2da2a99f56ee83a079e892d7ec3726 zk_avg_latency 0 zk_max_latency 0 zk_min_latency 0 zk_packets_received 0 zk_packets_sent 0 zk_num_alive_connections 0 zk_outstanding_requests 0 # highlight-next-line zk_server_state leader zk_znode_count 6 zk_watch_count 0 zk_ephemerals_count 0 zk_approximate_data_size 1271 zk_key_arena_size 4096 zk_latest_snapshot_size 0 zk_open_file_descriptor_count 48 zk_max_file_descriptor_count 18446744073709551615 # highlight-start zk_followers 2 zk_synced_followers 2 # highlight-end ``` ### ClickHouseクラスタの機能を確認する 1つのシェルで`clickhouse-01`に`clickhouse client`で接続し、もう1つのシェルで`clickhouse-02`に`clickhouse client`で接続します。 1. 上記で設定されたクラスタにデータベースを作成する ```sql title="ノードclickhouse-01またはclickhouse-02のいずれかで実行" CREATE DATABASE db1 ON CLUSTER cluster_1S_2R ``` ```response ┌─host──────────┬─port─┬─status─┬─error─┬─num_hosts_remaining─┬─num_hosts_active─┐ │ clickhouse-02 │ 9000 │ 0 │ │ 1 │ 0 │ │ clickhouse-01 │ 9000 │ 0 │ │ 0 │ 0 │ └───────────────┴──────┴────────┴───────┴─────────────────────┴──────────────────┘ ``` 2. ReplicatedMergeTreeテーブルエンジンを使用してデータベースにテーブルを作成する ```sql title="ノードclickhouse-01またはclickhouse-02のいずれかで実行" CREATE TABLE db1.table1 ON CLUSTER cluster_1S_2R ( `id` UInt64, `column1` String ) ENGINE = ReplicatedMergeTree ORDER BY id ``` ```response ┌─host──────────┬─port─┬─status─┬─error─┬─num_hosts_remaining─┬─num_hosts_active─┐ │ clickhouse-02 │ 9000 │ 0 │ │ 1 │ 0 │ │ clickhouse-01 │ 9000 │ 0 │ │ 0 │ 0 │ └───────────────┴──────┴────────┴───────┴─────────────────────┴──────────────────┘ ``` 3. 1つのノードでデータを挿入し、別のノードでクエリを実行する ```sql title="ノードclickhouse-01で実行" INSERT INTO db1.table1 (id, column1) VALUES (1, 'abc'); ``` 4. ノード`clickhouse-02`でテーブルをクエリする ```sql title="ノードclickhouse-02で実行" SELECT * FROM db1.table1 ``` ```response ┌─id─┬─column1─┐ │ 1 │ abc │ └────┴─────────┘ ``` 5. 他のノードでデータを挿入し、ノード`clickhouse-01`でクエリを実行する ```sql title="ノードclickhouse-02で実行" INSERT INTO db1.table1 (id, column1) VALUES (2, 'def'); ``` ```sql title="ノードclickhouse-01で実行" SELECT * FROM db1.table1 ``` ```response ┌─id─┬─column1─┐ │ 1 │ abc │ └────┴─────────┘ ┌─id─┬─column1─┐ │ 2 │ def │ └────┴─────────┘ ``` 6. 1台のClickHouseサーバーノードを停止する 1台のClickHouseサーバーノードを停止するには、ノードの起動に使用したものと似たオペレーティングシステムコマンドを実行します。`systemctl start`でノードを起動した場合、`systemctl stop`を使用して停止します。 7. 動作中のノードにさらにデータを挿入する ```sql title="動作中のノードで実行" INSERT INTO db1.table1 (id, column1) VALUES (3, 'ghi'); ``` データを選択します: ```sql title="動作中のノードで実行" SELECT * FROM db1.table1 ``` ```response ┌─id─┬─column1─┐ │ 1 │ abc │ └────┴─────────┘ ┌─id─┬─column1─┐ │ 2 │ def │ └────┴─────────┘ ┌─id─┬─column1─┐ │ 3 │ ghi │ └────┴─────────┘ ``` 8. 停止したノードを再起動し、そこでも選択する ```sql title="再起動したノードで実行" SELECT * FROM db1.table1 ``` ```response ┌─id─┬─column1─┐ │ 1 │ abc │ └────┴─────────┘ ┌─id─┬─column1─┐ │ 2 │ def │ └────┴─────────┘ ┌─id─┬─column1─┐ │ 3 │ ghi │ └────┴─────────┘ ```