2020-03-22 09:14:59 +00:00
# MergeTree {#table_engines-mergetree}
2019-03-28 20:51:29 +00:00
2019-04-22 08:27:13 +00:00
Clickhouse 中最强大的表引擎当属 `MergeTree` (合并树)引擎及该系列(`*MergeTree`)中的其他引擎。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
`MergeTree` 系列的引擎被设计用于插入极大量的数据到一张表当中。数据可以以数据片段的形式一个接着一个的快速写入,数据片段在后台按照一定的规则进行合并。相比在插入时不断修改(重写)已存储的数据,这种策略会高效很多。
2019-03-28 20:51:29 +00:00
主要特点:
2020-03-21 04:11:51 +00:00
- 存储的数据按主键排序。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
这使得你能够创建一个小型的稀疏索引来加快数据检索。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
- 支持数据分区,如果指定了 [分区键 ](custom-partitioning-key.md ) 的话。
2019-03-28 20:51:29 +00:00
2020-08-27 08:20:42 +00:00
在相同数据集和相同结果集的情况下 ClickHouse 中某些带分区的操作会比普通操作更快。查询中指定了分区键时 ClickHouse 会自动截取分区数据。这也有效增加了查询性能。
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- 支持数据副本。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
`ReplicatedMergeTree` 系列的表提供了数据副本功能。更多信息,请参阅 [数据副本 ](replication.md ) 一节。
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- 支持数据采样。
2019-03-28 20:51:29 +00:00
2020-08-27 08:20:42 +00:00
需要的话,你可以给表设置一个采样方法。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
!!! note "注意"
2020-05-06 06:13:29 +00:00
[合并 ](../special/merge.md#merge ) 引擎并不属于 `*MergeTree` 系列。
2019-03-28 20:51:29 +00:00
2020-03-22 09:14:59 +00:00
## 建表 {#table_engine-mergetree-creating-a-table}
2020-03-20 18:20:59 +00:00
2020-08-27 13:21:43 +00:00
``` sql
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1] [TTL expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2] [TTL expr2],
...
INDEX index_name1 expr1 TYPE type1(...) GRANULARITY value1,
INDEX index_name2 expr2 TYPE type2(...) GRANULARITY value2
) ENGINE = MergeTree()
ORDER BY expr
[PARTITION BY expr]
[PRIMARY KEY expr]
[SAMPLE BY expr]
[TTL expr [DELETE|TO DISK 'xxx'|TO VOLUME 'xxx'], ...]
[SETTINGS name=value, ...]
```
2019-03-28 20:51:29 +00:00
2020-08-27 08:20:42 +00:00
对于以上参数的描述,可参考 [CREATE 语句 的描述 ](../../../engines/table-engines/mergetree-family/mergetree.md ) 。
2019-03-28 20:51:29 +00:00
2020-01-28 15:27:44 +00:00
< a name = "mergetree-query-clauses" > < / a >
2019-03-28 20:51:29 +00:00
**子句**
2020-03-21 04:11:51 +00:00
- `ENGINE` - 引擎名和参数。 `ENGINE = MergeTree()` . `MergeTree` 引擎没有参数。
2019-03-28 20:51:29 +00:00
2020-08-27 08:20:42 +00:00
- `ORDER BY` — 排序键。
可以是一组列的元组或任意的表达式。 例如: `ORDER BY (CounterID, EventDate)` 。
如果没有使用 `PRIMARY KEY` 显式的指定主键, ClickHouse 会使用排序键作为主键。
如果不需要排序,可以使用 `ORDER BY tuple()` . 参考 [选择主键 ](https://clickhouse.tech/docs/en/engines/table-engines/mergetree-family/mergetree/#selecting-the-primary-key )
2019-03-28 20:51:29 +00:00
2020-08-27 08:20:42 +00:00
- `PARTITION BY` — [分区键 ](custom-partitioning-key.md ) 。
2019-03-28 20:51:29 +00:00
2020-08-27 08:20:42 +00:00
要按月分区,可以使用表达式 `toYYYYMM(date_column)` ,这里的 `date_column` 是一个 [Date ](../../../engines/table-engines/mergetree-family/mergetree.md ) 类型的列。分区名的格式会是 `"YYYYMM"` 。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
- `PRIMARY KEY` - 主键,如果要 [选择与排序键不同的主键 ](#choosing-a-primary-key-that-differs-from-the-sorting-key ),可选。
2019-03-28 20:51:29 +00:00
2020-08-27 08:20:42 +00:00
默认情况下主键跟排序键(由 `ORDER BY` 子句指定)相同。
因此,大部分情况下不需要再专门指定一个 `PRIMARY KEY` 子句。
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- `SAMPLE BY` — 用于抽样的表达式。
2019-03-28 20:51:29 +00:00
2020-08-27 08:20:42 +00:00
如果要用抽样表达式,主键中必须包含这个表达式。例如:
`SAMPLE BY intHash32(UserID) ORDER BY (CounterID, EventDate, intHash32(UserID))` 。
2020-08-27 13:21:43 +00:00
- TTL 指定行存储的持续时间并定义数据片段在硬盘和卷上的移动逻辑的规则列表,可选。
2020-08-27 08:20:42 +00:00
表达式中必须存在至少一个 `Date` 或 `DateTime` 类型的列,比如:
`TTL date + INTERVAl 1 DAY`
2020-08-27 13:21:43 +00:00
规则的类型 `DELETE|TO DISK 'xxx'|TO VOLUME 'xxx'` 指定了当满足条件(到达指定时间)时所要执行的动作:移除过期的行,还是将数据片段(如果数据片段中的所有行都满足表达式的话)移动到指定的磁盘(`TO DISK 'xxx'`) 或 卷(`TO VOLUME 'xxx'`)。默认的规则是移除(`DELETE`)。可以在列表中指定多个规则,但最多只能有一个`DELETE`的规则。
更多细节,请查看 [表和列的 TTL ](#table_engine-mergetree-ttl )
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
- `SETTINGS` — 控制 `MergeTree` 行为的额外参数:
2020-03-21 04:11:51 +00:00
2020-08-27 13:21:43 +00:00
- `index_granularity` — 索引粒度。索引中相邻的『标记』间的数据行数。默认值, 8192 。参考[数据存储](#mergetree-data-storage)。
2020-08-27 08:20:42 +00:00
- `index_granularity_bytes` — 索引粒度,以字节为单位,默认值: 10Mb。如果想要仅按数据行数限制索引粒度, 请设置为0(不建议)。
- `enable_mixed_granularity_parts` — 是否启用通过 `index_granularity_bytes` 控制索引粒度的大小。在19.11版本之前, 只有 `index_granularity` 配置能够用于限制索引粒度的大小。当从具有很大的行(几十上百兆字节)的表中查询数据时候,`index_granularity_bytes` 配置能够提升ClickHouse的性能。如果你的表里有很大的行, 可以开启这项配置来提升`SELECT` 查询的性能。
- `use_minimalistic_part_header_in_zookeeper` — 是否在 ZooKeeper 中启用最小的数据片段头 。如果设置了 `use_minimalistic_part_header_in_zookeeper=1` , ZooKeeper 会存储更少的数据。更多信息参考『服务配置参数』这章中的 [设置描述 ](../../../operations/server-configuration-parameters/settings.md#server-settings-use_minimalistic_part_header_in_zookeeper ) 。
2020-03-21 04:11:51 +00:00
- `min_merge_bytes_to_use_direct_io` — 使用直接 I/O 来操作磁盘的合并操作时要求的最小数据量。合并数据片段时, ClickHouse 会计算要被合并的所有数据的总存储空间。如果大小超过了 `min_merge_bytes_to_use_direct_io` 设置的字节数,则 ClickHouse 将使用直接 I/O 接口(`O_DIRECT` 选项)对磁盘读写。如果设置 `min_merge_bytes_to_use_direct_io = 0` ,则会禁用直接 I/O。默认值: `10 * 1024 * 1024 * 1024` 字节。
< a name = "mergetree_setting-merge_with_ttl_timeout" > < / a >
2020-08-27 08:20:42 +00:00
- `merge_with_ttl_timeout` — TTL合并频率的最小间隔时间, 单位: 秒。默认值: 86400 (1 天)。
- `write_final_mark` — 是否启用在数据片段尾部写入最终索引标记。默认值: 1( 不建议更改) 。
2020-08-27 13:21:43 +00:00
- `merge_max_block_size` — 在块中进行合并操作时的最大行数限制。默认值: 8192
- `storage_policy` — 存储策略。 参见 [使用具有多个块的设备进行数据存储 ](#table_engine-mergetree-multiple-volumes ).
- `min_bytes_for_wide_part` ,`min_rows_for_wide_part` 在数据片段中可以使用`Wide`格式进行存储的最小字节数/行数。你可以不设置、只设置一个,或全都设置。参考:[数据存储](#mergetree-data-storage)
2019-03-28 20:51:29 +00:00
**示例配置**
2020-08-27 13:21:43 +00:00
``` sql
ENGINE MergeTree() PARTITION BY toYYYYMM(EventDate) ORDER BY (CounterID, EventDate, intHash32(UserID)) SAMPLE BY intHash32(UserID) SETTINGS index_granularity=8192
```
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
在这个例子中,我们设置了按月进行分区。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
同时我们设置了一个按用户 ID 哈希的抽样表达式。这使得你可以对该表中每个 `CounterID` 和 `EventDate` 的数据伪随机分布。如果你在查询时指定了 [SAMPLE ](../../../engines/table-engines/mergetree-family/mergetree.md#select-sample-clause ) 子句。 ClickHouse会返回对于用户子集的一个均匀的伪随机数据采样。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
`index_granularity` 可省略因为 8192 是默认设置 。
2019-03-28 20:51:29 +00:00
2020-03-20 18:20:59 +00:00
< details markdown = "1" >
< summary > 已弃用的建表方法< / summary >
2019-03-28 20:51:29 +00:00
2019-04-24 06:51:01 +00:00
!!! attention "注意"
2019-03-28 20:51:29 +00:00
不要在新版项目中使用该方法,可能的话,请将旧项目切换到上述方法。
2020-03-21 04:11:51 +00:00
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
...
) ENGINE [=] MergeTree(date-column [, sampling_expression], (primary, key), index_granularity)
2019-03-28 20:51:29 +00:00
**MergeTree() 参数**
2020-04-30 18:19:18 +00:00
- `date-column` — 类型为 [日期 ](../../../engines/table-engines/mergetree-family/mergetree.md ) 的列名。ClickHouse 会自动依据这个列按月创建分区。分区名格式为 `"YYYYMM"` 。
2020-03-21 04:11:51 +00:00
- `sampling_expression` — 采样表达式。
2020-04-30 18:19:18 +00:00
- `(primary, key)` — 主键。类型 — [元组() ](../../../engines/table-engines/mergetree-family/mergetree.md )
2020-03-21 04:11:51 +00:00
- `index_granularity` — 索引粒度。即索引中相邻『标记』间的数据行数。设为 8192 可以适用大部分场景。
2019-03-28 20:51:29 +00:00
**示例**
2020-03-21 04:11:51 +00:00
MergeTree(EventDate, intHash32(UserID), (CounterID, EventDate, intHash32(UserID)), 8192)
2019-03-28 20:51:29 +00:00
对于主要的配置方法,这里 `MergeTree` 引擎跟前面的例子一样,可以以同样的方式配置。
< / details >
2019-11-20 04:38:40 +00:00
## 数据存储 {#mergetree-data-storage}
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
表由按主键排序的数据片段( DATA PART) 组成。
当数据被插入到表中时,会创建多个数据片段并按主键的字典序排序。例如,主键是 `(CounterID, Date)` 时,片段中数据首先按 `CounterID` 排序,具有相同 `CounterID` 的部分按 `Date` 排序。
不同分区的数据会被分成不同的片段, ClickHouse 在后台合并数据片段以便更高效存储。不同分区的数据片段不会进行合并。合并机制并不保证具有相同主键的行全都合并到同一个数据片段中。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
数据片段可以以 `Wide` 或 `Compact` 格式存储。在 `Wide` 格式下,每一列都会在文件系统中存储为单独的文件,在 `Compact` 格式下所有列都存储在一个文件中。`Compact` 格式可以提高插入量少插入频率频繁时的性能。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
数据存储格式由 `min_bytes_for_wide_part` 和 `min_rows_for_wide_part` 表引擎参数控制。如果数据片段中的字节数或行数少于相应的设置值,数据片段会以 `Compact` 格式存储,否则会以 `Wide` 格式存储。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
每个数据片段被逻辑的分割成颗粒( granules) 。颗粒是 ClickHouse 中进行数据查询时的最小不可分割数据集。ClickHouse 不会对行或值进行拆分,所以每个颗粒总是包含整数个行。每个颗粒的第一行通过该行的主键值进行标记,
ClickHouse 会为每个数据片段创建一个索引文件来存储这些标记。对于每列, 无论它是否包含在主键当中, ClickHouse 都会存储类似标记。这些标记让你可以在列文件中直接找到数据。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
颗粒的大小通过表引擎参数 `index_granularity` 和 `index_granularity_bytes` 控制。取决于行的大小,颗粒的行数的在 `[1, index_granularity]` 范围中。如果单行的大小超过了 `index_granularity_bytes` 设置的值,那么一个颗粒的大小会超过 `index_granularity_bytes` 。在这种情况下,颗粒的大小等于该行的大小。
2019-03-28 20:51:29 +00:00
2020-03-20 18:20:59 +00:00
## 主键和索引在查询中的表现 {#primary-keys-and-indexes-in-queries}
2019-03-28 20:51:29 +00:00
我们以 `(CounterID, Date)` 以主键。排序好的索引的图示会是下面这样:
2020-03-21 04:11:51 +00:00
全部数据 : [-------------------------------------------------------------------------]
CounterID: [aaaaaaaaaaaaaaaaaabbbbcdeeeeeeeeeeeeefgggggggghhhhhhhhhiiiiiiiiikllllllll]
Date: [1111111222222233331233211111222222333211111112122222223111112223311122333]
标记: | | | | | | | | | | |
a,1 a,2 a,3 b,3 e,2 e,3 g,1 h,2 i,1 i,3 l,3
标记号: 0 1 2 3 4 5 6 7 8 9 10
2019-03-28 20:51:29 +00:00
如果指定查询如下:
2020-03-21 04:11:51 +00:00
- `CounterID in ('a', 'h')` ,服务器会读取标记号在 `[0, 3)` 和 `[6, 8)` 区间中的数据。
- `CounterID IN ('a', 'h') AND Date = 3` ,服务器会读取标记号在 `[1, 3)` 和 `[7, 8)` 区间中的数据。
- `Date = 3` ,服务器会读取标记号在 `[1, 10]` 区间中的数据。
2019-03-28 20:51:29 +00:00
上面例子可以看出使用索引通常会比全表描述要高效。
2020-08-27 13:21:43 +00:00
稀疏索引会引起额外的数据读取。当读取主键单个区间范围的数据时,每个数据块中最多会多读 `index_granularity * 2` 行额外的数据。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
稀疏索引使得你可以处理极大量的行, 因为大多数情况下, 这些索引常驻与内存( RAM) 中。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
ClickHouse 不要求主键惟一,所以你可以插入多条具有相同主键的行。
2019-03-28 20:51:29 +00:00
2020-03-20 18:20:59 +00:00
### 主键的选择 {#zhu-jian-de-xuan-ze}
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
主键中列的数量并没有明确的限制。依据数据结构,你可以在主键包含多些或少些列。这样可以:
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- 改善索引的性能。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
如果当前主键是 `(a, b)` ,在下列情况下添加另一个 `c` 列会提升性能:
- 查询会使用 `c` 列作为条件
- 很长的数据范围( `index_granularity` 的数倍)里 `(a, b)` 都是相同的值,并且这样的情况很普遍。换言之,就是加入另一列后,可以让你的查询略过很长的数据范围。
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- 改善数据压缩。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
ClickHouse 以主键排序片段数据,所以,数据的一致性越高,压缩越好。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
- 在[CollapsingMergeTree](collapsingmergetree.md#table_engine-collapsingmergetree) 和 [SummingMergeTree ](summingmergetree.md ) 引擎里进行数据合并时会提供额外的处理逻辑。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
在这种情况下,指定与主键不同的 *排序键* 也是有意义的。
2019-03-28 20:51:29 +00:00
长的主键会对插入性能和内存消耗有负面影响,但主键中额外的列并不影响 `SELECT` 查询的性能。
2020-08-27 13:21:43 +00:00
可以使用 `ORDER BY tuple()` 语法创建没有主键的表。在这种情况下 ClickHouse 根据数据插入的顺序存储。如果在使用 `INSERT ... SELECT` 时希望保持数据的排序,请设置 [max\_insert\_threads = 1 ](../../../operations/settings/settings.md#settings-max-insert-threads )。
想要根据初始顺序进行数据查询,使用 [单线程查询 ](../../../operations/settings/settings.md#settings-max_threads )
### 选择与排序键不同主键 {#choosing-a-primary-key-that-differs-from-the-sorting-key}
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
指定一个跟排序键不一样的主键是可以的,此时排序键用于在数据片段中进行排序,主键用于在索引文件中进行标记的写入。这种情况下,主键表达式元组必须是排序键表达式元组的前缀。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
当使用 [SummingMergeTree ](summingmergetree.md ) 和 [AggregatingMergeTree ](aggregatingmergetree.md ) 引擎时,这个特性非常有用。通常在使用这类引擎时,表里的列分两种:*维度* 和 *度量* 。典型的查询会通过任意的 `GROUP BY` 对度量列进行聚合并通过维度列进行过滤。由于 SummingMergeTree 和 AggregatingMergeTree 会对排序键相同的行进行聚合,所以把所有的维度放进排序键是很自然的做法。但这将导致排序键中包含大量的列,并且排序键会伴随着新添加的维度不断的更新。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
在这种情况下合理的做法是,只保留少量的列在主键当中用于提升扫描效率,将维度列添加到排序键中。
2019-03-28 20:51:29 +00:00
2020-08-28 14:54:30 +00:00
对排序键进行 [ALTER ](../../../sql-reference/statements/alter.md ) 是轻量级的操作,因为当一个新列同时被加入到表里和排序键里时,已存在的数据片段并不需要修改。由于旧的排序键是新排序键的前缀,并且新添加的列中没有数据,因此在表修改时的数据对于新旧的排序键来说都是有序的。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
### 索引和分区在查询中的应用 {#use-of-indexes-and-partitions-in-queries}
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
对于 `SELECT` 查询, ClickHouse 分析是否可以使用索引。如果 `WHERE/PREWHERE` 子句具有下面这些表达式(作为谓词链接一子项或整个)则可以使用索引:包含一个表示与主键/分区键中的部分字段或全部字段相等/不等的比较表达式;基于主键/分区键的字段上的 `IN` 或 固定前缀的`LIKE` 表达式;基于主键/分区键的字段上的某些函数;基于主键/分区键的表达式的逻辑表达式。 <!-- It is too hard for me to translate this section as the original text completely. So I did it with my own understanding. If you have good idea, please help me. -->
<!-- It is hard for me to translate this section too, but I think change the sentence struct is helpful for understanding. So I change the phraseology -->
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
因此,在索引键的一个或多个区间上快速地执行查询都是可能的。下面例子中,指定标签;指定标签和日期范围;指定标签和日期;指定多个标签和日期范围等执行查询,都会非常快。
2019-03-28 20:51:29 +00:00
当引擎配置如下时:
2020-03-21 04:11:51 +00:00
ENGINE MergeTree() PARTITION BY toYYYYMM(EventDate) ORDER BY (CounterID, EventDate) SETTINGS index_granularity=8192
2019-03-28 20:51:29 +00:00
这种情况下,这些查询:
``` sql
SELECT count() FROM table WHERE EventDate = toDate(now()) AND CounterID = 34
SELECT count() FROM table WHERE EventDate = toDate(now()) AND (CounterID = 34 OR CounterID = 42)
SELECT count() FROM table WHERE ((EventDate >= toDate('2014-01-01') AND EventDate < = toDate('2014-01-31')) OR EventDate = toDate('2014-05-01')) AND CounterID IN (101500, 731962, 160656) AND (CounterID = 101500 OR EventDate != toDate('2014-05-01'))
```
ClickHouse 会依据主键索引剪掉不符合的数据,依据按月分区的分区键剪掉那些不包含符合数据的分区。
上文的查询显示,即使索引用于复杂表达式。因为读表操作是组织好的,所以,使用索引不会比完整扫描慢。
下面这个例子中,不会使用索引。
``` sql
SELECT count() FROM table WHERE CounterID = 34 OR URL LIKE '%upyachka%'
```
2020-04-08 14:22:25 +00:00
要检查 ClickHouse 执行一个查询时能否使用索引,可设置 [force\_index\_by\_date ](../../../operations/settings/settings.md#settings-force_index_by_date ) 和 [force\_primary\_key ](../../../operations/settings/settings.md ) 。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
按月分区的分区键是只能读取包含适当范围日期的数据块。这种情况下,数据块会包含很多天(最多整月)的数据。在块中,数据按主键排序,主键第一列可能不包含日期。因此,仅使用日期而没有带主键前几个字段作为条件的查询将会导致需要读取超过这个指定日期以外的数据。
### 部分单调主键的使用
考虑这样的场景,比如一个月中的几天。它们在一个月的范围内形成一个[单调序列](https://zh.wikipedia.org/wiki/单调函数) , 但如果扩展到更大的时间范围它们就不再单调了。这就是一个部分单调序列。如果用户使用部分单调的主键创建表, ClickHouse同样会创建一个稀疏索引。当用户从这类表中查询数据时, ClickHouse 会对查询条件进行分析。如果用户希望获取两个索引标记之间的数据并且这两个标记在一个月以内, ClickHouse 可以在这种特殊情况下使用到索引,因为它可以计算出查询参数与索引标记之间的距离。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
如果查询参数范围内的主键不是单调序列,那么 ClickHouse 无法使用索引。在这种情况下, ClickHouse 会进行全表扫描。
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
ClickHouse 在任何主键代表一个部分单调序列的情况下都会使用这个逻辑。
### 跳数索引 {#tiao-shu-suo-yin-fen-duan-hui-zong-suo-yin-shi-yan-xing-de}
2019-03-28 20:51:29 +00:00
此索引在 `CREATE` 语句的列部分里定义。
2020-03-20 18:20:59 +00:00
``` sql
2019-03-28 20:51:29 +00:00
INDEX index_name expr TYPE type(...) GRANULARITY granularity_value
```
2020-08-27 13:21:43 +00:00
`*MergeTree` 系列的表可以指定跳数索引。
2019-03-28 20:51:29 +00:00
这些索引是由数据块按粒度分割后的每部分在指定表达式上汇总信息 `granularity_value` 组成(粒度大小用表引擎里 `index_granularity` 的指定)。
这些汇总信息有助于用 `where` 语句跳过大片不满足的数据,从而减少 `SELECT` 查询从磁盘读取的数据量,
2020-08-27 13:21:43 +00:00
这些索引会在数据块上聚合指定表达式的信息,这些信息以 granularity_value 指定的粒度组成 (粒度的大小通过在表引擎中定义 index_granularity 定义)。这些汇总信息有助于跳过大片不满足 `where` 条件的数据,从而减少 `SELECT` 查询从磁盘读取的数据量。
**示例**
2020-03-20 18:20:59 +00:00
``` sql
2019-03-28 20:51:29 +00:00
CREATE TABLE table_name
(
u64 UInt64,
i32 Int32,
s String,
...
INDEX a (u64 * i32, s) TYPE minmax GRANULARITY 3,
INDEX b (u64 * length(s)) TYPE set(1000) GRANULARITY 4
) ENGINE = MergeTree()
...
```
上例中的索引能让 ClickHouse 执行下面这些查询时减少读取数据量。
2020-03-20 18:20:59 +00:00
``` sql
2019-03-28 20:51:29 +00:00
SELECT count() FROM table WHERE s < 'z'
SELECT count() FROM table WHERE u64 * i32 == 10 AND u64 * length(s) >= 1234
```
2020-03-22 09:14:59 +00:00
#### 索引的可用类型 {#table_engine-mergetree-data_skipping-indexes}
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- `minmax`
存储指定表达式的极值(如果表达式是 `tuple` ,则存储 `tuple` 中每个元素的极值),这些信息用于跳过数据块,类似主键。
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- `set(max_rows)`
2020-08-27 13:21:43 +00:00
存储指定表达式的不重复值(不超过 `max_rows` 个,`max_rows=0` 则表示『无限制』)。这些信息可用于检查 数据块是否满足 `WHERE` 条件。
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- `ngrambf_v1(n, size_of_bloom_filter_in_bytes, number_of_hash_functions, random_seed)`
2020-08-27 13:21:43 +00:00
存储一个包含数据块中所有 n元短语( ngram) 的 [布隆过滤器 ](https://en.wikipedia.org/wiki/Bloom_filter ) 。只可用在字符串上。
2020-03-21 04:11:51 +00:00
可用于优化 `equals` , `like` 和 `in` 表达式的性能。
`n` – 短语长度。
2020-08-27 13:21:43 +00:00
`size_of_bloom_filter_in_bytes` – 布隆过滤器大小,单位字节。(因为压缩得好,可以指定比较大的值,如 256 或 512) 。
`number_of_hash_functions` – 布隆过滤器中使用的哈希函数的个数。
`random_seed` – 哈希函数的随机种子。
2019-03-28 20:51:29 +00:00
2020-03-21 04:11:51 +00:00
- `tokenbf_v1(size_of_bloom_filter_in_bytes, number_of_hash_functions, random_seed)`
2020-08-27 13:21:43 +00:00
跟 `ngrambf_v1` 类似,不同于 ngrams 存储字符串指定长度的所有片段。它只存储被非字母数字字符分割的片段。
- `bloom_filter(bloom_filter([false_positive])` – 为指定的列存储布隆过滤器
2019-03-28 20:51:29 +00:00
2020-08-27 13:21:43 +00:00
可选的参数 false_positive 用来指定从布隆过滤器收到错误响应的几率。取值范围是 (0,1), 默认值: 0.025
支持的数据类型:`Int*`, `UInt*` , `Float*` , `Enum` , `Date` , `DateTime` , `String` , `FixedString` , `Array` , `LowCardinality` , `Nullable` 。
以下函数会用到这个索引: [equals ](../../../sql-reference/functions/comparison-functions.md ), [notEquals ](../../../sql-reference/functions/comparison-functions.md ), [in ](../../../sql-reference/functions/in-functions.md ), [notIn ](../../../sql-reference/functions/in-functions.md ), [has ](../../../sql-reference/functions/array-functions.md )
2020-03-20 18:20:59 +00:00
<!-- -->
``` sql
2019-03-28 20:51:29 +00:00
INDEX sample_index (u64 * length(s)) TYPE minmax GRANULARITY 4
INDEX sample_index2 (u64 * length(str), i32 + f64 * 100, date, str) TYPE set(100) GRANULARITY 4
INDEX sample_index3 (lower(str), str) TYPE ngrambf_v1(3, 256, 2, 0) GRANULARITY 4
```
2020-08-27 13:21:43 +00:00
#### 函数支持 {#functions-support}
WHERE 子句中的条件包含对列的函数调用, 如果列是索引的一部分, ClickHouse 会在执行函数时尝试使用索引。不同的函数对索引的支持是不同的。
`set` 索引会对所有函数生效,其他索引对函数的生效情况见下表
| 函数 (操作符) / 索引 | primary key | minmax | ngrambf\_v1 | tokenbf\_v1 | bloom\_filter |
|------------------------------------------------------------------------------------------------------------|-------------|--------|-------------|-------------|---------------|
| [equals (=, ==) ](../../../sql-reference/functions/comparison-functions.md#function-equals ) | ✔ | ✔ | ✔ | ✔ | ✔ |
| [notEquals(!=, \<\>) ](../../../sql-reference/functions/comparison-functions.md#function-notequals ) | ✔ | ✔ | ✔ | ✔ | ✔ |
| [like ](../../../sql-reference/functions/string-search-functions.md#function-like ) | ✔ | ✔ | ✔ | ✔ | ✔ |
| [notLike ](../../../sql-reference/functions/string-search-functions.md#function-notlike ) | ✔ | ✔ | ✗ | ✗ | ✗ |
| [startsWith ](../../../sql-reference/functions/string-functions.md#startswith ) | ✔ | ✔ | ✔ | ✔ | ✗ |
| [endsWith ](../../../sql-reference/functions/string-functions.md#endswith ) | ✗ | ✗ | ✔ | ✔ | ✗ |
| [multiSearchAny ](../../../sql-reference/functions/string-search-functions.md#function-multisearchany ) | ✗ | ✗ | ✔ | ✗ | ✗ |
| [in ](../../../sql-reference/functions/in-functions.md#in-functions ) | ✔ | ✔ | ✔ | ✔ | ✔ |
| [notIn ](../../../sql-reference/functions/in-functions.md#in-functions ) | ✔ | ✔ | ✔ | ✔ | ✔ |
| [less (\<) ](../../../sql-reference/functions/comparison-functions.md#function-less ) | ✔ | ✔ | ✗ | ✗ | ✗ |
| [greater (\>) ](../../../sql-reference/functions/comparison-functions.md#function-greater ) | ✔ | ✔ | ✗ | ✗ | ✗ |
| [lessOrEquals (\<=) ](../../../sql-reference/functions/comparison-functions.md#function-lessorequals ) | ✔ | ✔ | ✗ | ✗ | ✗ |
| [greaterOrEquals (\>=) ](../../../sql-reference/functions/comparison-functions.md#function-greaterorequals ) | ✔ | ✔ | ✗ | ✗ | ✗ |
| [empty ](../../../sql-reference/functions/array-functions.md#function-empty ) | ✔ | ✔ | ✗ | ✗ | ✗ |
| [notEmpty ](../../../sql-reference/functions/array-functions.md#function-notempty ) | ✔ | ✔ | ✗ | ✗ | ✗ |
| hasToken | ✗ | ✗ | ✗ | ✔ | ✗ |
常量参数小于 ngram 大小的函数不能使用 `ngrambf_v1` 进行查询优化。
!!! note "注意"
布隆过滤器可能会包含不符合条件的匹配,所以 `ngrambf_v1` , `tokenbf_v1` 和 `bloom_filter` 索引不能用于负向的函数,例如:
- 可以用来优化的场景
- `s LIKE '%test%'`
- `NOT s NOT LIKE '%test%'`
- `s = 1`
- `NOT s != 1`
- `startsWith(s, 'test')`
- 不能用来优化的场景
- `NOT s LIKE '%test%'`
- `s NOT LIKE '%test%'`
- `NOT s = 1`
- `s != 1`
- `NOT startsWith(s, 'test')`
## 并发数据访问 {#concurrent-data-access}
2019-03-28 20:51:29 +00:00
2019-04-22 08:27:13 +00:00
应对表的并发访问,我们使用多版本机制。换言之,当同时读和更新表时,数据从当前查询到的一组片段中读取。没有冗长的的锁。插入不会阻碍读取。
2019-03-28 20:51:29 +00:00
对表的读操作是自动并行的。
2020-08-27 13:21:43 +00:00
## 列和表的 TTL {#table_engine-mergetree-ttl}
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
TTL 可以设置值的生命周期,它既可以为整张表设置,也可以为每个列字段单独设置。表级别的 TTL 还会指定数据在磁盘和卷上自动转移的逻辑。
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
TTL 表达式的计算结果必须是 [日期 ](../../../engines/table-engines/mergetree-family/mergetree.md ) 或 [日期时间 ](../../../engines/table-engines/mergetree-family/mergetree.md ) 类型的字段。
示例:
2019-11-19 14:51:20 +00:00
2020-03-20 18:20:59 +00:00
``` sql
2019-11-19 14:51:20 +00:00
TTL time_column
TTL time_column + interval
```
2020-04-30 18:19:18 +00:00
要定义`interval`, 需要使用 [时间间隔 ](../../../engines/table-engines/mergetree-family/mergetree.md#operators-datetime ) 操作符。
2019-11-19 14:51:20 +00:00
2020-03-20 18:20:59 +00:00
``` sql
2019-11-19 14:51:20 +00:00
TTL date_time + INTERVAL 1 MONTH
TTL date_time + INTERVAL 15 HOUR
```
2020-08-27 13:21:43 +00:00
### 列 TTL {#mergetree-column-ttl}
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
当列中的值过期时, ClickHouse会将它们替换成该列数据类型的默认值。如果数据片段中列的所有值均已过期, 则ClickHouse 会从文件系统中的数据片段中此列。
2019-11-19 14:51:20 +00:00
`TTL` 子句不能被用于主键字段。
2020-08-27 13:21:43 +00:00
示例:
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
创建表时指定 `TTL`
2019-11-19 14:51:20 +00:00
2020-03-20 18:20:59 +00:00
``` sql
CREATE TABLE example_table
2019-11-19 14:51:20 +00:00
(
d DateTime,
a Int TTL d + INTERVAL 1 MONTH,
b Int TTL d + INTERVAL 1 MONTH,
c String
)
ENGINE = MergeTree
PARTITION BY toYYYYMM(d)
ORDER BY d;
```
为表中已存在的列字段添加 `TTL`
2020-03-20 18:20:59 +00:00
``` sql
2019-11-19 14:51:20 +00:00
ALTER TABLE example_table
MODIFY COLUMN
c String TTL d + INTERVAL 1 DAY;
```
修改列字段的 `TTL`
2020-03-20 18:20:59 +00:00
``` sql
2019-11-19 14:51:20 +00:00
ALTER TABLE example_table
MODIFY COLUMN
c String TTL d + INTERVAL 1 MONTH;
```
2020-02-20 14:38:57 +00:00
### 表 TTL {#mergetree-table-ttl}
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
表可以设置一个用于移除过期行的表达式, 以及多个用于在磁盘或卷上自动转移数据片段的表达式。当表中的行过期时, ClickHouse 会删除所有对应的行。对于数据片段的转移特性,必须所有的行都满足转移条件。
``` sql
TTL expr [DELETE|TO DISK 'aaa'|TO VOLUME 'bbb'], ...
```
TTL 规则的类型紧跟在每个 TTL 表达式后面,它会影响满足表达式时(到达指定时间时)应当执行的操作:
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
- `DELETE` - 删除过期的行(默认操作);
- `TO DISK 'aaa'` - 将数据片段移动到磁盘 `aaa` ;
- `TO VOLUME 'bbb'` - 将数据片段移动到卷 `bbb` .
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
示例:
创建时指定 TTL
2019-11-19 14:51:20 +00:00
2020-03-20 18:20:59 +00:00
``` sql
CREATE TABLE example_table
2019-11-19 14:51:20 +00:00
(
d DateTime,
a Int
)
ENGINE = MergeTree
PARTITION BY toYYYYMM(d)
ORDER BY d
2020-08-27 13:21:43 +00:00
TTL d + INTERVAL 1 MONTH [DELETE],
d + INTERVAL 1 WEEK TO VOLUME 'aaa',
d + INTERVAL 2 WEEK TO DISK 'bbb';
2019-11-19 14:51:20 +00:00
```
修改表的 `TTL`
2020-03-20 18:20:59 +00:00
``` sql
2019-11-19 14:51:20 +00:00
ALTER TABLE example_table
MODIFY TTL d + INTERVAL 1 DAY;
```
**删除数据**
2020-08-27 13:21:43 +00:00
ClickHouse 在数据片段合并时会删除掉过期的数据。
当ClickHouse发现数据过期时, 它将会执行一个计划外的合并。要控制这类合并的频率, 你可以设置 `merge_with_ttl_timeout` 。如果该值被设置的太低, 它将引发大量计划外的合并,这可能会消耗大量资源。
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
如果在合并的过程中执行 `SELECT` 查询, 则可能会得到过期的数据。为了避免这种情况,可以在 `SELECT` 之前使用 [OPTIMIZE ](../../../engines/table-engines/mergetree-family/mergetree.md#misc_operations-optimize ) 查询。
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
## 使用具有多个块的设备进行数据存储 {#table_engine-mergetree-multiple-volumes}
2019-11-19 14:51:20 +00:00
2020-08-27 13:21:43 +00:00
### 介绍 {#introduction}
MergeTree 系列表引擎可以将数据存储在多块设备上。这对某些可以潜在被划分为“冷”“热”的表来说是很有用的。近期数据被定期的查询但只需要很小的空间。相反,详尽的历史数据很少被用到。如果有多块磁盘可用,那么“热”的数据可以放置在快速的磁盘上(比如 NVMe 固态硬盘或内存),“冷”的数据可以放在相对较慢的磁盘上(比如机械硬盘)。
2020-08-28 14:54:30 +00:00
数据片段是 `MergeTree` 引擎表的最小可移动单元。属于同一个数据片段的数据被存储在同一块磁盘上。数据片段会在后台自动的在磁盘间移动,也可以通过 [ALTER ](../../../sql-reference/statements/alter.md#alter_move-partition ) 查询来移动。
2020-08-27 13:21:43 +00:00
### 术语 {#terms}
- 磁盘 — 挂载到文件系统的块设备
- 默认磁盘 — 在服务器设置中通过 [path ](../../../operations/server-configuration-parameters/settings.md#server_configuration_parameters-path ) 参数指定的数据存储
- 卷 — 磁盘的等效有序集合 (类似于 [JBOD ](https://en.wikipedia.org/wiki/Non-RAID_drive_architectures ))
- 存储策略 — 卷的集合及他们之间的数据移动规则
2019-11-19 14:51:20 +00:00
2020-05-06 06:13:29 +00:00
### 配置 {#table_engine-mergetree-multiple-volumes_configure}
2019-11-20 04:38:40 +00:00
2020-08-27 13:21:43 +00:00
磁盘、卷和存储策略应当在主文件 `config.xml` 或 `config.d` 目录中的独立文件中的 `<storage_configuration>` 标签内定义。
配置结构:
``` xml
< storage_configuration >
< disks >
< disk_name_1 > <!-- disk name -->
< path > /mnt/fast_ssd/clickhouse/< / path >
< / disk_name_1 >
< disk_name_2 >
< path > /mnt/hdd1/clickhouse/< / path >
< keep_free_space_bytes > 10485760< / keep_free_space_bytes >
< / disk_name_2 >
< disk_name_3 >
< path > /mnt/hdd2/clickhouse/< / path >
< keep_free_space_bytes > 10485760< / keep_free_space_bytes >
< / disk_name_3 >
...
< / disks >
...
< / storage_configuration >
```
标签:
- `<disk_name_N>` — 磁盘名,名称必须与其他磁盘不同.
- `path` — 服务器将用来存储数据 (`data` 和 `shadow` 目录) 的路径, 应当以 ‘ /’ 结尾.
- `keep_free_space_bytes` — 需要保留的剩余磁盘空间.
磁盘定义的顺序无关紧要。
存储策略配置:
``` xml
< storage_configuration >
...
< policies >
< policy_name_1 >
< volumes >
< volume_name_1 >
< disk > disk_name_from_disks_configuration< / disk >
< max_data_part_size_bytes > 1073741824< / max_data_part_size_bytes >
< / volume_name_1 >
< volume_name_2 >
<!-- configuration -->
< / volume_name_2 >
<!-- more volumes -->
< / volumes >
< move_factor > 0.2< / move_factor >
< / policy_name_1 >
< policy_name_2 >
<!-- configuration -->
< / policy_name_2 >
<!-- more policies -->
< / policies >
...
< / storage_configuration >
```
标签:
- `policy_name_N` — 策略名称,不能重复。
- `volume_name_N` — 卷名称,不能重复。
- `disk` — 卷中的磁盘。
- `max_data_part_size_bytes` — 任意卷上的磁盘可以存储的数据片段的最大大小。
- `move_factor` — 当可用空间少于这个因子时,数据将自动的向下一个卷(如果有的话)移动 (默认值为 0.1)。
配置示例:
``` xml
< storage_configuration >
...
< policies >
< hdd_in_order > <!-- policy name -->
< volumes >
< single > <!-- volume name -->
< disk > disk1< / disk >
< disk > disk2< / disk >
< / single >
< / volumes >
< / hdd_in_order >
< moving_from_ssd_to_hdd >
< volumes >
< hot >
< disk > fast_ssd< / disk >
< max_data_part_size_bytes > 1073741824< / max_data_part_size_bytes >
< / hot >
< cold >
< disk > disk1< / disk >
< / cold >
< / volumes >
< move_factor > 0.2< / move_factor >
< / moving_from_ssd_to_hdd >
< / policies >
...
< / storage_configuration >
```
在给出的例子中, `hdd_in_order` 策略实现了 [循环制 ](https://zh.wikipedia.org/wiki/循环制 ) 方法。因此这个策略只定义了一个卷(`single`),数据片段会以循环的顺序全部存储到它的磁盘上。当有多个类似的磁盘挂载到系统上,但没有配置 RAID 时,这种策略非常有用。请注意一个每个独立的磁盘驱动都并不可靠,你可能需要用 3 或更大的复制因此来补偿它。
如果在系统中有不同类型的磁盘可用,可以使用 `moving_from_ssd_to_hdd` 。`hot` 卷由 SSD 磁盘(`fast_ssd`)组成,这个卷上可以存储的数据片段的最大大小为 1GB。所有大于 1GB 的数据片段都会被直接存储到 `cold` 卷上,`cold` 卷包含一个名为 `disk1` 的 HDD 磁盘。
同样,一旦 `fast_ssd` 被填充超过 80%,数据会通过后台进程向 `disk1` 进行转移。
存储策略中卷的枚举顺序是很重要的。因为当一个卷被充满时,数据会向下一个卷转移。磁盘的枚举顺序同样重要,因为数据是依次存储在磁盘上的。
在创建表时,可以将一个配置好的策略应用到表:
``` sql
CREATE TABLE table_with_non_default_policy (
EventDate Date,
OrderID UInt64,
BannerID UInt64,
SearchPhrase String
) ENGINE = MergeTree
ORDER BY (OrderID, BannerID)
PARTITION BY toYYYYMM(EventDate)
SETTINGS storage_policy = 'moving_from_ssd_to_hdd'
```
`default` 存储策略意味着只使用一个卷,这个卷只包含一个在 `<path>` 中定义的磁盘。表创建后,它的存储策略就不能改变了。
可以通过 [background\_move\_pool\_size ](../../../operations/settings/settings.md#background_move_pool_size ) 设置调整执行后台任务的线程数。
### 详细说明 {#details}
对于 `MergeTree` 表,数据通过以下不同的方式写入到磁盘当中:
- 作为插入(`INSERT`查询)的结果
2020-08-28 14:54:30 +00:00
- 在后台合并和[数据变异](../../../sql-reference/statements/alter.md#alter-mutations)期间
2020-08-27 13:21:43 +00:00
- 当从另一个副本下载时
2020-08-28 14:54:30 +00:00
- 作为 [ALTER TABLE … FREEZE PARTITION ](../../../sql-reference/statements/alter.md#alter_freeze-partition ) 冻结分区的结果
2020-08-27 13:21:43 +00:00
除了数据变异和冻结分区以外的情况下,数据按照以下逻辑存储到卷或磁盘上:
1. 首个卷(按定义顺序)拥有足够的磁盘空间存储数据片段(`unreserved_space > current_part_size`)并且允许存储给定数据片段的大小(`max_data_part_size_bytes > current_part_size`)
2. 在这个数据卷内,紧挨着先前存储数据的那块磁盘之后的磁盘,拥有比数据片段大的剩余空间。(`unreserved_space - keep_free_space_bytes > current_part_size`)
更进一步,数据变异和分区冻结使用的是 [硬链接 ](https://en.wikipedia.org/wiki/Hard_link )。不同磁盘之间的硬链接是不支持的,所以在这种情况下数据片段都会被存储到初始化的那一块磁盘上。
在后台,数据片段基于剩余空间(`move_factor`参数)根据卷在配置文件中定义的顺序进行转移。数据永远不会从最后一个移出也不会从第一个移入。可以通过系统表 [system.part\_log ](../../../operations/system-tables/part_log.md#system_tables-part-log ) (字段 `type = MOVE_PART` ) 和 [system.parts ](../../../operations/system-tables/parts.md#system_tables-parts ) (字段 `path` 和 `disk` ) 来监控后台的移动情况。同时,具体细节可以通过服务器日志查看。
2020-08-28 14:54:30 +00:00
用户可以通过 [ALTER TABLE … MOVE PART\|PARTITION … TO VOLUME\|DISK … ](../../../sql-reference/statements/alter.md#alter_move-partition ) 强制移动一个数据片段或分区到另外一个卷,所有后台移动的限制都会被考虑在内。这个查询会自行启动,无需等待后台操作完成。如果没有足够的可用空间或任何必须条件没有被满足,用户会收到报错信息。
2020-08-27 13:21:43 +00:00
数据移动不会妨碍到数据复制。也就是说,同一张表的不同副本可以指定不同的存储策略。
在后台合并和数据变异之后,就的数据片段会在一定时间后被移除 (`old_parts_lifetime`)。在这期间,他们不能被移动到其他的卷或磁盘。也就是说,直到数据片段被完全移除,它们仍然会被磁盘占用空间计算在内。
[原始文章 ](https://clickhouse.tech/docs/en/operations/table_engines/mergetree/ ) <!--hide-->