ClickHouse/docs/zh/operations/settings/settings.md
Nikolai Kochetov 5807ca47b0
Merge pull request #36425 from ClickHouse/pool-size-hot-reload
Allow to increase number of threads and tasks for background executors
2022-04-29 17:24:12 +02:00

51 KiB
Raw Blame History

sidebar_label sidebar_position slug
设置 52 /zh/operations/settings/settings

设置

分布_产品_模式

改变的行为 分布式子查询.

ClickHouse applies this setting when the query contains the product of distributed tables, i.e. when the query for a distributed table contains a non-GLOBAL subquery for the distributed table.

限制:

  • 仅适用于IN和JOIN子查询。
  • 仅当FROM部分使用包含多个分片的分布式表时。
  • 如果子查询涉及包含多个分片的分布式表。
  • 不用于表值 远程 功能。

可能的值:

  • deny — Default value. Prohibits using these types of subqueries (returns the “Double-distributed in/JOIN subqueries is denied” 例外)。
  • local — Replaces the database and table in the subquery with local ones for the destination server (shard), leaving the normal IN/JOIN.
  • global — Replaces the IN/JOIN 查询与 GLOBAL IN/GLOBAL JOIN.
  • allow — Allows the use of these types of subqueries.

enable_optimize_predicate_expression

打开谓词下推 SELECT 查询。

谓词下推可以显着减少分布式查询的网络流量。

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值1。

用途

请考虑以下查询:

  1. SELECT count() FROM test_table WHERE date = '2018-10-10'
  2. SELECT count() FROM (SELECT * FROM test_table) WHERE date = '2018-10-10'

如果 enable_optimize_predicate_expression = 1则这些查询的执行时间相等因为ClickHouse应用 WHERE 对子查询进行处理。

如果 enable_optimize_predicate_expression = 0,那么第二个查询的执行时间要长得多,因为 WHERE 子句适用于子查询完成后的所有数据。

fallback_to_stale_replicas_for_distributed_queries

如果更新的数据不可用,则强制对过期副本进行查询。 看 复制.

ClickHouse从表的过时副本中选择最相关的副本。

执行时使用 SELECT 从指向复制表的分布式表。

默认情况下1已启用

force_index_by_date

如果索引不能按日期使用,则禁用查询执行。

适用于MergeTree系列中的表。

如果 force_index_by_date=1ClickHouse检查查询是否具有可用于限制数据范围的date键条件。 如果没有合适的条件,则会引发异常。 但是,它不检查条件是否减少了要读取的数据量。 例如,条件 Date != ' 2000-01-01 ' 即使它与表中的所有数据匹配(即运行查询需要完全扫描),也是可以接受的。 有关MergeTree表中数据范围的详细信息请参阅 MergeTree.

force_primary_key

如果无法按主键编制索引,则禁用查询执行。

适用于MergeTree系列中的表。

如果 force_primary_key=1ClickHouse检查查询是否具有可用于限制数据范围的主键条件。 如果没有合适的条件,则会引发异常。 但是,它不检查条件是否减少了要读取的数据量。 有关MergeTree表中数据范围的详细信息请参阅 MergeTree.

format_schema

当您使用需要架构定义的格式时,此参数非常有用,例如 普罗托船长Protobuf. 该值取决于格式。

fsync_metadata

启用或禁用 fsync 写作时 .sql 文件 默认情况下启用。

如果服务器有数百万个不断创建和销毁的小表,那么禁用它是有意义的。

enable_http_compression

在对HTTP请求的响应中启用或禁用数据压缩。

欲了解更多信息,请阅读 HTTP接口描述.

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值0。

http_zlib_compression_level

在以下情况下设置对HTTP请求的响应中的数据压缩级别 enable_http_compression=1.

可能的值数字从1到9。

默认值3。

http_native_compression_disable_checksumming_on_decompress

在从客户端解压缩HTTP POST数据时启用或禁用校验和验证。 仅用于ClickHouse原生压缩格式不用于 gzipdeflate).

欲了解更多信息,请阅读 HTTP接口描述.

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值0。

send_progress_in_http_headers

启用或禁用 X-ClickHouse-Progress Http响应头 clickhouse-server 答复。

欲了解更多信息,请阅读 HTTP接口描述.

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值0。

max_http_get_redirects

限制HTTP GET重定向跳数的最大数量 URL-发动机表。 该设置适用于两种类型的表:由 CREATE TABLE 查询和由 url 表功能。

可能的值:

  • 跳数的任何正整数。
  • 0 — No hops allowed.

默认值0。

input_format_allow_errors_num

设置从文本格式CSVTSV等读取时可接受的错误的最大数量。).

默认值为0。

总是与它配对 input_format_allow_errors_ratio.

如果在读取行时发生错误,但错误计数器仍小于 input_format_allow_errors_numClickHouse忽略该行并移动到下一个。

如果两者 input_format_allow_errors_numinput_format_allow_errors_ratio 超出时ClickHouse引发异常。

input_format_allow_errors_ratio

设置从文本格式CSVTSV等读取时允许的最大错误百分比。). 错误百分比设置为介于0和1之间的浮点数。

默认值为0。

总是与它配对 input_format_allow_errors_num.

如果在读取行时发生错误,但错误计数器仍小于 input_format_allow_errors_ratioClickHouse忽略该行并移动到下一个。

如果两者 input_format_allow_errors_numinput_format_allow_errors_ratio 超出时ClickHouse引发异常。

input_format_values_interpret_expressions

如果快速流解析器无法解析数据则启用或禁用完整SQL解析器。 此设置仅用于 格式在数据插入。 有关语法分析的详细信息,请参阅 语法 科。

可能的值:

  • 0 — Disabled.

    在这种情况下,您必须提供格式化的数据。 见 格式 科。

  • 1 — Enabled.

    在这种情况下您可以使用SQL表达式作为值但数据插入速度要慢得多。 如果仅插入格式化的数据则ClickHouse的行为就好像设置值为0。

默认值1。

使用示例

插入 日期时间 使用不同的设置键入值。

SET input_format_values_interpret_expressions = 0;
INSERT INTO datetime_t VALUES (now())
Exception on client:
Code: 27. DB::Exception: Cannot parse input: expected ) before: now()): (at row 1)
SET input_format_values_interpret_expressions = 1;
INSERT INTO datetime_t VALUES (now())
Ok.

最后一个查询等效于以下内容:

SET input_format_values_interpret_expressions = 0;
INSERT INTO datetime_t SELECT now()
Ok.

input_format_values_deduce_templates_of_expressions

启用或禁用以下内容中的SQL表达式的模板扣除 格式。 它允许解析和解释表达式 Values 如果连续行中的表达式具有相同的结构,速度要快得多。 ClickHouse尝试推导表达式的模板使用此模板解析以下行并在一批成功解析的行上评估表达式。

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值1。

对于以下查询:

INSERT INTO test VALUES (lower('Hello')), (lower('world')), (lower('INSERT')), (upper('Values')), ...
  • 如果 input_format_values_interpret_expressions=1format_values_deduce_templates_of_expressions=0,表达式为每行分别解释(对于大量行来说,这非常慢)。
  • 如果 input_format_values_interpret_expressions=0format_values_deduce_templates_of_expressions=1第一第二和第三行中的表达式使用template解析 lower(String) 并一起解释,第四行中的表达式用另一个模板解析 (upper(String)).
  • 如果 input_format_values_interpret_expressions=1format_values_deduce_templates_of_expressions=1,与前面的情况相同,但如果不可能推导出模板,也允许回退到单独解释表达式。

input_format_values_accurate_types_of_literals

此设置仅在以下情况下使用 input_format_values_deduce_templates_of_expressions = 1. 它可能发生,某些列的表达式具有相同的结构,但包含不同类型的数字文字,例如

(..., abs(0), ...),             -- UInt64 literal
(..., abs(3.141592654), ...),   -- Float64 literal
(..., abs(-1), ...),            -- Int64 literal

可能的值:

  • 0 — Disabled.

    In this case, ClickHouse may use a more general type for some literals (e.g., Float64Int64 而不是 UInt6442),但它可能会导致溢出和精度问题。

  • 1 — Enabled.

    在这种情况下ClickHouse会检查文本的实际类型并使用相应类型的表达式模板。 在某些情况下,可能会显着减慢表达式评估 Values.

默认值1。

input_format_defaults_for_omitted_fields

执行时 INSERT 查询时,将省略的输入列值替换为相应列的默认值。 此选项仅适用于 JSONEachRow, CSVTabSeparated 格式。

!!! note "注" 启用此选项后,扩展表元数据将从服务器发送到客户端。 它会消耗服务器上的额外计算资源,并可能降低性能。

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值1。

input_format_tsv_empty_as_default

启用后将TSV中的空输入字段替换为默认值。 对于复杂的默认表达式 input_format_defaults_for_omitted_fields 必须启用了。

默认情况下禁用。

input_format_null_as_default

如果输入数据包含 NULL,但相应列的数据类型不 Nullable(T) (对于文本输入格式)。

input_format_skip_unknown_fields

启用或禁用跳过额外数据的插入。

写入数据时如果输入数据包含目标表中不存在的列ClickHouse将引发异常。 如果启用了跳过ClickHouse不会插入额外的数据也不会引发异常。

支持的格式:

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值0。

input_format_import_nested_json

启用或禁用具有嵌套对象的JSON数据的插入。

支持的格式:

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值0。

另请参阅:

input_format_with_names_use_header

启用或禁用插入数据时检查列顺序。

为了提高插入性能,如果您确定输入数据的列顺序与目标表中的列顺序相同,建议禁用此检查。

支持的格式:

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值1。

date_time_input_format

允许选择日期和时间的文本表示的解析器。

该设置不适用于 日期和时间功能.

可能的值:

  • 'best_effort' — Enables extended parsing.

    ClickHouse可以解析基本 YYYY-MM-DD HH:MM:SS 格式和所有 ISO 8601 日期和时间格式。 例如, '2018-06-08T01:02:03.000Z'.

  • 'basic' — Use basic parser.

    ClickHouse只能解析基本的 YYYY-MM-DD HH:MM:SS 格式。 例如, '2019-08-20 10:18:56'.

默认值: 'basic'.

另请参阅:

join_default_strictness

设置默认严格性 加入子句.

可能的值:

  • ALL — If the right table has several matching rows, ClickHouse creates a 笛卡尔积 从匹配的行。 这是正常的 JOIN 来自标准SQL的行为。
  • ANY — If the right table has several matching rows, only the first one found is joined. If the right table has only one matching row, the results of ANYALL 都是一样的
  • ASOF — For joining sequences with an uncertain match.
  • Empty string — If ALLANY 如果未在查询中指定ClickHouse将引发异常。

默认值: ALL.

join_any_take_last_row

更改联接操作的行为 ANY 严格。

!!! warning "注意" 此设置仅适用于 JOIN 操作与 加入我们 发动机表.

可能的值:

  • 0 — If the right table has more than one matching row, only the first one found is joined.
  • 1 — If the right table has more than one matching row, only the last one found is joined.

默认值0。

另请参阅:

join_use_nulls

设置类型 JOIN 行为 合并表时,可能会出现空单元格。 ClickHouse根据此设置以不同的方式填充它们。

可能的值:

  • 0 — The empty cells are filled with the default value of the corresponding field type.
  • 1 — JOIN 其行为方式与标准SQL中的行为方式相同。 相应字段的类型将转换为 可为空,和空单元格填充 NULL.

默认值0。

max_block_size

在ClickHouse中数据由块列部分集处理。 单个块的内部处理周期足够高效,但每个块都有明显的支出。 该 max_block_size 设置是建议从表中加载块的大小(行数)。 块大小不应该太小,以便每个块上的支出仍然明显,但不能太大,以便在第一个块处理完成后快速完成限制查询。 目标是避免在多个线程中提取大量列时占用太多内存,并且至少保留一些缓存局部性。

默认值65,536。

块的大小 max_block_size 并不总是从表中加载。 如果显然需要检索的数据较少,则处理较小的块。

preferred_block_size_bytes

用于相同的目的 max_block_size,但它通过使其适应块中的行数来设置推荐的块大小(以字节为单位)。 但是,块大小不能超过 max_block_size 行。 默认情况下1,000,000。 它只有在从MergeTree引擎读取时才有效。

merge_tree_min_rows_for_concurrent_read

如果从a的文件中读取的行数 MergeTree 表超过 merge_tree_min_rows_for_concurrent_read 然后ClickHouse尝试在多个线程上从该文件执行并发读取。

可能的值:

  • 任何正整数。

默认值:163840.

merge_tree_min_bytes_for_concurrent_read

如果从一个文件中读取的字节数 MergeTree-发动机表超过 merge_tree_min_bytes_for_concurrent_read然后ClickHouse尝试在多个线程中并发读取此文件。

可能的值:

  • 任何正整数。

默认值:251658240.

merge_tree_min_rows_for_seek

如果要在一个文件中读取的两个数据块之间的距离小于 merge_tree_min_rows_for_seek然后ClickHouse不查找文件而是按顺序读取数据。

可能的值:

  • 任何正整数。

默认值0。

merge_tree_min_bytes_for_seek

如果要在一个文件中读取的两个数据块之间的距离小于 merge_tree_min_bytes_for_seek 字节数然后ClickHouse依次读取包含两个块的文件范围从而避免了额外的寻道。

可能的值:

  • 任何正整数。

默认值0。

merge_tree_coarse_index_granularity

搜索数据时ClickHouse会检查索引文件中的数据标记。 如果ClickHouse发现所需的键在某个范围内它将此范围划分为 merge_tree_coarse_index_granularity 子范围和递归地搜索所需的键。

可能的值:

  • 任何正偶数整数。

默认值8。

merge_tree_max_rows_to_use_cache

如果克里克豪斯应该阅读更多 merge_tree_max_rows_to_use_cache 在一个查询中的行,它不使用未压缩块的缓存。

未压缩块的缓存存储为查询提取的数据。 ClickHouse使用此缓存来加快对重复的小查询的响应。 此设置可保护缓存免受读取大量数据的查询的破坏。 该 uncompressed_cache_size 服务器设置定义未压缩块的高速缓存的大小。

可能的值:

  • 任何正整数。

Default value: 128 ✕ 8192.

merge_tree_max_bytes_to_use_cache

如果克里克豪斯应该阅读更多 merge_tree_max_bytes_to_use_cache 在一个查询中的字节,它不使用未压缩块的缓存。

未压缩块的缓存存储为查询提取的数据。 ClickHouse使用此缓存来加快对重复的小查询的响应。 此设置可保护缓存免受读取大量数据的查询的破坏。 该 uncompressed_cache_size 服务器设置定义未压缩块的高速缓存的大小。

可能的值:

  • 任何正整数。

默认值:2013265920.

min_bytes_to_use_direct_io

使用直接I/O访问存储磁盘所需的最小数据量。

ClickHouse在从表中读取数据时使用此设置。 如果要读取的所有数据的总存储量超过 min_bytes_to_use_direct_io 字节然后ClickHouse读取从存储磁盘的数据 O_DIRECT 选项。

可能的值:

  • 0 — Direct I/O is disabled.
  • 整数。

默认值0。

log_queries

设置查询日志记录。

使用此设置发送到ClickHouse的查询将根据以下内容中的规则记录 query_log 服务器配置参数。

示例:

log_queries=1

log_queries_min_type

query_log 要记录的最小类型。

可能的值:

  • QUERY_START (=1)
  • QUERY_FINISH (=2)
  • EXCEPTION_BEFORE_START (=3)
  • EXCEPTION_WHILE_PROCESSING (=4)

默认值: QUERY_START.

可以用来限制哪些entiries将去 query_log,说你只有在错误中才感兴趣,那么你可以使用 EXCEPTION_WHILE_PROCESSING:

log_queries_min_type='EXCEPTION_WHILE_PROCESSING'

log_query_threads

设置查询线程日志记录。

ClickHouse使用此设置运行的查询线程将根据以下命令中的规则记录 query_thread_log 服务器配置参数。

示例:

log_query_threads=1

max_insert_block_size

要插入到表中的块的大小。 此设置仅适用于服务器形成块的情况。 例如对于通过HTTP接口进行的插入服务器会分析数据格式并形成指定大小的块。 但是当使用clickhouse-client时客户端解析数据本身并且 max_insert_block_size 服务器上的设置不会影响插入的块的大小。 使用INSERT SELECT时该设置也没有目的因为数据是使用在SELECT之后形成的相同块插入的。

默认值1,048,576。

默认值略高于 max_block_size. 这样做的原因是因为某些表引擎 (*MergeTree)在磁盘上为每个插入的块形成一个数据部分,这是一个相当大的实体。 同样, *MergeTree 表在插入过程中对数据进行排序并且足够大的块大小允许在RAM中对更多数据进行排序。

min_insert_block_size_rows

设置块中可以通过以下方式插入到表中的最小行数 INSERT 查询。 较小尺寸的块被压扁成较大的块。

可能的值:

  • 整数。
  • 0 — Squashing disabled.

默认值1048576。

min_insert_block_size_bytes

设置块中的最小字节数,可以通过以下方式插入到表中 INSERT 查询。 较小尺寸的块被压扁成较大的块。

可能的值:

  • 整数。
  • 0 — Squashing disabled.

默认值:268435456.

max_replica_delay_for_distributed_queries

禁用分布式查询的滞后副本。 看 复制.

以秒为单位设置时间。 如果副本滞后超过设定值,则不使用此副本。

默认值300。

执行时使用 SELECT 从指向复制表的分布式表。

max_threads

查询处理线程的最大数量,不包括用于从远程服务器检索数据的线程(请参阅 max_distributed_connections 参数)。

此参数适用于并行执行查询处理管道的相同阶段的线程。 例如当从表中读取时如果可以使用函数来评估表达式请使用WHERE进行过滤并且至少使用并行方式对GROUP BY进行预聚合 max_threads 线程数,然后 max_threads 被使用。

默认值物理CPU内核数。

如果一次在服务器上运行的SELECT查询通常少于一个请将此参数设置为略小于实际处理器内核数的值。

对于由于限制而快速完成的查询,可以设置较低的 max_threads. 例如如果必要数量的条目位于每个块中并且max_threads=8则会检索8个块尽管只读取一个块就足够了。

越小 max_threads 值,较少的内存被消耗。

max_insert_threads

要执行的最大线程数 INSERT SELECT 查询。

可能的值:

  • 0 (or 1) — INSERT SELECT 没有并行执行。
  • 整数。 大于1。

默认值0。

平行 INSERT SELECT 只有在 SELECT 部分并行执行,请参阅 max_threads 设置。 更高的值将导致更高的内存使用率。

max_compress_block_size

在压缩写入表之前,未压缩数据块的最大大小。 默认情况下1,048,5761MiB。 如果大小减小,则压缩率显着降低,压缩和解压缩速度由于高速缓存局部性而略微增加,并且内存消耗减少。 通常没有任何理由更改此设置。

不要将用于压缩的块(由字节组成的内存块)与用于查询处理的块(表中的一组行)混淆。

min_compress_block_size

MergeTree"表。 为了减少处理查询时的延迟,在写入下一个标记时,如果块的大小至少为 min_compress_block_size. 默认情况下65,536。

块的实际大小,如果未压缩的数据小于 max_compress_block_size是不小于该值且不小于一个标记的数据量。

让我们来看看一个例子。 假设 index_granularity 在表创建期间设置为8192。

我们正在编写一个UInt32类型的列每个值4个字节。 当写入8192行时总数将是32KB的数据。 由于min_compress_block_size=65,536将为每两个标记形成一个压缩块。

我们正在编写一个字符串类型的URL列每个值的平均大小60字节。 当写入8192行时平均数据将略少于500KB。 由于这超过65,536将为每个标记形成一个压缩块。 在这种情况下,当从单个标记范围内的磁盘读取数据时,额外的数据不会被解压缩。

通常没有任何理由更改此设置。

max_query_size

查询的最大部分可以被带到RAM用于使用SQL解析器进行解析。 插入查询还包含由单独的流解析器消耗O(1)RAM处理的插入数据这些数据不包含在此限制中。

默认值256KiB。

interactive_delay

以微秒为单位的间隔,用于检查请求执行是否已被取消并发送进度。

默认值100,000检查取消并每秒发送十次进度

connect_timeout,receive_timeout,send_timeout

用于与客户端通信的套接字上的超时以秒为单位。

默认值10300300。

cancel_http_readonly_queries_on_client_close

Cancels HTTP read-only queries (e.g. SELECT) when a client closes the connection without waiting for the response.

默认值0

poll_interval

锁定在指定秒数的等待循环。

默认值10。

max_distributed_connections

与远程服务器同时连接的最大数量,用于分布式处理对单个分布式表的单个查询。 我们建议设置不小于群集中服务器数量的值。

默认值1024。

以下参数仅在创建分布式表(以及启动服务器时)时使用,因此没有理由在运行时更改它们。

distributed_connections_pool_size

与远程服务器同时连接的最大数量,用于分布式处理对单个分布式表的所有查询。 我们建议设置不小于群集中服务器数量的值。

默认值1024。

connect_timeout_with_failover_ms

以毫秒为单位连接到分布式表引擎的远程服务器的超时,如果 shardreplica 部分用于群集定义。 如果不成功,将尝试多次连接到各种副本。

默认值50。

connections_with_failover_max_tries

分布式表引擎的每个副本的最大连接尝试次数。

默认值3。

极端

是否计算极值(查询结果列中的最小值和最大值)。 接受0或1。 默认情况下0禁用。 有关详细信息,请参阅部分 “Extreme values”.

use_uncompressed_cache

是否使用未压缩块的缓存。 接受0或1。 默认情况下0禁用。 使用未压缩缓存仅适用于MergeTree系列中的表可以在处理大量短查询时显着减少延迟并提高吞吐量。 为频繁发送短请求的用户启用此设置。 还要注意 uncompressed_cache_size configuration parameter (only set in the config file) the size of uncompressed cache blocks. By default, it is 8 GiB. The uncompressed cache is filled in as needed and the least-used data is automatically deleted.

对于至少读取大量数据(一百万行或更多行)的查询,将自动禁用未压缩缓存,以节省真正小型查询的空间。 这意味着你可以保持 use_uncompressed_cache 设置始终设置为1。

replace_running_query

当使用HTTP接口时 query_id 参数可以传递。 这是用作查询标识符的任何字符串。 如果来自同一用户的查询具有相同的 query_id 已经存在在这个时候,行为取决于 replace_running_query 参数。

0 (default) Throw an exception (don't allow the query to run if a query with the same query_id 已经运行)。

1 Cancel the old query and start running the new one.

YandexMetrica使用此参数设置为1来实现分段条件的建议。 输入下一个字符后,如果旧的查询还没有完成,应该取消。

stream_flush_interval_ms

适用于在超时的情况下或线程生成流式传输的表 max_insert_block_size 行。

默认值为7500。

值越小,数据被刷新到表中的频率就越高。 将该值设置得太低会导致性能较差。

load_balancing

指定用于分布式查询处理的副本选择算法。

ClickHouse支持以下选择副本的算法:

随机(默认情况下)

load_balancing = random

对每个副本计算错误数。 查询发送到错误最少的副本,如果存在其中几个错误,则发送给其中任何一个。 缺点:不考虑服务器邻近度;如果副本具有不同的数据,则也会获得不同的数据。

最近的主机名

load_balancing = nearest_hostname

The number of errors is counted for each replica. Every 5 minutes, the number of errors is integrally divided by 2. Thus, the number of errors is calculated for a recent time with exponential smoothing. If there is one replica with a minimal number of errors (i.e. errors occurred recently on the other replicas), the query is sent to it. If there are multiple replicas with the same minimal number of errors, the query is sent to the replica with a hostname that is most similar to the server's hostname in the config file (for the number of different characters in identical positions, up to the minimum length of both hostnames).

例如例如01-01-1和example01-01-2.yandex.ru 在一个位置是不同的而example01-01-1和example01-02-2在两个地方不同。 这种方法可能看起来很原始但它不需要有关网络拓扑的外部数据也不比较IP地址这对于我们的IPv6地址来说会很复杂。

因此,如果存在等效副本,则首选按名称最接近的副本。 我们还可以假设,当向同一台服务器发送查询时,在没有失败的情况下,分布式查询也将转到同一台服务器。 因此,即使在副本上放置了不同的数据,查询也会返回大多相同的结果。

按顺序

load_balancing = in_order

具有相同错误数的副本的访问顺序与配置中指定的顺序相同。 当您确切知道哪个副本是可取的时,此方法是适当的。

第一次或随机

load_balancing = first_or_random

此算法选择集合中的第一个副本,如果第一个副本不可用,则选择随机副本。 它在跨复制拓扑设置中有效,但在其他配置中无用。

first_or_random 算法解决的问题 in_order 算法。 与 in_order,如果一个副本出现故障,下一个副本将获得双重负载,而其余副本将处理通常的流量。 使用时 first_or_random 算法中,负载均匀分布在仍然可用的副本之间。

prefer_localhost_replica

在处理分布式查询时最好使用localhost副本启用/禁用该副本。

可能的值:

  • 1 — ClickHouse always sends a query to the localhost replica if it exists.
  • 0 — ClickHouse uses the balancing strategy specified by the load_balancing 设置。

默认值1。

!!! warning "警告" 如果使用此设置,请禁用此设置 max_parallel_replicas.

totals_mode

如何计算总计时有存在以及当max_rows_to_group_by和group_by_overflow_mode= any 都在场。 请参阅部分 “WITH TOTALS modifier”.

totals_auto_threshold

阈值 totals_mode = 'auto'. 请参阅部分 “WITH TOTALS modifier”.

max_parallel_replicas

执行查询时每个分片的最大副本数。 为了保持一致性(以获取相同数据拆分的不同部分),此选项仅在设置了采样键时有效。 副本滞后不受控制。

compile_expressions

啟用或禁用在運行時使用 LLVM 將常用的簡單函數和運算符編譯為本機代碼。

可能的值:

  • 0 — 禁用。
  • 1 — 啟用。

默認值:1

min_count_to_compile_expression

在編譯之前執行相同表達式的最小計數。

默認值:3

output_format_json_quote_64bit_integers

如果该值为true则在使用JSON*Int64和UInt64格式时整数将显示在引号中为了与大多数JavaScript实现兼容否则整数将不带引号输出。

format_csv_delimiter

将字符解释为CSV数据中的分隔符。 默认情况下,分隔符为 ,.

input_format_csv_unquoted_null_literal_as_null

对于CSV输入格式启用或禁用未引用的解析 NULL 作为文字(同义词 \N).

output_format_csv_crlf_end_of_line

在CSV中使用DOS/Windows样式的行分隔符(CRLF)而不是Unix样式(LF)。

output_format_tsv_crlf_end_of_line

在TSV中使用DOC/Windows样式的行分隔符CRLF而不是Unix样式LF

insert_quorum

启用仲裁写入。

  • 如果 insert_quorum < 2,仲裁写入被禁用。
  • 如果 insert_quorum >= 2,仲裁写入已启用。

默认值0。

仲裁写入

INSERT 只有当ClickHouse设法正确地将数据写入成功 insert_quorum 在复制品的 insert_quorum_timeout. 如果由于任何原因,成功写入的副本数量没有达到 insert_quorum写入被认为失败ClickHouse将从已经写入数据的所有副本中删除插入的块。

仲裁中的所有副本都是一致的,即它们包含来自所有以前的数据 INSERT 查询。 该 INSERT 序列线性化。

当读取从写入的数据 insert_quorum,您可以使用 select_sequential_consistency 选项。

ClickHouse生成异常

  • 如果查询时可用副本的数量小于 insert_quorum.
  • 在尝试写入数据时,以前的块尚未被插入 insert_quorum 的复制品。 如果用户尝试执行 INSERT 前一个与 insert_quorum 完成。

另请参阅:

insert_quorum_timeout

写入仲裁超时以秒为单位。 如果超时已经过去并且还没有发生写入ClickHouse将生成异常客户端必须重复查询以将相同的块写入相同的副本或任何其他副本。

默认值60秒。

另请参阅:

select_sequential_consistency

启用或禁用顺序一致性 SELECT 查询:

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值0。

用途

当启用顺序一致性时ClickHouse允许客户端执行 SELECT 仅查询那些包含来自所有先前数据的副本 INSERT 查询执行 insert_quorum. 如果客户端引用了部分副本ClickHouse将生成异常。 SELECT查询将不包括尚未写入副本仲裁的数据。

另请参阅:

insert_deduplicate

启用或禁用块重复数据删除 INSERT (对于复制的*表)。

可能的值:

  • 0 — Disabled.
  • 1 — Enabled.

默认值1。

默认情况下,块插入到复制的表 INSERT 语句重复数据删除(见 数据复制).

deduplicate_blocks_in_dependent_materialized_views

启用或禁用从已复制*表接收数据的实例化视图的重复数据删除检查。

可能的值:

  0 — Disabled.
  1 — Enabled.

默认值0。

用途

默认情况下,重复数据删除不对实例化视图执行,而是在源表的上游执行。 如果由于源表中的重复数据删除而跳过了插入的块,则不会插入附加的实例化视图。 这种行为的存在是为了允许将高度聚合的数据插入到实例化视图中,对于在实例化视图聚合之后插入的块相同,但是从源表中的不同插入派生的情况。 与此同时,这种行为 “breaks” INSERT 幂等性 如果一个 INSERT 进入主表是成功的, INSERT into a materialized view failed (e.g. because of communication failure with Zookeeper) a client will get an error and can retry the operation. However, the materialized view won't receive the second insert because it will be discarded by deduplication in the main (source) table. The setting deduplicate_blocks_in_dependent_materialized_views 允许改变这种行为。 重试时,实例化视图将收到重复插入,并自行执行重复数据删除检查, 忽略源表的检查结果,并将插入由于第一次失败而丢失的行。

max_network_bytes

限制在执行查询时通过网络接收或传输的数据量(以字节为单位)。 此设置适用于每个单独的查询。

可能的值:

  • 整数。
  • 0 — Data volume control is disabled.

默认值0。

max_network_bandwidth

限制通过网络进行数据交换的速度,以每秒字节为单位。 此设置适用于每个查询。

可能的值:

  • 整数。
  • 0 — Bandwidth control is disabled.

默认值0。

max_network_bandwidth_for_user

限制通过网络进行数据交换的速度,以每秒字节为单位。 此设置适用于单个用户执行的所有并发运行的查询。

可能的值:

  • 整数。
  • 0 — Control of the data speed is disabled.

默认值0。

max_network_bandwidth_for_all_users

限制通过网络交换数据的速度,以每秒字节为单位。 此设置适用于服务器上同时运行的所有查询。

可能的值:

  • 整数。
  • 0 — Control of the data speed is disabled.

默认值0。

count_distinct_implementation

指定其中的 uniq* 函数应用于执行 COUNT(DISTINCT …) 建筑。

可能的值:

默认值: uniqExact.

skip_unavailable_shards

启用或禁用静默跳过不可用分片。

如果分片的所有副本都不可用,则视为不可用。 副本在以下情况下不可用:

  • ClickHouse出于任何原因无法连接到副本。

    连接到副本时ClickHouse会执行多次尝试。 如果所有这些尝试都失败,则认为副本不可用。

  • 副本无法通过DNS解析。

    如果无法通过DNS解析副本的主机名则可能指示以下情况:

    • 副本的主机没有DNS记录。 它可以发生在具有动态DNS的系统中例如, Kubernetes,其中节点在停机期间可能无法解决问题,这不是错误。

    • 配置错误。 ClickHouse配置文件包含错误的主机名。

可能的值:

  • 1 — skipping enabled.

    如果分片不可用ClickHouse将基于部分数据返回结果并且不报告节点可用性问题。

  • 0 — skipping disabled.

    如果分片不可用ClickHouse将引发异常。

默认值0。

optimize_skip_unused_shards

对于在PREWHERE/WHERE中具有分片键条件的SELECT查询启用或禁用跳过未使用的分片假定数据是通过分片键分发的否则不执行任何操作

默认值0

force_optimize_skip_unused_shards

在以下情况下启用或禁用查询执行 optimize_skip_unused_shards 无法启用和跳过未使用的分片。 如果跳过是不可能的,并且设置为启用异常将被抛出。

可能的值:

  • 0-禁用(不抛出)
  • 1-仅当表具有分片键时禁用查询执行
  • 2-无论为表定义了分片键,都禁用查询执行

默认值0

optimize_throw_if_noop

启用或禁用抛出异常,如果 OPTIMIZE 查询未执行合并。

默认情况下, OPTIMIZE 即使它没有做任何事情,也会成功返回。 此设置允许您区分这些情况并在异常消息中获取原因。

可能的值:

  • 1 — Throwing an exception is enabled.
  • 0 — Throwing an exception is disabled.

默认值0。

distributed_replica_error_half_life

  • 类型:秒
  • 默认值60秒

控制清零分布式表中的错误的速度。 如果某个副本在一段时间内不可用累计出现5个错误并且distributed_replica_error_half_life设置为1秒则该副本在上一个错误发生3秒后视为正常。

另请参阅:

distributed_replica_error_cap

  • 类型无符号int
  • 默认值1000

每个副本的错误计数上限为此值,从而防止单个副本累积太多错误。

另请参阅:

distributed_directory_monitor_sleep_time_ms

对于基本间隔 分布 表引擎发送数据。 在发生错误时,实际间隔呈指数级增长。

可能的值:

  • 毫秒的正整数。

默认值100毫秒。

distributed_directory_monitor_max_sleep_time_ms

的最大间隔 分布 表引擎发送数据。 限制在设置的区间的指数增长 distributed_directory_monitor_sleep_time_ms 设置。

可能的值:

  • 毫秒的正整数。

默认值30000毫秒30秒

distributed_directory_monitor_batch_inserts

启用/禁用批量发送插入的数据。

当批量发送被启用时, 分布 表引擎尝试在一个操作中发送插入数据的多个文件,而不是单独发送它们。 批量发送通过更好地利用服务器和网络资源来提高集群性能。

可能的值:

  • 1 — Enabled.
  • 0 — Disabled.

默认值0。

os_thread_priority

设置优先级 (不错)对于执行查询的线程。 当选择要在每个可用CPU内核上运行的下一个线程时操作系统调度程序会考虑此优先级。

!!! warning "警告" 要使用此设置,您需要设置 CAP_SYS_NICE 能力。 该 clickhouse-server 软件包在安装过程中设置它。 某些虚拟环境不允许您设置 CAP_SYS_NICE 能力。 在这种情况下, clickhouse-server 在开始时显示关于它的消息。

可能的值:

  • 您可以在范围内设置值 [-20, 19].

值越低意味着优先级越高。 低螺纹 nice 与具有高值的线程相比,优先级值的执行频率更高。 高值对于长时间运行的非交互式查询更为可取,因为这使得它们可以在到达时快速放弃资源,转而使用短交互式查询。

默认值0。

query_profiler_real_time_period_ns

设置周期的实时时钟定时器 查询探查器. 真正的时钟计时器计数挂钟时间。

可能的值:

  • 正整数,以纳秒为单位。

    推荐值:

        - 10000000 (100 times a second) nanoseconds and less for single queries.
        - 1000000000 (once a second) for cluster-wide profiling.
    
  • 0用于关闭计时器。

类型: UInt64.

默认值1000000000纳秒每秒一次

另请参阅:

query_profiler_cpu_time_period_ns

设置周期的CPU时钟定时器 查询探查器. 此计时器仅计算CPU时间。

可能的值:

  • 纳秒的正整数。

    推荐值:

        - 10000000 (100 times a second) nanoseconds and more for single queries.
        - 1000000000 (once a second) for cluster-wide profiling.
    
  • 0用于关闭计时器。

类型: UInt64.

默认值1000000000纳秒。

另请参阅:

allow_introspection_functions

启用禁用 反省函数 用于查询分析。

可能的值:

  • 1 — Introspection functions enabled.
  • 0 — Introspection functions disabled.

默认值0。

另请参阅

input_format_parallel_parsing

  • 类型:布尔
  • 默认值True

启用数据格式的保序并行分析。 仅支持TSVTKSVCSV和JSONEachRow格式。

min_chunk_bytes_for_parallel_parsing

  • 类型无符号int
  • 默认值1MiB

以字节为单位的最小块大小,每个线程将并行解析。

output_format_avro_codec

设置用于输出Avro文件的压缩编解ec。

类型:字符串

可能的值:

  • null — No compression
  • deflate — Compress with Deflate (zlib)
  • snappy — Compress with 活泼的

默认值: snappy (如果可用)或 deflate.

output_format_avro_sync_interval

设置输出Avro文件的同步标记之间的最小数据大小以字节为单位

类型无符号int

可能的值3232字节-10737418241GiB)

默认值3276832KiB)

format_avro_schema_registry_url

设置要与之一起使用的汇合架构注册表URL AvroConfluent 格式

类型:网址

默认值:空

原始文章

transform_null_in

IN 运算符启用NULL 值的相等性。

默认情况下,无法比较 NULL 值,因为 NULL 表示未定义的值。 因此,比较 expr = NULL 必须始终返回 false。 在此设置下,NULL = NULL 为IN运算符返回 true.

可能的值:

  • 0 — 比较 IN 运算符中 NULL 值将返回 false
  • 1 — 比较 IN 运算符中 NULL 值将返回 true

默认值0。

考虑null_in表:

┌──idx─┬─────i─┐
│    1 │     1 │
│    2 │  NULL │
│    3 │     3 │
└──────┴───────┘

查询:

SELECT idx, i FROM null_in WHERE i IN (1, NULL) SETTINGS transform_null_in = 0;

结果:

┌──idx─┬────i─┐
│    1 │    1 │
└──────┴──────┘

查询:

SELECT idx, i FROM null_in WHERE i IN (1, NULL) SETTINGS transform_null_in = 1;

结果:

┌──idx─┬─────i─┐
│    1 │     1 │
│    2 │  NULL │
└──────┴───────┘

另请参阅

max_final_threads

设置使用FINAL 限定符的SELECT查询, 在数据读取阶段的最大并发线程数。

可能的值:

  • 正整数。
  • 0 or 1 — 禁用。 此时SELECT 查询单线程执行。

默认值: 16