53 KiB
machine_translated | machine_translated_rev |
---|---|
true | 72537a2d52 |
设置
分布_产品_模式
改变的行为 分布式子查询.
ClickHouse applies this setting when the query contains the product of distributed tables, i.e. when the query for a distributed table contains a non-GLOBAL subquery for the distributed table.
限制:
- 仅适用于IN和JOIN子查询。
- 仅当FROM部分使用包含多个分片的分布式表时。
- 如果子查询涉及包含多个分片的分布式表。
- 不用于表值 远程 功能。
可能的值:
deny
— Default value. Prohibits using these types of subqueries (returns the “Double-distributed in/JOIN subqueries is denied” 例外)。local
— Replaces the database and table in the subquery with local ones for the destination server (shard), leaving the normalIN
/JOIN.
global
— Replaces theIN
/JOIN
查询与GLOBAL IN
/GLOBAL JOIN.
allow
— Allows the use of these types of subqueries.
enable_optimize_predicate_expression
打开谓词下推 SELECT
查询。
谓词下推可以显着减少分布式查询的网络流量。
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:1。
用途
请考虑以下查询:
SELECT count() FROM test_table WHERE date = '2018-10-10'
SELECT count() FROM (SELECT * FROM test_table) WHERE date = '2018-10-10'
如果 enable_optimize_predicate_expression = 1
,则这些查询的执行时间相等,因为ClickHouse应用 WHERE
对子查询进行处理。
如果 enable_optimize_predicate_expression = 0
,那么第二个查询的执行时间要长得多,因为 WHERE
子句适用于子查询完成后的所有数据。
fallback_to_stale_replicas_for_distributed_queries
如果更新的数据不可用,则强制对过期副本进行查询。 看 复制.
ClickHouse从表的过时副本中选择最相关的副本。
执行时使用 SELECT
从指向复制表的分布式表。
默认情况下,1(已启用)。
force_index_by_date
如果索引不能按日期使用,则禁用查询执行。
适用于MergeTree系列中的表。
如果 force_index_by_date=1
,ClickHouse检查查询是否具有可用于限制数据范围的date键条件。 如果没有合适的条件,则会引发异常。 但是,它不检查条件是否减少了要读取的数据量。 例如,条件 Date != ' 2000-01-01 '
即使它与表中的所有数据匹配(即运行查询需要完全扫描),也是可以接受的。 有关MergeTree表中数据范围的详细信息,请参阅 MergeTree.
force_primary_key
如果无法按主键编制索引,则禁用查询执行。
适用于MergeTree系列中的表。
如果 force_primary_key=1
,ClickHouse检查查询是否具有可用于限制数据范围的主键条件。 如果没有合适的条件,则会引发异常。 但是,它不检查条件是否减少了要读取的数据量。 有关MergeTree表中数据范围的详细信息,请参阅 MergeTree.
format_schema
当您使用需要架构定义的格式时,此参数非常有用,例如 普罗托船长 或 Protobuf. 该值取决于格式。
fsync_metadata
启用或禁用 fsync 写作时 .sql
文件 默认情况下启用。
如果服务器有数百万个不断创建和销毁的小表,那么禁用它是有意义的。
enable_http_compression
在对HTTP请求的响应中启用或禁用数据压缩。
欲了解更多信息,请阅读 HTTP接口描述.
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:0。
http_zlib_compression_level
在以下情况下,设置对HTTP请求的响应中的数据压缩级别 enable_http_compression=1.
可能的值:数字从1到9。
默认值:3。
http_native_compression_disable_checksumming_on_decompress
在从客户端解压缩HTTP POST数据时启用或禁用校验和验证。 仅用于ClickHouse原生压缩格式(不用于 gzip
或 deflate
).
欲了解更多信息,请阅读 HTTP接口描述.
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:0。
send_progress_in_http_headers
启用或禁用 X-ClickHouse-Progress
Http响应头 clickhouse-server
答复。
欲了解更多信息,请阅读 HTTP接口描述.
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:0。
max_http_get_redirects
限制HTTP GET重定向跳数的最大数量 URL-发动机表。 该设置适用于两种类型的表:由 CREATE TABLE 查询和由 url 表功能。
可能的值:
- 跳数的任何正整数。
- 0 — No hops allowed.
默认值:0。
input_format_allow_errors_num
设置从文本格式(CSV,TSV等)读取时可接受的错误的最大数量。).
默认值为0。
总是与它配对 input_format_allow_errors_ratio
.
如果在读取行时发生错误,但错误计数器仍小于 input_format_allow_errors_num
,ClickHouse忽略该行并移动到下一个。
如果两者 input_format_allow_errors_num
和 input_format_allow_errors_ratio
超出时,ClickHouse引发异常。
input_format_allow_errors_ratio
设置从文本格式(CSV,TSV等)读取时允许的最大错误百分比。). 错误百分比设置为介于0和1之间的浮点数。
默认值为0。
总是与它配对 input_format_allow_errors_num
.
如果在读取行时发生错误,但错误计数器仍小于 input_format_allow_errors_ratio
,ClickHouse忽略该行并移动到下一个。
如果两者 input_format_allow_errors_num
和 input_format_allow_errors_ratio
超出时,ClickHouse引发异常。
input_format_values_interpret_expressions
如果快速流解析器无法解析数据,则启用或禁用完整SQL解析器。 此设置仅用于 值 格式在数据插入。 有关语法分析的详细信息,请参阅 语法 科。
可能的值:
-
0 — Disabled.
在这种情况下,您必须提供格式化的数据。 见 格式 科。
-
1 — Enabled.
在这种情况下,您可以使用SQL表达式作为值,但数据插入速度要慢得多。 如果仅插入格式化的数据,则ClickHouse的行为就好像设置值为0。
默认值:1。
使用示例
插入 日期时间 使用不同的设置键入值。
SET input_format_values_interpret_expressions = 0;
INSERT INTO datetime_t VALUES (now())
Exception on client:
Code: 27. DB::Exception: Cannot parse input: expected ) before: now()): (at row 1)
SET input_format_values_interpret_expressions = 1;
INSERT INTO datetime_t VALUES (now())
Ok.
最后一个查询等效于以下内容:
SET input_format_values_interpret_expressions = 0;
INSERT INTO datetime_t SELECT now()
Ok.
input_format_values_deduce_templates_of_expressions
启用或禁用以下内容中的SQL表达式的模板扣除 值 格式。 它允许解析和解释表达式 Values
如果连续行中的表达式具有相同的结构,速度要快得多。 ClickHouse尝试推导表达式的模板,使用此模板解析以下行,并在一批成功解析的行上评估表达式。
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:1。
对于以下查询:
INSERT INTO test VALUES (lower('Hello')), (lower('world')), (lower('INSERT')), (upper('Values')), ...
- 如果
input_format_values_interpret_expressions=1
和format_values_deduce_templates_of_expressions=0
,表达式为每行分别解释(对于大量行来说,这非常慢)。 - 如果
input_format_values_interpret_expressions=0
和format_values_deduce_templates_of_expressions=1
,第一,第二和第三行中的表达式使用template解析lower(String)
并一起解释,第四行中的表达式用另一个模板解析 (upper(String)
). - 如果
input_format_values_interpret_expressions=1
和format_values_deduce_templates_of_expressions=1
,与前面的情况相同,但如果不可能推导出模板,也允许回退到单独解释表达式。
input_format_values_accurate_types_of_literals
此设置仅在以下情况下使用 input_format_values_deduce_templates_of_expressions = 1
. 它可能发生,某些列的表达式具有相同的结构,但包含不同类型的数字文字,例如
(..., abs(0), ...), -- UInt64 literal
(..., abs(3.141592654), ...), -- Float64 literal
(..., abs(-1), ...), -- Int64 literal
可能的值:
-
0 — Disabled.
In this case, ClickHouse may use a more general type for some literals (e.g.,
Float64
或Int64
而不是UInt64
为42
),但它可能会导致溢出和精度问题。 -
1 — Enabled.
在这种情况下,ClickHouse会检查文本的实际类型,并使用相应类型的表达式模板。 在某些情况下,可能会显着减慢表达式评估
Values
.
默认值:1。
input_format_defaults_for_omitted_fields
执行时 INSERT
查询时,将省略的输入列值替换为相应列的默认值。 此选项仅适用于 JSONEachRow, CSV 和 TabSeparated 格式。
!!! note "注" 启用此选项后,扩展表元数据将从服务器发送到客户端。 它会消耗服务器上的额外计算资源,并可能降低性能。
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:1。
input_format_tsv_empty_as_default
启用后,将TSV中的空输入字段替换为默认值。 对于复杂的默认表达式 input_format_defaults_for_omitted_fields
必须启用了。
默认情况下禁用。
input_format_null_as_default
如果输入数据包含 NULL
,但相应列的数据类型不 Nullable(T)
(对于文本输入格式)。
input_format_skip_unknown_fields
启用或禁用跳过额外数据的插入。
写入数据时,如果输入数据包含目标表中不存在的列,ClickHouse将引发异常。 如果启用了跳过,ClickHouse不会插入额外的数据,也不会引发异常。
支持的格式:
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:0。
input_format_import_nested_json
启用或禁用具有嵌套对象的JSON数据的插入。
支持的格式:
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:0。
另请参阅:
- 嵌套结构的使用 与
JSONEachRow
格式。
input_format_with_names_use_header
启用或禁用插入数据时检查列顺序。
为了提高插入性能,如果您确定输入数据的列顺序与目标表中的列顺序相同,建议禁用此检查。
支持的格式:
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:1。
date_time_input_format
允许选择日期和时间的文本表示的解析器。
该设置不适用于 日期和时间功能.
可能的值:
-
'best_effort'
— Enables extended parsing.ClickHouse可以解析基本
YYYY-MM-DD HH:MM:SS
格式和所有 ISO 8601 日期和时间格式。 例如,'2018-06-08T01:02:03.000Z'
. -
'basic'
— Use basic parser.ClickHouse只能解析基本的
YYYY-MM-DD HH:MM:SS
格式。 例如,'2019-08-20 10:18:56'
.
默认值: 'basic'
.
另请参阅:
join_default_strictness
设置默认严格性 加入子句.
可能的值:
ALL
— If the right table has several matching rows, ClickHouse creates a 笛卡尔积 从匹配的行。 这是正常的JOIN
来自标准SQL的行为。ANY
— If the right table has several matching rows, only the first one found is joined. If the right table has only one matching row, the results ofANY
和ALL
都是一样的ASOF
— For joining sequences with an uncertain match.Empty string
— IfALL
或ANY
如果未在查询中指定,ClickHouse将引发异常。
默认值: ALL
.
join_any_take_last_row
更改联接操作的行为 ANY
严格。
!!! warning "注意"
此设置仅适用于 JOIN
操作与 加入我们 发动机表.
可能的值:
- 0 — If the right table has more than one matching row, only the first one found is joined.
- 1 — If the right table has more than one matching row, only the last one found is joined.
默认值:0。
另请参阅:
join_use_nulls
设置类型 JOIN 行为 合并表时,可能会出现空单元格。 ClickHouse根据此设置以不同的方式填充它们。
可能的值:
- 0 — The empty cells are filled with the default value of the corresponding field type.
- 1 —
JOIN
其行为方式与标准SQL中的行为方式相同。 相应字段的类型将转换为 可为空,和空单元格填充 NULL.
默认值:0。
max_block_size
在ClickHouse中,数据由块(列部分集)处理。 单个块的内部处理周期足够高效,但每个块都有明显的支出。 该 max_block_size
设置是建议从表中加载块的大小(行数)。 块大小不应该太小,以便每个块上的支出仍然明显,但不能太大,以便在第一个块处理完成后快速完成限制查询。 目标是避免在多个线程中提取大量列时占用太多内存,并且至少保留一些缓存局部性。
默认值:65,536。
块的大小 max_block_size
并不总是从表中加载。 如果显然需要检索的数据较少,则处理较小的块。
preferred_block_size_bytes
用于相同的目的 max_block_size
,但它通过使其适应块中的行数来设置推荐的块大小(以字节为单位)。
但是,块大小不能超过 max_block_size
行。
默认情况下:1,000,000。 它只有在从MergeTree引擎读取时才有效。
merge_tree_min_rows_for_concurrent_read
如果从a的文件中读取的行数 MergeTree 表超过 merge_tree_min_rows_for_concurrent_read
然后ClickHouse尝试在多个线程上从该文件执行并发读取。
可能的值:
- 任何正整数。
默认值:163840.
merge_tree_min_bytes_for_concurrent_read
如果从一个文件中读取的字节数 MergeTree-发动机表超过 merge_tree_min_bytes_for_concurrent_read
,然后ClickHouse尝试在多个线程中并发读取此文件。
可能的值:
- 任何正整数。
默认值:251658240.
merge_tree_min_rows_for_seek
如果要在一个文件中读取的两个数据块之间的距离小于 merge_tree_min_rows_for_seek
行,然后ClickHouse不查找文件,而是按顺序读取数据。
可能的值:
- 任何正整数。
默认值:0。
merge_tree_min_bytes_for_seek
如果要在一个文件中读取的两个数据块之间的距离小于 merge_tree_min_bytes_for_seek
字节数,然后ClickHouse依次读取包含两个块的文件范围,从而避免了额外的寻道。
可能的值:
- 任何正整数。
默认值:0。
merge_tree_coarse_index_granularity
搜索数据时,ClickHouse会检查索引文件中的数据标记。 如果ClickHouse发现所需的键在某个范围内,它将此范围划分为 merge_tree_coarse_index_granularity
子范围和递归地搜索所需的键。
可能的值:
- 任何正偶数整数。
默认值:8。
merge_tree_max_rows_to_use_cache
如果克里克豪斯应该阅读更多 merge_tree_max_rows_to_use_cache
在一个查询中的行,它不使用未压缩块的缓存。
未压缩块的缓存存储为查询提取的数据。 ClickHouse使用此缓存来加快对重复的小查询的响应。 此设置可保护缓存免受读取大量数据的查询的破坏。 该 uncompressed_cache_size 服务器设置定义未压缩块的高速缓存的大小。
可能的值:
- 任何正整数。
Default value: 128 ✕ 8192.
merge_tree_max_bytes_to_use_cache
如果克里克豪斯应该阅读更多 merge_tree_max_bytes_to_use_cache
在一个查询中的字节,它不使用未压缩块的缓存。
未压缩块的缓存存储为查询提取的数据。 ClickHouse使用此缓存来加快对重复的小查询的响应。 此设置可保护缓存免受读取大量数据的查询的破坏。 该 uncompressed_cache_size 服务器设置定义未压缩块的高速缓存的大小。
可能的值:
- 任何正整数。
默认值:2013265920.
min_bytes_to_use_direct_io
使用直接I/O访问存储磁盘所需的最小数据量。
ClickHouse在从表中读取数据时使用此设置。 如果要读取的所有数据的总存储量超过 min_bytes_to_use_direct_io
字节,然后ClickHouse读取从存储磁盘的数据 O_DIRECT
选项。
可能的值:
- 0 — Direct I/O is disabled.
- 整数。
默认值:0。
log_queries
设置查询日志记录。
使用此设置发送到ClickHouse的查询将根据以下内容中的规则记录 query_log 服务器配置参数。
示例:
log_queries=1
log_queries_min_type
query_log
要记录的最小类型。
可能的值:
QUERY_START
(=1
)QUERY_FINISH
(=2
)EXCEPTION_BEFORE_START
(=3
)EXCEPTION_WHILE_PROCESSING
(=4
)
默认值: QUERY_START
.
可以用来限制哪些entiries将去 query_log
,说你只有在错误中才感兴趣,那么你可以使用 EXCEPTION_WHILE_PROCESSING
:
log_queries_min_type='EXCEPTION_WHILE_PROCESSING'
log_query_threads
设置查询线程日志记录。
ClickHouse使用此设置运行的查询线程将根据以下命令中的规则记录 query_thread_log 服务器配置参数。
示例:
log_query_threads=1
max_insert_block_size
要插入到表中的块的大小。 此设置仅适用于服务器形成块的情况。 例如,对于通过HTTP接口进行的插入,服务器会分析数据格式并形成指定大小的块。 但是当使用clickhouse-client时,客户端解析数据本身,并且 ‘max_insert_block_size’ 服务器上的设置不会影响插入的块的大小。 使用INSERT SELECT时,该设置也没有目的,因为数据是使用在SELECT之后形成的相同块插入的。
默认值:1,048,576。
默认值略高于 max_block_size
. 这样做的原因是因为某些表引擎 (*MergeTree
)在磁盘上为每个插入的块形成一个数据部分,这是一个相当大的实体。 同样, *MergeTree
表在插入过程中对数据进行排序,并且足够大的块大小允许在RAM中对更多数据进行排序。
min_insert_block_size_rows
设置块中可以通过以下方式插入到表中的最小行数 INSERT
查询。 较小尺寸的块被压扁成较大的块。
可能的值:
- 整数。
- 0 — Squashing disabled.
默认值:1048576。
min_insert_block_size_bytes
设置块中的最小字节数,可以通过以下方式插入到表中 INSERT
查询。 较小尺寸的块被压扁成较大的块。
可能的值:
- 整数。
- 0 — Squashing disabled.
默认值:268435456.
max_replica_delay_for_distributed_queries
禁用分布式查询的滞后副本。 看 复制.
以秒为单位设置时间。 如果副本滞后超过设定值,则不使用此副本。
默认值:300。
执行时使用 SELECT
从指向复制表的分布式表。
max_threads
查询处理线程的最大数量,不包括用于从远程服务器检索数据的线程(请参阅 ‘max_distributed_connections’ 参数)。
此参数适用于并行执行查询处理管道的相同阶段的线程。 例如,当从表中读取时,如果可以使用函数来评估表达式,请使用WHERE进行过滤,并且至少使用并行方式对GROUP BY进行预聚合 ‘max_threads’ 线程数,然后 ‘max_threads’ 被使用。
默认值:物理CPU内核数。
如果一次在服务器上运行的SELECT查询通常少于一个,请将此参数设置为略小于实际处理器内核数的值。
对于由于限制而快速完成的查询,可以设置较低的 ‘max_threads’. 例如,如果必要数量的条目位于每个块中,并且max_threads=8,则会检索8个块,尽管只读取一个块就足够了。
越小 max_threads
值,较少的内存被消耗。
max_insert_threads
要执行的最大线程数 INSERT SELECT
查询。
可能的值:
- 0 (or 1) —
INSERT SELECT
没有并行执行。 - 整数。 大于1。
默认值:0。
平行 INSERT SELECT
只有在 SELECT
部分并行执行,请参阅 max_threads 设置。
更高的值将导致更高的内存使用率。
max_compress_block_size
在压缩写入表之前,未压缩数据块的最大大小。 默认情况下,1,048,576(1MiB)。 如果大小减小,则压缩率显着降低,压缩和解压缩速度由于高速缓存局部性而略微增加,并且内存消耗减少。 通常没有任何理由更改此设置。
不要将用于压缩的块(由字节组成的内存块)与用于查询处理的块(表中的一组行)混淆。
min_compress_block_size
为 MergeTree"表。 为了减少处理查询时的延迟,在写入下一个标记时,如果块的大小至少为 ‘min_compress_block_size’. 默认情况下,65,536。
块的实际大小,如果未压缩的数据小于 ‘max_compress_block_size’,是不小于该值且不小于一个标记的数据量。
让我们来看看一个例子。 假设 ‘index_granularity’ 在表创建期间设置为8192。
我们正在编写一个UInt32类型的列(每个值4个字节)。 当写入8192行时,总数将是32KB的数据。 由于min_compress_block_size=65,536,将为每两个标记形成一个压缩块。
我们正在编写一个字符串类型的URL列(每个值的平均大小60字节)。 当写入8192行时,平均数据将略少于500KB。 由于这超过65,536,将为每个标记形成一个压缩块。 在这种情况下,当从单个标记范围内的磁盘读取数据时,额外的数据不会被解压缩。
通常没有任何理由更改此设置。
max_query_size
查询的最大部分,可以被带到RAM用于使用SQL解析器进行解析。 插入查询还包含由单独的流解析器(消耗O(1)RAM)处理的插入数据,这些数据不包含在此限制中。
默认值:256KiB。
interactive_delay
以微秒为单位的间隔,用于检查请求执行是否已被取消并发送进度。
默认值:100,000(检查取消并每秒发送十次进度)。
connect_timeout,receive_timeout,send_timeout
用于与客户端通信的套接字上的超时以秒为单位。
默认值:10,300,300。
cancel_http_readonly_queries_on_client_close
Cancels HTTP read-only queries (e.g. SELECT) when a client closes the connection without waiting for the response.
默认值:0
poll_interval
锁定在指定秒数的等待循环。
默认值:10。
max_distributed_connections
与远程服务器同时连接的最大数量,用于分布式处理对单个分布式表的单个查询。 我们建议设置不小于群集中服务器数量的值。
默认值:1024。
以下参数仅在创建分布式表(以及启动服务器时)时使用,因此没有理由在运行时更改它们。
distributed_connections_pool_size
与远程服务器同时连接的最大数量,用于分布式处理对单个分布式表的所有查询。 我们建议设置不小于群集中服务器数量的值。
默认值:1024。
connect_timeout_with_failover_ms
以毫秒为单位连接到分布式表引擎的远程服务器的超时,如果 ‘shard’ 和 ‘replica’ 部分用于群集定义。 如果不成功,将尝试多次连接到各种副本。
默认值:50。
connections_with_failover_max_tries
分布式表引擎的每个副本的最大连接尝试次数。
默认值:3。
极端
是否计算极值(查询结果列中的最小值和最大值)。 接受0或1。 默认情况下,0(禁用)。 有关详细信息,请参阅部分 “Extreme values”.
use_uncompressed_cache
是否使用未压缩块的缓存。 接受0或1。 默认情况下,0(禁用)。 使用未压缩缓存(仅适用于MergeTree系列中的表)可以在处理大量短查询时显着减少延迟并提高吞吐量。 为频繁发送短请求的用户启用此设置。 还要注意 uncompressed_cache_size configuration parameter (only set in the config file) – the size of uncompressed cache blocks. By default, it is 8 GiB. The uncompressed cache is filled in as needed and the least-used data is automatically deleted.
对于至少读取大量数据(一百万行或更多行)的查询,将自动禁用未压缩缓存,以节省真正小型查询的空间。 这意味着你可以保持 ‘use_uncompressed_cache’ 设置始终设置为1。
replace_running_query
当使用HTTP接口时, ‘query_id’ 参数可以传递。 这是用作查询标识符的任何字符串。 如果来自同一用户的查询具有相同的 ‘query_id’ 已经存在在这个时候,行为取决于 ‘replace_running_query’ 参数。
0
(default) – Throw an exception (don't allow the query to run if a query with the same ‘query_id’ 已经运行)。
1
– Cancel the old query and start running the new one.
YandexMetrica使用此参数设置为1来实现分段条件的建议。 输入下一个字符后,如果旧的查询还没有完成,应该取消。
stream_flush_interval_ms
适用于在超时的情况下或线程生成流式传输的表 max_insert_block_size 行。
默认值为7500。
值越小,数据被刷新到表中的频率就越高。 将该值设置得太低会导致性能较差。
load_balancing
指定用于分布式查询处理的副本选择算法。
ClickHouse支持以下选择副本的算法:
随机(默认情况下)
load_balancing = random
对每个副本计算错误数。 查询发送到错误最少的副本,如果存在其中几个错误,则发送给其中任何一个。 缺点:不考虑服务器邻近度;如果副本具有不同的数据,则也会获得不同的数据。
最近的主机名
load_balancing = nearest_hostname
The number of errors is counted for each replica. Every 5 minutes, the number of errors is integrally divided by 2. Thus, the number of errors is calculated for a recent time with exponential smoothing. If there is one replica with a minimal number of errors (i.e. errors occurred recently on the other replicas), the query is sent to it. If there are multiple replicas with the same minimal number of errors, the query is sent to the replica with a hostname that is most similar to the server's hostname in the config file (for the number of different characters in identical positions, up to the minimum length of both hostnames).
例如,例如01-01-1和example01-01-2.yandex.ru 在一个位置是不同的,而example01-01-1和example01-02-2在两个地方不同。 这种方法可能看起来很原始,但它不需要有关网络拓扑的外部数据,也不比较IP地址,这对于我们的IPv6地址来说会很复杂。
因此,如果存在等效副本,则首选按名称最接近的副本。 我们还可以假设,当向同一台服务器发送查询时,在没有失败的情况下,分布式查询也将转到同一台服务器。 因此,即使在副本上放置了不同的数据,查询也会返回大多相同的结果。
按顺序
load_balancing = in_order
具有相同错误数的副本的访问顺序与配置中指定的顺序相同。 当您确切知道哪个副本是可取的时,此方法是适当的。
第一次或随机
load_balancing = first_or_random
此算法选择集合中的第一个副本,如果第一个副本不可用,则选择随机副本。 它在跨复制拓扑设置中有效,但在其他配置中无用。
该 first_or_random
算法解决的问题 in_order
算法。 与 in_order
,如果一个副本出现故障,下一个副本将获得双重负载,而其余副本将处理通常的流量。 使用时 first_or_random
算法中,负载均匀分布在仍然可用的副本之间。
prefer_localhost_replica
在处理分布式查询时,最好使用localhost副本启用/禁用该副本。
可能的值:
- 1 — ClickHouse always sends a query to the localhost replica if it exists.
- 0 — ClickHouse uses the balancing strategy specified by the load_balancing 设置。
默认值:1。
!!! warning "警告" 如果使用此设置,请禁用此设置 max_parallel_replicas.
totals_mode
如何计算总计时有存在,以及当max_rows_to_group_by和group_by_overflow_mode= ‘any’ 都在场。 请参阅部分 “WITH TOTALS modifier”.
totals_auto_threshold
阈值 totals_mode = 'auto'
.
请参阅部分 “WITH TOTALS modifier”.
max_parallel_replicas
执行查询时每个分片的最大副本数。 为了保持一致性(以获取相同数据拆分的不同部分),此选项仅在设置了采样键时有效。 副本滞后不受控制。
编译
启用查询的编译。 默认情况下,0(禁用)。
编译仅用于查询处理管道的一部分:用于聚合的第一阶段(GROUP BY)。 如果编译了管道的这一部分,则由于部署周期较短和内联聚合函数调用,查询可能运行得更快。 对于具有多个简单聚合函数的查询,可以看到最大的性能改进(在极少数情况下可快四倍)。 通常,性能增益是微不足道的。 在极少数情况下,它可能会减慢查询执行速度。
min_count_to_compile
在运行编译之前可能使用已编译代码块的次数。 默认情况下,3。 For testing, the value can be set to 0: compilation runs synchronously and the query waits for the end of the compilation process before continuing execution. For all other cases, use values starting with 1. Compilation normally takes about 5-10 seconds. 如果该值为1或更大,则编译在单独的线程中异步进行。 结果将在准备就绪后立即使用,包括当前正在运行的查询。
对于查询中使用的聚合函数的每个不同组合以及GROUP BY子句中的键类型,都需要编译代码。 The results of the compilation are saved in the build directory in the form of .so files. There is no restriction on the number of compilation results since they don't use very much space. Old results will be used after server restarts, except in the case of a server upgrade – in this case, the old results are deleted.
output_format_json_quote_64bit_integers
如果该值为true,则在使用JSON*Int64和UInt64格式时,整数将显示在引号中(为了与大多数JavaScript实现兼容);否则,整数将不带引号输出。
format_csv_delimiter
将字符解释为CSV数据中的分隔符。 默认情况下,分隔符为 ,
.
input_format_csv_unquoted_null_literal_as_null
对于CSV输入格式,启用或禁用未引用的解析 NULL
作为文字(同义词 \N
).
output_format_csv_crlf_end_of_line
在CSV中使用DOS/Windows样式的行分隔符(CRLF)而不是Unix样式(LF)。
output_format_tsv_crlf_end_of_line
在TSV中使用DOC/Windows样式的行分隔符(CRLF)而不是Unix样式(LF)。
insert_quorum
启用仲裁写入。
- 如果
insert_quorum < 2
,仲裁写入被禁用。 - 如果
insert_quorum >= 2
,仲裁写入已启用。
默认值:0。
仲裁写入
INSERT
只有当ClickHouse设法正确地将数据写入成功 insert_quorum
在复制品的 insert_quorum_timeout
. 如果由于任何原因,成功写入的副本数量没有达到 insert_quorum
,写入被认为失败,ClickHouse将从已经写入数据的所有副本中删除插入的块。
仲裁中的所有副本都是一致的,即它们包含来自所有以前的数据 INSERT
查询。 该 INSERT
序列线性化。
当读取从写入的数据 insert_quorum
,您可以使用 select_sequential_consistency 选项。
ClickHouse生成异常
- 如果查询时可用副本的数量小于
insert_quorum
. - 在尝试写入数据时,以前的块尚未被插入
insert_quorum
的复制品。 如果用户尝试执行INSERT
前一个与insert_quorum
完成。
另请参阅:
insert_quorum_timeout
写入仲裁超时以秒为单位。 如果超时已经过去,并且还没有发生写入,ClickHouse将生成异常,客户端必须重复查询以将相同的块写入相同的副本或任何其他副本。
默认值:60秒。
另请参阅:
select_sequential_consistency
启用或禁用顺序一致性 SELECT
查询:
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:0。
用途
当启用顺序一致性时,ClickHouse允许客户端执行 SELECT
仅查询那些包含来自所有先前数据的副本 INSERT
查询执行 insert_quorum
. 如果客户端引用了部分副本,ClickHouse将生成异常。 SELECT查询将不包括尚未写入副本仲裁的数据。
另请参阅:
insert_deduplicate
启用或禁用块重复数据删除 INSERT
(对于复制的*表)。
可能的值:
- 0 — Disabled.
- 1 — Enabled.
默认值:1。
默认情况下,块插入到复制的表 INSERT
语句重复数据删除(见 数据复制).
deduplicate_blocks_in_dependent_materialized_views
启用或禁用从已复制*表接收数据的实例化视图的重复数据删除检查。
可能的值:
0 — Disabled.
1 — Enabled.
默认值:0。
用途
默认情况下,重复数据删除不对实例化视图执行,而是在源表的上游执行。
如果由于源表中的重复数据删除而跳过了插入的块,则不会插入附加的实例化视图。 这种行为的存在是为了允许将高度聚合的数据插入到实例化视图中,对于在实例化视图聚合之后插入的块相同,但是从源表中的不同插入派生的情况。
与此同时,这种行为 “breaks” INSERT
幂等性 如果一个 INSERT
进入主表是成功的, INSERT
into a materialized view failed (e.g. because of communication failure with Zookeeper) a client will get an error and can retry the operation. However, the materialized view won't receive the second insert because it will be discarded by deduplication in the main (source) table. The setting deduplicate_blocks_in_dependent_materialized_views
允许改变这种行为。 重试时,实例化视图将收到重复插入,并自行执行重复数据删除检查,
忽略源表的检查结果,并将插入由于第一次失败而丢失的行。
max_network_bytes
限制在执行查询时通过网络接收或传输的数据量(以字节为单位)。 此设置适用于每个单独的查询。
可能的值:
- 整数。
- 0 — Data volume control is disabled.
默认值:0。
max_network_bandwidth
限制通过网络进行数据交换的速度,以每秒字节为单位。 此设置适用于每个查询。
可能的值:
- 整数。
- 0 — Bandwidth control is disabled.
默认值:0。
max_network_bandwidth_for_user
限制通过网络进行数据交换的速度,以每秒字节为单位。 此设置适用于单个用户执行的所有并发运行的查询。
可能的值:
- 整数。
- 0 — Control of the data speed is disabled.
默认值:0。
max_network_bandwidth_for_all_users
限制通过网络交换数据的速度,以每秒字节为单位。 此设置适用于服务器上同时运行的所有查询。
可能的值:
- 整数。
- 0 — Control of the data speed is disabled.
默认值:0。
count_distinct_implementation
指定其中的 uniq*
函数应用于执行 COUNT(DISTINCT …) 建筑。
可能的值:
默认值: uniqExact
.
skip_unavailable_shards
启用或禁用静默跳过不可用分片。
如果分片的所有副本都不可用,则视为不可用。 副本在以下情况下不可用:
-
ClickHouse出于任何原因无法连接到副本。
连接到副本时,ClickHouse会执行多次尝试。 如果所有这些尝试都失败,则认为副本不可用。
-
副本无法通过DNS解析。
如果无法通过DNS解析副本的主机名,则可能指示以下情况:
-
副本的主机没有DNS记录。 它可以发生在具有动态DNS的系统中,例如, Kubernetes,其中节点在停机期间可能无法解决问题,这不是错误。
-
配置错误。 ClickHouse配置文件包含错误的主机名。
-
可能的值:
-
1 — skipping enabled.
如果分片不可用,ClickHouse将基于部分数据返回结果,并且不报告节点可用性问题。
-
0 — skipping disabled.
如果分片不可用,ClickHouse将引发异常。
默认值:0。
optimize_skip_unused_shards
对于在PREWHERE/WHERE中具有分片键条件的SELECT查询,启用或禁用跳过未使用的分片(假定数据是通过分片键分发的,否则不执行任何操作)。
默认值:0
force_optimize_skip_unused_shards
在以下情况下启用或禁用查询执行 optimize_skip_unused_shards
无法启用和跳过未使用的分片。 如果跳过是不可能的,并且设置为启用异常将被抛出。
可能的值:
- 0-禁用(不抛出)
- 1-仅当表具有分片键时禁用查询执行
- 2-无论为表定义了分片键,都禁用查询执行
默认值:0
optimize_throw_if_noop
启用或禁用抛出异常,如果 OPTIMIZE 查询未执行合并。
默认情况下, OPTIMIZE
即使它没有做任何事情,也会成功返回。 此设置允许您区分这些情况并在异常消息中获取原因。
可能的值:
- 1 — Throwing an exception is enabled.
- 0 — Throwing an exception is disabled.
默认值:0。
distributed_replica_error_half_life
- 类型:秒
- 默认值:60秒
控制清零分布式表中的错误的速度。 如果某个副本在一段时间内不可用,累计出现5个错误,并且distributed_replica_error_half_life设置为1秒,则该副本在上一个错误发生3秒后视为正常。
另请参阅:
distributed_replica_error_cap
- 类型:无符号int
- 默认值:1000
每个副本的错误计数上限为此值,从而防止单个副本累积太多错误。
另请参阅:
distributed_directory_monitor_sleep_time_ms
对于基本间隔 分布 表引擎发送数据。 在发生错误时,实际间隔呈指数级增长。
可能的值:
- 毫秒的正整数。
默认值:100毫秒。
distributed_directory_monitor_max_sleep_time_ms
的最大间隔 分布 表引擎发送数据。 限制在设置的区间的指数增长 distributed_directory_monitor_sleep_time_ms 设置。
可能的值:
- 毫秒的正整数。
默认值:30000毫秒(30秒)。
distributed_directory_monitor_batch_inserts
启用/禁用批量发送插入的数据。
当批量发送被启用时, 分布 表引擎尝试在一个操作中发送插入数据的多个文件,而不是单独发送它们。 批量发送通过更好地利用服务器和网络资源来提高集群性能。
可能的值:
- 1 — Enabled.
- 0 — Disabled.
默认值:0。
os_thread_priority
设置优先级 (不错)对于执行查询的线程。 当选择要在每个可用CPU内核上运行的下一个线程时,操作系统调度程序会考虑此优先级。
!!! warning "警告"
要使用此设置,您需要设置 CAP_SYS_NICE
能力。 该 clickhouse-server
软件包在安装过程中设置它。 某些虚拟环境不允许您设置 CAP_SYS_NICE
能力。 在这种情况下, clickhouse-server
在开始时显示关于它的消息。
可能的值:
- 您可以在范围内设置值
[-20, 19]
.
值越低意味着优先级越高。 低螺纹 nice
与具有高值的线程相比,优先级值的执行频率更高。 高值对于长时间运行的非交互式查询更为可取,因为这使得它们可以在到达时快速放弃资源,转而使用短交互式查询。
默认值:0。
query_profiler_real_time_period_ns
设置周期的实时时钟定时器 查询探查器. 真正的时钟计时器计数挂钟时间。
可能的值:
-
正整数,以纳秒为单位。
推荐值:
- 10000000 (100 times a second) nanoseconds and less for single queries. - 1000000000 (once a second) for cluster-wide profiling.
-
0用于关闭计时器。
类型: UInt64.
默认值:1000000000纳秒(每秒一次)。
另请参阅:
- 系统表 trace_log
query_profiler_cpu_time_period_ns
设置周期的CPU时钟定时器 查询探查器. 此计时器仅计算CPU时间。
可能的值:
-
纳秒的正整数。
推荐值:
- 10000000 (100 times a second) nanoseconds and more for single queries. - 1000000000 (once a second) for cluster-wide profiling.
-
0用于关闭计时器。
类型: UInt64.
默认值:1000000000纳秒。
另请参阅:
- 系统表 trace_log
allow_introspection_functions
启用禁用 反省函数 用于查询分析。
可能的值:
- 1 — Introspection functions enabled.
- 0 — Introspection functions disabled.
默认值:0。
另请参阅
input_format_parallel_parsing
- 类型:布尔
- 默认值:True
启用数据格式的保序并行分析。 仅支持TSV,TKSV,CSV和JSONEachRow格式。
min_chunk_bytes_for_parallel_parsing
- 类型:无符号int
- 默认值:1MiB
以字节为单位的最小块大小,每个线程将并行解析。
output_format_avro_codec
设置用于输出Avro文件的压缩编解ec。
类型:字符串
可能的值:
null
— No compressiondeflate
— Compress with Deflate (zlib)snappy
— Compress with 活泼的
默认值: snappy
(如果可用)或 deflate
.
output_format_avro_sync_interval
设置输出Avro文件的同步标记之间的最小数据大小(以字节为单位)。
类型:无符号int
可能的值:32(32字节)-1073741824(1GiB)
默认值:32768(32KiB)
format_avro_schema_registry_url
设置要与之一起使用的汇合架构注册表URL AvroConfluent 格式
类型:网址
默认值:空
background_pool_size
设置在表引擎中执行后台操作的线程数(例如,合并 MergeTree引擎 表)。 此设置在ClickHouse服务器启动时应用,不能在用户会话中更改。 通过调整此设置,您可以管理CPU和磁盘负载。 较小的池大小使用较少的CPU和磁盘资源,但后台进程推进速度较慢,最终可能会影响查询性能。
可能的值:
- 任何正整数。
默认值:16。
transform_null_in
默认情况下,无法比较 NULL
值,因为 NULL
表示未定义的值。 因此,比较 expr = NULL
必须始终返回 false
。 在此设置下,NULL = NULL
为IN运算符返回 true
.
可能的值:
- 0 — 比较
IN
运算符中NULL
值将返回false
。 - 1 — 比较
IN
运算符中NULL
值将返回true
。
默认值:0。
例
考虑null_in
表:
┌──idx─┬─────i─┐
│ 1 │ 1 │
│ 2 │ NULL │
│ 3 │ 3 │
└──────┴───────┘
查询:
SELECT idx, i FROM null_in WHERE i IN (1, NULL) SETTINGS transform_null_in = 0;
结果:
┌──idx─┬────i─┐
│ 1 │ 1 │
└──────┴──────┘
查询:
SELECT idx, i FROM null_in WHERE i IN (1, NULL) SETTINGS transform_null_in = 1;
结果:
┌──idx─┬─────i─┐
│ 1 │ 1 │
│ 2 │ NULL │
└──────┴───────┘
另请参阅
max_final_threads
设置使用FINAL 限定符的SELECT
查询, 在数据读取阶段的最大并发线程数。
可能的值:
- 正整数。
- 0 or 1 — 禁用。 此时
SELECT
查询单线程执行。
默认值: 16
。