DOCSUP-2958: Documented the output_format_tsv_null_representation setting
136 KiB
toc_priority | toc_title |
---|---|
60 | Настройки |
Настройки
distributed_product_mode
Изменяет поведение распределенных подзапросов.
ClickHouse применяет настройку в тех случаях, когда запрос содержит произведение распределённых таблиц, т.е. когда запрос к распределенной таблице содержит не-GLOBAL подзапрос к также распределенной таблице.
Условия применения:
- Только подзапросы для IN, JOIN.
- Только если в секции FROM используется распределённая таблица, содержащая более одного шарда.
- Если подзапрос касается распределенной таблицы, содержащей более одного шарда.
- Не используется в случае табличной функции remote.
Возможные значения:
deny
— значение по умолчанию. Запрещает использование таких подзапросов (При попытке использование вернет исключение «Double-distributed IN/JOIN subqueries is denied»);local
— заменяет базу данных и таблицу в подзапросе на локальные для конечного сервера (шарда), оставив обычныйIN
/JOIN.
global
— заменяет запросIN
/JOIN
наGLOBAL IN
/GLOBAL JOIN.
allow
— разрешает использование таких подзапросов.
enable_optimize_predicate_expression
Включает пробрасывание предикатов в подзапросы для запросов SELECT
.
Пробрасывание предикатов может существенно уменьшить сетевой трафик для распределенных запросов.
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 1.
Использование
Рассмотрим следующие запросы:
SELECT count() FROM test_table WHERE date = '2018-10-10'
SELECT count() FROM (SELECT * FROM test_table) WHERE date = '2018-10-10'
Если enable_optimize_predicate_expression = 1
, то время выполнения запросов одинаковое, так как ClickHouse применяет WHERE
к подзапросу сразу при его обработке.
Если enable_optimize_predicate_expression = 0
, то время выполнения второго запроса намного больше, потому что секция WHERE
применяется к данным уже после завершения подзапроса.
fallback_to_stale_replicas_for_distributed_queries
Форсирует запрос в устаревшую реплику в случае, если актуальные данные недоступны. См. Репликация.
Из устаревших реплик таблицы ClickHouse выбирает наиболее актуальную.
Используется при выполнении SELECT
из распределенной таблицы, которая указывает на реплицированные таблицы.
По умолчанию - 1 (включена).
force_index_by_date
Запрещает выполнение запросов, если использовать индекс по дате невозможно.
Работает с таблицами семейства MergeTree.
При force_index_by_date=1
ClickHouse проверяет, есть ли в запросе условие на ключ даты, которое может использоваться для отсечения диапазонов данных. Если подходящего условия нет - кидается исключение. При этом не проверяется, действительно ли условие уменьшает объём данных для чтения. Например, условие Date != '2000-01-01'
подходит даже в том случае, когда соответствует всем данным в таблице (т.е. для выполнения запроса требуется full scan). Подробнее про диапазоны данных в таблицах MergeTree читайте в разделе MergeTree.
force_primary_key
Запрещает выполнение запросов, если использовать индекс по первичному ключу невозможно.
Работает с таблицами семейства MergeTree.
При force_primary_key=1
ClickHouse проверяет, есть ли в запросе условие на первичный ключ, которое может использоваться для отсечения диапазонов данных. Если подходящего условия нет - кидается исключение. При этом не проверяется, действительно ли условие уменьшает объём данных для чтения. Подробнее про диапазоны данных в таблицах MergeTree читайте в разделе MergeTree.
format_schema
Параметр применяется в том случае, когда используются форматы, требующие определения схемы, например Cap’n Proto или Protobuf. Значение параметра зависит от формата.
fsync_metadata
Включает или отключает fsync при записи .sql
файлов. По умолчанию включено.
Имеет смысл выключать, если на сервере миллионы мелких таблиц-чанков, которые постоянно создаются и уничтожаются.
enable_http_compression
Включает или отключает сжатие данных в ответе на HTTP-запрос.
Для получения дополнительной информации, читайте Описание интерфейса HTTP.
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
http_zlib_compression_level
Задаёт уровень сжатия данных в ответе на HTTP-запрос, если enable_http_compression = 1.
Возможные значения: числа от 1 до 9.
Значение по умолчанию: 3.
http_native_compression_disable_checksumming_on_decompress
Включает или отключает проверку контрольной суммы при распаковке данных HTTP POST от клиента. Используется только для собственного (Navite
) формата сжатия ClickHouse (ни gzip
, ни deflate
).
Для получения дополнительной информации, читайте Описание интерфейса HTTP.
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
send_progress_in_http_headers
Включает или отключает HTTP-заголовки X-ClickHouse-Progress
в ответах clickhouse-server
.
Для получения дополнительной информации, читайте Описание интерфейса HTTP.
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
max_http_get_redirects
Ограничивает максимальное количество переходов по редиректам в таблицах с движком URL при выполнении HTTP запросов методом GET. Настройка применяется для обоих типов таблиц: созданных запросом CREATE TABLE и с помощью табличной функции url.
Возможные значения:
- Положительное целое число переходов.
- 0 — переходы запрещены.
Значение по умолчанию: 0.
input_format_allow_errors_num
Устанавливает максимальное количество допустимых ошибок при чтении из текстовых форматов (CSV, TSV и т.п.).
Значение по умолчанию: 0.
Используйте обязательно в паре с input_format_allow_errors_ratio
. Для пропуска ошибок, значения обеих настроек должны быть больше 0.
Если при чтении строки возникла ошибка, но при этом счетчик ошибок меньше input_format_allow_errors_num
, то ClickHouse игнорирует строку и переходит к следующей.
В случае превышения input_format_allow_errors_num
ClickHouse генерирует исключение.
input_format_allow_errors_ratio
Устанавливает максимальную долю допустимых ошибок при чтении из текстовых форматов (CSV, TSV и т.п.). Доля ошибок задаётся в виде числа с плавающей запятой от 0 до 1.
Значение по умолчанию: 0.
Используйте обязательно в паре с input_format_allow_errors_num
. Для пропуска ошибок, значения обеих настроек должны быть больше 0.
Если при чтении строки возникла ошибка, но при этом текущая доля ошибок меньше input_format_allow_errors_ratio
, то ClickHouse игнорирует строку и переходит к следующей.
В случае превышения input_format_allow_errors_ratio
ClickHouse генерирует исключение.
input_format_values_interpret_expressions
Включает или отключает парсер SQL, если потоковый парсер не может проанализировать данные. Этот параметр используется только для формата Values при вставке данных. Дополнительные сведения о парсерах читайте в разделе Синтаксис.
Возможные значения:
-
0 — выключена.
В этом случае необходимо вставлять форматированные данные. Смотрите раздел [Форматы](../../interfaces/formats.md).
-
1 — включена.
В этом случае вы можете использовать выражение SQL в качестве значения, но вставка данных намного медленнее. Если вы вставляете только форматированные данные, ClickHouse ведет себя так, как будто значение параметра равно 0.
Значение по умолчанию: 1.
Пример использования:
Вставим значение типа DateTime при разных значения настройки.
SET input_format_values_interpret_expressions = 0;
INSERT INTO datetime_t VALUES (now())
Exception on client:
Code: 27. DB::Exception: Cannot parse input: expected ) before: now()): (at row 1)
SET input_format_values_interpret_expressions = 1;
INSERT INTO datetime_t VALUES (now())
Ok.
Последний запрос эквивалентен следующему:
SET input_format_values_interpret_expressions = 0;
INSERT INTO datetime_t SELECT now()
Ok.
input_format_values_deduce_templates_of_expressions
Включает или отключает попытку вычисления шаблона для выражений SQL в формате Values. Это позволяет гораздо быстрее парсить и интерпретировать выражения в Values
, если выражения в последовательных строках имеют одинаковую структуру. ClickHouse пытается вычислить шаблон выражения, распарсить следующие строки с помощью этого шаблона и вычислить выражение в пачке успешно проанализированных строк.
Возможные значения:
- 0 — Выключена.
- 1 — Включена.
Значение по умолчанию: 1.
Для следующего запроса:
INSERT INTO test VALUES (lower('Hello')), (lower('world')), (lower('INSERT')), (upper('Values')), ...
- Если
input_format_values_interpret_expressions=1
иformat_values_deduce_templates_of_expressions=0
, выражения интерпретируются отдельно для каждой строки (это очень медленно для большого количества строк). - Если
input_format_values_interpret_expressions=0
иformat_values_deduce_templates_of_expressions=1
, выражения в первой, второй и третьей строках парсятся с помощью шаблонаlower(String)
и интерпретируется вместе, выражение в четвертой строке парсится с другим шаблоном (upper(String)
). - Если
input_format_values_interpret_expressions=1
иformat_values_deduce_templates_of_expressions=1
, то же самое, что и в предыдущем случае, но также позволяет выполнять резервную интерпретацию выражений отдельно, если невозможно вычислить шаблон.
input_format_values_accurate_types_of_literals
Эта настройка используется, только когда input_format_values_deduce_templates_of_expressions = 1
. Выражения для некоторых столбцов могут иметь одинаковую структуру, но содержат числовые литералы разных типов, например:
(..., abs(0), ...), -- UInt64 literal
(..., abs(3.141592654), ...), -- Float64 literal
(..., abs(-1), ...), -- Int64 literal
Возможные значения:
-
0 — Выключена.
В этом случае, ClickHouse может использовать более общий тип для некоторых литералов (например,
Float64
илиInt64
вместоUInt64
для42
), но это может привести к переполнению и проблемам с точностью. -
1 — Включена.
В этом случае, ClickHouse проверяет фактический тип литерала и использует шаблон выражения соответствующего типа. В некоторых случаях это может значительно замедлить оценку выажения в
Values
.
Значение по умолчанию: 1.
input_format_defaults_for_omitted_fields
При вставке данных запросом INSERT
, заменяет пропущенные поля значениям по умолчанию для типа данных столбца.
Поддерживаемые форматы вставки:
!!! note "Примечание" Когда опция включена, сервер отправляет клиенту расширенные метаданные. Это требует дополнительных вычислительных ресурсов на сервере и может снизить производительность.
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 1.
input_format_tsv_empty_as_default
Если эта настройка включена, замените пустые поля ввода в TSV значениями по умолчанию. Для сложных выражений по умолчанию также должна быть включена настройка input_format_defaults_for_omitted_fields
.
По умолчанию отключена.
Disabled by default.
input_format_tsv_enum_as_number
Включает или отключает парсинг значений перечислений как идентификаторов перечислений для входного формата TSV.
Возможные значения:
- 0 — парсинг значений перечисления как значений.
- 1 — парсинг значений перечисления как идентификаторов перечисления.
Значение по умолчанию: 0.
Пример
Рассмотрим таблицу:
CREATE TABLE table_with_enum_column_for_tsv_insert (Id Int32,Value Enum('first' = 1, 'second' = 2)) ENGINE=Memory();
При включенной настройке input_format_tsv_enum_as_number
:
SET input_format_tsv_enum_as_number = 1;
INSERT INTO table_with_enum_column_for_tsv_insert FORMAT TSV 102 2;
INSERT INTO table_with_enum_column_for_tsv_insert FORMAT TSV 103 1;
SELECT * FROM table_with_enum_column_for_tsv_insert;
Результат:
┌──Id─┬─Value──┐
│ 102 │ second │
└─────┴────────┘
┌──Id─┬─Value──┐
│ 103 │ first │
└─────┴────────┘
При отключенной настройке input_format_tsv_enum_as_number
запрос INSERT
:
SET input_format_tsv_enum_as_number = 0;
INSERT INTO table_with_enum_column_for_tsv_insert FORMAT TSV 102 2;
сгенерирует исключение.
input_format_null_as_default
Включает или отключает использование значений по умолчанию в случаях, когда во входных данных содержится NULL
, но тип соответствующего столбца не Nullable(T)
(для текстовых форматов).
input_format_skip_unknown_fields
Включает или отключает пропускание вставки неизвестных данных.
При записи данных, если входные данные содержат столбцы, которых нет в целевой таблице, ClickHouse генерирует исключение. Если пропускание вставки включено, ClickHouse не вставляет неизвестные данные и не генерирует исключение.
Поддерживаемые форматы:
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
input_format_import_nested_json
Включает или отключает вставку данных JSON с вложенными объектами.
Поддерживаемые форматы:
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
См. также:
- Использование вложенных структур with the
JSONEachRow
format.
input_format_with_names_use_header
Включает или отключает проверку порядка столбцов при вставке данных.
Чтобы повысить эффективность вставки данных, рекомендуем отключить эту проверку, если вы уверены, что порядок столбцов входных данных такой же, как в целевой таблице.
Поддерживаемые форматы:
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 1.
date_time_input_format
Выбор парсера для текстового представления дат и времени при обработке входного формата.
Настройка не применяется к функциям для работы с датой и временем.
Возможные значения:
-
'best_effort'
— включает расширенный парсинг.ClickHouse может парсить базовый формат `YYYY-MM-DD HH:MM:SS` и все форматы [ISO 8601](https://en.wikipedia.org/wiki/ISO_8601). Например, `'2018-06-08T01:02:03.000Z'`.
-
'basic'
— используется базовый парсер.ClickHouse может парсить только базовый формат `YYYY-MM-DD HH:MM:SS`. Например, `'2019-08-20 10:18:56'`.
Значение по умолчанию: 'basic'
.
См. также:
join_default_strictness
Устанавливает строгость по умолчанию для JOIN.
Возможные значения:
ALL
— если в правой таблице несколько совпадающих строк, данные умножаются на количество этих строк. Это нормальное поведениеJOIN
как в стандартном SQL.ANY
— если в правой таблице несколько соответствующих строк, то соединяется только первая найденная. Если в «правой» таблице есть не более одной подходящей строки, то результатыANY
иALL
совпадают.Пустая строка
— еслиALL
илиANY
не указаны в запросе, то ClickHouse генерирует исключение.
Значение по умолчанию: ALL
.
join_any_take_last_row
Изменяет поведение операций, выполняемых со строгостью ANY
.
!!! warning "Внимание"
Настройка применяется только для операций JOIN
, выполняемых над таблицами с движком Join.
Возможные значения:
- 0 — если в правой таблице несколько соответствующих строк, то присоединяется только первая найденная строка.
- 1 — если в правой таблице несколько соответствующих строк, то присоединяется только последняя найденная строка.
Значение по умолчанию: 0.
См. также:
join_use_nulls
Устанавливает тип поведения JOIN. При объединении таблиц могут появиться пустые ячейки. ClickHouse заполняет их по-разному в зависимости от настроек.
Возможные значения:
- 0 — пустые ячейки заполняются значением по умолчанию соответствующего типа поля.
- 1 —
JOIN
ведёт себя как в стандартном SQL. Тип соответствующего поля преобразуется в Nullable, а пустые ячейки заполняются значениями NULL.
partial_merge_join_optimizations
Отключает все оптимизации для запросов JOIN с частичным MergeJoin алгоритмом.
По умолчанию оптимизации включены, что может привести к неправильным результатам. Если вы видите подозрительные результаты в своих запросах, отключите оптимизацию с помощью этого параметра. В различных версиях сервера ClickHouse, оптимизация может отличаться.
Возможные значения:
- 0 — Оптимизация отключена.
- 1 — Оптимизация включена.
Значение по умолчанию: 1.
partial_merge_join_rows_in_right_blocks
Устанавливает предельные размеры блоков данных «правого» соединения, для запросов JOIN с частичным MergeJoin алгоритмом.
Сервер ClickHouse:
- Разделяет данные правого соединения на блоки с заданным числом строк.
- Индексирует для каждого блока минимальное и максимальное значение.
- Выгружает подготовленные блоки на диск, если это возможно.
Возможные значения:
- Положительное целое число. Рекомендуемый диапазон значений [1000, 100000].
Значение по умолчанию: 65536.
join_on_disk_max_files_to_merge
Устанавливет количество файлов, разрешенных для параллельной сортировки, при выполнении операций MergeJoin на диске.
Чем больше значение параметра, тем больше оперативной памяти используется и тем меньше используется диск (I/O).
Возможные значения:
- Положительное целое число, больше 2.
Значение по умолчанию: 64.
temporary_files_codec
Устанавливает метод сжатия для временных файлов на диске, используемых при сортировки и объединения.
Возможные значения:
- LZ4 — применять сжатие, используя алгоритм LZ4
- NONE — не применять сжатие.
Значение по умолчанию: LZ4.
any_join_distinct_right_table_keys
Включает устаревшее поведение сервера ClickHouse при выполнении операций ANY INNER|LEFT JOIN
.
!!! note "Внимание"
Используйте этот параметр только в целях обратной совместимости, если ваши варианты использования требуют устаревшего поведения JOIN
.
Когда включено устаревшее поведение:
- Результаты операций "t1 ANY LEFT JOIN t2" и "t2 ANY RIGHT JOIN t1" не равны, поскольку ClickHouse использует логику с сопоставлением ключей таблицы "многие к одному слева направо".
- Результаты операций
ANY INNER JOIN
содержат все строки из левой таблицы, аналогично операцииSEMI LEFT JOIN
.
Когда устаревшее поведение отключено:
- Результаты операций
t1 ANY LEFT JOIN t2
иt2 ANY RIGHT JOIN t1
равно, потому что ClickHouse использует логику сопоставления ключей один-ко-многим в операцияхANY RIGHT JOIN
. - Результаты операций
ANY INNER JOIN
содержат по одной строке на ключ из левой и правой таблиц.
Возможные значения:
- 0 — Устаревшее поведение отключено.
- 1 — Устаревшее поведение включено.
Значение по умолчанию: 0.
См. также:
max_block_size
Данные в ClickHouse обрабатываются по блокам (наборам кусочков столбцов). Внутренние циклы обработки для одного блока достаточно эффективны, но есть заметные издержки на каждый блок. Настройка max_block_size
— это рекомендация, какой размер блока (в количестве строк) загружать из таблиц. Размер блока не должен быть слишком маленьким, чтобы затраты на каждый блок были заметны, но не слишком велики, чтобы запрос с LIMIT, который завершается после первого блока, обрабатывался быстро. Цель состоит в том, чтобы не использовалось слишком много оперативки при вынимании большого количества столбцов в несколько потоков; чтобы оставалась хоть какая-нибудь кэш-локальность.
Значение по умолчанию: 65,536.
Из таблицы не всегда загружаются блоки размера max_block_size
. Если ясно, что нужно прочитать меньше данных, то будет считан блок меньшего размера.
preferred_block_size_bytes
Служит для тех же целей что и max_block_size
, но задает рекомендуемый размер блоков в байтах, выбирая адаптивное количество строк в блоке.
При этом размер блока не может быть более max_block_size
строк.
По умолчанию: 1,000,000. Работает только при чтении из MergeTree-движков.
merge_tree_uniform_read_distribution
При чтении из таблиц MergeTree ClickHouse использует несколько потоков. Этот параметр включает/выключает равномерное распределение заданий по рабочим потокам. Алгоритм равномерного распределения стремится сделать время выполнения всех потоков примерно равным для одного запроса SELECT
.
Возможные значения:
- 0 — не использовать равномерное распределение заданий на чтение.
- 1 — использовать равномерное распределение заданий на чтение.
Значение по умолчанию: 1.
merge_tree_min_rows_for_concurrent_read
Если количество строк, считываемых из файла таблицы MergeTree превышает merge_tree_min_rows_for_concurrent_read
, то ClickHouse пытается выполнить одновременное чтение из этого файла в несколько потоков.
Возможные значения:
- Любое положительное целое число.
Значение по умолчанию: 163840.
merge_tree_min_bytes_for_concurrent_read
Если число байтов, которое должно быть прочитано из одного файла таблицы с движком MergeTree, превышает значение merge_tree_min_bytes_for_concurrent_read
, то ClickHouse выполняет одновременное чтение в несколько потоков из этого файла.
Возможное значение:
- Положительное целое число.
Значение по умолчанию: 251658240.
merge_tree_min_rows_for_seek
Если расстояние между двумя блоками данных для чтения в одном файле меньше, чем merge_tree_min_rows_for_seek
строк, то ClickHouse не перескакивает (seek) через блоки, а считывает данные последовательно.
Возможные значения:
- Положительное целое число.
Значение по умолчанию: 0.
merge_tree_min_bytes_for_seek
Если расстояние между двумя блоками данных для чтения в одном файле меньше, чем merge_tree_min_bytes_for_seek
байтов, то ClickHouse не перескакивает (seek) через блоки, а считывает данные последовательно.
Возможные значения:
- Положительное целое число.
Значение по умолчанию: 0.
merge_tree_coarse_index_granularity
При поиске данных ClickHouse проверяет засечки данных в файле индекса. Если ClickHouse обнаруживает, что требуемые ключи находятся в некотором диапазоне, он делит этот диапазон на merge_tree_coarse_index_granularity
поддиапазонов и выполняет в них рекурсивный поиск нужных ключей.
Возможные значения:
- Положительное целое число.
Значение по умолчанию: 8.
merge_tree_max_rows_to_use_cache
Если требуется прочитать более, чем merge_tree_max_rows_to_use_cache
строк в одном запросе, ClickHouse не используют кэш несжатых блоков.
Кэш несжатых блоков хранит данные, извлечённые при выполнении запросов. ClickHouse использует этот кэш для ускорения ответов на повторяющиеся небольшие запросы. Настройка защищает кэш от замусоривания запросами, для выполнения которых необходимо извлечь большое количество данных. Настройка сервера uncompressed_cache_size определяет размер кэша несжатых блоков.
Возможные значения:
- Положительное целое число.
Значение по умолчанию: 128 ✕ 8192.
merge_tree_max_bytes_to_use_cache
Если требуется прочитать более, чем merge_tree_max_bytes_to_use_cache
байтов в одном запросе, ClickHouse не используют кэш несжатых блоков.
Кэш несжатых блоков хранит данные, извлечённые при выполнении запросов. ClickHouse использует кэш для ускорения ответов на повторяющиеся небольшие запросы. Настройка защищает кэш от переполнения. Настройка сервера uncompressed_cache_size определяет размер кэша несжатых блоков.
Возможное значение:
- Положительное целое число.
Значение по умолчанию: 2013265920.
min_bytes_to_use_direct_io
Минимальный объём данных, необходимый для прямого (небуферизованного) чтения/записи (direct I/O) на диск.
ClickHouse использует этот параметр при чтении данных из таблиц. Если общий объём хранения всех данных для чтения превышает min_bytes_to_use_direct_io
байт, тогда ClickHouse использует флаг O_DIRECT
при чтении данных с диска.
Возможные значения:
- 0 — прямой ввод-вывод отключен.
- Положительное целое число.
Значение по умолчанию: 0.
network_compression_method
Устанавливает метод сжатия данных, который используется для обмена данными между серверами и между сервером и clickhouse-client.
Возможные значения:
LZ4
— устанавливает метод сжатия LZ4.ZSTD
— устанавливает метод сжатия ZSTD.
Значение по умолчанию: LZ4
.
См. также
network_zstd_compression_level
Регулирует уровень сжатия ZSTD. Используется только тогда, когда network_compression_method установлен на ZSTD
.
Возможные значения:
- Положительное целое число от 1 до 15.
Значение по умолчанию: 1
.
log_queries
Установка логирования запроса.
Запросы, переданные в ClickHouse с этой установкой, логируются согласно правилам конфигурационного параметра сервера query_log.
Пример:
log_queries=1
log_queries_min_type
Задаёт минимальный уровень логирования в query_log
.
Возможные значения:
QUERY_START
(=1
)QUERY_FINISH
(=2
)EXCEPTION_BEFORE_START
(=3
)EXCEPTION_WHILE_PROCESSING
(=4
)
Значение по умолчанию: QUERY_START
.
Можно использовать для ограничения того, какие объекты будут записаны в query_log
, например, если вас интересуют ошибки, тогда вы можете использовать EXCEPTION_WHILE_PROCESSING
:
log_queries_min_type='EXCEPTION_WHILE_PROCESSING'
log_query_threads
Установка логирования информации о потоках выполнения запроса.
Лог информации о потоках выполнения запросов, переданных в ClickHouse с этой установкой, записывается согласно правилам конфигурационного параметра сервера query_thread_log.
Пример:
log_query_threads=1
max_insert_block_size
Формировать блоки указанного размера, при вставке в таблицу. Эта настройка действует только в тех случаях, когда сервер сам формирует такие блоки. Например, при INSERT-е через HTTP интерфейс, сервер парсит формат данных, и формирует блоки указанного размера. А при использовании clickhouse-client, клиент сам парсит данные, и настройка max_insert_block_size на сервере не влияет на размер вставляемых блоков. При использовании INSERT SELECT, настройка так же не имеет смысла, так как данные будут вставляться теми блоками, которые вышли после SELECT-а.
Значение по умолчанию: 1,048,576.
Это значение намного больше, чем max_block_size
. Это сделано, потому что некоторые движки таблиц (*MergeTree
) будут на каждый вставляемый блок формировать кусок данных на диске, что является довольно большой сущностью. Также, в таблицах типа *MergeTree
, данные сортируются при вставке, и достаточно большой размер блока позволяет отсортировать больше данных в оперативке.
min_insert_block_size_rows
Устанавливает минимальное количество строк в блоке, который может быть вставлен в таблицу запросом INSERT
. Блоки меньшего размера склеиваются в блоки большего размера.
Возможные значения:
- Целое положительное число.
- 0 — Склейка блоков выключена.
Значение по умолчанию: 1048576.
min_insert_block_size_bytes
Устанавливает минимальное количество байтов в блоке, который может быть вставлен в таблицу запросом INSERT
. Блоки меньшего размера склеиваются в блоки большего размера.
Возможные значения:
- Целое положительное число.
- 0 — Склейка блоков выключена.
Значение по умолчанию: 268435456.
max_replica_delay_for_distributed_queries
Отключает отстающие реплики при распределенных запросах. См. Репликация.
Устанавливает время в секундах. Если отставание реплики больше установленного значения, то реплика не используется.
Значение по умолчанию: 300.
Используется при выполнении SELECT
из распределенной таблицы, которая указывает на реплицированные таблицы.
max_threads
Максимальное количество потоков обработки запроса без учёта потоков для чтения данных с удалённых серверов (смотрите параметр max_distributed_connections).
Этот параметр относится к потокам, которые выполняют параллельно одни стадии конвейера выполнения запроса. Например, при чтении из таблицы, если есть возможность вычислять выражения с функциями, фильтровать с помощью WHERE и предварительно агрегировать для GROUP BY параллельно, используя хотя бы количество потоков max_threads, то используются max_threads.
Значение по умолчанию: количество процессорных ядер без учёта Hyper-Threading.
Если на сервере обычно исполняется менее одного запроса SELECT одновременно, то выставите этот параметр в значение чуть меньше количества реальных процессорных ядер.
Для запросов, которые быстро завершаются из-за LIMIT-а, имеет смысл выставить max_threads поменьше. Например, если нужное количество записей находится в каждом блоке, то при max_threads = 8 будет считано 8 блоков, хотя достаточно было прочитать один.
Чем меньше max_threads
, тем меньше будет использоваться оперативки.
max_insert_threads
Максимальное количество потоков для выполнения запроса INSERT SELECT
.
Возможные значения:
- 0 (или 1) —
INSERT SELECT
не выполняется параллельно. - Положительное целое число, больше 1.
Значение по умолчанию: 0.
Параллельный INSERT SELECT
действует только в том случае, если часть SELECT выполняется параллельно, см. настройку max_threads.
Чем больше значение max_insert_threads
, тем больше потребление оперативной памяти.
max_compress_block_size
Максимальный размер блоков не сжатых данных перед сжатием при записи в таблицу. По умолчанию - 1 048 576 (1 MiB). При уменьшении размера, незначительно уменьшается коэффициент сжатия, незначительно возрастает скорость сжатия и разжатия за счёт кэш-локальности, и уменьшается потребление оперативки. Как правило, не имеет смысла менять эту настройку.
Не путайте блоки для сжатия (кусок памяти, состоящий из байт) и блоки для обработки запроса (пачка строк из таблицы).
min_compress_block_size
Для таблиц типа MergeTree. В целях уменьшения задержек при обработке запросов, блок сжимается при записи следующей засечки, если его размер не меньше min_compress_block_size. По умолчанию - 65 536.
Реальный размер блока, если несжатых данных меньше max_compress_block_size, будет не меньше этого значения и не меньше объёма данных на одну засечку.
Рассмотрим пример. Пусть index_granularity, указанная при создании таблицы - 8192.
Пусть мы записываем столбец типа UInt32 (4 байта на значение). При записи 8192 строк, будет всего 32 КБ данных. Так как min_compress_block_size = 65 536, сжатый блок будет сформирован на каждые две засечки.
Пусть мы записываем столбец URL типа String (средний размер - 60 байт на значение). При записи 8192 строк, будет, в среднем, чуть меньше 500 КБ данных. Так как это больше 65 536 строк, то сжатый блок будет сформирован на каждую засечку. В этом случае, при чтении с диска данных из диапазона в одну засечку, не будет разжато лишних данных.
Как правило, не имеет смысла менять эту настройку.
max_query_size
Максимальный кусок запроса, который будет считан в оперативку для разбора парсером языка SQL. Запрос INSERT также содержит данные для INSERT-а, которые обрабатываются отдельным, потоковым парсером (расходующим O(1) оперативки), и не учитываются в этом ограничении.
Значение по умолчанию: 256 Кб.
max_parser_depth
Ограничивает максимальную глубину рекурсии в парсере рекурсивного спуска. Позволяет контролировать размер стека.
Возможные значения:
- Положительное целое число.
- 0 — Глубина рекурсии не ограничена.
Значение по умолчанию: 1000.
interactive_delay
Интервал в микросекундах для проверки, не запрошена ли остановка выполнения запроса, и отправки прогресса.
Значение по умолчанию: 100,000 (проверять остановку запроса и отправлять прогресс десять раз в секунду).
connect_timeout, receive_timeout, send_timeout
Таймауты в секундах на сокет, по которому идёт общение с клиентом.
Значение по умолчанию: 10, 300, 300.
cancel_http_readonly_queries_on_client_close
Отменяет HTTP readonly запросы (например, SELECT), когда клиент обрывает соединение до завершения получения данных.
Значение по умолчанию: 0
poll_interval
Блокироваться в цикле ожидания запроса в сервере на указанное количество секунд.
Значение по умолчанию: 10.
max_distributed_connections
Максимальное количество одновременных соединений с удалёнными серверами при распределённой обработке одного запроса к одной таблице типа Distributed. Рекомендуется выставлять не меньше, чем количество серверов в кластере.
Значение по умолчанию: 1024.
Следующие параметры имеют значение только на момент создания таблицы типа Distributed (и при запуске сервера), поэтому их не имеет смысла менять в рантайме.
distributed_connections_pool_size
Максимальное количество одновременных соединений с удалёнными серверами при распределённой обработке всех запросов к одной таблице типа Distributed. Рекомендуется выставлять не меньше, чем количество серверов в кластере.
Значение по умолчанию: 1024.
connect_timeout_with_failover_ms
Таймаут в миллисекундах на соединение с удалённым сервером, для движка таблиц Distributed, если используются секции shard и replica в описании кластера. В случае неуспеха, делается несколько попыток соединений с разными репликами.
Значение по умолчанию: 50.
connection_pool_max_wait_ms
Время ожидания соединения в миллисекундах, когда пул соединений заполнен.
Возможные значения:
- Положительное целое число.
- 0 — Бесконечный таймаут.
Значение по умолчанию: 0.
connections_with_failover_max_tries
Максимальное количество попыток соединения с каждой репликой, для движка таблиц Distributed.
Значение по умолчанию: 3.
extremes
Считать ли экстремальные значения (минимумы и максимумы по столбцам результата запроса). Принимает 0 или 1. По умолчанию - 0 (выключено). Подробнее смотрите раздел «Экстремальные значения».
kafka_max_wait_ms
Время ожидания в миллисекундах для чтения сообщений из Kafka перед повторной попыткой.
Возможные значения:
- Положительное целое число.
- 0 — Бесконечный таймаут.
Значение по умолчанию: 5000.
См. также:
use_uncompressed_cache
Использовать ли кэш разжатых блоков. Принимает 0 или 1. По умолчанию - 0 (выключено).
Использование кэша несжатых блоков (только для таблиц семейства MergeTree) может существенно сократить задержку и увеличить пропускную способность при работе с большим количеством коротких запросов. Включите эту настройку для пользователей, от которых идут частые короткие запросы. Также обратите внимание на конфигурационный параметр uncompressed_cache_size (настраивается только в конфигурационном файле) – размер кэша разжатых блоков. По умолчанию - 8 GiB. Кэш разжатых блоков заполняется по мере надобности, а наиболее невостребованные данные автоматически удаляются.
Для запросов, читающих хоть немного приличный объём данных (миллион строк и больше), кэш разжатых блоков автоматически выключается, чтобы оставить место для действительно мелких запросов. Поэтому, можно держать настройку use_uncompressed_cache
всегда выставленной в 1.
replace_running_query
При использовании интерфейса HTTP может быть передан параметр query_id. Это любая строка, которая служит идентификатором запроса. Если в этот момент, уже существует запрос от того же пользователя с тем же query_id, то поведение определяется параметром replace_running_query.
0
- (по умолчанию) кинуть исключение (не давать выполнить запрос, если запрос с таким же query_id уже выполняется);
1
- отменить старый запрос и начать выполнять новый.
Эта настройка, выставленная в 1, используется в Яндекс.Метрике для реализации suggest-а значений для условий сегментации. После ввода очередного символа, если старый запрос ещё не выполнился, его следует отменить.
replace_running_query_max_wait_ms
Время ожидания завершения выполнения запроса с тем же query_id
, когда активирована настройка replace_running_query.
Возможные значения:
- Положительное целое число.
- 0 — Создание исключения, которое не позволяет выполнить новый запрос, если сервер уже выполняет запрос с тем же
query_id
.
Значение по умолчанию: 5000.
stream_flush_interval_ms
Работает для таблиц со стриммингом в случае тайм-аута, или когда поток генерирует max_insert_block_size строк.
Значение по умолчанию: 7500.
Чем меньше значение, тем чаще данные сбрасываются в таблицу. Установка слишком низкого значения приводит к снижению производительности.
load_balancing
Задает алгоритм выбора реплик, используемый при обработке распределенных запросов.
ClickHouse поддерживает следующие алгоритмы выбора реплик:
- Random (by default)
- Nearest hostname
- In order
- First or random
- Round robin
См. также:
Random (by Default)
load_balancing = random
Для каждой реплики считается количество ошибок. Запрос отправляется на реплику с минимальным числом ошибок, а если таких несколько, то на случайную из них. Недостатки: не учитывается близость серверов; если на репликах оказались разные данные, то вы будете получать так же разные данные.
Nearest Hostname
load_balancing = nearest_hostname
Для каждой реплики считается количество ошибок. Каждые 5 минут, число ошибок целочисленно делится на 2. Таким образом, обеспечивается расчёт числа ошибок за недавнее время с экспоненциальным сглаживанием. Если есть одна реплика с минимальным числом ошибок (то есть, на других репликах недавно были ошибки) - запрос отправляется на неё. Если есть несколько реплик с одинаковым минимальным числом ошибок, то запрос отправляется на реплику, имя хоста которой в конфигурационном файле минимально отличается от имени хоста сервера (по количеству отличающихся символов на одинаковых позициях, до минимальной длины обеих имён хостов).
Для примера, example01-01-1 и example01-01-2.yandex.ru отличаются в одной позиции, а example01-01-1 и example01-02-2 - в двух. Этот метод может показаться примитивным, но он не требует внешних данных о топологии сети и не сравнивает IP-адреса, что было бы сложно для наших IPv6-адресов.
Таким образом, если есть равнозначные реплики, предпочитается ближайшая по имени. Также можно сделать предположение, что при отправке запроса на один и тот же сервер, в случае отсутствия сбоев, распределённый запрос будет идти тоже на одни и те же серверы. То есть, даже если на репликах расположены разные данные, запрос будет возвращать в основном одинаковые результаты.
In Order
load_balancing = in_order
Реплики с одинаковым количеством ошибок опрашиваются в порядке, определённом конфигурацией. Этот способ подходит для тех случаев, когда вы точно знаете, какая реплика предпочтительнее.
First or Random
load_balancing = first_or_random
Алгоритм выбирает первую реплику или случайную реплику, если первая недоступна. Он эффективен в топологиях с перекрестной репликацией, но бесполезен в других конфигурациях.
Алгоритм first or random
решает проблему алгоритма in order
. При использовании in order
, если одна реплика перестаёт отвечать, то следующая за ней принимает двойную нагрузку, в то время как все остальные обрабатываю свой обычный трафик. Алгоритм first or random
равномерно распределяет нагрузку между репликами.
Round Robin
load_balancing = round_robin
Этот алгоритм использует циклический перебор реплик с одинаковым количеством ошибок (учитываются только запросы с алгоритмом round_robin
).
prefer_localhost_replica
Включает или выключает предпочтительное использование localhost реплики при обработке распределенных запросов.
Возможные значения:
- 1 — ClickHouse всегда отправляет запрос на localhost реплику, если она существует.
- 0 — ClickHouse использует балансировку, заданную настройкой load_balancing.
Значение по умолчанию: 1.
!!! warning "Warning" Отключайте эту настройку при использовании max_parallel_replicas.
totals_mode
Каким образом вычислять TOTALS при наличии HAVING, а также при наличии max_rows_to_group_by и group_by_overflow_mode = ‘any’. Смотрите раздел «Модификатор WITH TOTALS».
totals_auto_threshold
Порог для totals_mode = 'auto'
.
Смотрите раздел «Модификатор WITH TOTALS».
max_parallel_replicas
Максимальное количество используемых реплик каждого шарда при выполнении запроса. Для консистентности (чтобы получить разные части одного и того же разбиения), эта опция работает только при заданном ключе сэмплирования. Отставание реплик не контролируется.
compile
Включить компиляцию запросов. По умолчанию - 0 (выключено).
Компиляция предусмотрена только для части конвейера обработки запроса - для первой стадии агрегации (GROUP BY). В случае, если эта часть конвейера была скомпилирована, запрос может работать быстрее, за счёт разворачивания коротких циклов и инлайнинга вызовов агрегатных функций. Максимальный прирост производительности (до четырёх раз в редких случаях) достигается на запросах с несколькими простыми агрегатными функциями. Как правило, прирост производительности незначителен. В очень редких случаях возможно замедление выполнения запроса.
min_count_to_compile
После скольких раз, когда скомпилированный кусок кода мог пригодиться, выполнить его компиляцию. По умолчанию - 3. Для тестирования можно установить значение 0: компиляция выполняется синхронно, и запрос ожидает окончания процесса компиляции перед продолжением выполнения. Во всех остальных случаях используйте значения, начинающиеся с 1. Как правило, компиляция занимает по времени около 5-10 секунд. В случае, если значение равно 1 или больше, компиляция выполняется асинхронно, в отдельном потоке. При готовности результата, он сразу же будет использован, в том числе, уже выполняющимися в данный момент запросами.
Скомпилированный код требуется для каждого разного сочетания используемых в запросе агрегатных функций и вида ключей в GROUP BY. Результаты компиляции сохраняются в директории build в виде .so файлов. Количество результатов компиляции не ограничено, так как они не занимают много места. При перезапуске сервера, старые результаты будут использованы, за исключением случая обновления сервера - тогда старые результаты удаляются.
input_format_skip_unknown_fields
Если значение равно true, то при выполнении INSERT входные данные из столбцов с неизвестными именами будут пропущены. В противном случае эта ситуация создаст исключение. Работает для форматов JSONEachRow и TSKV.
output_format_json_quote_64bit_integers
Если значение истинно, то при использовании JSON* форматов UInt64 и Int64 числа выводятся в кавычках (из соображений совместимости с большинством реализаций JavaScript), иначе - без кавычек.
output_format_json_quote_denormals
При выводе данных в формате JSON включает отображение значений +nan
, -nan
, +inf
, -inf
.
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
Пример
Рассмотрим следующую таблицу account_orders
:
┌─id─┬─name───┬─duration─┬─period─┬─area─┐
│ 1 │ Andrew │ 20 │ 0 │ 400 │
│ 2 │ John │ 40 │ 0 │ 0 │
│ 3 │ Bob │ 15 │ 0 │ -100 │
└────┴────────┴──────────┴────────┴──────┘
Когда output_format_json_quote_denormals = 0
, следующий запрос возвращает значения null
.
SELECT area/period FROM account_orders FORMAT JSON;
{
"meta":
[
{
"name": "divide(area, period)",
"type": "Float64"
}
],
"data":
[
{
"divide(area, period)": null
},
{
"divide(area, period)": null
},
{
"divide(area, period)": null
}
],
"rows": 3,
"statistics":
{
"elapsed": 0.003648093,
"rows_read": 3,
"bytes_read": 24
}
}
Если output_format_json_quote_denormals = 1
, то запрос вернет:
{
"meta":
[
{
"name": "divide(area, period)",
"type": "Float64"
}
],
"data":
[
{
"divide(area, period)": "inf"
},
{
"divide(area, period)": "-nan"
},
{
"divide(area, period)": "-inf"
}
],
"rows": 3,
"statistics":
{
"elapsed": 0.000070241,
"rows_read": 3,
"bytes_read": 24
}
}
format_csv_delimiter
Символ, интерпретируемый как разделитель в данных формата CSV. По умолчанию — ,
.
input_format_csv_unquoted_null_literal_as_null
Для формата CSV включает или выключает парсинг неэкранированной строки NULL
как литерала (синоним для \N
)
input_format_csv_enum_as_number
Включает или отключает парсинг значений перечислений как идентификаторов перечислений для входного формата CSV.
Возможные значения:
- 0 — парсинг значений перечисления как значений.
- 1 — парсинг значений перечисления как идентификаторов перечисления.
Значение по умолчанию: 0.
Пример
Рассмотрим таблицу:
CREATE TABLE table_with_enum_column_for_csv_insert (Id Int32,Value Enum('first' = 1, 'second' = 2)) ENGINE=Memory();
При включенной настройке input_format_csv_enum_as_number
:
SET input_format_csv_enum_as_number = 1;
INSERT INTO table_with_enum_column_for_csv_insert FORMAT CSV 102,2;
SELECT * FROM table_with_enum_column_for_csv_insert;
Результат:
┌──Id─┬─Value──┐
│ 102 │ second │
└─────┴────────┘
При отключенной настройке input_format_csv_enum_as_number
запрос INSERT
:
SET input_format_csv_enum_as_number = 0;
INSERT INTO table_with_enum_column_for_csv_insert FORMAT CSV 102,2;
сгенерирует исключение.
output_format_csv_crlf_end_of_line
Использовать в качестве разделителя строк для CSV формата CRLF (DOS/Windows стиль) вместо LF (Unix стиль).
output_format_tsv_crlf_end_of_line
Использовать в качестве разделителя строк для TSV формата CRLF (DOC/Windows стиль) вместо LF (Unix стиль).
insert_quorum
Включает кворумную запись.
- Если
insert_quorum < 2
, то кворумная запись выключена. - Если
insert_quorum >= 2
, то кворумная запись включена.
Значение по умолчанию: 0.
Кворумная запись
INSERT
завершается успешно только в том случае, когда ClickHouse смог без ошибки записать данные в insert_quorum
реплик за время insert_quorum_timeout
. Если по любой причине количество реплик с успешной записью не достигнет insert_quorum
, то запись считается не состоявшейся и ClickHouse удалит вставленный блок из всех реплик, куда уже успел записать данные.
Все реплики в кворуме консистентны, т.е. содержат данные всех более ранних запросов INSERT
. Последовательность INSERT
линеаризуется.
При чтении данных, записанных с insert_quorum
можно использовать настройку select_sequential_consistency.
ClickHouse генерирует исключение
- Если количество доступных реплик на момент запроса меньше
insert_quorum
. - При попытке записать данные в момент, когда предыдущий блок ещё не вставлен в
insert_quorum
реплик. Эта ситуация может возникнуть, если пользователь вызвалINSERT
прежде, чем завершился предыдущий сinsert_quorum
.
См. также:
insert_quorum_timeout
Время ожидания кворумной записи в миллисекундах. Если время прошло, а запись так не состоялась, то ClickHouse сгенерирует исключение и клиент должен повторить запрос на запись того же блока на эту же или любую другую реплику.
Значение по умолчанию: 600000 миллисекунд (10 минут).
См. также:
select_sequential_consistency
Включает или выключает последовательную консистентность для запросов SELECT
.
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
Использование
Когда последовательная консистентность включена, то ClickHouse позволит клиенту выполнить запрос SELECT
только к тем репликам, которые содержат данные всех предыдущих запросов INSERT
, выполненных с insert_quorum
. Если клиент обратится к неполной реплике, то ClickHouse сгенерирует исключение. В запросе SELECT не будут участвовать данные, которые ещё не были записаны на кворум реплик.
См. также:
insert_deduplicate
Включает и выключает дедупликацию для запросов INSERT
(для Replicated* таблиц).
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 1.
По умолчанию блоки, вставляемые в реплицируемые таблицы оператором INSERT
, дедуплицируются (см. Репликация данных).
deduplicate_blocks_in_dependent_materialized_views
Включает и выключает проверку дедупликации для материализованных представлений, которые получают данные из Replicated* таблиц.
Возможные значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
По умолчанию проверка дедупликации у материализованных представлений не производится, а наследуется от Replicated* (основной) таблицы, за которой «следит» материализованное представление.
Т.е. если INSERT
в основную таблицу д.б. пропущен (сдедуплицирован), то автоматически не будет вставки и в материализованные представления. Это имплементировано для того, чтобы работали материализованные представления, которые сильно группируют данные основных INSERT
, до такой степени что блоки вставляемые в материализованные представления получаются одинаковыми для разных INSERT
в основную таблицу.
Одновременно это «ломает» идемпотентность вставки в материализованные представления. Т.е. если INSERT
был успешен в основную таблицу и неуспешен в таблицу материализованного представления (напр. из-за сетевого сбоя при коммуникации с Zookeeper), клиент получит ошибку и попытается повторить INSERT
. Но вставки в материализованные представления произведено не будет, потому что дедупликация сработает на основной таблице. Настройка deduplicate_blocks_in_dependent_materialized_views
позволяет это изменить. Т.е. при повторном INSERT
будет произведена дедупликация на таблице материализованного представления, и повторный инсерт вставит данные в таблицу материализованного представления, которые не удалось вставить из-за сбоя первого INSERT
.
count_distinct_implementation
Задаёт, какая из функций uniq*
используется при выполнении конструкции COUNT(DISTINCT …).
Возможные значения:
Значение по умолчанию: uniqExact
.
max_network_bytes
Ограничивает объём данных (в байтах), который принимается или передается по сети при выполнении запроса. Параметр применяется к каждому отдельному запросу.
Возможные значения:
- Положительное целое число.
- 0 — контроль объёма данных отключен.
Значение по умолчанию: 0.
max_network_bandwidth
Ограничивает скорость обмена данными по сети в байтах в секунду. Параметр применяется к каждому отдельному запросу.
Возможные значения:
- Положительное целое число.
- 0 — контроль скорости передачи данных отключен.
Значение по умолчанию: 0.
max_network_bandwidth_for_user
Ограничивает скорость обмена данными по сети в байтах в секунду. Этот параметр применяется ко всем одновременно выполняемым запросам, запущенным одним пользователем.
Возможные значения:
- Положительное целое число.
- 0 — управление скоростью передачи данных отключено.
Значение по умолчанию: 0.
max_network_bandwidth_for_all_users
Ограничивает скорость обмена данными по сети в байтах в секунду. Этот параметр применяется ко всем одновременно выполняемым запросам на сервере.
Возможные значения:
- Положительное целое число.
- 0 — управление скоростью передачи данных отключено.
Значение по умолчанию: 0.
skip_unavailable_shards
Включает или отключает тихий пропуск недоступных шардов.
Шард считается недоступным, если все его реплики недоступны. Реплика недоступна в следующих случаях:
-
ClickHouse не может установить соединение с репликой по любой причине.
ClickHouse предпринимает несколько попыток подключиться к реплике. Если все попытки оказались неудачными, реплика считается недоступной.
-
Реплика не может быть разрешена с помощью DNS.
Если имя хоста реплики не может быть разрешено с помощью DNS, это может указывать на следующие ситуации: - Нет записи DNS для хоста. Это может происходить в системах с динамическим DNS, например, [Kubernetes](https://kubernetes.io), где отключенные ноды не разрешаться с помощью DNS и это не ошибка. - Ошибка конфигурации. Конфигурационный файл ClickHouse может содержать неправильное имя хоста.
Возможные значения:
-
1 — пропуск включен.
Если шард недоступен, то ClickHouse возвращает результат, основанный на неполных данных и не оповещает о проблемах с доступностью хостов.
-
0 — пропуск выключен.
Если шард недоступен, то ClickHouse генерирует исключение.
Значение по умолчанию: 0.
optimize_skip_unused_shards
Включает или отключает пропуск неиспользуемых шардов для запросов SELECT , в которых условие ключа шардирования задано в секции WHERE/PREWHERE
. Предполагается, что данные распределены с помощью ключа шардирования, в противном случае настройка ничего не делает.
Возможные значения:
- 0 — Выключена.
- 1 — Включена.
Значение по умолчанию: 0
optimize_skip_unused_shards_nesting
Контролирует настройку optimize_skip_unused_shards
(поэтому все еще требует optimize_skip_unused_shards
) в зависимости от вложенности распределенного запроса (когда у вас есть Distributed
таблица которая смотрит на другую Distributed
таблицу).
Возможные значения:
- 0 — Выключена,
optimize_skip_unused_shards
работает всегда. - 1 — Включает
optimize_skip_unused_shards
только для 1-ого уровня вложенности. - 2 — Включает
optimize_skip_unused_shards
для 1-ого и 2-ого уровня вложенности.
Значение по умолчанию: 0
force_optimize_skip_unused_shards
Разрешает или запрещает выполнение запроса, если настройка optimize_skip_unused_shards включена, а пропуск неиспользуемых шардов невозможен. Если данная настройка включена и пропуск невозможен, ClickHouse генерирует исключение.
Возможные значения:
- 0 — Выключена,
force_optimize_skip_unused_shards
работает всегда. - 1 — Включает
force_optimize_skip_unused_shards
только для 1-ого уровня вложенности. - 2 — Включает
force_optimize_skip_unused_shards
для 1-ого и 2-ого уровня вложенности.
Значение по умолчанию: 0
force_optimize_skip_unused_shards_nesting
Контролирует настройку force_optimize_skip_unused_shards
(поэтому все еще требует optimize_skip_unused_shards
) в зависимости от вложенности распределенного запроса (когда у вас есть Distributed
таблица которая смотрит на другую Distributed
таблицу).
Возможные значения:
- 0 - Выключена,
force_optimize_skip_unused_shards
работает всегда. - 1 — Включает
force_optimize_skip_unused_shards
только для 1-ого уровня вложенности. - 2 — Включает
force_optimize_skip_unused_shards
для 1-ого и 2-ого уровня вложенности.
Значение по умолчанию: 0
force_optimize_skip_unused_shards_no_nested
Сбрасывает optimize_skip_unused_shards
для вложенных Distributed
таблиц.
Возможные значения:
- 1 — Включена.
- 0 — Выключена.
Значение по умолчанию: 0
optimize_throw_if_noop
Включает или отключает генерирование исключения в случаях, когда запрос OPTIMIZE не выполняет мёрж.
По умолчанию, OPTIMIZE
завершается успешно и в тех случаях, когда он ничего не сделал. Настройка позволяет отделить подобные случаи и включает генерирование исключения с поясняющим сообщением.
Возможные значения:
- 1 — генерирование исключения включено.
- 0 — генерирование исключения выключено.
Значение по умолчанию: 0.
distributed_replica_error_half_life
- Тип: секунды
- Значение по умолчанию: 60 секунд
Управляет скоростью обнуления ошибок в распределенных таблицах. Если реплика недоступна в течение некоторого времени, накапливает 5 ошибок, а distributed_replica_error_half_life установлена на 1 секунду, то реплика считается нормальной через 3 секунды после последней ошибки.
См. также:
- load_balancing
- Table engine Distributed
- distributed_replica_error_cap
- distributed_replica_max_ignored_errors
distributed_replica_error_cap
- Тип: unsigned int
- Значение по умолчанию: 1000
Счетчик ошибок каждой реплики ограничен этим значением, чтобы одна реплика не накапливала слишком много ошибок.
См. также:
- load_balancing
- Table engine Distributed
- distributed_replica_error_half_life
- distributed_replica_max_ignored_errors
distributed_replica_max_ignored_errors
- Тип: unsigned int
- Значение по умолчанию: 0
Количество ошибок, которые будут проигнорированы при выборе реплик (согласно алгоритму load_balancing
).
См. также:
- load_balancing
- Table engine Distributed
- distributed_replica_error_cap
- distributed_replica_error_half_life
distributed_directory_monitor_sleep_time_ms
Основной интервал отправки данных движком таблиц Distributed. Фактический интервал растёт экспоненциально при возникновении ошибок.
Возможные значения:
- Положительное целое количество миллисекунд.
Значение по умолчанию: 100 миллисекунд.
distributed_directory_monitor_max_sleep_time_ms
Максимальный интервал отправки данных движком таблиц Distributed. Ограничивает экпоненциальный рост интервала, установленого настройкой distributed_directory_monitor_sleep_time_ms.
Возможные значения:
- Положительное целое количество миллисекунд.
Значение по умолчанию: 30000 миллисекунд (30 секунд).
distributed_directory_monitor_batch_inserts
Включает/выключает пакетную отправку вставленных данных.
Если пакетная отправка включена, то движок таблиц Distributed вместо того, чтобы отправлять каждый файл со вставленными данными по отдельности, старается отправить их все за одну операцию. Пакетная отправка улучшает производительность кластера за счет более оптимального использования ресурсов сервера и сети.
Возможные значения:
- 1 — включено.
- 0 — выключено.
Значение по умолчанию: 0.
os_thread_priority
Устанавливает приоритет (nice) для потоков, исполняющих запросы. Планировщик ОС учитывает эти приоритеты при выборе следующего потока для исполнения на доступном ядре CPU.
!!! warning "Предупреждение"
Для использования этой настройки необходимо установить свойство CAP_SYS_NICE
. Пакет clickhouse-server
устанавливает его во время инсталляции. Некоторые виртуальные окружения не позволяют установить CAP_SYS_NICE
. В этом случае, clickhouse-server
выводит сообщение при запуске.
Допустимые значения:
- Любое значение из диапазона
[-20, 19]
.
Более низкие значения означают более высокий приоритет. Потоки с низкими значениями приоритета nice
выполняются чаще, чем потоки с более высокими значениями. Высокие значения предпочтительно использовать для долгих неинтерактивных запросов, поскольку это позволяет бысто выделить ресурс в пользу коротких интерактивных запросов.
Значение по умолчанию: 0.
query_profiler_real_time_period_ns
Устанавливает период для таймера реального времени профилировщика запросов. Таймер реального времени считает wall-clock time.
Возможные значения:
-
Положительное целое число в наносекундах.
Рекомендуемые значения: - 10000000 (100 раз в секунду) наносекунд и меньшее значение для одиночных запросов. - 1000000000 (раз в секунду) для профилирования в масштабе кластера.
-
0 для выключения таймера.
Тип: UInt64.
Значение по умолчанию: 1000000000 наносекунд (раз в секунду).
См. также:
- Системная таблица trace_log
query_profiler_cpu_time_period_ns
Устанавливает период для таймера CPU query profiler. Этот таймер считает только время CPU.
Возможные значения:
-
Положительное целое число в наносекундах.
Рекомендуемые значения: - 10000000 (100 раз в секунду) наносекунд и большее значение для одиночных запросов. - 1000000000 (раз в секунду) для профилирования в масштабе кластера.
-
0 для выключения таймера.
Тип: UInt64.
Значение по умолчанию: 1000000000 наносекунд.
См. также:
- Системная таблица trace_log
allow_introspection_functions
Включает или отключает функции самоанализа для профилирования запросов.
Возможные значения:
- 1 — включены функции самоанализа.
- 0 — функции самоанализа отключены.
Значение по умолчанию: 0.
См. также
- Sampling Query Profiler
- Системная таблица trace_log
input_format_parallel_parsing
- Тип: bool
- Значение по умолчанию: True
Обеспечивает параллельный анализ форматов данных с сохранением порядка. Поддерживается только для форматов TSV, TKSV, CSV и JSONEachRow.
min_chunk_bytes_for_parallel_parsing
- Тип: unsigned int
- Значение по умолчанию: 1 MiB
Минимальный размер блока в байтах, который каждый поток будет анализировать параллельно.
output_format_avro_codec
Устанавливает кодек сжатия, используемый для вывода файла Avro.
Тип: строка
Возможные значения:
null
— без сжатияdeflate
— сжать с помощью Deflate (zlib)snappy
— сжать с помощью Snappy
Значение по умолчанию: snappy
(если доступно) или deflate
.
output_format_avro_sync_interval
Устанавливает минимальный размер данных (в байтах) между маркерами синхронизации для выходного файла Avro.
Тип: unsigned int
озможные значения: 32 (32 байта) - 1073741824 (1 GiB)
Значение по умолчанию: 32768 (32 KiB)
background_pool_size
Задает количество потоков для выполнения фоновых операций в движках таблиц (например, слияния в таблицах c движком MergeTree). Настройка применяется при запуске сервера ClickHouse и не может быть изменена во пользовательском сеансе. Настройка позволяет управлять загрузкой процессора и диска. Чем меньше пулл, тем ниже нагрузка на CPU и диск, при этом фоновые процессы замедляются, что может повлиять на скорость выполнения запроса.
Допустимые значения:
- Положительное целое число.
Значение по умолчанию: 16.
parallel_distributed_insert_select
Включает параллельную обработку распределённых запросов INSERT ... SELECT
.
Если при выполнении запроса INSERT INTO distributed_table_a SELECT ... FROM distributed_table_b
оказывается, что обе таблицы находятся в одном кластере, то независимо от того реплицируемые они или нет, запрос выполняется локально на каждом шарде.
Допустимые значения:
- 0 — выключена.
- 1 — включена.
Значение по умолчанию: 0.
insert_distributed_sync
Включает или отключает режим синхронного добавления данных в распределенные таблицы (таблицы с движком Distributed).
По умолчанию ClickHouse вставляет данные в распределённую таблицу в асинхронном режиме. Если insert_distributed_sync=1
, то данные вставляются сихронно, а запрос INSERT
считается выполненным успешно, когда данные записаны на все шарды (по крайней мере на одну реплику для каждого шарда, если internal_replication = true
).
Возможные значения:
- 0 — Данные добавляются в асинхронном режиме.
- 1 — Данные добавляются в синхронном режиме.
Значение по умолчанию: 0
.
См. также
validate_polygons
Включает или отключает генерирование исключения в функции pointInPolygon, если многоугольник самопересекающийся или самокасающийся.
Допустимые значения:
- 0 — генерирование исключения отключено.
pointInPolygon
принимает недопустимые многоугольники и возвращает для них, возможно, неверные результаты. - 1 — генерирование исключения включено.
Значение по умолчанию: 1.
always_fetch_merged_part
Запрещает слияние данных для таблиц семейства Replicated*MergeTree.
Если слияние запрещено, реплика никогда не выполняет слияние отдельных кусков данных, а всегда загружает объединённые данные из других реплик. Если объединённых данных пока нет, реплика ждет их появления. Нагрузка на процессор и диски на реплике уменьшается, но нагрузка на сеть в кластере возрастает. Настройка может быть полезна на репликах с относительно слабыми процессорами или медленными дисками, например, на репликах для хранения архивных данных.
Возможные значения:
- 0 — таблицы семейства
Replicated*MergeTree
выполняют слияние данных на реплике. - 1 — таблицы семейства
Replicated*MergeTree
не выполняют слияние данных на реплике, а загружают объединённые данные из других реплик.
Значение по умолчанию: 0.
См. также:
transform_null_in
Разрешает сравнивать значения NULL в операторе IN.
По умолчанию, значения NULL
нельзя сравнивать, поскольку NULL
обозначает неопределённое значение. Следовательно, сравнение expr = NULL
должно всегда возвращать false
. С этой настройкой NULL = NULL
возвращает true
в операторе IN
.
Possible values:
- 0 — Сравнение значений
NULL
в оператореIN
возвращаетfalse
. - 1 — Сравнение значений
NULL
в оператореIN
возвращаетtrue
.
Значение по умолчанию: 0.
Пример
Рассмотрим таблицу null_in
:
┌──idx─┬─────i─┐
│ 1 │ 1 │
│ 2 │ NULL │
│ 3 │ 3 │
└──────┴───────┘
Consider the null_in
table:
┌──idx─┬─────i─┐
│ 1 │ 1 │
│ 2 │ NULL │
│ 3 │ 3 │
└──────┴───────┘
Запрос:
SELECT idx, i FROM null_in WHERE i IN (1, NULL) SETTINGS transform_null_in = 0;
Ответ:
┌──idx─┬────i─┐
│ 1 │ 1 │
└──────┴──────┘
Запрос:
SELECT idx, i FROM null_in WHERE i IN (1, NULL) SETTINGS transform_null_in = 1;
Ответ:
┌──idx─┬─────i─┐
│ 1 │ 1 │
│ 2 │ NULL │
└──────┴───────┘
См. также
low_cardinality_max_dictionary_size
Задает максимальный размер общего глобального словаря (в строках) для типа данных LowCardinality
, который может быть записан в файловую систему хранилища. Настройка предотвращает проблемы с оперативной памятью в случае неограниченного увеличения словаря. Все данные, которые не могут быть закодированы из-за ограничения максимального размера словаря, ClickHouse записывает обычным способом.
Допустимые значения:
- Положительное целое число.
Значение по умолчанию: 8192.
low_cardinality_use_single_dictionary_for_part
Включает или выключает использование единого словаря для куска (парта).
По умолчанию сервер ClickHouse следит за размером словарей, и если словарь переполняется, сервер создает следующий. Чтобы запретить создание нескольких словарей, задайте настройку low_cardinality_use_single_dictionary_for_part = 1
.
Допустимые значения:
- 1 — Создание нескольких словарей для частей данных запрещено.
- 0 — Создание нескольких словарей для частей данных не запрещено.
Значение по умолчанию: 0.
low_cardinality_allow_in_native_format
Разрешает или запрещает использование типа данных LowCardinality
с форматом данных Native.
Если использование типа LowCardinality
ограничено, сервер CLickHouse преобразует столбцы LowCardinality
в обычные столбцы для запросов SELECT
, а обычные столбцы - в столбцы LowCardinality
для запросов INSERT
.
В основном настройка используется для сторонних клиентов, не поддерживающих тип данных LowCardinality
.
Допустимые значения:
- 1 — Использование
LowCardinality
не ограничено. - 0 — Использование
LowCardinality
ограничено.
Значение по умолчанию: 1.
allow_suspicious_low_cardinality_types
Разрешает или запрещает использование типа данных LowCardinality
с типами данных с фиксированным размером 8 байт или меньше: числовые типы данных и FixedString (8_bytes_or_less)
.
Для небольших фиксированных значений использование LowCardinality
обычно неэффективно, поскольку ClickHouse хранит числовой индекс для каждой строки. В результате:
- Используется больше дискового пространства.
- Потребление ОЗУ увеличивается, в зависимости от размера словаря.
- Некоторые функции работают медленнее из-за дополнительных операций кодирования.
Время слияния в таблицах на движке MergeTree также может увеличиться по описанным выше причинам.
Допустимые значения:
- 1 — Использование
LowCardinality
не ограничено. - 0 — Использование
LowCardinality
ограничено.
Значение по умолчанию: 0.
background_buffer_flush_schedule_pool_size
Задает количество потоков для выполнения фонового сброса данных в таблицах с движком Buffer. Настройка применяется при запуске сервера ClickHouse и не может быть изменена в пользовательском сеансе.
Допустимые значения:
- Положительное целое число.
Значение по умолчанию: 16.
background_move_pool_size
Задает количество потоков для фоновых перемещений кусков между дисками. Работает для таблиц с движком MergeTree. Настройка применяется при запуске сервера ClickHouse и не может быть изменена в пользовательском сеансе.
Допустимые значения:
- Положительное целое число.
Значение по умолчанию: 8.
background_schedule_pool_size
Задает количество потоков для выполнения фоновых задач. Работает для реплицируемых таблиц, стримов в Kafka и обновления IP адресов у записей во внутреннем DNS кеше. Настройка применяется при запуске сервера ClickHouse и не может быть изменена в пользовательском сеансе.
Допустимые значения:
- Положительное целое число.
Значение по умолчанию: 16.
background_distributed_schedule_pool_size
Задает количество потоков для выполнения фоновых задач. Работает для таблиц с движком Distributed. Настройка применяется при запуске сервера ClickHouse и не может быть изменена в пользовательском сеансе.
Допустимые значения:
- Положительное целое число.
Значение по умолчанию: 16.
format_avro_schema_registry_url
Задает URL реестра схем Confluent для использования с форматом AvroConfluent.
Значение по умолчанию: Пустая строка
.
input_format_avro_allow_missing_fields
Позволяет использовать данные, которых не нашлось в схеме формата Avro или AvroConfluent. Если поле не найдено в схеме, ClickHouse подставит значение по умолчанию вместо исключения.
Возможные значения:
- 0 — Выключена.
- 1 — Включена.
Значение по умолчанию: 0
.
min_insert_block_size_rows_for_materialized_views
Устанавливает минимальное количество строк в блоке, который может быть вставлен в таблицу запросом INSERT
. Блоки меньшего размера склеиваются в блоки большего размера. Настройка применяется только для блоков, вставляемых в материализованное представление. Настройка позволяет избежать избыточного потребления памяти.
Допустимые значения:
- Положительное целое число.
- 0 — Склейка блоков выключена.
Значение по умолчанию: 1048576.
См. также:
min_insert_block_size_bytes_for_materialized_views
Устанавливает минимальное количество байтов в блоке, который может быть вставлен в таблицу запросом INSERT
. Блоки меньшего размера склеиваются в блоки большего размера. Настройка применяется только для блоков, вставляемых в материализованное представление. Настройка позволяет избежать избыточного потребления памяти.
Допустимые значения:
- Положительное целое число.
- 0 — Склейка блоков выключена.
Значение по умолчанию: 268435456.
См. также:
output_format_pretty_grid_charset
Позволяет изменить кодировку, которая используется для печати грид-границ. Доступны следующие кодировки: UTF-8, ASCII.
Пример
SET output_format_pretty_grid_charset = 'UTF-8';
SELECT * FROM a;
┌─a─┐
│ 1 │
└───┘
SET output_format_pretty_grid_charset = 'ASCII';
SELECT * FROM a;
+-a-+
| 1 |
+---+
optimize_read_in_order
Включает или отключает оптимизацию в запросах SELECT с секцией ORDER BY при работе с таблицами семейства MergeTree.
Возможные значения:
- 0 — оптимизация отключена.
- 1 — оптимизация включена.
Значение по умолчанию: 1
.
См. также
- Оптимизация чтения данных в секции
ORDER BY
mutations_sync
Позволяет выполнять запросы ALTER TABLE ... UPDATE|DELETE
(мутации) синхронно.
Возможные значения:
- 0 - мутации выполняются асинхронно.
- 1 - запрос ждет завершения всех мутаций на текущем сервере.
- 2 - запрос ждет завершения всех мутаций на всех репликах (если они есть).
Значение по умолчанию: 0
.
См. также
ttl_only_drop_parts
Для таблиц MergeTree включает или отключает возможность полного удаления кусков данных, в которых все записи устарели.
Когда настройка ttl_only_drop_parts
отключена (т.е. по умолчанию), сервер лишь удаляет устаревшие записи в соответствии с их временем жизни (TTL).
Когда настройка ttl_only_drop_parts
включена, сервер целиком удаляет куски данных, в которых все записи устарели.
Удаление целых кусков данных вместо удаления отдельных записей позволяет устанавливать меньший таймаут merge_with_ttl_timeout
и уменьшает нагрузку на сервер, что способствует росту производительности.
Возможные значения:
- 0 — Возможность удаления целых кусков данных отключена.
- 1 — Возможность удаления целых кусков данных включена.
Значение по умолчанию: 0
.
См. также
- Секции и настройки запроса CREATE TABLE (настройка
merge_with_ttl_timeout
) - Table TTL
output_format_pretty_max_value_width
Ограничивает длину значения, выводимого в формате Pretty. Если значение длиннее указанного количества символов, оно обрезается.
Возможные значения:
- Положительное целое число.
- 0 — значение обрезается полностью.
Значение по умолчанию: 10000
символов.
Примеры
Запрос:
SET output_format_pretty_max_value_width = 10;
SELECT range(number) FROM system.numbers LIMIT 10 FORMAT PrettyCompactNoEscapes;
Результат:
┌─range(number)─┐
│ [] │
│ [0] │
│ [0,1] │
│ [0,1,2] │
│ [0,1,2,3] │
│ [0,1,2,3,4⋯ │
│ [0,1,2,3,4⋯ │
│ [0,1,2,3,4⋯ │
│ [0,1,2,3,4⋯ │
│ [0,1,2,3,4⋯ │
└───────────────┘
Запрос, где длина выводимого значения ограничена 0 символов:
SET output_format_pretty_max_value_width = 0;
SELECT range(number) FROM system.numbers LIMIT 5 FORMAT PrettyCompactNoEscapes;
Результат:
┌─range(number)─┐
│ ⋯ │
│ ⋯ │
│ ⋯ │
│ ⋯ │
│ ⋯ │
└───────────────┘
output_format_pretty_row_numbers
Включает режим отображения номеров строк для запросов, выводимых в формате Pretty.
Возможные значения:
- 0 — номера строк не выводятся.
- 1 — номера строк выводятся.
Значение по умолчанию: 0
.
Пример
Запрос:
SET output_format_pretty_row_numbers = 1;
SELECT TOP 3 name, value FROM system.settings;
Результат:
┌─name────────────────────┬─value───┐
1. │ min_compress_block_size │ 65536 │
2. │ max_compress_block_size │ 1048576 │
3. │ max_block_size │ 65505 │
└─────────────────────────┴─────────┘
allow_experimental_bigint_types
Включает или отключает поддержку целочисленных значений, превышающих максимальное значение, допустимое для типа int
.
Возможные значения:
- 1 — большие целочисленные значения поддерживаются.
- 0 — большие целочисленные значения не поддерживаются.
Значение по умолчанию: 0
.
lock_acquire_timeout
Устанавливает, сколько секунд сервер ожидает возможности выполнить блокировку таблицы.
Таймаут устанавливается для защиты от взаимоблокировки при выполнении операций чтения или записи. Если время ожидания истекло, а блокировку выполнить не удалось, сервер возвращает исключение с кодом DEADLOCK_AVOIDED
и сообщением "Locking attempt timed out! Possible deadlock avoided. Client should retry." ("Время ожидания блокировки истекло! Возможная взаимоблокировка предотвращена. Повторите запрос.").
Возможные значения:
- Положительное целое число (в секундах).
- 0 — таймаут не устанавливается.
Значение по умолчанию: 120
секунд.
cast_keep_nullable
Включает или отключает сохранение типа Nullable
для аргумента функции CAST.
Если настройка включена, то когда в функцию CAST
передается аргумент с типом Nullable
, функция возвращает результат, также преобразованный к типу Nullable
.
Если настройка отключена, то функция CAST
всегда возвращает результат строго указанного типа.
Возможные значения:
- 0 — функция
CAST
преобразует аргумент строго к указанному типу. - 1 — если аргумент имеет тип
Nullable
, то функцияCAST
преобразует его к типуNullable
для указанного типа.
Значение по умолчанию: 0
.
Примеры
Запрос возвращает аргумент, преобразованный строго к указанному типу:
SET cast_keep_nullable = 0;
SELECT CAST(toNullable(toInt32(0)) AS Int32) as x, toTypeName(x);
Результат:
┌─x─┬─toTypeName(CAST(toNullable(toInt32(0)), 'Int32'))─┐
│ 0 │ Int32 │
└───┴───────────────────────────────────────────────────┘
Запрос возвращает аргумент, преобразованный к типу Nullable
для указанного типа:
SET cast_keep_nullable = 1;
SELECT CAST(toNullable(toInt32(0)) AS Int32) as x, toTypeName(x);
Результат:
┌─x─┬─toTypeName(CAST(toNullable(toInt32(0)), 'Int32'))─┐
│ 0 │ Nullable(Int32) │
└───┴───────────────────────────────────────────────────┘
См. также
- Функция CAST
persistent
Отключает перманентность для табличных движков Set и Join.
Уменьшает расходы на ввод/вывод. Может быть полезно, когда требуется высокая производительность, а перманентность не обязательна.
Возможные значения:
- 1 — включено.
- 0 — отключено.
Значение по умолчанию: 1
.
output_format_tsv_null_representation
Позволяет настраивать представление NULL
для формата выходных данных TSV. Настройка управляет форматом выходных данных, \N
является единственным поддерживаемым представлением для формата входных данных TSV.
Значение по умолчанию: \N
.