* Simplify 404 page * add es array_functions.md * restore some old manual anchors * update sitemaps * trigger checks * restore more old manual anchors * refactor test.md + temporary disable failure again * fix mistype
15 KiB
Restricciones en la complejidad de consultas
Las restricciones en la complejidad de la consulta forman parte de la configuración.
Se utilizan para proporcionar una ejecución más segura desde la interfaz de usuario.
Casi todas las restricciones solo se aplican a SELECT
. Para el procesamiento de consultas distribuidas, las restricciones se aplican en cada servidor por separado.
ClickHouse comprueba las restricciones para las partes de datos, no para cada fila. Significa que puede exceder el valor de restricción con el tamaño de la parte de datos.
Restricciones en el “maximum amount of something” puede tomar el valor 0, lo que significa “unrestricted”.
La mayoría de las restricciones también tienen un ‘overflow_mode’ establecer, lo que significa qué hacer cuando se excede el límite.
Puede tomar uno de dos valores: throw
o break
. Las restricciones en la agregación (group_by_overflow_mode) también tienen el valor any
.
throw
– Lanzar una excepción (por defecto).
break
– Detener la ejecución de la consulta y devolver el resultado parcial, como si los datos de origen se agotaron.
any (only for group_by_overflow_mode)
– Continuar la agregación de las claves que se metieron en el conjunto, pero no añadir nuevas claves al conjunto.
Método de codificación de datos:
La cantidad máxima de RAM que se utiliza para ejecutar una consulta en un único servidor.
En el archivo de configuración predeterminado, el máximo es de 10 GB.
El ajuste no tiene en cuenta el volumen de memoria disponible o el volumen total de memoria en la máquina.
La restricción se aplica a una sola consulta dentro de un único servidor.
Usted puede utilizar SHOW PROCESSLIST
para ver el consumo de memoria actual para cada consulta.
Además, el consumo máximo de memoria se rastrea para cada consulta y se escribe en el registro.
El uso de memoria no se supervisa para los estados de ciertas funciones agregadas.
El uso de memoria no se realiza un seguimiento completo de los estados de las funciones agregadas min
, max
, any
, anyLast
, argMin
, argMax
de String
y Array
argumento.
El consumo de memoria también está restringido por los parámetros max_memory_usage_for_user
y max_memory_usage_for_all_queries
.
Max_memory_usage_for_user
La cantidad máxima de RAM que se utilizará para ejecutar las consultas de un usuario en un único servidor.
Los valores predeterminados se definen en Configuración.h. De forma predeterminada, el importe no está restringido (max_memory_usage_for_user = 0
).
Ver también la descripción de Método de codificación de datos:.
Todos los derechos reservados.
La cantidad máxima de RAM que se utilizará para ejecutar todas las consultas en un único servidor.
Los valores predeterminados se definen en Configuración.h. De forma predeterminada, el importe no está restringido (max_memory_usage_for_all_queries = 0
).
Ver también la descripción de Método de codificación de datos:.
¿Qué puedes encontrar en Neodigit
Las siguientes restricciones se pueden verificar en cada bloque (en lugar de en cada fila). Es decir, las restricciones se pueden romper un poco. Al ejecutar una consulta en varios subprocesos, las siguientes restricciones se aplican a cada subproceso por separado.
Un número máximo de filas que se pueden leer de una tabla al ejecutar una consulta.
¿Qué puedes encontrar en Neodigit
Un número máximo de bytes (datos sin comprimir) que se pueden leer de una tabla al ejecutar una consulta.
Método de codificación de datos:
Qué hacer cuando el volumen de datos leídos excede uno de los límites: ‘throw’ o ‘break’. Por defecto, tirar.
Método de codificación de datos:
Un número máximo de claves únicas recibidas de la agregación. Esta configuración le permite limitar el consumo de memoria al agregar.
Grupo_by_overflow_mode
Qué hacer cuando el número de claves únicas para la agregación excede el límite: ‘throw’, ‘break’, o ‘any’. Por defecto, tirar. Uso de la ‘any’ valor le permite ejecutar una aproximación de GROUP BY. La calidad de esta aproximación depende de la naturaleza estadística de los datos.
max_bytes_before_external_group_by
Habilita o deshabilita la ejecución de GROUP BY
en la memoria externa. Ver GRUPO POR en memoria externa.
Valores posibles:
- Volumen máximo de RAM (en bytes) que puede ser utilizado por el único GRUPO POR operación.
- Cero —
GROUP BY
en la memoria externa deshabilitada.
Valor predeterminado: 0.
Método de codificación de datos:
Un número máximo de filas antes de ordenar. Esto le permite limitar el consumo de memoria al ordenar.
Método de codificación de datos:
Un número máximo de bytes antes de ordenar.
sort_overflow_mode
Qué hacer si el número de filas recibidas antes de ordenar excede uno de los límites: ‘throw’ o ‘break’. Por defecto, tirar.
max_result_rows
Límite en el número de filas en el resultado. También se comprueba si hay subconsultas y en servidores remotos cuando se ejecutan partes de una consulta distribuida.
max_result_bytes
Límite en el número de bytes en el resultado. Lo mismo que el ajuste anterior.
result_overflow_mode
Qué hacer si el volumen del resultado excede uno de los límites: ‘throw’ o ‘break’. Por defecto, tirar.
Utilizar ‘break’ es similar a un límite de usar. Break
interrumpe la ejecución sólo en el nivel de bloque. Esto significa que la cantidad de filas devueltas es mayor que max_result_rows, múltiplo de max_block_size y depende de max_threads.
Ejemplo:
SET max_threads = 3, max_block_size = 3333;
SET max_result_rows = 3334, result_overflow_mode = 'break';
SELECT *
FROM numbers_mt(100000)
FORMAT Null;
Resultado:
6666 rows in set. ...
max_execution_time
Tiempo máximo de ejecución de la consulta en segundos. En este momento, no se comprueba una de las etapas de clasificación, o al fusionar y finalizar funciones agregadas.
timeout_overflow_mode
Qué hacer si la consulta se ejecuta más de ‘max_execution_time’: ‘throw’ o ‘break’. Por defecto, tirar.
Método de codificación de datos:
Velocidad de ejecución mínima en filas por segundo. Comprobado en cada bloque de datos cuando ‘timeout_before_checking_execution_speed’ expirar. Si la velocidad de ejecución es menor, se produce una excepción.
Todos los derechos reservados.
Un número mínimo de bytes de ejecución por segundo. Comprobado en cada bloque de datos cuando ‘timeout_before_checking_execution_speed’ expirar. Si la velocidad de ejecución es menor, se produce una excepción.
Max_execution_speed
Un número máximo de filas de ejecución por segundo. Comprobado en cada bloque de datos cuando ‘timeout_before_checking_execution_speed’ expirar. Si la velocidad de ejecución es alta, la velocidad de ejecución se reducirá.
Max_execution_speed_bytes
Un número máximo de bytes de ejecución por segundo. Comprobado en cada bloque de datos cuando ‘timeout_before_checking_execution_speed’ expirar. Si la velocidad de ejecución es alta, la velocidad de ejecución se reducirá.
Tiempo de espera antes de comprobar_ejecución_velocidad
Comprueba que la velocidad de ejecución no sea demasiado lenta (no menos de ‘min_execution_speed’), después de que el tiempo especificado en segundos haya expirado.
Max_columns_to_read
Un número máximo de columnas que se pueden leer de una tabla en una sola consulta. Si una consulta requiere leer un mayor número de columnas, produce una excepción.
max_temporary_columns
Un número máximo de columnas temporales que se deben mantener en la memoria RAM al mismo tiempo cuando se ejecuta una consulta, incluidas las columnas constantes. Si hay más columnas temporales que esto, arroja una excepción.
max_temporary_non_const_columns
Lo mismo que ‘max_temporary_columns’, pero sin contar columnas constantes. Tenga en cuenta que las columnas constantes se forman con bastante frecuencia cuando se ejecuta una consulta, pero requieren aproximadamente cero recursos informáticos.
max_subquery_depth
Profundidad máxima de anidamiento de subconsultas. Si las subconsultas son más profundas, se produce una excepción. De forma predeterminada, 100.
max_pipeline_depth
Profundidad máxima de la tubería. Corresponde al número de transformaciones que realiza cada bloque de datos durante el procesamiento de consultas. Contado dentro de los límites de un único servidor. Si la profundidad de la canalización es mayor, se produce una excepción. Por defecto, 1000.
max_ast_depth
Profundidad máxima de anidamiento de un árbol sintáctico de consulta. Si se supera, se produce una excepción. En este momento, no se comprueba durante el análisis, sino solo después de analizar la consulta. Es decir, se puede crear un árbol sintáctico demasiado profundo durante el análisis, pero la consulta fallará. Por defecto, 1000.
max_ast_elements
Un número máximo de elementos en un árbol sintáctico de consulta. Si se supera, se produce una excepción. De la misma manera que la configuración anterior, se verifica solo después de analizar la consulta. De forma predeterminada, 50.000.
Método de codificación de datos:
Un número máximo de filas para un conjunto de datos en la cláusula IN creada a partir de una subconsulta.
Método de codificación de datos:
Número máximo de bytes (datos sin comprimir) utilizados por un conjunto en la cláusula IN creada a partir de una subconsulta.
set_overflow_mode
Qué hacer cuando la cantidad de datos excede uno de los límites: ‘throw’ o ‘break’. Por defecto, tirar.
Método de codificación de datos:
Un número máximo de filas diferentes al usar DISTINCT.
Método de codificación de datos:
Un número máximo de bytes utilizados por una tabla hash cuando se utiliza DISTINCT.
distinct_overflow_mode
Qué hacer cuando la cantidad de datos excede uno de los límites: ‘throw’ o ‘break’. Por defecto, tirar.
max_rows_to_transfer
Un número máximo de filas que se pueden pasar a un servidor remoto o guardar en una tabla temporal cuando se utiliza GLOBAL IN.
max_bytes_to_transfer
Un número máximo de bytes (datos sin comprimir) que se pueden pasar a un servidor remoto o guardar en una tabla temporal cuando se utiliza GLOBAL IN.
transfer_overflow_mode
Qué hacer cuando la cantidad de datos excede uno de los límites: ‘throw’ o ‘break’. Por defecto, tirar.
Método de codificación de datos:
Limita el número de filas de la tabla hash que se utiliza al unir tablas.
Esta configuración se aplica a SELECCIONAR … UNIRSE operaciones y la Unir motor de mesa.
Si una consulta contiene varias combinaciones, ClickHouse comprueba esta configuración para cada resultado intermedio.
ClickHouse puede proceder con diferentes acciones cuando se alcanza el límite. Utilice el join_overflow_mode configuración para elegir la acción.
Valores posibles:
- Entero positivo.
- 0 — Número ilimitado de filas.
Valor predeterminado: 0.
Método de codificación de datos:
Limita el tamaño en bytes de la tabla hash utilizada al unir tablas.
Esta configuración se aplica a SELECCIONAR … UNIRSE operaciones y Unirse al motor de tabla.
Si la consulta contiene combinaciones, ClickHouse comprueba esta configuración para cada resultado intermedio.
ClickHouse puede proceder con diferentes acciones cuando se alcanza el límite. Utilizar join_overflow_mode para elegir la acción.
Valores posibles:
- Entero positivo.
- 0 — El control de memoria está desactivado.
Valor predeterminado: 0.
join_overflow_mode
Define qué acción realiza ClickHouse cuando se alcanza cualquiera de los siguientes límites de combinación:
Valores posibles:
THROW
- ClickHouse lanza una excepción y rompe la operación.BREAK
- ClickHouse interrumpe la operación y no lanza una excepción.
Valor predeterminado: THROW
.
Ver también
max_partitions_per_insert_block
Limita el número máximo de particiones en un único bloque insertado.
- Entero positivo.
- 0 — número Ilimitado de particiones.
Valor predeterminado: 100.
Detalles
Al insertar datos, ClickHouse calcula el número de particiones en el bloque insertado. Si el número de particiones es mayor que max_partitions_per_insert_block
, ClickHouse lanza una excepción con el siguiente texto:
“Too many partitions for single INSERT block (more than” ¿Cómo puedo hacerlo? “). The limit is controlled by ‘max_partitions_per_insert_block’ setting. A large number of partitions is a common misconception. It will lead to severe negative performance impact, including slow server startup, slow INSERT queries and slow SELECT queries. Recommended total number of partitions for a table is under 1000..10000. Please note, that partitioning is not intended to speed up SELECT queries (ORDER BY key is sufficient to make range queries fast). Partitions are intended for data manipulation (DROP PARTITION, etc).”