ClickHouse/docs/es/operations/settings/query-complexity.md
Ivan Blinkov d91c97d15d
[docs] replace underscores with hyphens (#10606)
* Replace underscores with hyphens

* remove temporary code

* fix style check

* fix collapse
2020-04-30 21:19:18 +03:00

15 KiB
Raw Blame History

machine_translated machine_translated_rev toc_priority toc_title
true 3e185d24c9 59 Restricciones en la complejidad de consultas

Restricciones En La Complejidad De Consultas

Las restricciones en la complejidad de la consulta forman parte de la configuración. Se utilizan para proporcionar una ejecución más segura desde la interfaz de usuario. Casi todas las restricciones solo se aplican a SELECT. Para el procesamiento de consultas distribuidas, las restricciones se aplican en cada servidor por separado.

ClickHouse comprueba las restricciones para las partes de datos, no para cada fila. Significa que puede exceder el valor de restricción con el tamaño de la parte de datos.

Restricciones en el “maximum amount of something” puede tomar el valor 0, lo que significa “unrestricted”. La mayoría de las restricciones también tienen un overflow_mode establecer, lo que significa qué hacer cuando se excede el límite. Puede tomar uno de dos valores: throw o break. Las restricciones en la agregación (group_by_overflow_mode) también tienen el valor any.

throw Throw an exception (default).

break Stop executing the query and return the partial result, as if the source data ran out.

any (only for group_by_overflow_mode) Continuing aggregation for the keys that got into the set, but dont add new keys to the set.

Método De codificación De Datos:

La cantidad máxima de RAM que se utiliza para ejecutar una consulta en un único servidor.

En el archivo de configuración predeterminado, el máximo es de 10 GB.

La configuración no tiene en cuenta el volumen de memoria disponible ni el volumen total de memoria en la máquina. La restricción se aplica a una sola consulta dentro de un único servidor. Usted puede utilizar SHOW PROCESSLIST para ver el consumo de memoria actual para cada consulta. Además, el consumo máximo de memoria se rastrea para cada consulta y se escribe en el registro.

El uso de memoria no se supervisa para los estados de ciertas funciones agregadas.

El uso de memoria no se realiza un seguimiento completo de los estados de las funciones agregadas min, max, any, anyLast, argMin, argMax de String y Array argumento.

El consumo de memoria también está restringido por los parámetros max_memory_usage_for_user y max_memory_usage_for_all_queries.

Max_memory_usage_for_user

La cantidad máxima de RAM que se utilizará para ejecutar las consultas de un usuario en un único servidor.

Los valores predeterminados se definen en Configuración.h. De forma predeterminada, el importe no está restringido (max_memory_usage_for_user = 0).

Ver también la descripción de Método de codificación de datos:.

Todos Los Derechos Reservados

La cantidad máxima de RAM que se utilizará para ejecutar todas las consultas en un único servidor.

Los valores predeterminados se definen en Configuración.h. De forma predeterminada, el importe no está restringido (max_memory_usage_for_all_queries = 0).

Ver también la descripción de Método de codificación de datos:.

¿Qué puedes encontrar en Neodigit

Las siguientes restricciones se pueden verificar en cada bloque (en lugar de en cada fila). Es decir, las restricciones se pueden romper un poco. Al ejecutar una consulta en varios subprocesos, las siguientes restricciones se aplican a cada subproceso por separado.

Un número máximo de filas que se pueden leer de una tabla al ejecutar una consulta.

¿Qué puedes encontrar en Neodigit

Un número máximo de bytes (datos sin comprimir) que se pueden leer de una tabla al ejecutar una consulta.

Método De codificación De Datos:

Qué hacer cuando el volumen de datos leídos excede uno de los límites: throw o break. Por defecto, throw.

Método De codificación De Datos:

Un número máximo de claves únicas recibidas de la agregación. Esta configuración le permite limitar el consumo de memoria al agregar.

Grupo_by_overflow_mode

Qué hacer cuando el número de claves únicas para la agregación excede el límite: throw, break, o any. Por defecto, throw. Uso de la any valor le permite ejecutar una aproximación de GROUP BY. La calidad de esta aproximación depende de la naturaleza estadística de los datos.

max_bytes_before_external_group_by

Habilita o deshabilita la ejecución de GROUP BY en la memoria externa. Ver GROUP BY en memoria externa.

Valores posibles:

  • Volumen máximo de RAM (en bytes) que puede ser utilizado por el único GROUP BY operación.
  • 0 — GROUP BY en la memoria externa deshabilitada.

Valor predeterminado: 0.

Método De codificación De Datos:

Un número máximo de filas antes de ordenar. Esto le permite limitar el consumo de memoria al ordenar.

Método De codificación De Datos:

Un número máximo de bytes antes de ordenar.

sort_overflow_mode

Qué hacer si el número de filas recibidas antes de ordenar excede uno de los límites: throw o break. Por defecto, throw.

max_result_rows

Límite en el número de filas en el resultado. También se comprueba si hay subconsultas y en servidores remotos cuando se ejecutan partes de una consulta distribuida.

max_result_bytes

Límite en el número de bytes en el resultado. Lo mismo que el ajuste anterior.

result_overflow_mode

Qué hacer si el volumen del resultado excede uno de los límites: throw o break. Por defecto, throw.

Utilizar break es similar a usar LIMIT. Break interrumpe la ejecución sólo en el nivel de bloque. Esto significa que la cantidad de filas devueltas es mayor que max_result_rows, múltiplo de max_block_size y depende de max_threads.

Ejemplo:

SET max_threads = 3, max_block_size = 3333;
SET max_result_rows = 3334, result_overflow_mode = 'break';

SELECT *
FROM numbers_mt(100000)
FORMAT Null;

Resultado:

6666 rows in set. ...

max_execution_time

Tiempo máximo de ejecución de la consulta en segundos. En este momento, no se comprueba una de las etapas de clasificación, o al fusionar y finalizar funciones agregadas.

timeout_overflow_mode

Qué hacer si la consulta se ejecuta más de max_execution_time: throw o break. Por defecto, throw.

Método De codificación De Datos:

Velocidad de ejecución mínima en filas por segundo. Comprobado en cada bloque de datos cuando timeout_before_checking_execution_speed expirar. Si la velocidad de ejecución es menor, se produce una excepción.

Todos Los Derechos Reservados

Un número mínimo de bytes de ejecución por segundo. Comprobado en cada bloque de datos cuando timeout_before_checking_execution_speed expirar. Si la velocidad de ejecución es menor, se produce una excepción.

Max_execution_speed

Un número máximo de filas de ejecución por segundo. Comprobado en cada bloque de datos cuando timeout_before_checking_execution_speed expirar. Si la velocidad de ejecución es alta, la velocidad de ejecución se reducirá.

Max_execution_speed_bytes

Un número máximo de bytes de ejecución por segundo. Comprobado en cada bloque de datos cuando timeout_before_checking_execution_speed expirar. Si la velocidad de ejecución es alta, la velocidad de ejecución se reducirá.

Tiempo De Espera Antes De comprobar_ejecución_velocidad

Comprueba que la velocidad de ejecución no sea demasiado lenta (no menos de min_execution_speed), después de que el tiempo especificado en segundos haya expirado.

Max_columns_to_read

Un número máximo de columnas que se pueden leer de una tabla en una sola consulta. Si una consulta requiere leer un mayor número de columnas, produce una excepción.

max_temporary_columns

Un número máximo de columnas temporales que se deben mantener en la memoria RAM al mismo tiempo cuando se ejecuta una consulta, incluidas las columnas constantes. Si hay más columnas temporales que esto, arroja una excepción.

max_temporary_non_const_columns

Lo mismo que max_temporary_columns, pero sin contar columnas constantes. Tenga en cuenta que las columnas constantes se forman con bastante frecuencia cuando se ejecuta una consulta, pero requieren aproximadamente cero recursos informáticos.

max_subquery_depth

Profundidad máxima de anidamiento de subconsultas. Si las subconsultas son más profundas, se produce una excepción. De forma predeterminada, 100.

max_pipeline_depth

Profundidad máxima de la tubería. Corresponde al número de transformaciones que realiza cada bloque de datos durante el procesamiento de consultas. Contado dentro de los límites de un único servidor. Si la profundidad de la canalización es mayor, se produce una excepción. Por defecto, 1000.

max_ast_depth

Profundidad máxima de anidamiento de un árbol sintáctico de consulta. Si se supera, se produce una excepción. En este momento, no se verifica durante el análisis, sino solo después de analizar la consulta. Es decir, se puede crear un árbol sintáctico demasiado profundo durante el análisis, pero la consulta fallará. Por defecto, 1000.

max_ast_elements

Un número máximo de elementos en un árbol sintáctico de consulta. Si se supera, se produce una excepción. De la misma manera que la configuración anterior, se verifica solo después de analizar la consulta. De forma predeterminada, 50.000.

Método De codificación De Datos:

Un número máximo de filas para un conjunto de datos en la cláusula IN creada a partir de una subconsulta.

Método De codificación De Datos:

Número máximo de bytes (datos sin comprimir) utilizados por un conjunto en la cláusula IN creada a partir de una subconsulta.

set_overflow_mode

Qué hacer cuando la cantidad de datos excede uno de los límites: throw o break. Por defecto, throw.

Método De codificación De Datos:

Un número máximo de filas diferentes al usar DISTINCT.

Método De codificación De Datos:

Un número máximo de bytes utilizados por una tabla hash cuando se utiliza DISTINCT.

distinct_overflow_mode

Qué hacer cuando la cantidad de datos excede uno de los límites: throw o break. Por defecto, throw.

max_rows_to_transfer

Un número máximo de filas que se pueden pasar a un servidor remoto o guardar en una tabla temporal cuando se utiliza GLOBAL IN.

max_bytes_to_transfer

Un número máximo de bytes (datos sin comprimir) que se pueden pasar a un servidor remoto o guardar en una tabla temporal cuando se utiliza GLOBAL IN.

transfer_overflow_mode

Qué hacer cuando la cantidad de datos excede uno de los límites: throw o break. Por defecto, throw.

Método De codificación De Datos:

Limita el número de filas de la tabla hash que se utiliza al unir tablas.

Esta configuración se aplica a SELECT … JOIN operaciones y la Unir motor de mesa.

Si una consulta contiene varias combinaciones, ClickHouse comprueba esta configuración para cada resultado intermedio.

ClickHouse puede proceder con diferentes acciones cuando se alcanza el límite. Utilice el join_overflow_mode configuración para elegir la acción.

Valores posibles:

  • Entero positivo.
  • 0 — Unlimited number of rows.

Valor predeterminado: 0.

Método De codificación De Datos:

Limita el tamaño en bytes de la tabla hash utilizada al unir tablas.

Esta configuración se aplica a SELECT … JOIN operaciones y Unirse al motor de tabla.

Si la consulta contiene combinaciones, ClickHouse comprueba esta configuración para cada resultado intermedio.

ClickHouse puede proceder con diferentes acciones cuando se alcanza el límite. Utilizar join_overflow_mode para elegir la acción.

Valores posibles:

  • Entero positivo.
  • 0 — Memory control is disabled.

Valor predeterminado: 0.

join_overflow_mode

Define qué acción realiza ClickHouse cuando se alcanza cualquiera de los siguientes límites de combinación:

Valores posibles:

  • THROW — ClickHouse throws an exception and breaks operation.
  • BREAK — ClickHouse breaks operation and doesnt throw an exception.

Valor predeterminado: THROW.

Ver también

max_partitions_per_insert_block

Limita el número máximo de particiones en un único bloque insertado.

  • Entero positivo.
  • 0 — Unlimited number of partitions.

Valor predeterminado: 100.

Detalles

Al insertar datos, ClickHouse calcula el número de particiones en el bloque insertado. Si el número de particiones es mayor que max_partitions_per_insert_block, ClickHouse lanza una excepción con el siguiente texto:

“Too many partitions for single INSERT block (more than” ¿Cómo puedo hacerlo? “). The limit is controlled by max_partitions_per_insert_block setting. A large number of partitions is a common misconception. It will lead to severe negative performance impact, including slow server startup, slow INSERT queries and slow SELECT queries. Recommended total number of partitions for a table is under 1000..10000. Please note, that partitioning is not intended to speed up SELECT queries (ORDER BY key is sufficient to make range queries fast). Partitions are intended for data manipulation (DROP PARTITION, etc).”

Artículo Original