# Restricciones en la complejidad de consultas {#restrictions-on-query-complexity}
Las restricciones en la complejidad de la consulta forman parte de la configuración.
Se utilizan para proporcionar una ejecución más segura desde la interfaz de usuario.
Casi todas las restricciones solo se aplican a `SELECT`. Para el procesamiento de consultas distribuidas, las restricciones se aplican en cada servidor por separado.
ClickHouse comprueba las restricciones para las partes de datos, no para cada fila. Significa que puede exceder el valor de restricción con el tamaño de la parte de datos.
Restricciones en el “maximum amount of something” puede tomar el valor 0, lo que significa “unrestricted”.
La mayoría de las restricciones también tienen un ‘overflow\_mode’ establecer, lo que significa qué hacer cuando se excede el límite.
Puede tomar uno de dos valores: `throw` o `break`. Las restricciones en la agregación (group\_by\_overflow\_mode) también tienen el valor `any`.
`throw`– Lanzar una excepción (por defecto).
`break`– Detener la ejecución de la consulta y devolver el resultado parcial, como si los datos de origen se agotaron.
`any (only for group_by_overflow_mode)`– Continuar la agregación de las claves que se metieron en el conjunto, pero no añadir nuevas claves al conjunto.
La cantidad máxima de RAM que se utiliza para ejecutar una consulta en un único servidor.
En el archivo de configuración predeterminado, el máximo es de 10 GB.
El ajuste no tiene en cuenta el volumen de memoria disponible o el volumen total de memoria en la máquina.
La restricción se aplica a una sola consulta dentro de un único servidor.
Usted puede utilizar `SHOW PROCESSLIST` para ver el consumo de memoria actual para cada consulta.
Además, el consumo máximo de memoria se rastrea para cada consulta y se escribe en el registro.
El uso de memoria no se supervisa para los estados de ciertas funciones agregadas.
El uso de memoria no se realiza un seguimiento completo de los estados de las funciones agregadas `min`, `max`, `any`, `anyLast`, `argMin`, `argMax` de `String` y `Array` argumento.
El consumo de memoria también está restringido por los parámetros `max_memory_usage_for_user` y `max_memory_usage_for_all_queries`.
La cantidad máxima de RAM que se utilizará para ejecutar las consultas de un usuario en un único servidor.
Los valores predeterminados se definen en [Configuración.h](https://github.com/ClickHouse/ClickHouse/blob/master/dbms/src/Core/Settings.h#L288). De forma predeterminada, el importe no está restringido (`max_memory_usage_for_user = 0`).
Ver también la descripción de [Método de codificación de datos:](#settings_max_memory_usage).
## Todos los derechos reservados. {#max-memory-usage-for-all-queries}
La cantidad máxima de RAM que se utilizará para ejecutar todas las consultas en un único servidor.
Los valores predeterminados se definen en [Configuración.h](https://github.com/ClickHouse/ClickHouse/blob/master/dbms/src/Core/Settings.h#L289). De forma predeterminada, el importe no está restringido (`max_memory_usage_for_all_queries = 0`).
Ver también la descripción de [Método de codificación de datos:](#settings_max_memory_usage).
## ¿Qué puedes encontrar en Neodigit {#max-rows-to-read}
Las siguientes restricciones se pueden verificar en cada bloque (en lugar de en cada fila). Es decir, las restricciones se pueden romper un poco.
Al ejecutar una consulta en varios subprocesos, las siguientes restricciones se aplican a cada subproceso por separado.
Un número máximo de filas que se pueden leer de una tabla al ejecutar una consulta.
## ¿Qué puedes encontrar en Neodigit {#max-bytes-to-read}
Un número máximo de bytes (datos sin comprimir) que se pueden leer de una tabla al ejecutar una consulta.
## Método de codificación de datos: {#read-overflow-mode}
Uso de la ‘any’ valor le permite ejecutar una aproximación de GROUP BY. La calidad de esta aproximación depende de la naturaleza estadística de los datos.
Habilita o deshabilita la ejecución de `GROUP BY` en la memoria externa. Ver [GRUPO POR en memoria externa](../../query_language/select.md#select-group-by-in-external-memory).
Límite en el número de filas en el resultado. También se comprueba si hay subconsultas y en servidores remotos cuando se ejecutan partes de una consulta distribuida.
## max\_result\_bytes {#max-result-bytes}
Límite en el número de bytes en el resultado. Lo mismo que el ajuste anterior.
Utilizar ‘break’ es similar a un límite de usar. `Break` interrumpe la ejecución sólo en el nivel de bloque. Esto significa que la cantidad de filas devueltas es mayor que [max\_result\_rows](#setting-max_result_rows), múltiplo de [max\_block\_size](settings.md#setting-max_block_size) y depende de [max\_threads](settings.md#settings-max_threads).
## Método de codificación de datos: {#min-execution-speed}
Velocidad de ejecución mínima en filas por segundo. Comprobado en cada bloque de datos cuando ‘timeout\_before\_checking\_execution\_speed’ expirar. Si la velocidad de ejecución es menor, se produce una excepción.
## Todos los derechos reservados. {#min-execution-speed-bytes}
Un número mínimo de bytes de ejecución por segundo. Comprobado en cada bloque de datos cuando ‘timeout\_before\_checking\_execution\_speed’ expirar. Si la velocidad de ejecución es menor, se produce una excepción.
## Max\_execution\_speed {#max-execution-speed}
Un número máximo de filas de ejecución por segundo. Comprobado en cada bloque de datos cuando ‘timeout\_before\_checking\_execution\_speed’ expirar. Si la velocidad de ejecución es alta, la velocidad de ejecución se reducirá.
Un número máximo de bytes de ejecución por segundo. Comprobado en cada bloque de datos cuando ‘timeout\_before\_checking\_execution\_speed’ expirar. Si la velocidad de ejecución es alta, la velocidad de ejecución se reducirá.
## Tiempo de espera antes de comprobar\_ejecución\_velocidad {#timeout-before-checking-execution-speed}
Comprueba que la velocidad de ejecución no sea demasiado lenta (no menos de ‘min\_execution\_speed’), después de que el tiempo especificado en segundos haya expirado.
## Max\_columns\_to\_read {#max-columns-to-read}
Un número máximo de columnas que se pueden leer de una tabla en una sola consulta. Si una consulta requiere leer un mayor número de columnas, produce una excepción.
Un número máximo de columnas temporales que se deben mantener en la memoria RAM al mismo tiempo cuando se ejecuta una consulta, incluidas las columnas constantes. Si hay más columnas temporales que esto, arroja una excepción.
Lo mismo que ‘max\_temporary\_columns’, pero sin contar columnas constantes.
Tenga en cuenta que las columnas constantes se forman con bastante frecuencia cuando se ejecuta una consulta, pero requieren aproximadamente cero recursos informáticos.
## max\_subquery\_depth {#max-subquery-depth}
Profundidad máxima de anidamiento de subconsultas. Si las subconsultas son más profundas, se produce una excepción. De forma predeterminada, 100.
## max\_pipeline\_depth {#max-pipeline-depth}
Profundidad máxima de la tubería. Corresponde al número de transformaciones que realiza cada bloque de datos durante el procesamiento de consultas. Contado dentro de los límites de un único servidor. Si la profundidad de la canalización es mayor, se produce una excepción. Por defecto, 1000.
## max\_ast\_depth {#max-ast-depth}
Profundidad máxima de anidamiento de un árbol sintáctico de consulta. Si se supera, se produce una excepción.
En este momento, no se comprueba durante el análisis, sino solo después de analizar la consulta. Es decir, se puede crear un árbol sintáctico demasiado profundo durante el análisis, pero la consulta fallará. Por defecto, 1000.
## max\_ast\_elements {#max-ast-elements}
Un número máximo de elementos en un árbol sintáctico de consulta. Si se supera, se produce una excepción.
De la misma manera que la configuración anterior, se verifica solo después de analizar la consulta. De forma predeterminada, 50.000.
## Método de codificación de datos: {#max-rows-in-set}
Un número máximo de filas para un conjunto de datos en la cláusula IN creada a partir de una subconsulta.
## Método de codificación de datos: {#max-bytes-in-set}
Número máximo de bytes (datos sin comprimir) utilizados por un conjunto en la cláusula IN creada a partir de una subconsulta.
Limita el número de filas de la tabla hash que se utiliza al unir tablas.
Esta configuración se aplica a [SELECCIONAR … UNIRSE](../../query_language/select.md#select-join) operaciones y la [Unir](../table_engines/join.md) motor de mesa.
Si una consulta contiene varias combinaciones, ClickHouse comprueba esta configuración para cada resultado intermedio.
ClickHouse puede proceder con diferentes acciones cuando se alcanza el límite. Utilice el [join\_overflow\_mode](#settings-join_overflow_mode) configuración para elegir la acción.
Limita el tamaño en bytes de la tabla hash utilizada al unir tablas.
Esta configuración se aplica a [SELECCIONAR … UNIRSE](../../query_language/select.md#select-join) operaciones y [Unirse al motor de tabla](../table_engines/join.md).
Si la consulta contiene combinaciones, ClickHouse comprueba esta configuración para cada resultado intermedio.
ClickHouse puede proceder con diferentes acciones cuando se alcanza el límite. Utilizar [join\_overflow\_mode](#settings-join_overflow_mode) para elegir la acción.
Limita el número máximo de particiones en un único bloque insertado.
- Entero positivo.
- 0 — número Ilimitado de particiones.
Valor predeterminado: 100.
**Detalles**
Al insertar datos, ClickHouse calcula el número de particiones en el bloque insertado. Si el número de particiones es mayor que `max_partitions_per_insert_block`, ClickHouse lanza una excepción con el siguiente texto:
> “Too many partitions for single INSERT block (more than” ¿Cómo puedo hacerlo? “). The limit is controlled by ‘max\_partitions\_per\_insert\_block’ setting. A large number of partitions is a common misconception. It will lead to severe negative performance impact, including slow server startup, slow INSERT queries and slow SELECT queries. Recommended total number of partitions for a table is under 1000..10000. Please note, that partitioning is not intended to speed up SELECT queries (ORDER BY key is sufficient to make range queries fast). Partitions are intended for data manipulation (DROP PARTITION, etc).”