20 KiB
machine_translated |
---|
true |
Créer des requêtes
CREATE DATABASE
Crée la base de données.
CREATE DATABASE [IF NOT EXISTS] db_name [ON CLUSTER cluster] [ENGINE = engine(...)]
Clause
-
IF NOT EXISTS
If the `db_name` database already exists, then ClickHouse doesn't create a new database and: - Doesn't throw an exception if clause is specified. - Throws an exception if clause isn't specified.
-
ON CLUSTER
ClickHouse creates the `db_name` database on all the servers of a specified cluster.
-
ENGINE
- [MySQL](../database_engines/mysql.md) Allows you to retrieve data from the remote MySQL server. By default, ClickHouse uses its own [database engine](../database_engines/index.md).
CREATE TABLE
Le CREATE TABLE
la requête peut avoir plusieurs formes.
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1] [compression_codec] [TTL expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2] [compression_codec] [TTL expr2],
...
) ENGINE = engine
Crée une table nommée ‘name’ dans le ‘db’ base de données ou la base de données actuelle si ‘db’ n'est pas définie, avec la structure spécifiée entre parenthèses et l' ‘engine’ moteur. La structure de la table est une liste de descriptions de colonnes. Si les index sont pris en charge par le moteur, ils sont indiqués comme paramètres pour le moteur de table.
Une description de colonne est name type
dans le cas le plus simple. Exemple: RegionID UInt32
.
Des Expressions peuvent également être définies pour les valeurs par défaut (voir ci-dessous).
CREATE TABLE [IF NOT EXISTS] [db.]table_name AS [db2.]name2 [ENGINE = engine]
Crée une table avec la même structure qu'une autre table. Vous pouvez spécifier un moteur différent pour la table. Si le moteur n'est pas spécifié, le même moteur sera utilisé que pour la db2.name2
table.
CREATE TABLE [IF NOT EXISTS] [db.]table_name AS table_function()
Crée une table avec la structure et les données renvoyées par fonction de table.
CREATE TABLE [IF NOT EXISTS] [db.]table_name ENGINE = engine AS SELECT ...
Crée une table avec une structure comme le résultat de l' SELECT
une requête avec les ‘engine’ moteur, et le remplit avec des données de SELECT.
Dans tous les cas, si IF NOT EXISTS
est spécifié, la requête ne renvoie pas une erreur si la table existe déjà. Dans ce cas, la requête ne font rien.
Il peut y avoir d'autres clauses après le ENGINE
la clause dans la requête. Voir la documentation détaillée sur la façon de créer des tables dans les descriptions de moteurs de table.
Les Valeurs Par Défaut
La description de colonne peut spécifier une expression pour une valeur par défaut, de l'une des manières suivantes:DEFAULT expr
, MATERIALIZED expr
, ALIAS expr
.
Exemple: URLDomain String DEFAULT domain(URL)
.
Si une expression pour la valeur par défaut n'est pas définie, les valeurs par défaut seront définies sur zéros pour les nombres, chaînes vides pour les chaînes, tableaux vides pour les tableaux et 0000-00-00
pour les dates ou 0000-00-00 00:00:00
pour les dates avec le temps. Les valeurs NULL ne sont pas prises en charge.
Si l'expression par défaut est définie, le type de colonne est facultatif. S'il n'y a pas de type explicitement défini, le type d'expression par défaut est utilisé. Exemple: EventDate DEFAULT toDate(EventTime)
– the ‘Date’ type sera utilisé pour la ‘EventDate’ colonne.
Si le type de données et l'expression par défaut sont définis explicitement, cette expression sera convertie au type spécifié à l'aide des fonctions de conversion de type. Exemple: Hits UInt32 DEFAULT 0
signifie la même chose que Hits UInt32 DEFAULT toUInt32(0)
.
Default expressions may be defined as an arbitrary expression from table constants and columns. When creating and changing the table structure, it checks that expressions don't contain loops. For INSERT, it checks that expressions are resolvable – that all columns they can be calculated from have been passed.
DEFAULT expr
Valeur par défaut normale. Si la requête INSERT ne spécifie pas la colonne correspondante, elle sera remplie en calculant l'expression correspondante.
MATERIALIZED expr
Expression matérialisée. Une telle colonne ne peut pas être spécifiée pour INSERT, car elle est toujours calculée.
Pour un INSERT sans Liste de colonnes, ces colonnes ne sont pas prises en compte.
De plus, cette colonne n'est pas substituée lors de l'utilisation d'un astérisque dans une requête SELECT. C'est pour préserver l'invariant que le dump obtenu en utilisant SELECT *
peut être inséré dans la table en utilisant INSERT sans spécifier la liste des colonnes.
ALIAS expr
Synonyme. Une telle colonne n'est pas du tout stockée dans la table. Ses valeurs ne peuvent pas être insérées dans une table et elles ne sont pas substituées lors de l'utilisation d'un astérisque dans une requête SELECT. Il peut être utilisé dans SELECTs si l'alias est développé pendant l'analyse des requêtes.
Lorsque vous utilisez la requête ALTER pour ajouter de nouvelles colonnes, les anciennes données de ces colonnes ne sont pas écrites. Au lieu de cela, lors de la lecture d'anciennes données qui n'ont pas de valeurs pour les nouvelles colonnes, les expressions sont calculées à la volée par défaut. Cependant, si l'exécution des expressions nécessite différentes colonnes qui ne sont pas indiquées dans la requête, ces colonnes seront en outre lues, mais uniquement pour les blocs de données qui en ont besoin.
Si vous ajoutez une nouvelle colonne à une table mais modifiez ultérieurement son expression par défaut, les valeurs utilisées pour les anciennes données changeront (pour les données où les valeurs n'ont pas été stockées sur le disque). Notez que lors de l'exécution de fusions d'arrière-plan, les données des colonnes manquantes dans l'une des parties de fusion sont écrites dans la partie fusionnée.
Il n'est pas possible de définir des valeurs par défaut pour les éléments dans les structures de données.
Contraintes
Avec les descriptions de colonnes des contraintes peuvent être définies:
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1] [compression_codec] [TTL expr1],
...
CONSTRAINT constraint_name_1 CHECK boolean_expr_1,
...
) ENGINE = engine
boolean_expr_1
pourrait par n'importe quelle expression booléenne. Si les contraintes sont définies pour la table, chacun d'eux sera vérifiée pour chaque ligne INSERT
query. If any constraint is not satisfied — server will raise an exception with constraint name and checking expression.
L'ajout d'une grande quantité de contraintes peut affecter négativement les performances de big INSERT
requête.
Expression TTL
Définit la durée de stockage des valeurs. Peut être spécifié uniquement pour les tables mergetree-family. Pour la description détaillée, voir TTL pour les colonnes et les tableaux.
Codecs De Compression De Colonne
Par défaut, ClickHouse applique le lz4
méthode de compression. Pour MergeTree
- famille de moteurs Vous pouvez modifier la méthode de compression par défaut dans le compression section d'une configuration de serveur. Vous pouvez également définir la méthode de compression pour chaque colonne CREATE TABLE
requête.
CREATE TABLE codec_example
(
dt Date CODEC(ZSTD),
ts DateTime CODEC(LZ4HC),
float_value Float32 CODEC(NONE),
double_value Float64 CODEC(LZ4HC(9))
value Float32 CODEC(Delta, ZSTD)
)
ENGINE = <Engine>
...
Si un codec est spécifié, le codec par défaut ne s'applique pas. Les Codecs peuvent être combinés dans un pipeline, par exemple, CODEC(Delta, ZSTD)
. Pour sélectionner la meilleure combinaison de codecs pour votre projet, passez des benchmarks similaires à ceux décrits dans Altinity Nouveaux encodages pour améliorer L'efficacité du ClickHouse article.
!!! warning "Avertissement"
Vous ne pouvez pas décompresser les fichiers de base de données ClickHouse avec des utilitaires externes tels que lz4
. Au lieu de cela, utilisez le spécial clickhouse-compresseur utilitaire.
La Compression est prise en charge pour les moteurs de tableau suivants:
- MergeTree famille. Prend en charge les codecs de compression de colonne et la sélection de la méthode de compression par défaut par compression paramètre.
- Journal famille. Utilise la
lz4
méthode de compression par défaut et prend en charge les codecs de compression de colonne. - Définir. Uniquement pris en charge la compression par défaut.
- Rejoindre. Uniquement pris en charge la compression par défaut.
ClickHouse prend en charge les codecs à usage commun et les codecs spécialisés.
Codecs Spécialisés
Ces codecs sont conçus pour rendre la compression plus efficace en utilisant des fonctionnalités spécifiques des données. Certains de ces codecs ne compressent pas les données eux-mêmes. Au lieu de cela, ils préparent les données pour un codec à usage commun, qui les compresse mieux que sans cette préparation.
Spécialisé codecs:
Delta(delta_bytes)
— Compression approach in which raw values are replaced by the difference of two neighboring values, except for the first value that stays unchanged. Up todelta_bytes
sont utilisés pour stocker des valeurs delta, doncdelta_bytes
est la taille maximale des valeurs brutes. Possibledelta_bytes
valeurs: 1, 2, 4, 8. La valeur par défaut pourdelta_bytes
êtresizeof(type)
si égale à 1, 2, 4 ou 8. Dans tous les autres cas, c'est 1.DoubleDelta
— Calculates delta of deltas and writes it in compact binary form. Optimal compression rates are achieved for monotonic sequences with a constant stride, such as time series data. Can be used with any fixed-width type. Implements the algorithm used in Gorilla TSDB, extending it to support 64-bit types. Uses 1 extra bit for 32-byte deltas: 5-bit prefixes instead of 4-bit prefixes. For additional information, see Compressing Time Stamps in Gorilla: Une Base De Données De Séries Chronologiques Rapide, Évolutive Et En Mémoire.Gorilla
— Calculates XOR between current and previous value and writes it in compact binary form. Efficient when storing a series of floating point values that change slowly, because the best compression rate is achieved when neighboring values are binary equal. Implements the algorithm used in Gorilla TSDB, extending it to support 64-bit types. For additional information, see Compressing Values in Gorilla: Une Base De Données De Séries Chronologiques Rapide, Évolutive Et En Mémoire.T64
— Compression approach that crops unused high bits of values in integer data types (includingEnum
,Date
etDateTime
). À chaque étape de son algorithme, le codec prend un bloc de 64 valeurs, les place dans une matrice de 64x64 bits, le transpose, recadre les bits de valeurs inutilisés et renvoie le reste sous forme de séquence. Les bits inutilisés sont les bits, qui ne diffèrent pas entre les valeurs maximum et minimum dans la partie de données entière pour laquelle la compression est utilisée.
DoubleDelta
et Gorilla
les codecs sont utilisés dans Gorilla TSDB comme composants de son algorithme de compression. L'approche Gorilla est efficace dans les scénarios où il y a une séquence de valeurs qui changent lentement avec leurs horodatages. Les horodatages sont effectivement compressés par le DoubleDelta
codec, et les valeurs sont effectivement comprimé par le Gorilla
codec. Par exemple, pour obtenir une table stockée efficacement, vous pouvez la créer dans la configuration suivante:
CREATE TABLE codec_example
(
timestamp DateTime CODEC(DoubleDelta),
slow_values Float32 CODEC(Gorilla)
)
ENGINE = MergeTree()
Codecs à usage commun
Codec:
NONE
— No compression.LZ4
— Lossless algorithme de compression de données utilisé par défaut. Applique la compression rapide LZ4.LZ4HC[(level)]
— LZ4 HC (high compression) algorithm with configurable level. Default level: 9. Settinglevel <= 0
s'applique le niveau par défaut. Niveaux possibles: [1, 12]. Plage de niveau recommandée: [4, 9].ZSTD[(level)]
— Algorithme de compression ZSTD avec configurableslevel
. Niveaux possibles: [1, 22]. Valeur par défaut: 1.
Des niveaux de compression élevés sont utiles pour les scénarios asymétriques, comme compresser une fois, décompresser à plusieurs reprises. Des niveaux plus élevés signifient une meilleure compression et une utilisation plus élevée du processeur.
Les Tables Temporaires
Clickhouse prend en charge les tables temporaires qui ont les caractéristiques suivantes:
- Les tables temporaires disparaissent à la fin de la session, y compris si la connexion est perdue.
- Une table temporaire utilise uniquement le moteur de mémoire.
- La base de données ne peut pas être spécifiée pour une table temporaire. Il est créé en dehors des bases de données.
- Impossible de créer une table temporaire avec une requête DDL distribuée sur tous les serveurs de cluster (en utilisant
ON CLUSTER
): ce tableau n'existe que dans la session en cours. - Si une table temporaire a le même nom qu'une autre et qu'une requête spécifie le nom de la table sans spécifier la base de données, la table temporaire sera utilisée.
- Pour le traitement des requêtes distribuées, les tables temporaires utilisées dans une requête sont transmises à des serveurs distants.
Pour créer une table temporaire, utilisez la syntaxe suivante:
CREATE TEMPORARY TABLE [IF NOT EXISTS] table_name
(
name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
...
)
Dans la plupart des cas, les tables temporaires ne sont pas créées manuellement, mais lors de l'utilisation de données externes pour une requête ou pour (GLOBAL) IN
. Pour plus d'informations, consultez les sections appropriées
Il est possible d'utiliser des tables avec Moteur = mémoire au lieu de tables temporaires.
Requêtes DDL distribuées (sur la clause CLUSTER)
Le CREATE
, DROP
, ALTER
, et RENAME
les requêtes prennent en charge l'exécution distribuée sur un cluster.
Par exemple, la requête suivante crée la all_hits
Distributed
tableau sur chaque ordinateur hôte cluster
:
CREATE TABLE IF NOT EXISTS all_hits ON CLUSTER cluster (p Date, i Int32) ENGINE = Distributed(cluster, default, hits)
Pour exécuter ces requêtes correctement, chaque hôte doit avoir la même définition de cluster (pour simplifier la synchronisation des configs, vous pouvez utiliser des substitutions de ZooKeeper). Ils doivent également se connecter aux serveurs ZooKeeper. La version locale de la requête sera finalement implémentée sur chaque hôte du cluster, même si certains hôtes ne sont actuellement pas disponibles. L'ordre d'exécution des requêtes au sein d'un seul hôte est garanti.
CREATE VIEW
CREATE [MATERIALIZED] VIEW [IF NOT EXISTS] [db.]table_name [TO[db.]name] [ENGINE = engine] [POPULATE] AS SELECT ...
Crée une vue. Il existe deux types de vues: normale et matérialisée.
Les vues normales ne stockent aucune donnée, mais effectuent simplement une lecture à partir d'une autre table. En d'autres termes, une vue normale n'est rien de plus qu'une requête enregistrée. Lors de la lecture à partir d'une vue, cette requête enregistrée est utilisée comme sous-requête dans la clause FROM.
Par exemple, supposons que vous avez créé une vue:
CREATE VIEW view AS SELECT ...
et écrit une requête:
SELECT a, b, c FROM view
Cette requête est entièrement équivalente à l'utilisation de la sous requête:
SELECT a, b, c FROM (SELECT ...)
Les vues matérialisées stockent les données transformées par la requête SELECT correspondante.
Lors de la création d'une vue matérialisée sans TO [db].[table]
, you must specify ENGINE – the table engine for storing data.
Lors de la création d'une vue matérialisée avec TO [db].[table]
vous ne devez pas utiliser POPULATE
.
Une vue matérialisée est agencée comme suit: lors de l'insertion de données dans la table spécifiée dans SELECT, une partie des données insérées est convertie par cette requête SELECT, et le résultat est inséré dans la vue.
Si vous spécifiez POPULATE, les données de table existantes sont insérées dans la vue lors de sa création, comme si CREATE TABLE ... AS SELECT ...
. Sinon, la requête ne contient que les données insérées dans la table après la création de la vue. Nous ne recommandons pas D'utiliser POPULATE, car les données insérées dans la table lors de la création de la vue ne seront pas insérées dedans.
A SELECT
la requête peut contenir DISTINCT
, GROUP BY
, ORDER BY
, LIMIT
… Note that the corresponding conversions are performed independently on each block of inserted data. For example, if GROUP BY
est définie, les données sont agrégées lors de l'insertion, mais uniquement dans un seul paquet de données insérées. Les données ne seront pas agrégées davantage. L'exception concerne l'utilisation d'un moteur qui effectue indépendamment l'agrégation de données, par exemple SummingMergeTree
.
L'exécution de ALTER
les requêtes sur les vues matérialisées n'ont pas été complètement développées, elles pourraient donc être gênantes. Si la vue matérialisée utilise la construction TO [db.]name
vous pouvez DETACH
la vue, exécutez ALTER
pour la table cible, puis ATTACH
précédemment détaché (DETACH
) vue.
Les vues ressemblent aux tables normales. Par exemple, ils sont répertoriés dans le résultat de la SHOW TABLES
requête.
Il n'y a pas de requête séparée pour supprimer des vues. Pour supprimer une vue, utilisez DROP TABLE
.
CREATE DICTIONARY
CREATE DICTIONARY [IF NOT EXISTS] [db.]dictionary_name [ON CLUSTER cluster]
(
key1 type1 [DEFAULT|EXPRESSION expr1] [HIERARCHICAL|INJECTIVE|IS_OBJECT_ID],
key2 type2 [DEFAULT|EXPRESSION expr2] [HIERARCHICAL|INJECTIVE|IS_OBJECT_ID],
attr1 type2 [DEFAULT|EXPRESSION expr3],
attr2 type2 [DEFAULT|EXPRESSION expr4]
)
PRIMARY KEY key1, key2
SOURCE(SOURCE_NAME([param1 value1 ... paramN valueN]))
LAYOUT(LAYOUT_NAME([param_name param_value]))
LIFETIME([MIN val1] MAX val2)
Crée externe dictionnaire avec le structure, source, disposition et vie.
Structure de dictionnaire externe se compose d'attributs. Les attributs du dictionnaire sont spécifiés de la même manière que les colonnes du tableau. La seule propriété d'attribut requise est son type, toutes les autres propriétés peuvent avoir des valeurs par défaut.
Selon le dictionnaire disposition un ou plusieurs attributs peuvent être spécifiés comme les clés de dictionnaire.
Pour plus d'informations, voir Dictionnaires Externes section.