ClickHouse/docs/fr/sql-reference/statements/create.md
BayoNet dba72d73fe
DOCS-624: Fixing links to nowhere (#10675)
* enbaskakova-DOCSUP-652 (#101)

* "docs(orNull&orDefault): Functions 'orNull&orDefault' have been edited"

* "docs(orNull&orDefault): Functions 'orNull&orDefault' have been edited"

* "docs(orNull&orDefault): Functions 'orNull&orDefault' have been edited"

* Update docs/en/sql_reference/aggregate_functions/combinators.md

Co-Authored-By: BayoNet <da-daos@yandex.ru>

* Update docs/en/sql_reference/aggregate_functions/combinators.md

Co-Authored-By: BayoNet <da-daos@yandex.ru>

* Update docs/en/sql_reference/aggregate_functions/combinators.md

Co-Authored-By: BayoNet <da-daos@yandex.ru>

* Update docs/en/sql_reference/aggregate_functions/combinators.md

Co-Authored-By: BayoNet <da-daos@yandex.ru>

* Update docs/en/sql_reference/aggregate_functions/combinators.md

Co-Authored-By: BayoNet <da-daos@yandex.ru>

* "docs(orNull&orDefault): Functions 'orNull&orDefault' have been edited"

* "docs(orNull&orDefault): Functions 'orNull&orDefault' have been edited"

* "docs(orNull&orDefault): Functions 'orNull&orDefault' have been edited"

Co-authored-by: elenbaskakova <elenbaskakova@yandex-team.ru>
Co-authored-by: BayoNet <da-daos@yandex.ru>

* Revert "enbaskakova-DOCSUP-652 (#101)" (#107)

This reverts commit 639fee7610.

* CLICKHOUSEDOCS-624: Fixed links. Was 60, became 13.

* CLICKHOUSEDOCS-624: Finished fix links in Enlish version.

* CLICKHOUSEDOCS-624: Fixed RU links

Co-authored-by: elenaspb2019 <47083263+elenaspb2019@users.noreply.github.com>
Co-authored-by: elenbaskakova <elenbaskakova@yandex-team.ru>
Co-authored-by: Sergei Shtykov <bayonet@yandex-team.ru>
2020-05-06 09:13:29 +03:00

21 KiB
Raw Blame History

machine_translated machine_translated_rev toc_priority toc_title
true f865c9653f 35 CREATE

Créer Des requêtes

CREATE DATABASE

Crée la base de données.

CREATE DATABASE [IF NOT EXISTS] db_name [ON CLUSTER cluster] [ENGINE = engine(...)]

Clause

  • IF NOT EXISTS

    If the `db_name` database already exists, then ClickHouse doesn't create a new database and:
    
    - Doesn't throw an exception if clause is specified.
    - Throws an exception if clause isn't specified.
    
  • ON CLUSTER

    ClickHouse creates the `db_name` database on all the servers of a specified cluster.
    
  • ENGINE

    - [MySQL](../engines/database_engines/mysql.md)
    
        Allows you to retrieve data from the remote MySQL server.
    
    By default, ClickHouse uses its own [database engine](../engines/database_engines/index.md).
    

CREATE TABLE

Le CREATE TABLE la requête peut avoir plusieurs formes.

CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
    name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1] [compression_codec] [TTL expr1],
    name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2] [compression_codec] [TTL expr2],
    ...
) ENGINE = engine

Crée une table nommée name dans le db base de données ou la base de données actuelle si db nest pas définie, avec la structure spécifiée entre parenthèses et l engine moteur. La structure de la table est une liste de descriptions de colonnes. Si les index sont pris en charge par le moteur, ils sont indiqués comme paramètres pour le moteur de table.

Une description de colonne est name type dans le cas le plus simple. Exemple: RegionID UInt32. Des Expressions peuvent également être définies pour les valeurs par défaut (voir ci-dessous).

CREATE TABLE [IF NOT EXISTS] [db.]table_name AS [db2.]name2 [ENGINE = engine]

Crée une table avec la même structure quune autre table. Vous pouvez spécifier un moteur différent pour la table. Si le moteur nest pas spécifié, le même moteur sera utilisé que pour la db2.name2 table.

CREATE TABLE [IF NOT EXISTS] [db.]table_name AS table_function()

Crée une table avec la structure et les données renvoyées par fonction de table.

CREATE TABLE [IF NOT EXISTS] [db.]table_name ENGINE = engine AS SELECT ...

Crée une table avec une structure comme le résultat de l SELECT une requête avec les engine moteur, et le remplit avec des données de SELECT.

Dans tous les cas, si IF NOT EXISTS est spécifié, la requête ne renvoie pas une erreur si la table existe déjà. Dans ce cas, la requête ne font rien.

Il peut y avoir dautres clauses après le ENGINE la clause dans la requête. Voir la documentation détaillée sur la façon de créer des tables dans les descriptions de moteurs de table.

Les Valeurs Par Défaut

La description de colonne peut spécifier une expression pour une valeur par défaut, de lune des manières suivantes:DEFAULT expr, MATERIALIZED expr, ALIAS expr. Exemple: URLDomain String DEFAULT domain(URL).

Si une expression pour la valeur par défaut nest pas définie, les valeurs par défaut seront définies sur zéros pour les nombres, chaînes vides pour les chaînes, tableaux vides pour les tableaux et 0000-00-00 pour les dates ou 0000-00-00 00:00:00 pour les dates avec le temps. Les valeurs NULL ne sont pas prises en charge.

Si lexpression par défaut est définie, le type de colonne est facultatif. Sil ny a pas de type explicitement défini, le type dexpression par défaut est utilisé. Exemple: EventDate DEFAULT toDate(EventTime) the Date type sera utilisé pour la EventDate colonne.

Si le type de données et lexpression par défaut sont définis explicitement, cette expression sera convertie au type spécifié à laide des fonctions de conversion de type. Exemple: Hits UInt32 DEFAULT 0 signifie la même chose que Hits UInt32 DEFAULT toUInt32(0).

Default expressions may be defined as an arbitrary expression from table constants and columns. When creating and changing the table structure, it checks that expressions dont contain loops. For INSERT, it checks that expressions are resolvable that all columns they can be calculated from have been passed.

DEFAULT expr

Valeur par défaut normale. Si la requête INSERT ne spécifie pas la colonne correspondante, elle sera remplie en calculant lexpression correspondante.

MATERIALIZED expr

Expression matérialisée. Une telle colonne ne peut pas être spécifiée pour INSERT, car elle est toujours calculée. Pour un INSERT sans Liste de colonnes, ces colonnes ne sont pas prises en compte. De plus, cette colonne nest pas substituée lors de lutilisation dun astérisque dans une requête SELECT. Cest pour préserver linvariant que le dump obtenu en utilisant SELECT * peut être inséré dans la table en utilisant INSERT sans spécifier la liste des colonnes.

ALIAS expr

Synonyme. Une telle colonne nest pas du tout stockée dans la table. Ses valeurs ne peuvent pas être insérées dans une table et elles ne sont pas substituées lors de lutilisation dun astérisque dans une requête SELECT. Il peut être utilisé dans SELECTs si lalias est développé pendant lanalyse des requêtes.

Lorsque vous utilisez la requête ALTER pour ajouter de nouvelles colonnes, les anciennes données de ces colonnes ne sont pas écrites. Au lieu de cela, lors de la lecture danciennes données qui nont pas de valeurs pour les nouvelles colonnes, les expressions sont calculées à la volée par défaut. Cependant, si lexécution des expressions nécessite différentes colonnes qui ne sont pas indiquées dans la requête, ces colonnes seront en outre lues, mais uniquement pour les blocs de données qui en ont besoin.

Si vous ajoutez une nouvelle colonne à une table mais modifiez ultérieurement son expression par défaut, les valeurs utilisées pour les anciennes données changeront (pour les données où les valeurs nont pas été stockées sur le disque). Notez que lors de lexécution de fusions darrière-plan, les données des colonnes manquantes dans lune des parties de fusion sont écrites dans la partie fusionnée.

Il nest pas possible de définir des valeurs par défaut pour les éléments dans les structures de données.

Contraintes

Avec les descriptions de colonnes des contraintes peuvent être définies:

CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
    name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1] [compression_codec] [TTL expr1],
    ...
    CONSTRAINT constraint_name_1 CHECK boolean_expr_1,
    ...
) ENGINE = engine

boolean_expr_1 pourrait par nimporte quelle expression booléenne. Si les contraintes sont définies pour la table, chacun deux sera vérifiée pour chaque ligne INSERT query. If any constraint is not satisfied — server will raise an exception with constraint name and checking expression.

Lajout dune grande quantité de contraintes peut affecter négativement les performances de big INSERT requête.

Expression TTL

Définit la durée de stockage des valeurs. Peut être spécifié uniquement pour les tables mergetree-family. Pour la description détaillée, voir TTL pour les colonnes et les tableaux.

Codecs De Compression De Colonne

Par défaut, ClickHouse applique le lz4 méthode de compression. Pour MergeTree- famille de moteurs Vous pouvez modifier la méthode de compression par défaut dans le compression section dune configuration de serveur. Vous pouvez également définir la méthode de compression pour chaque colonne CREATE TABLE requête.

CREATE TABLE codec_example
(
    dt Date CODEC(ZSTD),
    ts DateTime CODEC(LZ4HC),
    float_value Float32 CODEC(NONE),
    double_value Float64 CODEC(LZ4HC(9))
    value Float32 CODEC(Delta, ZSTD)
)
ENGINE = <Engine>
...

Si un codec est spécifié, le codec par défaut ne sapplique pas. Les Codecs peuvent être combinés dans un pipeline, par exemple, CODEC(Delta, ZSTD). Pour sélectionner la meilleure combinaison de codecs pour votre projet, passez des benchmarks similaires à ceux décrits dans Altinity Nouveaux encodages pour améliorer Lefficacité du ClickHouse article.

!!! warning "Avertissement" Vous ne pouvez pas décompresser les fichiers de base de données ClickHouse avec des utilitaires externes tels que lz4. Au lieu de cela, utilisez le spécial clickhouse-compresseur utilitaire.

La Compression est prise en charge pour les moteurs de tableau suivants:

  • MergeTree famille. Prend en charge les codecs de compression de colonne et la sélection de la méthode de compression par défaut par compression paramètre.
  • Journal famille. Utilise la lz4 méthode de compression par défaut et prend en charge les codecs de compression de colonne.
  • Définir. Uniquement pris en charge la compression par défaut.
  • Rejoindre. Uniquement pris en charge la compression par défaut.

ClickHouse prend en charge les codecs à usage commun et les codecs spécialisés.

Codecs Spécialisés

Ces codecs sont conçus pour rendre la compression plus efficace en utilisant des fonctionnalités spécifiques des données. Certains de ces codecs ne compressent pas les données eux-mêmes. Au lieu de cela, ils préparent les données pour un codec à usage commun, qui les compresse mieux que sans cette préparation.

Spécialisé codecs:

  • Delta(delta_bytes) — Compression approach in which raw values are replaced by the difference of two neighboring values, except for the first value that stays unchanged. Up to delta_bytes sont utilisés pour stocker des valeurs delta, donc delta_bytes est la taille maximale des valeurs brutes. Possible delta_bytes valeurs: 1, 2, 4, 8. La valeur par défaut pour delta_bytes être sizeof(type) si égale à 1, 2, 4 ou 8. Dans tous les autres cas, cest 1.
  • DoubleDelta — Calculates delta of deltas and writes it in compact binary form. Optimal compression rates are achieved for monotonic sequences with a constant stride, such as time series data. Can be used with any fixed-width type. Implements the algorithm used in Gorilla TSDB, extending it to support 64-bit types. Uses 1 extra bit for 32-byte deltas: 5-bit prefixes instead of 4-bit prefixes. For additional information, see Compressing Time Stamps in Gorilla: Une Base De Données De Séries Chronologiques Rapide, Évolutive Et En Mémoire.
  • Gorilla — Calculates XOR between current and previous value and writes it in compact binary form. Efficient when storing a series of floating point values that change slowly, because the best compression rate is achieved when neighboring values are binary equal. Implements the algorithm used in Gorilla TSDB, extending it to support 64-bit types. For additional information, see Compressing Values in Gorilla: Une Base De Données De Séries Chronologiques Rapide, Évolutive Et En Mémoire.
  • T64 — Compression approach that crops unused high bits of values in integer data types (including Enum, Date et DateTime). À chaque étape de son algorithme, le codec prend un bloc de 64 valeurs, les place dans une matrice de 64x64 bits, le transpose, recadre les bits de valeurs inutilisés et renvoie le reste sous forme de séquence. Les bits inutilisés sont les bits, qui ne diffèrent pas entre les valeurs maximum et minimum dans la partie de données entière pour laquelle la compression est utilisée.

DoubleDelta et Gorilla les codecs sont utilisés dans Gorilla TSDB comme composants de son algorithme de compression. Lapproche Gorilla est efficace dans les scénarios où il y a une séquence de valeurs qui changent lentement avec leurs horodatages. Les horodatages sont effectivement compressés par le DoubleDelta codec, et les valeurs sont effectivement comprimé par le Gorilla codec. Par exemple, pour obtenir une table stockée efficacement, vous pouvez la créer dans la configuration suivante:

CREATE TABLE codec_example
(
    timestamp DateTime CODEC(DoubleDelta),
    slow_values Float32 CODEC(Gorilla)
)
ENGINE = MergeTree()

Codecs À Usage Commun

Codec:

  • NONE — No compression.
  • LZ4 — Lossless algorithme de compression de données utilisé par défaut. Applique la compression rapide LZ4.
  • LZ4HC[(level)] — LZ4 HC (high compression) algorithm with configurable level. Default level: 9. Setting level <= 0 sapplique le niveau par défaut. Niveaux possibles: [1, 12]. Plage de niveau recommandée: [4, 9].
  • ZSTD[(level)]Algorithme de compression ZSTD avec configurables level. Niveaux possibles: [1, 22]. Valeur par défaut: 1.

Des niveaux de compression élevés sont utiles pour les scénarios asymétriques, comme compresser une fois, décompresser à plusieurs reprises. Des niveaux plus élevés signifient une meilleure compression et une utilisation plus élevée du processeur.

Les Tables Temporaires

Clickhouse prend en charge les tables temporaires qui ont les caractéristiques suivantes:

  • Les tables temporaires disparaissent à la fin de la session, y compris si la connexion est perdue.
  • Une table temporaire utilise uniquement le moteur de mémoire.
  • La base de données ne peut pas être spécifiée pour une table temporaire. Il est créé en dehors des bases de données.
  • Impossible de créer une table temporaire avec une requête DDL distribuée sur tous les serveurs de cluster (en utilisant ON CLUSTER): ce tableau nexiste que dans la session en cours.
  • Si une table temporaire a le même nom quune autre et quune requête spécifie le nom de la table sans spécifier la base de données, la table temporaire sera utilisée.
  • Pour le traitement des requêtes distribuées, les tables temporaires utilisées dans une requête sont transmises à des serveurs distants.

Pour créer une table temporaire, utilisez la syntaxe suivante:

CREATE TEMPORARY TABLE [IF NOT EXISTS] table_name
(
    name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
    name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
    ...
)

Dans la plupart des cas, les tables temporaires ne sont pas créées manuellement, mais lors de lutilisation de données externes pour une requête ou pour (GLOBAL) IN. Pour plus dinformations, consultez les sections appropriées

Il est possible dutiliser des tables avec Moteur = mémoire au lieu de tables temporaires.

Requêtes DDL distribuées (sur La Clause CLUSTER)

Le CREATE, DROP, ALTER, et RENAME les requêtes prennent en charge lexécution distribuée sur un cluster. Par exemple, la requête suivante crée la all_hits Distributed tableau sur chaque ordinateur hôte cluster:

CREATE TABLE IF NOT EXISTS all_hits ON CLUSTER cluster (p Date, i Int32) ENGINE = Distributed(cluster, default, hits)

Pour exécuter ces requêtes correctement, chaque hôte doit avoir la même définition de cluster (pour simplifier la synchronisation des configs, vous pouvez utiliser des substitutions de ZooKeeper). Ils doivent également se connecter aux serveurs ZooKeeper. La version locale de la requête sera finalement implémentée sur chaque hôte du cluster, même si certains hôtes ne sont actuellement pas disponibles. Lordre dexécution des requêtes au sein dun seul hôte est garanti.

CREATE VIEW

CREATE [MATERIALIZED] VIEW [IF NOT EXISTS] [db.]table_name [TO[db.]name] [ENGINE = engine] [POPULATE] AS SELECT ...

Crée une vue. Il existe deux types de vues: normale et matérialisée.

Les vues normales ne stockent aucune donnée, mais effectuent simplement une lecture à partir dune autre table. En dautres termes, une vue normale nest rien de plus quune requête enregistrée. Lors de la lecture à partir dune vue, cette requête enregistrée est utilisée comme sous-requête dans la clause FROM.

Par exemple, supposons que vous avez créé une vue:

CREATE VIEW view AS SELECT ...

et écrit une requête:

SELECT a, b, c FROM view

Cette requête est entièrement équivalente à lutilisation de la sous requête:

SELECT a, b, c FROM (SELECT ...)

Les vues matérialisées stockent les données transformées par la requête SELECT correspondante.

Lors de la création dune vue matérialisée sans TO [db].[table], you must specify ENGINE the table engine for storing data.

Lors de la création dune vue matérialisée avec TO [db].[table] vous ne devez pas utiliser POPULATE.

Une vue matérialisée est agencée comme suit: lors de linsertion de données dans la table spécifiée dans SELECT, une partie des données insérées est convertie par cette requête SELECT, et le résultat est inséré dans la vue.

Si vous spécifiez POPULATE, les données de table existantes sont insérées dans la vue lors de sa création, comme si CREATE TABLE ... AS SELECT ... . Sinon, la requête ne contient que les données insérées dans la table après la création de la vue. Nous ne recommandons pas Dutiliser POPULATE, car les données insérées dans la table lors de la création de la vue ne seront pas insérées dedans.

A SELECT la requête peut contenir DISTINCT, GROUP BY, ORDER BY, LIMIT… Note that the corresponding conversions are performed independently on each block of inserted data. For example, if GROUP BY est définie, les données sont agrégées lors de linsertion, mais uniquement dans un seul paquet de données insérées. Les données ne seront pas agrégées davantage. Lexception concerne lutilisation dun moteur qui effectue indépendamment lagrégation de données, par exemple SummingMergeTree.

Lexécution de ALTER les requêtes sur les vues matérialisées nont pas été complètement développées, elles pourraient donc être gênantes. Si la vue matérialisée utilise la construction TO [db.]name vous pouvez DETACH la vue, exécutez ALTER pour la table cible, puis ATTACH précédemment détaché (DETACH) vue.

Les vues ressemblent aux tables normales. Par exemple, ils sont répertoriés dans le résultat de la SHOW TABLES requête.

Il ny a pas de requête séparée pour supprimer des vues. Pour supprimer une vue, utilisez DROP TABLE.

CREATE DICTIONARY

CREATE DICTIONARY [IF NOT EXISTS] [db.]dictionary_name [ON CLUSTER cluster]
(
    key1 type1  [DEFAULT|EXPRESSION expr1] [HIERARCHICAL|INJECTIVE|IS_OBJECT_ID],
    key2 type2  [DEFAULT|EXPRESSION expr2] [HIERARCHICAL|INJECTIVE|IS_OBJECT_ID],
    attr1 type2 [DEFAULT|EXPRESSION expr3],
    attr2 type2 [DEFAULT|EXPRESSION expr4]
)
PRIMARY KEY key1, key2
SOURCE(SOURCE_NAME([param1 value1 ... paramN valueN]))
LAYOUT(LAYOUT_NAME([param_name param_value]))
LIFETIME([MIN val1] MAX val2)

Crée externe dictionnaire avec le structure, source, disposition et vie.

Structure de dictionnaire externe se compose dattributs. Les attributs du dictionnaire sont spécifiés de la même manière que les colonnes du tableau. La seule propriété dattribut requise est son type, toutes les autres propriétés peuvent avoir des valeurs par défaut.

Selon le dictionnaire disposition un ou plusieurs attributs peuvent être spécifiés comme les clés de dictionnaire.

Pour plus dinformations, voir Dictionnaires Externes section.

Article Original