mirror of
https://github.com/ClickHouse/ClickHouse.git
synced 2024-11-10 09:32:06 +00:00
DOCAPI-6181: RU translation for Parquet docs. (#5510)
* DOCAPI-6181: RU translation for Parquet docs.
This commit is contained in:
parent
4f98f875c3
commit
d86e5d451e
@ -714,13 +714,13 @@ See also [how to read/write length-delimited protobuf messages in popular langua
|
|||||||
|
|
||||||
## Parquet {#data-format-parquet}
|
## Parquet {#data-format-parquet}
|
||||||
|
|
||||||
[Apache Parquet](http://parquet.apache.org/) is a columnar storage format available to any project in the Hadoop ecosystem. ClickHouse supports read and write operations for this format.
|
[Apache Parquet](http://parquet.apache.org/) is a columnar storage format widespread in the Hadoop ecosystem. ClickHouse supports read and write operations for this format.
|
||||||
|
|
||||||
### Data Types Matching
|
### Data Types Matching
|
||||||
|
|
||||||
The table below shows supported data types and how they match ClickHouse [data types](../data_types/index.md) in `INSERT` and `SELECT` queries.
|
The table below shows supported data types and how they match ClickHouse [data types](../data_types/index.md) in `INSERT` and `SELECT` queries.
|
||||||
|
|
||||||
| Parquet data type (`INSERT`) | ClickHouse data type | Parquet data type (`SELECT`)
|
| Parquet data type (`INSERT`) | ClickHouse data type | Parquet data type (`SELECT`) |
|
||||||
| -------------------- | ------------------ | ---- |
|
| -------------------- | ------------------ | ---- |
|
||||||
| `UINT8`, `BOOL` | [UInt8](../data_types/int_uint.md) | `UINT8` |
|
| `UINT8`, `BOOL` | [UInt8](../data_types/int_uint.md) | `UINT8` |
|
||||||
| `INT8` | [Int8](../data_types/int_uint.md) | `INT8` |
|
| `INT8` | [Int8](../data_types/int_uint.md) | `INT8` |
|
||||||
@ -758,8 +758,7 @@ You can select data from a ClickHouse table and save them into some file in the
|
|||||||
clickhouse-client --query="SELECT * FROM {some_table} FORMAT Parquet" > {some_file.pq}
|
clickhouse-client --query="SELECT * FROM {some_table} FORMAT Parquet" > {some_file.pq}
|
||||||
```
|
```
|
||||||
|
|
||||||
Also look at the `HDFS` and `URL` storage engines to process data from the remote servers.
|
To exchange data with the Hadoop, you can use `HDFS` table engines.
|
||||||
|
|
||||||
|
|
||||||
## Format Schema {#formatschema}
|
## Format Schema {#formatschema}
|
||||||
|
|
||||||
|
@ -24,6 +24,7 @@ ClickHouse может принимать (`INSERT`) и отдавать (`SELECT
|
|||||||
| [PrettyNoEscapes](#prettynoescapes) | ✗ | ✔ |
|
| [PrettyNoEscapes](#prettynoescapes) | ✗ | ✔ |
|
||||||
| [PrettySpace](#prettyspace) | ✗ | ✔ |
|
| [PrettySpace](#prettyspace) | ✗ | ✔ |
|
||||||
| [Protobuf](#protobuf) | ✔ | ✔ |
|
| [Protobuf](#protobuf) | ✔ | ✔ |
|
||||||
|
| [Parquet](#data-format-parquet) | ✔ | ✔ |
|
||||||
| [RowBinary](#rowbinary) | ✔ | ✔ |
|
| [RowBinary](#rowbinary) | ✔ | ✔ |
|
||||||
| [Native](#native) | ✔ | ✔ |
|
| [Native](#native) | ✔ | ✔ |
|
||||||
| [Null](#null) | ✗ | ✔ |
|
| [Null](#null) | ✗ | ✔ |
|
||||||
@ -703,6 +704,54 @@ message MessageType {
|
|||||||
ClickHouse пишет и читает сообщения `Protocol Buffers` в формате `length-delimited`. Это означает, что перед каждым сообщением пишется его длина
|
ClickHouse пишет и читает сообщения `Protocol Buffers` в формате `length-delimited`. Это означает, что перед каждым сообщением пишется его длина
|
||||||
в формате [varint](https://developers.google.com/protocol-buffers/docs/encoding#varints). См. также [как читать и записывать сообщения Protocol Buffers в формате length-delimited в различных языках программирования](https://cwiki.apache.org/confluence/display/GEODE/Delimiting+Protobuf+Messages).
|
в формате [varint](https://developers.google.com/protocol-buffers/docs/encoding#varints). См. также [как читать и записывать сообщения Protocol Buffers в формате length-delimited в различных языках программирования](https://cwiki.apache.org/confluence/display/GEODE/Delimiting+Protobuf+Messages).
|
||||||
|
|
||||||
|
## Parquet {#data-format-parquet}
|
||||||
|
|
||||||
|
[Apache Parquet](http://parquet.apache.org/) — формат поколоночного хранения данных, который распространён в экосистеме Hadoop. Для формата `Parquet` ClickHouse поддерживает операции чтения и записи.
|
||||||
|
|
||||||
|
### Соответствие типов данных
|
||||||
|
|
||||||
|
Таблица ниже содержит поддерживаемые типы данных и их соответствие [типам данных](../data_types/index.md) ClickHouse для запросов `INSERT` и `SELECT`.
|
||||||
|
|
||||||
|
| Тип данных Parquet (`INSERT`) | Тип данных ClickHouse | Тип данных Parquet (`SELECT`) |
|
||||||
|
| -------------------- | ------------------ | ---- |
|
||||||
|
| `UINT8`, `BOOL` | [UInt8](../data_types/int_uint.md) | `UINT8` |
|
||||||
|
| `INT8` | [Int8](../data_types/int_uint.md) | `INT8` |
|
||||||
|
| `UINT16` | [UInt16](../data_types/int_uint.md) | `UINT16` |
|
||||||
|
| `INT16` | [Int16](../data_types/int_uint.md) | `INT16` |
|
||||||
|
| `UINT32` | [UInt32](../data_types/int_uint.md) | `UINT32` |
|
||||||
|
| `INT32` | [Int32](../data_types/int_uint.md) | `INT32` |
|
||||||
|
| `UINT64` | [UInt64](../data_types/int_uint.md) | `UINT64` |
|
||||||
|
| `INT64` | [Int64](../data_types/int_uint.md) | `INT64` |
|
||||||
|
| `FLOAT`, `HALF_FLOAT` | [Float32](../data_types/float.md) | `FLOAT` |
|
||||||
|
| `DOUBLE` | [Float64](../data_types/float.md) | `DOUBLE` |
|
||||||
|
| `DATE32` | [Date](../data_types/date.md) | `UINT16` |
|
||||||
|
| `DATE64`, `TIMESTAMP` | [DateTime](../data_types/datetime.md) | `UINT32` |
|
||||||
|
| `STRING`, `BINARY` | [String](../data_types/string.md) | `STRING` |
|
||||||
|
| — | [FixedString](../data_types/fixedstring.md) | `STRING` |
|
||||||
|
| `DECIMAL` | [Decimal](../data_types/decimal.md) | `DECIMAL` |
|
||||||
|
|
||||||
|
ClickHouse поддерживает настраиваемую точность для формата `Decimal`. При обработке запроса `INSERT`, ClickHouse обрабатывает тип данных Parquet `DECIMAL` как `Decimal128`.
|
||||||
|
|
||||||
|
Неподдержанные типы данных Parquet: `DATE32`, `TIME32`, `FIXED_SIZE_BINARY`, `JSON`, `UUID`, `ENUM`.
|
||||||
|
|
||||||
|
Типы данных столбцов в ClickHouse могут отличаться от типов данных соответствущих полей файла в формате Parquet. При вставке данных, ClickHouse интерпретирует типы данных в соответствии с таблицей выше, а затем [приводит](../query_language/functions/type_conversion_functions/#type_conversion_function-cast) данные к тому типу, который установлен для столбца таблицы.
|
||||||
|
|
||||||
|
### Inserting and Selecting Data
|
||||||
|
|
||||||
|
Чтобы вставить в ClickHouse данные из файла в формате Parquet, выполните команду следующего вида:
|
||||||
|
|
||||||
|
```
|
||||||
|
cat {filename} | clickhouse-client --query="INSERT INTO {some_table} FORMAT Parquet"
|
||||||
|
```
|
||||||
|
|
||||||
|
Чтобы получить данные из таблицы ClickHouse и сохранить их в файл формата Parquet, используйте команду следующего вида:
|
||||||
|
|
||||||
|
```
|
||||||
|
clickhouse-client --query="SELECT * FROM {some_table} FORMAT Parquet" > {some_file.pq}
|
||||||
|
```
|
||||||
|
|
||||||
|
Для обмена данными с экосистемой Hadoop можно использовать движки таблиц `HDFS` и `URL`.
|
||||||
|
|
||||||
## Схема формата {#formatschema}
|
## Схема формата {#formatschema}
|
||||||
|
|
||||||
Имя файла со схемой записывается в настройке `format_schema`. При использовании форматов `Cap'n Proto` и `Protobuf` требуется указать схему.
|
Имя файла со схемой записывается в настройке `format_schema`. При использовании форматов `Cap'n Proto` и `Protobuf` требуется указать схему.
|
||||||
|
Loading…
Reference in New Issue
Block a user