mirror of
https://github.com/ClickHouse/ClickHouse.git
synced 2024-11-24 00:22:29 +00:00
Merge pull request #21470 from adevyatova/annadevyatova-DOCSUP-5841-translate
DOCSUP-5841: Edit and translate to Russian
This commit is contained in:
commit
2d3245d999
@ -52,7 +52,7 @@ Engines in the family:
|
|||||||
- [ODBC](../../engines/table-engines/integrations/odbc.md#table-engine-odbc)
|
- [ODBC](../../engines/table-engines/integrations/odbc.md#table-engine-odbc)
|
||||||
- [JDBC](../../engines/table-engines/integrations/jdbc.md#table-engine-jdbc)
|
- [JDBC](../../engines/table-engines/integrations/jdbc.md#table-engine-jdbc)
|
||||||
- [HDFS](../../engines/table-engines/integrations/hdfs.md#hdfs)
|
- [HDFS](../../engines/table-engines/integrations/hdfs.md#hdfs)
|
||||||
- [S3](../../engines/table-engines/integrations/s3.md#table_engines-s3)
|
- [S3](../../engines/table-engines/integrations/s3.md#table-engine-s3)
|
||||||
|
|
||||||
### Special Engines {#special-engines}
|
### Special Engines {#special-engines}
|
||||||
|
|
||||||
|
@ -3,23 +3,23 @@ toc_priority: 4
|
|||||||
toc_title: S3
|
toc_title: S3
|
||||||
---
|
---
|
||||||
|
|
||||||
# S3 {#table_engines-s3}
|
# S3 Table Engine {#table-engine-s3}
|
||||||
|
|
||||||
This engine provides integration with [Amazon S3](https://aws.amazon.com/s3/) ecosystem. This engine is similar
|
This engine provides integration with [Amazon S3](https://aws.amazon.com/s3/) ecosystem. This engine is similar to the [HDFS](../../../engines/table-engines/special/file.md#table_engines-hdfs) engine, but provides S3-specific features.
|
||||||
to the [HDFS](../../../engines/table-engines/integrations/hdfs.md#table_engines-hdfs) engine, but provides S3-specific features.
|
|
||||||
|
|
||||||
## Usage {#usage}
|
## Create Table {#creating-a-table}
|
||||||
|
|
||||||
```sql
|
``` sql
|
||||||
|
CREATE TABLE s3_engine_table (name String, value UInt32)
|
||||||
ENGINE = S3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
|
ENGINE = S3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
|
||||||
```
|
```
|
||||||
|
|
||||||
**Input parameters**
|
**Engine parameters**
|
||||||
|
|
||||||
- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: *, ?, {abc,def} and {N..M} where N, M — numbers, `’abc’, ‘def’ — strings.
|
- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: `*`, `?`, `{abc,def}` and `{N..M}` where `N`, `M` — numbers, `'abc'`, `'def'` — strings. For more information see [below](#wildcards-in-path).
|
||||||
- `format` — The [format](../../../interfaces/formats.md#formats) of the file.
|
- `format` — The [format](../../../interfaces/formats.md#formats) of the file.
|
||||||
- `structure` — Structure of the table. Format `'column1_name column1_type, column2_name column2_type, ...'`.
|
- `structure` — Structure of the table. Format `'column1_name column1_type, column2_name column2_type, ...'`.
|
||||||
- `compression` — Parameter is optional. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. By default, it will autodetect compression by file extension.
|
- `compression` — Compression type. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. Parameter is optional. By default, it will autodetect compression by file extension.
|
||||||
|
|
||||||
**Example:**
|
**Example:**
|
||||||
|
|
||||||
@ -47,6 +47,12 @@ SELECT * FROM s3_engine_table LIMIT 2
|
|||||||
│ two │ 2 │
|
│ two │ 2 │
|
||||||
└──────┴───────┘
|
└──────┴───────┘
|
||||||
```
|
```
|
||||||
|
## Virtual columns {#virtual-columns}
|
||||||
|
|
||||||
|
- `_path` — Path to the file.
|
||||||
|
- `_file` — Name of the file.
|
||||||
|
|
||||||
|
For more information about virtual columns see [here](../../../engines/table-engines/index.md#table_engines-virtual_columns).
|
||||||
|
|
||||||
## Implementation Details {#implementation-details}
|
## Implementation Details {#implementation-details}
|
||||||
|
|
||||||
@ -56,9 +62,9 @@ SELECT * FROM s3_engine_table LIMIT 2
|
|||||||
- Indexes.
|
- Indexes.
|
||||||
- Replication.
|
- Replication.
|
||||||
|
|
||||||
**Globs in path**
|
## Wildcards In Path {#wildcards-in-path}
|
||||||
|
|
||||||
Multiple path components can have globs. For being processed file should exist and match to the whole path pattern. Listing of files determines during `SELECT` (not at `CREATE` moment).
|
`path` argument can specify multiple files using bash-like wildcards. For being processed file should exist and match to the whole path pattern. Listing of files is determined during `SELECT` (not at `CREATE` moment).
|
||||||
|
|
||||||
- `*` — Substitutes any number of any characters except `/` including empty string.
|
- `*` — Substitutes any number of any characters except `/` including empty string.
|
||||||
- `?` — Substitutes any single character.
|
- `?` — Substitutes any single character.
|
||||||
@ -67,80 +73,29 @@ Multiple path components can have globs. For being processed file should exist a
|
|||||||
|
|
||||||
Constructions with `{}` are similar to the [remote](../../../sql-reference/table-functions/remote.md) table function.
|
Constructions with `{}` are similar to the [remote](../../../sql-reference/table-functions/remote.md) table function.
|
||||||
|
|
||||||
**Example**
|
## S3-related Settings {#s3-settings}
|
||||||
|
|
||||||
1. Suppose we have several files in CSV format with the following URIs on S3:
|
|
||||||
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv’
|
|
||||||
|
|
||||||
2. There are several ways to make a table consisting of all six files:
|
|
||||||
|
|
||||||
<!-- -->
|
|
||||||
|
|
||||||
```sql
|
|
||||||
CREATE TABLE table_with_range (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}', 'CSV')
|
|
||||||
```
|
|
||||||
|
|
||||||
3. Another way:
|
|
||||||
|
|
||||||
```sql
|
|
||||||
CREATE TABLE table_with_question_mark (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_?', 'CSV')
|
|
||||||
```
|
|
||||||
|
|
||||||
4. Table consists of all the files in both directories (all files should satisfy format and schema described in query):
|
|
||||||
|
|
||||||
```sql
|
|
||||||
CREATE TABLE table_with_asterisk (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV')
|
|
||||||
```
|
|
||||||
|
|
||||||
!!! warning "Warning"
|
|
||||||
If the listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
|
|
||||||
|
|
||||||
**Example**
|
|
||||||
|
|
||||||
Create table with files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
|
|
||||||
|
|
||||||
```sql
|
|
||||||
CREATE TABLE big_table (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV')
|
|
||||||
```
|
|
||||||
|
|
||||||
## Virtual Columns {#virtual-columns}
|
|
||||||
|
|
||||||
- `_path` — Path to the file.
|
|
||||||
- `_file` — Name of the file.
|
|
||||||
|
|
||||||
**See Also**
|
|
||||||
|
|
||||||
- [Virtual columns](../../../engines/table-engines/index.md#table_engines-virtual_columns)
|
|
||||||
|
|
||||||
## S3-related settings {#settings}
|
|
||||||
|
|
||||||
The following settings can be set before query execution or placed into configuration file.
|
The following settings can be set before query execution or placed into configuration file.
|
||||||
|
|
||||||
- `s3_max_single_part_upload_size` — Default value is `64Mb`. The maximum size of object to upload using singlepart upload to S3.
|
- `s3_max_single_part_upload_size` — The maximum size of object to upload using singlepart upload to S3. Default value is `64Mb`.
|
||||||
- `s3_min_upload_part_size` — Default value is `512Mb`. The minimum size of part to upload during multipart upload to [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html).
|
- `s3_min_upload_part_size` — The minimum size of part to upload during multipart upload to [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html). Default value is `512Mb`.
|
||||||
- `s3_max_redirects` — Default value is `10`. Max number of HTTP redirects S3 hops allowed.
|
- `s3_max_redirects` — Max number of S3 redirects hops allowed. Default value is `10`.
|
||||||
|
|
||||||
Security consideration: if malicious user can specify arbitrary S3 URLs, `s3_max_redirects` must be set to zero to avoid [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) attacks; or alternatively, `remote_host_filter` must be specified in server configuration.
|
Security consideration: if malicious user can specify arbitrary S3 URLs, `s3_max_redirects` must be set to zero to avoid [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) attacks; or alternatively, `remote_host_filter` must be specified in server configuration.
|
||||||
|
|
||||||
### Endpoint-based settings {#endpointsettings}
|
## Endpoint-based Settings {#endpoint-settings}
|
||||||
|
|
||||||
The following settings can be specified in configuration file for given endpoint (which will be matched by exact prefix of a URL):
|
The following settings can be specified in configuration file for given endpoint (which will be matched by exact prefix of a URL):
|
||||||
|
|
||||||
- `endpoint` — Mandatory. Specifies prefix of an endpoint.
|
- `endpoint` — Specifies prefix of an endpoint. Mandatory.
|
||||||
- `access_key_id` and `secret_access_key` — Optional. Specifies credentials to use with given endpoint.
|
- `access_key_id` and `secret_access_key` — Specifies credentials to use with given endpoint. Optional.
|
||||||
- `use_environment_credentials` — Optional, default value is `false`. If set to `true`, S3 client will try to obtain credentials from environment variables and Amazon EC2 metadata for given endpoint.
|
- `use_environment_credentials` — If set to `true`, S3 client will try to obtain credentials from environment variables and Amazon EC2 metadata for given endpoint. Optional, default value is `false`.
|
||||||
- `header` — Optional, can be speficied multiple times. Adds specified HTTP header to a request to given endpoint.
|
- `header` — Adds specified HTTP header to a request to given endpoint. Optional, can be speficied multiple times.
|
||||||
- `server_side_encryption_customer_key_base64` — Optional. If specified, required headers for accessing S3 objects with SSE-C encryption will be set.
|
- `server_side_encryption_customer_key_base64` — If specified, required headers for accessing S3 objects with SSE-C encryption will be set. Optional.
|
||||||
|
|
||||||
Example:
|
**Example:**
|
||||||
|
|
||||||
```
|
``` xml
|
||||||
<s3>
|
<s3>
|
||||||
<endpoint-name>
|
<endpoint-name>
|
||||||
<endpoint>https://storage.yandexcloud.net/my-test-bucket-768/</endpoint>
|
<endpoint>https://storage.yandexcloud.net/my-test-bucket-768/</endpoint>
|
||||||
@ -152,5 +107,50 @@ Example:
|
|||||||
</endpoint-name>
|
</endpoint-name>
|
||||||
</s3>
|
</s3>
|
||||||
```
|
```
|
||||||
|
## Usage {#usage-examples}
|
||||||
|
|
||||||
|
Suppose we have several files in TSV format with the following URIs on HDFS:
|
||||||
|
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
|
||||||
|
|
||||||
|
|
||||||
|
1. There are several ways to make a table consisting of all six files:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE table_with_range (name String, value UInt32)
|
||||||
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}', 'CSV');
|
||||||
|
```
|
||||||
|
|
||||||
|
2. Another way:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE table_with_question_mark (name String, value UInt32)
|
||||||
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_?', 'CSV');
|
||||||
|
```
|
||||||
|
|
||||||
|
3. Table consists of all the files in both directories (all files should satisfy format and schema described in query):
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE table_with_asterisk (name String, value UInt32)
|
||||||
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV');
|
||||||
|
```
|
||||||
|
|
||||||
|
!!! warning "Warning"
|
||||||
|
If the listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
|
||||||
|
|
||||||
|
4. Create table with files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE big_table (name String, value UInt32)
|
||||||
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV');
|
||||||
|
```
|
||||||
|
## See also
|
||||||
|
|
||||||
|
- [S3 table function](../../../sql-reference/table-functions/s3.md)
|
||||||
|
|
||||||
[Original article](https://clickhouse.tech/docs/en/engines/table-engines/integrations/s3/) <!--hide-->
|
[Original article](https://clickhouse.tech/docs/en/engines/table-engines/integrations/s3/) <!--hide-->
|
||||||
|
@ -123,5 +123,6 @@ toc_title: Adopters
|
|||||||
| <a href="https://mkb.ru/" class="favicon">МКБ</a> | Bank | Web-system monitoring | — | — | [Slides in Russian, September 2019](https://github.com/ClickHouse/clickhouse-presentations/blob/master/meetup28/mkb.pdf) |
|
| <a href="https://mkb.ru/" class="favicon">МКБ</a> | Bank | Web-system monitoring | — | — | [Slides in Russian, September 2019](https://github.com/ClickHouse/clickhouse-presentations/blob/master/meetup28/mkb.pdf) |
|
||||||
| <a href="https://cft.ru/" class="favicon">ЦФТ</a> | Banking, Financial products, Payments | — | — | — | [Meetup in Russian, April 2020](https://team.cft.ru/events/162) |
|
| <a href="https://cft.ru/" class="favicon">ЦФТ</a> | Banking, Financial products, Payments | — | — | — | [Meetup in Russian, April 2020](https://team.cft.ru/events/162) |
|
||||||
| <a href="https://www.kakaocorp.com/" class="favicon">kakaocorp</a> | Internet company | — | — | — | [if(kakao)2020 conference](https://if.kakao.com/session/117) |
|
| <a href="https://www.kakaocorp.com/" class="favicon">kakaocorp</a> | Internet company | — | — | — | [if(kakao)2020 conference](https://if.kakao.com/session/117) |
|
||||||
|
| <a href="https://www.tesla.com/" class="favicon">Tesla</a> | Electric vehicle and clean energy company | — | — | — | [Vacancy description, March 2021](https://news.ycombinator.com/item?id=26306170) |
|
||||||
|
|
||||||
[Original article](https://clickhouse.tech/docs/en/introduction/adopters/) <!--hide-->
|
[Original article](https://clickhouse.tech/docs/en/introduction/adopters/) <!--hide-->
|
||||||
|
@ -3,17 +3,19 @@ toc_priority: 45
|
|||||||
toc_title: s3
|
toc_title: s3
|
||||||
---
|
---
|
||||||
|
|
||||||
# s3 {#s3}
|
# S3 Table Function {#s3-table-function}
|
||||||
|
|
||||||
Provides table-like interface to select/insert files in S3. This table function is similar to [hdfs](../../sql-reference/table-functions/hdfs.md).
|
Provides table-like interface to select/insert files in [Amazon S3](https://aws.amazon.com/s3/). This table function is similar to [hdfs](../../sql-reference/table-functions/hdfs.md), but provides S3-specific features.
|
||||||
|
|
||||||
|
**Syntax**
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
s3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
|
s3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
|
||||||
```
|
```
|
||||||
|
|
||||||
**Input parameters**
|
**Arguments**
|
||||||
|
|
||||||
- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: *, ?, {abc,def} and {N..M} where N, M — numbers, `’abc’, ‘def’ — strings.
|
- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: `*`, `?`, `{abc,def}` and `{N..M}` where `N`, `M` — numbers, `'abc'`, `'def'` — strings. For more information see [here](../../engines/table-engines/integrations/s3.md#wildcards-in-path).
|
||||||
- `format` — The [format](../../interfaces/formats.md#formats) of the file.
|
- `format` — The [format](../../interfaces/formats.md#formats) of the file.
|
||||||
- `structure` — Structure of the table. Format `'column1_name column1_type, column2_name column2_type, ...'`.
|
- `structure` — Structure of the table. Format `'column1_name column1_type, column2_name column2_type, ...'`.
|
||||||
- `compression` — Parameter is optional. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. By default, it will autodetect compression by file extension.
|
- `compression` — Parameter is optional. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. By default, it will autodetect compression by file extension.
|
||||||
@ -22,14 +24,14 @@ s3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compres
|
|||||||
|
|
||||||
A table with the specified structure for reading or writing data in the specified file.
|
A table with the specified structure for reading or writing data in the specified file.
|
||||||
|
|
||||||
**Example**
|
**Examples**
|
||||||
|
|
||||||
Table from S3 file `https://storage.yandexcloud.net/my-test-bucket-768/data.csv` and selection of the first two rows from it:
|
Selecting the first two rows from the table from S3 file `https://storage.yandexcloud.net/my-test-bucket-768/data.csv`:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT *
|
SELECT *
|
||||||
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32')
|
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32')
|
||||||
LIMIT 2
|
LIMIT 2;
|
||||||
```
|
```
|
||||||
|
|
||||||
``` text
|
``` text
|
||||||
@ -44,7 +46,7 @@ The similar but from file with `gzip` compression:
|
|||||||
``` sql
|
``` sql
|
||||||
SELECT *
|
SELECT *
|
||||||
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv.gz', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32', 'gzip')
|
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv.gz', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32', 'gzip')
|
||||||
LIMIT 2
|
LIMIT 2;
|
||||||
```
|
```
|
||||||
|
|
||||||
``` text
|
``` text
|
||||||
@ -54,33 +56,20 @@ LIMIT 2
|
|||||||
└─────────┴─────────┴─────────┘
|
└─────────┴─────────┴─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
**Globs in path**
|
## Usage {#usage-examples}
|
||||||
|
|
||||||
Multiple path components can have globs. For being processed file should exists and matches to the whole path pattern (not only suffix or prefix).
|
Suppose that we have several files with following URIs on S3:
|
||||||
|
|
||||||
- `*` — Substitutes any number of any characters except `/` including empty string.
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
|
||||||
- `?` — Substitutes any single character.
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
|
||||||
- `{some_string,another_string,yet_another_one}` — Substitutes any of strings `'some_string', 'another_string', 'yet_another_one'`.
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
|
||||||
- `{N..M}` — Substitutes any number in range from N to M including both borders. N and M can have leading zeroes e.g. `000..078`.
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_4.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_4.csv'
|
||||||
|
|
||||||
Constructions with `{}` are similar to the [remote table function](../../sql-reference/table-functions/remote.md)).
|
Count the amount of rows in files ending with numbers from 1 to 3:
|
||||||
|
|
||||||
**Example**
|
|
||||||
|
|
||||||
1. Suppose that we have several files with following URIs on S3:
|
|
||||||
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_4.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_4.csv’
|
|
||||||
|
|
||||||
2. Query the amount of rows in files end with number from 1 to 3:
|
|
||||||
|
|
||||||
<!-- -->
|
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT count(*)
|
SELECT count(*)
|
||||||
@ -93,9 +82,7 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefi
|
|||||||
└─────────┘
|
└─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
3. Query the amount of rows in all files of these two directories:
|
Count the total amount of rows in all files in these two directories:
|
||||||
|
|
||||||
<!-- -->
|
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT count(*)
|
SELECT count(*)
|
||||||
@ -108,17 +95,14 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefi
|
|||||||
└─────────┘
|
└─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
|
|
||||||
!!! warning "Warning"
|
!!! warning "Warning"
|
||||||
If your listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
|
If your listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
|
||||||
|
|
||||||
**Example**
|
Count the total amount of rows in files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
|
||||||
|
|
||||||
Query the data from files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
|
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT count(*)
|
SELECT count(*)
|
||||||
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV', 'name String, value UInt32')
|
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV', 'name String, value UInt32');
|
||||||
```
|
```
|
||||||
|
|
||||||
``` text
|
``` text
|
||||||
@ -127,42 +111,22 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000
|
|||||||
└─────────┘
|
└─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
**Data insert**
|
Insert data into file `test-data.csv.gz`:
|
||||||
|
|
||||||
The S3 table function may be used for data insert as well.
|
|
||||||
|
|
||||||
**Example**
|
|
||||||
|
|
||||||
Insert a data into file `test-data.csv.gz`:
|
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
||||||
VALUES ('test-data', 1), ('test-data-2', 2)
|
VALUES ('test-data', 1), ('test-data-2', 2);
|
||||||
```
|
```
|
||||||
|
|
||||||
Insert a data into file `test-data.csv.gz` from existing table:
|
Insert data into file `test-data.csv.gz` from existing table:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
||||||
SELECT name, value FROM existing_table
|
SELECT name, value FROM existing_table;
|
||||||
```
|
```
|
||||||
|
|
||||||
## Virtual Columns {#virtual-columns}
|
|
||||||
|
|
||||||
- `_path` — Path to the file.
|
|
||||||
- `_file` — Name of the file.
|
|
||||||
|
|
||||||
## S3-related settings {#settings}
|
|
||||||
|
|
||||||
The following settings can be set before query execution or placed into configuration file.
|
|
||||||
|
|
||||||
- `s3_max_single_part_upload_size` — Default value is `64Mb`. The maximum size of object to upload using singlepart upload to S3.
|
|
||||||
- `s3_min_upload_part_size` — Default value is `512Mb`. The minimum size of part to upload during multipart upload to [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html).
|
|
||||||
- `s3_max_redirects` — Default value is `10`. Max number of S3 redirects hops allowed.
|
|
||||||
|
|
||||||
Security consideration: if malicious user can specify arbitrary S3 URLs, `s3_max_redirects` must be set to zero to avoid [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) attacks; or alternatively, `remote_host_filter` must be specified in server configuration.
|
|
||||||
|
|
||||||
**See Also**
|
**See Also**
|
||||||
|
|
||||||
- [Virtual columns](../../engines/table-engines/index.md#table_engines-virtual_columns)
|
- [S3 engine](../../engines/table-engines/integrations/s3.md)
|
||||||
|
|
||||||
|
[Original article](https://clickhouse.tech/docs/en/sql-reference/table-functions/s3/) <!--hide-->
|
||||||
|
@ -3,144 +3,92 @@ toc_priority: 4
|
|||||||
toc_title: S3
|
toc_title: S3
|
||||||
---
|
---
|
||||||
|
|
||||||
# S3 {#table_engines-s3}
|
# Движок таблиц S3 {#table-engine-s3}
|
||||||
|
|
||||||
Этот движок обеспечивает интеграцию с экосистемой [Amazon S3](https://aws.amazon.com/s3/). Этот движок похож на
|
Этот движок обеспечивает интеграцию с экосистемой [Amazon S3](https://aws.amazon.com/s3/). Он похож на движок [HDFS](../../../engines/table-engines/special/file.md#table_engines-hdfs), но обеспечивает специфические для S3 возможности.
|
||||||
движок [HDFS](../../../engines/table-engines/integrations/hdfs.md#table_engines-hdfs), но предоставляет S3-специфичные функции.
|
|
||||||
|
|
||||||
## Использование {#usage}
|
## Создание таблицы {#creating-a-table}
|
||||||
|
|
||||||
```sql
|
``` sql
|
||||||
|
CREATE TABLE s3_engine_table (name String, value UInt32)
|
||||||
ENGINE = S3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
|
ENGINE = S3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
|
||||||
```
|
```
|
||||||
|
|
||||||
**Параметры**
|
**Параметры движка**
|
||||||
|
|
||||||
- `path` — URL ссылающийся на файл расположенный в S3. В режиме для чтения можно читать несколько файлов как один, поддерживаются следующие шаблоны для указания маски пути к файлам: *, ?, {abc,def} и {N..M} где N, M — числа, `’abc’, ‘def’ — строки.
|
- `path` — URL-адрес бакета с указанием пути к файлу. Поддерживает следующие подстановочные знаки в режиме "только чтение": `*`, `?`, `{abc,def}` и `{N..M}` где `N`, `M` — числа, `'abc'`, `'def'` — строки. Подробнее смотри [ниже](#wildcards-in-path).
|
||||||
- `format` — [Формат](../../../interfaces/formats.md#formats) файла.
|
- `format` — [формат](../../../interfaces/formats.md#formats) файла.
|
||||||
- `structure` — Структура таблицы. Формат `'column1_name column1_type, column2_name column2_type, ...'`.
|
- `structure` — структура таблицы в формате `'column1_name column1_type, column2_name column2_type, ...'`.
|
||||||
- `compression` — Алгоритм сжатия, не обязятельный параметр. Поддерживаемые значения: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. По умолчанию, алгоритм сжатия будет автоматически применен в зависимости от расширения в имени файла.
|
- `compression` — тип сжатия. Возможные значения: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. Необязательный параметр. Если не указано, то тип сжатия определяется автоматически по расширению файла.
|
||||||
|
|
||||||
**Пример:**
|
**Пример**
|
||||||
|
|
||||||
**1.** Создание таблицы `s3_engine_table` :
|
``` sql
|
||||||
|
CREATE TABLE s3_engine_table (name String, value UInt32)
|
||||||
```sql
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip');
|
||||||
CREATE TABLE s3_engine_table (name String, value UInt32) ENGINE=S3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
INSERT INTO s3_engine_table VALUES ('one', 1), ('two', 2), ('three', 3);
|
||||||
|
SELECT * FROM s3_engine_table LIMIT 2;
|
||||||
```
|
```
|
||||||
|
|
||||||
**2.** Заполнение файла:
|
``` text
|
||||||
|
|
||||||
```sql
|
|
||||||
INSERT INTO s3_engine_table VALUES ('one', 1), ('two', 2), ('three', 3)
|
|
||||||
```
|
|
||||||
|
|
||||||
**3.** Запрос данных:
|
|
||||||
|
|
||||||
```sql
|
|
||||||
SELECT * FROM s3_engine_table LIMIT 2
|
|
||||||
```
|
|
||||||
|
|
||||||
```text
|
|
||||||
┌─name─┬─value─┐
|
┌─name─┬─value─┐
|
||||||
│ one │ 1 │
|
│ one │ 1 │
|
||||||
│ two │ 2 │
|
│ two │ 2 │
|
||||||
└──────┴───────┘
|
└──────┴───────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
|
## Виртуальные столбцы {#virtual-columns}
|
||||||
|
|
||||||
|
- `_path` — путь к файлу.
|
||||||
|
- `_file` — имя файла.
|
||||||
|
|
||||||
|
Подробнее про виртуальные столбцы можно прочитать [здесь](../../../engines/table-engines/index.md#table_engines-virtual_columns).
|
||||||
|
|
||||||
## Детали реализации {#implementation-details}
|
## Детали реализации {#implementation-details}
|
||||||
|
|
||||||
- Чтение и запись могут быть одновременными и паралельными
|
- Чтение и запись могут быть параллельными.
|
||||||
- Не поддерживается:
|
- Не поддерживаются:
|
||||||
- `ALTER` и `SELECT...SAMPLE` операции.
|
- запросы `ALTER` и `SELECT...SAMPLE`,
|
||||||
- Индексы.
|
- индексы,
|
||||||
- Репликация.
|
- репликация.
|
||||||
|
|
||||||
**Поддержка шаблонов в параметре path**
|
## Символы подстановки {#wildcards-in-path}
|
||||||
|
|
||||||
Множество частей параметра `path` поддерживает шаблоны. Для того чтобы быть обработанным файл должен присутствовать в S3 и соответсвовать шаблону. Списки файлов определяются в момент `SELECT` (но не в момент `CREATE`).
|
Аргумент `path` может указывать на несколько файлов, используя подстановочные знаки. Для обработки файл должен существовать и соответствовать всему шаблону пути. Список файлов определяется во время выполнения запроса `SELECT` (не в момент выполнения запроса `CREATE`).
|
||||||
|
|
||||||
- `*` — Заменяет любой количество любых символов кроме `/` включая пустые строки.
|
- `*` — заменяет любое количество любых символов, кроме `/`, включая пустую строку.
|
||||||
- `?` — Заменяет один символ.
|
- `?` — заменяет любые одиночные символы.
|
||||||
- `{some_string,another_string,yet_another_one}` — Заменяет любую из строк `'some_string', 'another_string', 'yet_another_one'`.
|
- `{some_string, another_string, yet_another_one}` — заменяет любые строки `'some_string', 'another_string', 'yet_another_one'`.
|
||||||
- `{N..M}` — Заменяет любое числов в диапозоне от N до M включительно. N и M могут иметь лидирующие нули например `000..078`.
|
- `{N..M}` — заменяет любое число от N до M, включая обе границы. N и M могут иметь ведущие нули, например `000..078`.
|
||||||
|
|
||||||
Конструкции с`{}` работают также как в табличной функции [remote](../../../sql-reference/table-functions/remote.md).
|
Конструкции с `{}` аналогичны функции [remote](../../../sql-reference/table-functions/remote.md).
|
||||||
|
|
||||||
|
## Настройки движка S3 {#s3-settings}
|
||||||
|
|
||||||
|
Перед выполнением запроса или в конфигурационном файле могут быть установлены следующие настройки:
|
||||||
|
|
||||||
|
- `s3_max_single_part_upload_size` — максимальный размер объекта для загрузки с использованием однокомпонентной загрузки в S3. Значение по умолчанию — `64 Mб`.
|
||||||
|
- `s3_min_upload_part_size` — минимальный размер объекта для загрузки при многокомпонентной загрузке в [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html). Значение по умолчанию — `512 Mб`.
|
||||||
|
- `s3_max_redirects` — максимальное количество разрешенных переадресаций S3. Значение по умолчанию — `10`.
|
||||||
|
|
||||||
|
Соображение безопасности: если злонамеренный пользователь попробует указать произвольные URL-адреса S3, параметр `s3_max_redirects` должен быть установлен в ноль, чтобы избежать атак [SSRF] (https://en.wikipedia.org/wiki/Server-side_request_forgery). Как альтернатива, в конфигурации сервера должен быть указан `remote_host_filter`.
|
||||||
|
|
||||||
|
## Настройки конечных точек {#endpoint-settings}
|
||||||
|
|
||||||
|
Для конечной точки (которая соответствует точному префиксу URL-адреса) в конфигурационном файле могут быть заданы следующие настройки:
|
||||||
|
|
||||||
|
Обязательная настройка:
|
||||||
|
- `endpoint` — указывает префикс конечной точки.
|
||||||
|
|
||||||
|
Необязательные настройки:
|
||||||
|
- `access_key_id` и `secret_access_key` — указывают учетные данные для использования с данной конечной точкой.
|
||||||
|
- `use_environment_credentials` — если `true`, S3-клиент будет пытаться получить учетные данные из переменных среды и метаданных Amazon EC2 для данной конечной точки. Значение по умолчанию - `false`.
|
||||||
|
- `header` — добавляет указанный HTTP-заголовок к запросу на заданную конечную точку. Может быть определен несколько раз.
|
||||||
|
- `server_side_encryption_customer_key_base64` — устанавливает необходимые заголовки для доступа к объектам S3 с шифрованием SSE-C.
|
||||||
|
|
||||||
**Пример**
|
**Пример**
|
||||||
|
|
||||||
1. Предположим у нас есть некоторые файлы в CSV формате со следующими URIs в S3:
|
``` xml
|
||||||
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv’
|
|
||||||
|
|
||||||
2. Есть несколько способов сделать таблицу состяющую из всех шести файлов:
|
|
||||||
|
|
||||||
<!-- -->
|
|
||||||
|
|
||||||
```sql
|
|
||||||
CREATE TABLE table_with_range (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}', 'CSV')
|
|
||||||
```
|
|
||||||
|
|
||||||
3. Другой способ:
|
|
||||||
|
|
||||||
```sql
|
|
||||||
CREATE TABLE table_with_question_mark (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_?', 'CSV')
|
|
||||||
```
|
|
||||||
|
|
||||||
4. Таблица состоящая из всех файлах в обоих каталогах (все файлы должны удовлетворять формату и схеме описанными в запросе):
|
|
||||||
|
|
||||||
```sql
|
|
||||||
CREATE TABLE table_with_asterisk (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV')
|
|
||||||
```
|
|
||||||
|
|
||||||
!!! warning "Предупреждение"
|
|
||||||
Если список файлов содержит диапозоны номеров с ведующими нулями, используйте конструкции со скобками для каждой цифры или используйте `?`.
|
|
||||||
|
|
||||||
**Пример**
|
|
||||||
|
|
||||||
Создание таблицы с именами файлов `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
|
|
||||||
|
|
||||||
```sql
|
|
||||||
CREATE TABLE big_table (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV')
|
|
||||||
```
|
|
||||||
|
|
||||||
## Виртуальные колонки {#virtual-columns}
|
|
||||||
|
|
||||||
- `_path` — Path to the file.
|
|
||||||
- `_file` — Name of the file.
|
|
||||||
|
|
||||||
**Смотри также**
|
|
||||||
|
|
||||||
- [Virtual columns](../../../engines/table-engines/index.md#table_engines-virtual_columns)
|
|
||||||
|
|
||||||
## S3-специфичные настройки {#settings}
|
|
||||||
|
|
||||||
Следующие настройки могут быть заданы при запуске запроса или установлены в конфигурационном файле для пользовательского профиля.
|
|
||||||
|
|
||||||
- `s3_max_single_part_upload_size` — По умолчанию `64Mb`. Максикальный размер куска данных для загрузки в S3 как singlepart.
|
|
||||||
- `s3_min_upload_part_size` — По умолчанию `512Mb`. Минимальный размер куска данных для загрузки в S3 с помощью [S3 Multipart загрузки](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html).
|
|
||||||
- `s3_max_redirects` — Значение по умолчанию `10`. Максимально допустимое количество HTTP перенаправлений от серверов S3.
|
|
||||||
|
|
||||||
Примечания для безопасности: если злоумышленник может указать произвольные ссылки на S3, то лучше выставить `s3_max_redirects` как ноль для избежания атак типа [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) ; или ограничить с помощью `remote_host_filter` список адресов по которым возможно взаимодействие с S3.
|
|
||||||
|
|
||||||
### Настройки специфичные для заданной конечной точки {#endpointsettings}
|
|
||||||
|
|
||||||
Следующие настройки могут быть указаны в конфигурационном файле для заданной конечной точки (которой будет сопоставлен точный конечный префик URL):
|
|
||||||
|
|
||||||
- `endpoint` — Обязательный параметр. Указывает префикс URL для конечной точки.
|
|
||||||
- `access_key_id` и `secret_access_key` — Не обязательно. Задает параметры авторизации для заданной конечной точки.
|
|
||||||
- `use_environment_credentials` — Не обязательный параметр, значение по умолчанию `false`. Если установлено как `true`, S3 клиент будет пытаться получить параметры авторизации из переменных окружения и Amazon EC2 метаданных для заданной конечной точки.
|
|
||||||
- `header` — Не обязательный параметр, может быть указан несколько раз. Добавляет указанный HTTP заголовок к запросу для заданной в `endpoint` URL префикса.
|
|
||||||
- `server_side_encryption_customer_key_base64` — Не обязательный параметр. Если указан, к запросам будут указаны заголовки необходимые для доступа к S3 объектам с SSE-C шифрованием.
|
|
||||||
|
|
||||||
Пример:
|
|
||||||
|
|
||||||
```
|
|
||||||
<s3>
|
<s3>
|
||||||
<endpoint-name>
|
<endpoint-name>
|
||||||
<endpoint>https://storage.yandexcloud.net/my-test-bucket-768/</endpoint>
|
<endpoint>https://storage.yandexcloud.net/my-test-bucket-768/</endpoint>
|
||||||
@ -153,3 +101,50 @@ CREATE TABLE big_table (name String, value UInt32) ENGINE = S3('https://storage.
|
|||||||
</s3>
|
</s3>
|
||||||
```
|
```
|
||||||
|
|
||||||
|
## Примеры использования {#usage-examples}
|
||||||
|
|
||||||
|
Предположим, у нас есть несколько файлов в формате TSV со следующими URL-адресами в HDFS:
|
||||||
|
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
|
||||||
|
|
||||||
|
1. Существует несколько способов создать таблицу, включающую в себя все шесть файлов:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE table_with_range (name String, value UInt32)
|
||||||
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}', 'CSV');
|
||||||
|
```
|
||||||
|
|
||||||
|
2. Другой способ:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE table_with_question_mark (name String, value UInt32)
|
||||||
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_?', 'CSV');
|
||||||
|
```
|
||||||
|
|
||||||
|
3. Таблица содержит все файлы в обоих каталогах (все файлы должны соответствовать формату и схеме, описанным в запросе):
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE table_with_asterisk (name String, value UInt32)
|
||||||
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV');
|
||||||
|
```
|
||||||
|
|
||||||
|
!!! warning "Warning"
|
||||||
|
Если список файлов содержит диапазоны чисел с ведущими нулями, используйте конструкцию с фигурными скобками для каждой цифры отдельно или используйте `?`.
|
||||||
|
|
||||||
|
4. Создание таблицы из файлов с именами `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE big_table (name String, value UInt32)
|
||||||
|
ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV');
|
||||||
|
```
|
||||||
|
**Смотрите также**
|
||||||
|
|
||||||
|
- [Табличная функция S3](../../../sql-reference/table-functions/s3.md)
|
||||||
|
|
||||||
|
[Оригинальная статья](https://clickhouse.tech/docs/ru/engines/table-engines/integrations/s3/) <!--hide-->
|
||||||
|
|
||||||
|
@ -23,15 +23,15 @@ toc_title: "Введение"
|
|||||||
|
|
||||||
| Функция | Описание |
|
| Функция | Описание |
|
||||||
|-----------------------|---------------------------------------------------------------------------------------------------------------------------------------|
|
|-----------------------|---------------------------------------------------------------------------------------------------------------------------------------|
|
||||||
| [file](../../sql-reference/table-functions/file.md) | Создаёт таблицу с движком [File](../../engines/table-engines/special/file.md). |
|
| [file](file.md) | Создаёт таблицу с движком [File](../../engines/table-engines/special/file.md). |
|
||||||
| [merge](../../sql-reference/table-functions/merge.md) | Создаёт таблицу с движком [Merge](../../engines/table-engines/special/merge.md). |
|
| [merge](merge.md) | Создаёт таблицу с движком [Merge](../../engines/table-engines/special/merge.md). |
|
||||||
| [numbers](../../sql-reference/table-functions/numbers.md) | Создаёт таблицу с единственным столбцом, заполненным целыми числами. |
|
| [numbers](numbers.md) | Создаёт таблицу с единственным столбцом, заполненным целыми числами. |
|
||||||
| [remote](../../sql-reference/table-functions/remote.md) | Предоставляет доступ к удалённым серверам, не создавая таблицу с движком [Distributed](../../engines/table-engines/special/distributed.md). |
|
| [remote](remote.md) | Предоставляет доступ к удалённым серверам, не создавая таблицу с движком [Distributed](../../engines/table-engines/special/distributed.md). |
|
||||||
| [url](../../sql-reference/table-functions/url.md) | Создаёт таблицу с движком [Url](../../engines/table-engines/special/url.md). |
|
| [url](url.md) | Создаёт таблицу с движком [Url](../../engines/table-engines/special/url.md). |
|
||||||
| [mysql](../../sql-reference/table-functions/mysql.md) | Создаёт таблицу с движком [MySQL](../../engines/table-engines/integrations/mysql.md). |
|
| [mysql](mysql.md) | Создаёт таблицу с движком [MySQL](../../engines/table-engines/integrations/mysql.md). |
|
||||||
| [postgresql](../../sql-reference/table-functions/postgresql.md) | Создаёт таблицу с движком [PostgreSQL](../../engines/table-engines/integrations/postgresql.md). |
|
| [jdbc](jdbc.md) | Создаёт таблицу с дижком [JDBC](../../engines/table-engines/integrations/jdbc.md). |
|
||||||
| [jdbc](../../sql-reference/table-functions/jdbc.md) | Создаёт таблицу с движком [JDBC](../../engines/table-engines/integrations/jdbc.md). |
|
| [odbc](odbc.md) | Создаёт таблицу с движком [ODBC](../../engines/table-engines/integrations/odbc.md). |
|
||||||
| [odbc](../../sql-reference/table-functions/odbc.md) | Создаёт таблицу с движком [ODBC](../../engines/table-engines/integrations/odbc.md). |
|
| [hdfs](hdfs.md) | Создаёт таблицу с движком [HDFS](../../engines/table-engines/integrations/hdfs.md). |
|
||||||
| [hdfs](../../sql-reference/table-functions/hdfs.md) | Создаёт таблицу с движком [HDFS](../../engines/table-engines/integrations/hdfs.md). |
|
| [s3](s3.md) | Создаёт таблицу с движком [S3](../../engines/table-engines/integrations/s3.md). |
|
||||||
| [s3](../../sql-reference/table-functions/s3.md) | Создаёт таблицу с движком [S3](../../engines/table-engines/integrations/s3.md). |
|
|
||||||
|
|
||||||
|
[Оригинальная статья](https://clickhouse.tech/docs/ru/sql-reference/table-functions/) <!--hide-->
|
||||||
|
@ -3,35 +3,41 @@ toc_priority: 45
|
|||||||
toc_title: s3
|
toc_title: s3
|
||||||
---
|
---
|
||||||
|
|
||||||
# s3 {#s3}
|
# Табличная Функция S3 {#s3-table-function}
|
||||||
|
|
||||||
Provides table-like interface to select/insert files in S3. This table function is similar to [hdfs](../../sql-reference/table-functions/hdfs.md).
|
Предоставляет табличный интерфейс для выбора/вставки файлов в [Amazon S3](https://aws.amazon.com/s3/). Эта табличная функция похожа на [hdfs](../../sql-reference/table-functions/hdfs.md), но обеспечивает специфические для S3 возможности.
|
||||||
|
|
||||||
|
**Синтаксис**
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
s3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
|
s3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
|
||||||
```
|
```
|
||||||
|
|
||||||
**Input parameters**
|
**Aргументы**
|
||||||
|
|
||||||
- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: *, ?, {abc,def} and {N..M} where N, M — numbers, `’abc’, ‘def’ — strings.
|
- `path` — URL-адрес бакета с указанием пути к файлу. Поддерживает следующие подстановочные знаки в режиме "только чтение": `*, ?, {abc,def} и {N..M}` где `N, M` — числа, `'abc', 'def'` — строки. Подробнее смотри [здесь](../../engines/table-engines/integrations/s3.md#wildcards-in-path).
|
||||||
- `format` — The [format](../../interfaces/formats.md#formats) of the file.
|
- `format` — [формат](../../interfaces/formats.md#formats) файла.
|
||||||
- `structure` — Structure of the table. Format `'column1_name column1_type, column2_name column2_type, ...'`.
|
- `structure` — cтруктура таблицы. Формат `'column1_name column1_type, column2_name column2_type, ...'`.
|
||||||
- `compression` — Parameter is optional. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. By default, it will autodetect compression by file extension.
|
- `compression` — автоматически обнаруживает сжатие по расширению файла. Возможные значения: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. Необязательный параметр.
|
||||||
|
|
||||||
**Returned value**
|
**Возвращаемые значения**
|
||||||
|
|
||||||
A table with the specified structure for reading or writing data in the specified file.
|
Таблица с указанной структурой для чтения или записи данных в указанный файл.
|
||||||
|
|
||||||
**Example**
|
**Примеры**
|
||||||
|
|
||||||
Table from S3 file `https://storage.yandexcloud.net/my-test-bucket-768/data.csv` and selection of the first two rows from it:
|
Создание таблицы из файла S3 `https://storage.yandexcloud.net/my-test-bucket-768/data.csv` и выбор первых трех столбцов из нее:
|
||||||
|
|
||||||
|
Запрос:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT *
|
SELECT *
|
||||||
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32')
|
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32')
|
||||||
LIMIT 2
|
LIMIT 2;
|
||||||
```
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
``` text
|
``` text
|
||||||
┌─column1─┬─column2─┬─column3─┐
|
┌─column1─┬─column2─┬─column3─┐
|
||||||
│ 1 │ 2 │ 3 │
|
│ 1 │ 2 │ 3 │
|
||||||
@ -39,14 +45,18 @@ LIMIT 2
|
|||||||
└─────────┴─────────┴─────────┘
|
└─────────┴─────────┴─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
The similar but from file with `gzip` compression:
|
То же самое, но файл со сжатием `gzip`:
|
||||||
|
|
||||||
|
Запрос:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT *
|
SELECT *
|
||||||
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv.gz', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32', 'gzip')
|
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv.gz', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32', 'gzip')
|
||||||
LIMIT 2
|
LIMIT 2;
|
||||||
```
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
``` text
|
``` text
|
||||||
┌─column1─┬─column2─┬─column3─┐
|
┌─column1─┬─column2─┬─column3─┐
|
||||||
│ 1 │ 2 │ 3 │
|
│ 1 │ 2 │ 3 │
|
||||||
@ -54,37 +64,24 @@ LIMIT 2
|
|||||||
└─────────┴─────────┴─────────┘
|
└─────────┴─────────┴─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
**Globs in path**
|
## Примеры использования {#usage-examples}
|
||||||
|
|
||||||
Multiple path components can have globs. For being processed file should exists and matches to the whole path pattern (not only suffix or prefix).
|
Предположим, у нас есть несколько файлов со следующими URI на S3:
|
||||||
|
|
||||||
- `*` — Substitutes any number of any characters except `/` including empty string.
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
|
||||||
- `?` — Substitutes any single character.
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
|
||||||
- `{some_string,another_string,yet_another_one}` — Substitutes any of strings `'some_string', 'another_string', 'yet_another_one'`.
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
|
||||||
- `{N..M}` — Substitutes any number in range from N to M including both borders. N and M can have leading zeroes e.g. `000..078`.
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_4.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
|
||||||
|
- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_4.csv'
|
||||||
|
|
||||||
Constructions with `{}` are similar to the [remote table function](../../sql-reference/table-functions/remote.md)).
|
Подсчитаем количество строк в файлах, заканчивающихся цифрами от 1 до 3:
|
||||||
|
|
||||||
**Example**
|
|
||||||
|
|
||||||
1. Suppose that we have several files with following URIs on S3:
|
|
||||||
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_4.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv’
|
|
||||||
- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_4.csv’
|
|
||||||
|
|
||||||
2. Query the amount of rows in files end with number from 1 to 3:
|
|
||||||
|
|
||||||
<!-- -->
|
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT count(*)
|
SELECT count(*)
|
||||||
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}.csv', 'CSV', 'name String, value UInt32')
|
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}.csv', 'CSV', 'name String, value UInt32');
|
||||||
```
|
```
|
||||||
|
|
||||||
``` text
|
``` text
|
||||||
@ -93,13 +90,11 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefi
|
|||||||
└─────────┘
|
└─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
3. Query the amount of rows in all files of these two directories:
|
Подсчитаем общее количество строк во всех файлах этих двух каталогов:
|
||||||
|
|
||||||
<!-- -->
|
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT count(*)
|
SELECT count(*)
|
||||||
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV', 'name String, value UInt32')
|
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV', 'name String, value UInt32');
|
||||||
```
|
```
|
||||||
|
|
||||||
``` text
|
``` text
|
||||||
@ -108,17 +103,14 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefi
|
|||||||
└─────────┘
|
└─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
|
|
||||||
!!! warning "Warning"
|
!!! warning "Warning"
|
||||||
If your listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
|
Если список файлов содержит диапазоны чисел с ведущими нулями, используйте конструкцию с фигурными скобками для каждой цифры отдельно или используйте `?`.
|
||||||
|
|
||||||
**Example**
|
Подсчитаем общее количество строк в файлах с именами `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
|
||||||
|
|
||||||
Query the data from files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
|
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT count(*)
|
SELECT count(*)
|
||||||
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV', 'name String, value UInt32')
|
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV', 'name String, value UInt32');
|
||||||
```
|
```
|
||||||
|
|
||||||
``` text
|
``` text
|
||||||
@ -127,42 +119,23 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000
|
|||||||
└─────────┘
|
└─────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
**Data insert**
|
Запишем данные в файл `test-data.csv.gz`:
|
||||||
|
|
||||||
The S3 table function may be used for data insert as well.
|
|
||||||
|
|
||||||
**Example**
|
|
||||||
|
|
||||||
Insert a data into file `test-data.csv.gz`:
|
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
||||||
VALUES ('test-data', 1), ('test-data-2', 2)
|
VALUES ('test-data', 1), ('test-data-2', 2);
|
||||||
```
|
```
|
||||||
|
|
||||||
Insert a data into file `test-data.csv.gz` from existing table:
|
Запишем данные из существующей таблицы в файл `test-data.csv.gz`:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
|
||||||
SELECT name, value FROM existing_table
|
SELECT name, value FROM existing_table;
|
||||||
```
|
```
|
||||||
|
|
||||||
## Virtual Columns {#virtual-columns}
|
**Смотрите также**
|
||||||
|
|
||||||
- `_path` — Path to the file.
|
- [Движок таблиц S3](../../engines/table-engines/integrations/s3.md)
|
||||||
- `_file` — Name of the file.
|
|
||||||
|
|
||||||
## S3-related settings {#settings}
|
[Оригинальная статья](https://clickhouse.tech/docs/ru/sql-reference/table-functions/s3/) <!--hide-->
|
||||||
|
|
||||||
The following settings can be set before query execution or placed into configuration file.
|
|
||||||
|
|
||||||
- `s3_max_single_part_upload_size` — Default value is `64Mb`. The maximum size of object to upload using singlepart upload to S3.
|
|
||||||
- `s3_min_upload_part_size` — Default value is `512Mb`. The minimum size of part to upload during multipart upload to [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html).
|
|
||||||
- `s3_max_redirects` — Default value is `10`. Max number of S3 redirects hops allowed.
|
|
||||||
|
|
||||||
Security consideration: if malicious user can specify arbitrary S3 URLs, `s3_max_redirects` must be set to zero to avoid [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) attacks; or alternatively, `remote_host_filter` must be specified in server configuration.
|
|
||||||
|
|
||||||
**See Also**
|
|
||||||
|
|
||||||
- [Virtual columns](../../engines/table-engines/index.md#table_engines-virtual_columns)
|
|
||||||
|
|
||||||
|
Loading…
Reference in New Issue
Block a user