diff --git a/docs/en/engines/table-engines/index.md b/docs/en/engines/table-engines/index.md
index 546557beb57..e60cdf3c899 100644
--- a/docs/en/engines/table-engines/index.md
+++ b/docs/en/engines/table-engines/index.md
@@ -52,7 +52,7 @@ Engines in the family:
- [ODBC](../../engines/table-engines/integrations/odbc.md#table-engine-odbc)
- [JDBC](../../engines/table-engines/integrations/jdbc.md#table-engine-jdbc)
- [HDFS](../../engines/table-engines/integrations/hdfs.md#hdfs)
-- [S3](../../engines/table-engines/integrations/s3.md#table_engines-s3)
+- [S3](../../engines/table-engines/integrations/s3.md#table-engine-s3)
### Special Engines {#special-engines}
diff --git a/docs/en/engines/table-engines/integrations/s3.md b/docs/en/engines/table-engines/integrations/s3.md
index 93dcbdbc0f1..03340f2d8c9 100644
--- a/docs/en/engines/table-engines/integrations/s3.md
+++ b/docs/en/engines/table-engines/integrations/s3.md
@@ -3,23 +3,23 @@ toc_priority: 4
toc_title: S3
---
-# S3 {#table_engines-s3}
+# S3 Table Engine {#table-engine-s3}
-This engine provides integration with [Amazon S3](https://aws.amazon.com/s3/) ecosystem. This engine is similar
-to the [HDFS](../../../engines/table-engines/integrations/hdfs.md#table_engines-hdfs) engine, but provides S3-specific features.
+This engine provides integration with [Amazon S3](https://aws.amazon.com/s3/) ecosystem. This engine is similar to the [HDFS](../../../engines/table-engines/special/file.md#table_engines-hdfs) engine, but provides S3-specific features.
-## Usage {#usage}
+## Create Table {#creating-a-table}
-```sql
+``` sql
+CREATE TABLE s3_engine_table (name String, value UInt32)
ENGINE = S3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
```
-**Input parameters**
+**Engine parameters**
-- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: *, ?, {abc,def} and {N..M} where N, M — numbers, `’abc’, ‘def’ — strings.
+- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: `*`, `?`, `{abc,def}` and `{N..M}` where `N`, `M` — numbers, `'abc'`, `'def'` — strings. For more information see [below](#wildcards-in-path).
- `format` — The [format](../../../interfaces/formats.md#formats) of the file.
- `structure` — Structure of the table. Format `'column1_name column1_type, column2_name column2_type, ...'`.
-- `compression` — Parameter is optional. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. By default, it will autodetect compression by file extension.
+- `compression` — Compression type. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. Parameter is optional. By default, it will autodetect compression by file extension.
**Example:**
@@ -47,6 +47,12 @@ SELECT * FROM s3_engine_table LIMIT 2
│ two │ 2 │
└──────┴───────┘
```
+## Virtual columns {#virtual-columns}
+
+- `_path` — Path to the file.
+- `_file` — Name of the file.
+
+For more information about virtual columns see [here](../../../engines/table-engines/index.md#table_engines-virtual_columns).
## Implementation Details {#implementation-details}
@@ -56,9 +62,9 @@ SELECT * FROM s3_engine_table LIMIT 2
- Indexes.
- Replication.
-**Globs in path**
+## Wildcards In Path {#wildcards-in-path}
-Multiple path components can have globs. For being processed file should exist and match to the whole path pattern. Listing of files determines during `SELECT` (not at `CREATE` moment).
+`path` argument can specify multiple files using bash-like wildcards. For being processed file should exist and match to the whole path pattern. Listing of files is determined during `SELECT` (not at `CREATE` moment).
- `*` — Substitutes any number of any characters except `/` including empty string.
- `?` — Substitutes any single character.
@@ -67,80 +73,29 @@ Multiple path components can have globs. For being processed file should exist a
Constructions with `{}` are similar to the [remote](../../../sql-reference/table-functions/remote.md) table function.
-**Example**
-
-1. Suppose we have several files in CSV format with the following URIs on S3:
-
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv’
-
-2. There are several ways to make a table consisting of all six files:
-
-
-
-```sql
-CREATE TABLE table_with_range (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}', 'CSV')
-```
-
-3. Another way:
-
-```sql
-CREATE TABLE table_with_question_mark (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_?', 'CSV')
-```
-
-4. Table consists of all the files in both directories (all files should satisfy format and schema described in query):
-
-```sql
-CREATE TABLE table_with_asterisk (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV')
-```
-
-!!! warning "Warning"
- If the listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
-
-**Example**
-
-Create table with files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
-
-```sql
-CREATE TABLE big_table (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV')
-```
-
-## Virtual Columns {#virtual-columns}
-
-- `_path` — Path to the file.
-- `_file` — Name of the file.
-
-**See Also**
-
-- [Virtual columns](../../../engines/table-engines/index.md#table_engines-virtual_columns)
-
-## S3-related settings {#settings}
+## S3-related Settings {#s3-settings}
The following settings can be set before query execution or placed into configuration file.
-- `s3_max_single_part_upload_size` — Default value is `64Mb`. The maximum size of object to upload using singlepart upload to S3.
-- `s3_min_upload_part_size` — Default value is `512Mb`. The minimum size of part to upload during multipart upload to [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html).
-- `s3_max_redirects` — Default value is `10`. Max number of HTTP redirects S3 hops allowed.
+- `s3_max_single_part_upload_size` — The maximum size of object to upload using singlepart upload to S3. Default value is `64Mb`.
+- `s3_min_upload_part_size` — The minimum size of part to upload during multipart upload to [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html). Default value is `512Mb`.
+- `s3_max_redirects` — Max number of S3 redirects hops allowed. Default value is `10`.
Security consideration: if malicious user can specify arbitrary S3 URLs, `s3_max_redirects` must be set to zero to avoid [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) attacks; or alternatively, `remote_host_filter` must be specified in server configuration.
-### Endpoint-based settings {#endpointsettings}
+## Endpoint-based Settings {#endpoint-settings}
The following settings can be specified in configuration file for given endpoint (which will be matched by exact prefix of a URL):
-- `endpoint` — Mandatory. Specifies prefix of an endpoint.
-- `access_key_id` and `secret_access_key` — Optional. Specifies credentials to use with given endpoint.
-- `use_environment_credentials` — Optional, default value is `false`. If set to `true`, S3 client will try to obtain credentials from environment variables and Amazon EC2 metadata for given endpoint.
-- `header` — Optional, can be speficied multiple times. Adds specified HTTP header to a request to given endpoint.
-- `server_side_encryption_customer_key_base64` — Optional. If specified, required headers for accessing S3 objects with SSE-C encryption will be set.
+- `endpoint` — Specifies prefix of an endpoint. Mandatory.
+- `access_key_id` and `secret_access_key` — Specifies credentials to use with given endpoint. Optional.
+- `use_environment_credentials` — If set to `true`, S3 client will try to obtain credentials from environment variables and Amazon EC2 metadata for given endpoint. Optional, default value is `false`.
+- `header` — Adds specified HTTP header to a request to given endpoint. Optional, can be speficied multiple times.
+- `server_side_encryption_customer_key_base64` — If specified, required headers for accessing S3 objects with SSE-C encryption will be set. Optional.
-Example:
+**Example:**
-```
+``` xml
https://storage.yandexcloud.net/my-test-bucket-768/
@@ -152,5 +107,50 @@ Example:
```
+## Usage {#usage-examples}
+
+Suppose we have several files in TSV format with the following URIs on HDFS:
+
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
+
+
+1. There are several ways to make a table consisting of all six files:
+
+``` sql
+CREATE TABLE table_with_range (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}', 'CSV');
+```
+
+2. Another way:
+
+``` sql
+CREATE TABLE table_with_question_mark (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_?', 'CSV');
+```
+
+3. Table consists of all the files in both directories (all files should satisfy format and schema described in query):
+
+``` sql
+CREATE TABLE table_with_asterisk (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV');
+```
+
+!!! warning "Warning"
+ If the listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
+
+4. Create table with files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
+
+``` sql
+CREATE TABLE big_table (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV');
+```
+## See also
+
+- [S3 table function](../../../sql-reference/table-functions/s3.md)
[Original article](https://clickhouse.tech/docs/en/engines/table-engines/integrations/s3/)
diff --git a/docs/en/introduction/adopters.md b/docs/en/introduction/adopters.md
index 454d856f779..23f7b596851 100644
--- a/docs/en/introduction/adopters.md
+++ b/docs/en/introduction/adopters.md
@@ -123,5 +123,6 @@ toc_title: Adopters
| МКБ | Bank | Web-system monitoring | — | — | [Slides in Russian, September 2019](https://github.com/ClickHouse/clickhouse-presentations/blob/master/meetup28/mkb.pdf) |
| ЦФТ | Banking, Financial products, Payments | — | — | — | [Meetup in Russian, April 2020](https://team.cft.ru/events/162) |
| kakaocorp | Internet company | — | — | — | [if(kakao)2020 conference](https://if.kakao.com/session/117) |
+| Tesla | Electric vehicle and clean energy company | — | — | — | [Vacancy description, March 2021](https://news.ycombinator.com/item?id=26306170) |
[Original article](https://clickhouse.tech/docs/en/introduction/adopters/)
diff --git a/docs/en/sql-reference/table-functions/s3.md b/docs/en/sql-reference/table-functions/s3.md
index 2427f0f863c..34f0607b94c 100644
--- a/docs/en/sql-reference/table-functions/s3.md
+++ b/docs/en/sql-reference/table-functions/s3.md
@@ -3,17 +3,19 @@ toc_priority: 45
toc_title: s3
---
-# s3 {#s3}
+# S3 Table Function {#s3-table-function}
-Provides table-like interface to select/insert files in S3. This table function is similar to [hdfs](../../sql-reference/table-functions/hdfs.md).
+Provides table-like interface to select/insert files in [Amazon S3](https://aws.amazon.com/s3/). This table function is similar to [hdfs](../../sql-reference/table-functions/hdfs.md), but provides S3-specific features.
+
+**Syntax**
``` sql
s3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
```
-**Input parameters**
+**Arguments**
-- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: *, ?, {abc,def} and {N..M} where N, M — numbers, `’abc’, ‘def’ — strings.
+- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: `*`, `?`, `{abc,def}` and `{N..M}` where `N`, `M` — numbers, `'abc'`, `'def'` — strings. For more information see [here](../../engines/table-engines/integrations/s3.md#wildcards-in-path).
- `format` — The [format](../../interfaces/formats.md#formats) of the file.
- `structure` — Structure of the table. Format `'column1_name column1_type, column2_name column2_type, ...'`.
- `compression` — Parameter is optional. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. By default, it will autodetect compression by file extension.
@@ -22,14 +24,14 @@ s3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compres
A table with the specified structure for reading or writing data in the specified file.
-**Example**
+**Examples**
-Table from S3 file `https://storage.yandexcloud.net/my-test-bucket-768/data.csv` and selection of the first two rows from it:
+Selecting the first two rows from the table from S3 file `https://storage.yandexcloud.net/my-test-bucket-768/data.csv`:
``` sql
SELECT *
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32')
-LIMIT 2
+LIMIT 2;
```
``` text
@@ -44,7 +46,7 @@ The similar but from file with `gzip` compression:
``` sql
SELECT *
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv.gz', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32', 'gzip')
-LIMIT 2
+LIMIT 2;
```
``` text
@@ -54,33 +56,20 @@ LIMIT 2
└─────────┴─────────┴─────────┘
```
-**Globs in path**
+## Usage {#usage-examples}
-Multiple path components can have globs. For being processed file should exists and matches to the whole path pattern (not only suffix or prefix).
+Suppose that we have several files with following URIs on S3:
-- `*` — Substitutes any number of any characters except `/` including empty string.
-- `?` — Substitutes any single character.
-- `{some_string,another_string,yet_another_one}` — Substitutes any of strings `'some_string', 'another_string', 'yet_another_one'`.
-- `{N..M}` — Substitutes any number in range from N to M including both borders. N and M can have leading zeroes e.g. `000..078`.
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_4.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_4.csv'
-Constructions with `{}` are similar to the [remote table function](../../sql-reference/table-functions/remote.md)).
-
-**Example**
-
-1. Suppose that we have several files with following URIs on S3:
-
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_4.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_4.csv’
-
-2. Query the amount of rows in files end with number from 1 to 3:
-
-
+Count the amount of rows in files ending with numbers from 1 to 3:
``` sql
SELECT count(*)
@@ -93,9 +82,7 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefi
└─────────┘
```
-3. Query the amount of rows in all files of these two directories:
-
-
+Count the total amount of rows in all files in these two directories:
``` sql
SELECT count(*)
@@ -108,17 +95,14 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefi
└─────────┘
```
-
!!! warning "Warning"
If your listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
-**Example**
-
-Query the data from files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
+Count the total amount of rows in files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
``` sql
SELECT count(*)
-FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV', 'name String, value UInt32')
+FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV', 'name String, value UInt32');
```
``` text
@@ -127,42 +111,22 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000
└─────────┘
```
-**Data insert**
-
-The S3 table function may be used for data insert as well.
-
-**Example**
-
-Insert a data into file `test-data.csv.gz`:
+Insert data into file `test-data.csv.gz`:
``` sql
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
-VALUES ('test-data', 1), ('test-data-2', 2)
+VALUES ('test-data', 1), ('test-data-2', 2);
```
-Insert a data into file `test-data.csv.gz` from existing table:
+Insert data into file `test-data.csv.gz` from existing table:
``` sql
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
-SELECT name, value FROM existing_table
+SELECT name, value FROM existing_table;
```
-## Virtual Columns {#virtual-columns}
-
-- `_path` — Path to the file.
-- `_file` — Name of the file.
-
-## S3-related settings {#settings}
-
-The following settings can be set before query execution or placed into configuration file.
-
-- `s3_max_single_part_upload_size` — Default value is `64Mb`. The maximum size of object to upload using singlepart upload to S3.
-- `s3_min_upload_part_size` — Default value is `512Mb`. The minimum size of part to upload during multipart upload to [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html).
-- `s3_max_redirects` — Default value is `10`. Max number of S3 redirects hops allowed.
-
-Security consideration: if malicious user can specify arbitrary S3 URLs, `s3_max_redirects` must be set to zero to avoid [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) attacks; or alternatively, `remote_host_filter` must be specified in server configuration.
-
**See Also**
-- [Virtual columns](../../engines/table-engines/index.md#table_engines-virtual_columns)
+- [S3 engine](../../engines/table-engines/integrations/s3.md)
+[Original article](https://clickhouse.tech/docs/en/sql-reference/table-functions/s3/)
diff --git a/docs/ru/engines/table-engines/integrations/s3.md b/docs/ru/engines/table-engines/integrations/s3.md
index 4eaf2d5b05c..fa10e8ebc34 100644
--- a/docs/ru/engines/table-engines/integrations/s3.md
+++ b/docs/ru/engines/table-engines/integrations/s3.md
@@ -3,144 +3,92 @@ toc_priority: 4
toc_title: S3
---
-# S3 {#table_engines-s3}
+# Движок таблиц S3 {#table-engine-s3}
-Этот движок обеспечивает интеграцию с экосистемой [Amazon S3](https://aws.amazon.com/s3/). Этот движок похож на
-движок [HDFS](../../../engines/table-engines/integrations/hdfs.md#table_engines-hdfs), но предоставляет S3-специфичные функции.
+Этот движок обеспечивает интеграцию с экосистемой [Amazon S3](https://aws.amazon.com/s3/). Он похож на движок [HDFS](../../../engines/table-engines/special/file.md#table_engines-hdfs), но обеспечивает специфические для S3 возможности.
-## Использование {#usage}
+## Создание таблицы {#creating-a-table}
-```sql
+``` sql
+CREATE TABLE s3_engine_table (name String, value UInt32)
ENGINE = S3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
```
-**Параметры**
+**Параметры движка**
-- `path` — URL ссылающийся на файл расположенный в S3. В режиме для чтения можно читать несколько файлов как один, поддерживаются следующие шаблоны для указания маски пути к файлам: *, ?, {abc,def} и {N..M} где N, M — числа, `’abc’, ‘def’ — строки.
-- `format` — [Формат](../../../interfaces/formats.md#formats) файла.
-- `structure` — Структура таблицы. Формат `'column1_name column1_type, column2_name column2_type, ...'`.
-- `compression` — Алгоритм сжатия, не обязятельный параметр. Поддерживаемые значения: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. По умолчанию, алгоритм сжатия будет автоматически применен в зависимости от расширения в имени файла.
+- `path` — URL-адрес бакета с указанием пути к файлу. Поддерживает следующие подстановочные знаки в режиме "только чтение": `*`, `?`, `{abc,def}` и `{N..M}` где `N`, `M` — числа, `'abc'`, `'def'` — строки. Подробнее смотри [ниже](#wildcards-in-path).
+- `format` — [формат](../../../interfaces/formats.md#formats) файла.
+- `structure` — структура таблицы в формате `'column1_name column1_type, column2_name column2_type, ...'`.
+- `compression` — тип сжатия. Возможные значения: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. Необязательный параметр. Если не указано, то тип сжатия определяется автоматически по расширению файла.
-**Пример:**
+**Пример**
-**1.** Создание таблицы `s3_engine_table` :
-
-```sql
-CREATE TABLE s3_engine_table (name String, value UInt32) ENGINE=S3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
+``` sql
+CREATE TABLE s3_engine_table (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip');
+INSERT INTO s3_engine_table VALUES ('one', 1), ('two', 2), ('three', 3);
+SELECT * FROM s3_engine_table LIMIT 2;
```
-**2.** Заполнение файла:
-
-```sql
-INSERT INTO s3_engine_table VALUES ('one', 1), ('two', 2), ('three', 3)
-```
-
-**3.** Запрос данных:
-
-```sql
-SELECT * FROM s3_engine_table LIMIT 2
-```
-
-```text
+``` text
┌─name─┬─value─┐
│ one │ 1 │
│ two │ 2 │
└──────┴───────┘
```
+## Виртуальные столбцы {#virtual-columns}
+
+- `_path` — путь к файлу.
+- `_file` — имя файла.
+
+Подробнее про виртуальные столбцы можно прочитать [здесь](../../../engines/table-engines/index.md#table_engines-virtual_columns).
+
## Детали реализации {#implementation-details}
-- Чтение и запись могут быть одновременными и паралельными
-- Не поддерживается:
- - `ALTER` и `SELECT...SAMPLE` операции.
- - Индексы.
- - Репликация.
+- Чтение и запись могут быть параллельными.
+- Не поддерживаются:
+ - запросы `ALTER` и `SELECT...SAMPLE`,
+ - индексы,
+ - репликация.
-**Поддержка шаблонов в параметре path**
+## Символы подстановки {#wildcards-in-path}
-Множество частей параметра `path` поддерживает шаблоны. Для того чтобы быть обработанным файл должен присутствовать в S3 и соответсвовать шаблону. Списки файлов определяются в момент `SELECT` (но не в момент `CREATE`).
+Аргумент `path` может указывать на несколько файлов, используя подстановочные знаки. Для обработки файл должен существовать и соответствовать всему шаблону пути. Список файлов определяется во время выполнения запроса `SELECT` (не в момент выполнения запроса `CREATE`).
-- `*` — Заменяет любой количество любых символов кроме `/` включая пустые строки.
-- `?` — Заменяет один символ.
-- `{some_string,another_string,yet_another_one}` — Заменяет любую из строк `'some_string', 'another_string', 'yet_another_one'`.
-- `{N..M}` — Заменяет любое числов в диапозоне от N до M включительно. N и M могут иметь лидирующие нули например `000..078`.
+- `*` — заменяет любое количество любых символов, кроме `/`, включая пустую строку.
+- `?` — заменяет любые одиночные символы.
+- `{some_string, another_string, yet_another_one}` — заменяет любые строки `'some_string', 'another_string', 'yet_another_one'`.
+- `{N..M}` — заменяет любое число от N до M, включая обе границы. N и M могут иметь ведущие нули, например `000..078`.
-Конструкции с`{}` работают также как в табличной функции [remote](../../../sql-reference/table-functions/remote.md).
+Конструкции с `{}` аналогичны функции [remote](../../../sql-reference/table-functions/remote.md).
+
+## Настройки движка S3 {#s3-settings}
+
+Перед выполнением запроса или в конфигурационном файле могут быть установлены следующие настройки:
+
+- `s3_max_single_part_upload_size` — максимальный размер объекта для загрузки с использованием однокомпонентной загрузки в S3. Значение по умолчанию — `64 Mб`.
+- `s3_min_upload_part_size` — минимальный размер объекта для загрузки при многокомпонентной загрузке в [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html). Значение по умолчанию — `512 Mб`.
+- `s3_max_redirects` — максимальное количество разрешенных переадресаций S3. Значение по умолчанию — `10`.
+
+Соображение безопасности: если злонамеренный пользователь попробует указать произвольные URL-адреса S3, параметр `s3_max_redirects` должен быть установлен в ноль, чтобы избежать атак [SSRF] (https://en.wikipedia.org/wiki/Server-side_request_forgery). Как альтернатива, в конфигурации сервера должен быть указан `remote_host_filter`.
+
+## Настройки конечных точек {#endpoint-settings}
+
+Для конечной точки (которая соответствует точному префиксу URL-адреса) в конфигурационном файле могут быть заданы следующие настройки:
+
+Обязательная настройка:
+- `endpoint` — указывает префикс конечной точки.
+
+Необязательные настройки:
+- `access_key_id` и `secret_access_key` — указывают учетные данные для использования с данной конечной точкой.
+- `use_environment_credentials` — если `true`, S3-клиент будет пытаться получить учетные данные из переменных среды и метаданных Amazon EC2 для данной конечной точки. Значение по умолчанию - `false`.
+- `header` — добавляет указанный HTTP-заголовок к запросу на заданную конечную точку. Может быть определен несколько раз.
+- `server_side_encryption_customer_key_base64` — устанавливает необходимые заголовки для доступа к объектам S3 с шифрованием SSE-C.
**Пример**
-1. Предположим у нас есть некоторые файлы в CSV формате со следующими URIs в S3:
-
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv’
-
-2. Есть несколько способов сделать таблицу состяющую из всех шести файлов:
-
-
-
-```sql
-CREATE TABLE table_with_range (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}', 'CSV')
-```
-
-3. Другой способ:
-
-```sql
-CREATE TABLE table_with_question_mark (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_?', 'CSV')
-```
-
-4. Таблица состоящая из всех файлах в обоих каталогах (все файлы должны удовлетворять формату и схеме описанными в запросе):
-
-```sql
-CREATE TABLE table_with_asterisk (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV')
-```
-
-!!! warning "Предупреждение"
- Если список файлов содержит диапозоны номеров с ведующими нулями, используйте конструкции со скобками для каждой цифры или используйте `?`.
-
-**Пример**
-
-Создание таблицы с именами файлов `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
-
-```sql
-CREATE TABLE big_table (name String, value UInt32) ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV')
-```
-
-## Виртуальные колонки {#virtual-columns}
-
-- `_path` — Path to the file.
-- `_file` — Name of the file.
-
-**Смотри также**
-
-- [Virtual columns](../../../engines/table-engines/index.md#table_engines-virtual_columns)
-
-## S3-специфичные настройки {#settings}
-
-Следующие настройки могут быть заданы при запуске запроса или установлены в конфигурационном файле для пользовательского профиля.
-
-- `s3_max_single_part_upload_size` — По умолчанию `64Mb`. Максикальный размер куска данных для загрузки в S3 как singlepart.
-- `s3_min_upload_part_size` — По умолчанию `512Mb`. Минимальный размер куска данных для загрузки в S3 с помощью [S3 Multipart загрузки](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html).
-- `s3_max_redirects` — Значение по умолчанию `10`. Максимально допустимое количество HTTP перенаправлений от серверов S3.
-
-Примечания для безопасности: если злоумышленник может указать произвольные ссылки на S3, то лучше выставить `s3_max_redirects` как ноль для избежания атак типа [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) ; или ограничить с помощью `remote_host_filter` список адресов по которым возможно взаимодействие с S3.
-
-### Настройки специфичные для заданной конечной точки {#endpointsettings}
-
-Следующие настройки могут быть указаны в конфигурационном файле для заданной конечной точки (которой будет сопоставлен точный конечный префик URL):
-
-- `endpoint` — Обязательный параметр. Указывает префикс URL для конечной точки.
-- `access_key_id` и `secret_access_key` — Не обязательно. Задает параметры авторизации для заданной конечной точки.
-- `use_environment_credentials` — Не обязательный параметр, значение по умолчанию `false`. Если установлено как `true`, S3 клиент будет пытаться получить параметры авторизации из переменных окружения и Amazon EC2 метаданных для заданной конечной точки.
-- `header` — Не обязательный параметр, может быть указан несколько раз. Добавляет указанный HTTP заголовок к запросу для заданной в `endpoint` URL префикса.
-- `server_side_encryption_customer_key_base64` — Не обязательный параметр. Если указан, к запросам будут указаны заголовки необходимые для доступа к S3 объектам с SSE-C шифрованием.
-
-Пример:
-
-```
+``` xml
https://storage.yandexcloud.net/my-test-bucket-768/
@@ -153,3 +101,50 @@ CREATE TABLE big_table (name String, value UInt32) ENGINE = S3('https://storage.
```
+## Примеры использования {#usage-examples}
+
+Предположим, у нас есть несколько файлов в формате TSV со следующими URL-адресами в HDFS:
+
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
+
+1. Существует несколько способов создать таблицу, включающую в себя все шесть файлов:
+
+``` sql
+CREATE TABLE table_with_range (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}', 'CSV');
+```
+
+2. Другой способ:
+
+``` sql
+CREATE TABLE table_with_question_mark (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_?', 'CSV');
+```
+
+3. Таблица содержит все файлы в обоих каталогах (все файлы должны соответствовать формату и схеме, описанным в запросе):
+
+``` sql
+CREATE TABLE table_with_asterisk (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV');
+```
+
+!!! warning "Warning"
+ Если список файлов содержит диапазоны чисел с ведущими нулями, используйте конструкцию с фигурными скобками для каждой цифры отдельно или используйте `?`.
+
+4. Создание таблицы из файлов с именами `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
+
+``` sql
+CREATE TABLE big_table (name String, value UInt32)
+ENGINE = S3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV');
+```
+**Смотрите также**
+
+- [Табличная функция S3](../../../sql-reference/table-functions/s3.md)
+
+[Оригинальная статья](https://clickhouse.tech/docs/ru/engines/table-engines/integrations/s3/)
+
diff --git a/docs/ru/sql-reference/table-functions/index.md b/docs/ru/sql-reference/table-functions/index.md
index 52eaad13507..fcd428df5d1 100644
--- a/docs/ru/sql-reference/table-functions/index.md
+++ b/docs/ru/sql-reference/table-functions/index.md
@@ -23,15 +23,15 @@ toc_title: "Введение"
| Функция | Описание |
|-----------------------|---------------------------------------------------------------------------------------------------------------------------------------|
-| [file](../../sql-reference/table-functions/file.md) | Создаёт таблицу с движком [File](../../engines/table-engines/special/file.md). |
-| [merge](../../sql-reference/table-functions/merge.md) | Создаёт таблицу с движком [Merge](../../engines/table-engines/special/merge.md). |
-| [numbers](../../sql-reference/table-functions/numbers.md) | Создаёт таблицу с единственным столбцом, заполненным целыми числами. |
-| [remote](../../sql-reference/table-functions/remote.md) | Предоставляет доступ к удалённым серверам, не создавая таблицу с движком [Distributed](../../engines/table-engines/special/distributed.md). |
-| [url](../../sql-reference/table-functions/url.md) | Создаёт таблицу с движком [Url](../../engines/table-engines/special/url.md). |
-| [mysql](../../sql-reference/table-functions/mysql.md) | Создаёт таблицу с движком [MySQL](../../engines/table-engines/integrations/mysql.md). |
-| [postgresql](../../sql-reference/table-functions/postgresql.md) | Создаёт таблицу с движком [PostgreSQL](../../engines/table-engines/integrations/postgresql.md). |
-| [jdbc](../../sql-reference/table-functions/jdbc.md) | Создаёт таблицу с движком [JDBC](../../engines/table-engines/integrations/jdbc.md). |
-| [odbc](../../sql-reference/table-functions/odbc.md) | Создаёт таблицу с движком [ODBC](../../engines/table-engines/integrations/odbc.md). |
-| [hdfs](../../sql-reference/table-functions/hdfs.md) | Создаёт таблицу с движком [HDFS](../../engines/table-engines/integrations/hdfs.md). |
-| [s3](../../sql-reference/table-functions/s3.md) | Создаёт таблицу с движком [S3](../../engines/table-engines/integrations/s3.md). |
+| [file](file.md) | Создаёт таблицу с движком [File](../../engines/table-engines/special/file.md). |
+| [merge](merge.md) | Создаёт таблицу с движком [Merge](../../engines/table-engines/special/merge.md). |
+| [numbers](numbers.md) | Создаёт таблицу с единственным столбцом, заполненным целыми числами. |
+| [remote](remote.md) | Предоставляет доступ к удалённым серверам, не создавая таблицу с движком [Distributed](../../engines/table-engines/special/distributed.md). |
+| [url](url.md) | Создаёт таблицу с движком [Url](../../engines/table-engines/special/url.md). |
+| [mysql](mysql.md) | Создаёт таблицу с движком [MySQL](../../engines/table-engines/integrations/mysql.md). |
+| [jdbc](jdbc.md) | Создаёт таблицу с дижком [JDBC](../../engines/table-engines/integrations/jdbc.md). |
+| [odbc](odbc.md) | Создаёт таблицу с движком [ODBC](../../engines/table-engines/integrations/odbc.md). |
+| [hdfs](hdfs.md) | Создаёт таблицу с движком [HDFS](../../engines/table-engines/integrations/hdfs.md). |
+| [s3](s3.md) | Создаёт таблицу с движком [S3](../../engines/table-engines/integrations/s3.md). |
+[Оригинальная статья](https://clickhouse.tech/docs/ru/sql-reference/table-functions/)
diff --git a/docs/ru/sql-reference/table-functions/s3.md b/docs/ru/sql-reference/table-functions/s3.md
index 2427f0f863c..1d3fc8cfdb7 100644
--- a/docs/ru/sql-reference/table-functions/s3.md
+++ b/docs/ru/sql-reference/table-functions/s3.md
@@ -3,35 +3,41 @@ toc_priority: 45
toc_title: s3
---
-# s3 {#s3}
+# Табличная Функция S3 {#s3-table-function}
-Provides table-like interface to select/insert files in S3. This table function is similar to [hdfs](../../sql-reference/table-functions/hdfs.md).
+Предоставляет табличный интерфейс для выбора/вставки файлов в [Amazon S3](https://aws.amazon.com/s3/). Эта табличная функция похожа на [hdfs](../../sql-reference/table-functions/hdfs.md), но обеспечивает специфические для S3 возможности.
+
+**Синтаксис**
``` sql
s3(path, [aws_access_key_id, aws_secret_access_key,] format, structure, [compression])
```
-**Input parameters**
+**Aргументы**
-- `path` — Bucket url with path to file. Supports following wildcards in readonly mode: *, ?, {abc,def} and {N..M} where N, M — numbers, `’abc’, ‘def’ — strings.
-- `format` — The [format](../../interfaces/formats.md#formats) of the file.
-- `structure` — Structure of the table. Format `'column1_name column1_type, column2_name column2_type, ...'`.
-- `compression` — Parameter is optional. Supported values: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. By default, it will autodetect compression by file extension.
+- `path` — URL-адрес бакета с указанием пути к файлу. Поддерживает следующие подстановочные знаки в режиме "только чтение": `*, ?, {abc,def} и {N..M}` где `N, M` — числа, `'abc', 'def'` — строки. Подробнее смотри [здесь](../../engines/table-engines/integrations/s3.md#wildcards-in-path).
+- `format` — [формат](../../interfaces/formats.md#formats) файла.
+- `structure` — cтруктура таблицы. Формат `'column1_name column1_type, column2_name column2_type, ...'`.
+- `compression` — автоматически обнаруживает сжатие по расширению файла. Возможные значения: none, gzip/gz, brotli/br, xz/LZMA, zstd/zst. Необязательный параметр.
-**Returned value**
+**Возвращаемые значения**
-A table with the specified structure for reading or writing data in the specified file.
+Таблица с указанной структурой для чтения или записи данных в указанный файл.
-**Example**
+**Примеры**
-Table from S3 file `https://storage.yandexcloud.net/my-test-bucket-768/data.csv` and selection of the first two rows from it:
+Создание таблицы из файла S3 `https://storage.yandexcloud.net/my-test-bucket-768/data.csv` и выбор первых трех столбцов из нее:
+
+Запрос:
``` sql
SELECT *
FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32')
-LIMIT 2
+LIMIT 2;
```
+Результат:
+
``` text
┌─column1─┬─column2─┬─column3─┐
│ 1 │ 2 │ 3 │
@@ -39,14 +45,18 @@ LIMIT 2
└─────────┴─────────┴─────────┘
```
-The similar but from file with `gzip` compression:
+То же самое, но файл со сжатием `gzip`:
+
+Запрос:
``` sql
-SELECT *
-FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv.gz', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32', 'gzip')
-LIMIT 2
+SELECT *
+FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/data.csv.gz', 'CSV', 'column1 UInt32, column2 UInt32, column3 UInt32', 'gzip')
+LIMIT 2;
```
+Результат:
+
``` text
┌─column1─┬─column2─┬─column3─┐
│ 1 │ 2 │ 3 │
@@ -54,37 +64,24 @@ LIMIT 2
└─────────┴─────────┴─────────┘
```
-**Globs in path**
+## Примеры использования {#usage-examples}
-Multiple path components can have globs. For being processed file should exists and matches to the whole path pattern (not only suffix or prefix).
+Предположим, у нас есть несколько файлов со следующими URI на S3:
-- `*` — Substitutes any number of any characters except `/` including empty string.
-- `?` — Substitutes any single character.
-- `{some_string,another_string,yet_another_one}` — Substitutes any of strings `'some_string', 'another_string', 'yet_another_one'`.
-- `{N..M}` — Substitutes any number in range from N to M including both borders. N and M can have leading zeroes e.g. `000..078`.
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_4.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
+- 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_4.csv'
-Constructions with `{}` are similar to the [remote table function](../../sql-reference/table-functions/remote.md)).
-
-**Example**
-
-1. Suppose that we have several files with following URIs on S3:
-
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_4.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv’
-- ‘https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_4.csv’
-
-2. Query the amount of rows in files end with number from 1 to 3:
-
-
+Подсчитаем количество строк в файлах, заканчивающихся цифрами от 1 до 3:
``` sql
SELECT count(*)
-FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}.csv', 'CSV', 'name String, value UInt32')
+FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/some_file_{1..3}.csv', 'CSV', 'name String, value UInt32');
```
``` text
@@ -93,13 +90,11 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefi
└─────────┘
```
-3. Query the amount of rows in all files of these two directories:
-
-
+Подсчитаем общее количество строк во всех файлах этих двух каталогов:
``` sql
SELECT count(*)
-FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV', 'name String, value UInt32')
+FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefix/*', 'CSV', 'name String, value UInt32');
```
``` text
@@ -108,17 +103,14 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/{some,another}_prefi
└─────────┘
```
-
!!! warning "Warning"
- If your listing of files contains number ranges with leading zeros, use the construction with braces for each digit separately or use `?`.
+ Если список файлов содержит диапазоны чисел с ведущими нулями, используйте конструкцию с фигурными скобками для каждой цифры отдельно или используйте `?`.
-**Example**
-
-Query the data from files named `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
+Подсчитаем общее количество строк в файлах с именами `file-000.csv`, `file-001.csv`, … , `file-999.csv`:
``` sql
SELECT count(*)
-FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV', 'name String, value UInt32')
+FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000..999}.csv', 'CSV', 'name String, value UInt32');
```
``` text
@@ -127,42 +119,23 @@ FROM s3('https://storage.yandexcloud.net/my-test-bucket-768/big_prefix/file-{000
└─────────┘
```
-**Data insert**
-
-The S3 table function may be used for data insert as well.
-
-**Example**
-
-Insert a data into file `test-data.csv.gz`:
+Запишем данные в файл `test-data.csv.gz`:
``` sql
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
-VALUES ('test-data', 1), ('test-data-2', 2)
+VALUES ('test-data', 1), ('test-data-2', 2);
```
-Insert a data into file `test-data.csv.gz` from existing table:
+Запишем данные из существующей таблицы в файл `test-data.csv.gz`:
``` sql
INSERT INTO s3('https://storage.yandexcloud.net/my-test-bucket-768/test-data.csv.gz', 'CSV', 'name String, value UInt32', 'gzip')
-SELECT name, value FROM existing_table
+SELECT name, value FROM existing_table;
```
-## Virtual Columns {#virtual-columns}
+**Смотрите также**
-- `_path` — Path to the file.
-- `_file` — Name of the file.
+- [Движок таблиц S3](../../engines/table-engines/integrations/s3.md)
-## S3-related settings {#settings}
-
-The following settings can be set before query execution or placed into configuration file.
-
-- `s3_max_single_part_upload_size` — Default value is `64Mb`. The maximum size of object to upload using singlepart upload to S3.
-- `s3_min_upload_part_size` — Default value is `512Mb`. The minimum size of part to upload during multipart upload to [S3 Multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html).
-- `s3_max_redirects` — Default value is `10`. Max number of S3 redirects hops allowed.
-
-Security consideration: if malicious user can specify arbitrary S3 URLs, `s3_max_redirects` must be set to zero to avoid [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery) attacks; or alternatively, `remote_host_filter` must be specified in server configuration.
-
-**See Also**
-
-- [Virtual columns](../../engines/table-engines/index.md#table_engines-virtual_columns)
+[Оригинальная статья](https://clickhouse.tech/docs/ru/sql-reference/table-functions/s3/)