Quotes and link fixed for s3, section headings for hdfs

This commit is contained in:
olgarev 2021-08-04 05:19:31 +00:00
parent f9658d2205
commit 7673247b4e
4 changed files with 10 additions and 10 deletions

View File

@ -185,7 +185,7 @@ Similar to GraphiteMergeTree, the HDFS engine supports extended configuration us
|hadoop\_kerberos\_principal | "" | |hadoop\_kerberos\_principal | "" |
|hadoop\_kerberos\_kinit\_command | kinit | |hadoop\_kerberos\_kinit\_command | kinit |
#### Limitations {#limitations} ### Limitations {#limitations}
* hadoop\_security\_kerberos\_ticket\_cache\_path can be global only, not user specific * hadoop\_security\_kerberos\_ticket\_cache\_path can be global only, not user specific
## Kerberos support {#kerberos-support} ## Kerberos support {#kerberos-support}

View File

@ -77,12 +77,12 @@ Constructions with `{}` are similar to the [remote](../../../sql-reference/table
1. Suppose we have several files in CSV format with the following URIs on S3: 1. Suppose we have several files in CSV format with the following URIs on S3:
- https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv - 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_1.csv'
- https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv - 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_2.csv'
- https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv - 'https://storage.yandexcloud.net/my-test-bucket-768/some_prefix/some_file_3.csv'
- https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv - 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_1.csv'
- https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv - 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_2.csv'
- https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv - 'https://storage.yandexcloud.net/my-test-bucket-768/another_prefix/some_file_3.csv'
There are several ways to make a table consisting of all six files: There are several ways to make a table consisting of all six files:

View File

@ -122,7 +122,7 @@ CREATE TABLE big_table (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9
</hdfs_root> </hdfs_root>
``` ```
### Возможные опции конфигурации {#configuration-options} ### Параметры конфигурации {#configuration-options}
#### Поддерживаемые из libhdfs3 {#supported-by-libhdfs3} #### Поддерживаемые из libhdfs3 {#supported-by-libhdfs3}
@ -181,7 +181,7 @@ CREATE TABLE big_table (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9
|hadoop\_kerberos\_principal | "" | |hadoop\_kerberos\_principal | "" |
|hadoop\_kerberos\_kinit\_command | kinit | |hadoop\_kerberos\_kinit\_command | kinit |
#### Ограничения {#limitations} ### Ограничения {#limitations}
* hadoop\_security\_kerberos\_ticket\_cache\_path могут быть определены только на глобальном уровне * hadoop\_security\_kerberos\_ticket\_cache\_path могут быть определены только на глобальном уровне
## Поддержка Kerberos {#kerberos-support} ## Поддержка Kerberos {#kerberos-support}

View File

@ -72,7 +72,7 @@ SELECT * FROM s3_engine_table LIMIT 2;
- `s3_max_redirects` — максимальное количество разрешенных переадресаций S3. Значение по умолчанию — `10`. - `s3_max_redirects` — максимальное количество разрешенных переадресаций S3. Значение по умолчанию — `10`.
- `s3_single_read_retries` — максимальное количество попыток запроса при единичном чтении. Значение по умолчанию — `4`. - `s3_single_read_retries` — максимальное количество попыток запроса при единичном чтении. Значение по умолчанию — `4`.
Соображение безопасности: если злонамеренный пользователь попробует указать произвольные URL-адреса S3, параметр `s3_max_redirects` должен быть установлен в ноль, чтобы избежать атак [SSRF] (https://en.wikipedia.org/wiki/Server-side_request_forgery). Как альтернатива, в конфигурации сервера должен быть указан `remote_host_filter`. Соображение безопасности: если злонамеренный пользователь попробует указать произвольные URL-адреса S3, параметр `s3_max_redirects` должен быть установлен в ноль, чтобы избежать атак [SSRF](https://en.wikipedia.org/wiki/Server-side_request_forgery). Как альтернатива, в конфигурации сервера должен быть указан `remote_host_filter`.
## Настройки точки приема запроса {#endpoint-settings} ## Настройки точки приема запроса {#endpoint-settings}