ClickHouse/docs/zh/sql-reference/table-functions/hdfs.md

Ignoring revisions in .git-blame-ignore-revs. Click here to bypass and see the normal blame view.

102 lines
3.0 KiB
Markdown
Raw Normal View History

2020-04-03 13:23:32 +00:00
---
2022-08-26 19:07:59 +00:00
slug: /zh/sql-reference/table-functions/hdfs
2022-04-10 23:08:18 +00:00
sidebar_position: 45
sidebar_label: hdfs
2020-04-03 13:23:32 +00:00
---
# hdfs {#hdfs}
根据HDFS中的文件创建表。 该表函数类似于 [url](url.md) 和 [文件](file.md)。
2020-04-03 13:23:32 +00:00
``` sql
hdfs(URI, format, structure)
```
**输入参数**
2020-04-03 13:23:32 +00:00
- `URI` — HDFS中文件的相对URI。 在只读模式下,文件路径支持以下通配符: `*`, `?`, `{abc,def}``{N..M}` ,其中 `N`, `M` 是数字, \``'abc', 'def'` 是字符串。
- `format` — 文件的[格式](../../interfaces/formats.md#formats)。
- `structure` — 表的结构。格式 `'column1_name column1_type, column2_name column2_type, ...'`
2020-04-03 13:23:32 +00:00
**返回值**
2020-04-03 13:23:32 +00:00
具有指定结构的表,用于读取或写入指定文件中的数据。
2020-04-03 13:23:32 +00:00
**示例**
2020-04-03 13:23:32 +00:00
表来自 `hdfs://hdfs1:9000/test` 并从中选择前两行:
2020-04-03 13:23:32 +00:00
``` sql
SELECT *
FROM hdfs('hdfs://hdfs1:9000/test', 'TSV', 'column1 UInt32, column2 UInt32, column3 UInt32')
LIMIT 2
```
``` text
┌─column1─┬─column2─┬─column3─┐
│ 1 │ 2 │ 3 │
│ 3 │ 2 │ 1 │
└─────────┴─────────┴─────────┘
```
**路径中的通配符**
2020-04-03 13:23:32 +00:00
多个路径组件可以具有通配符。 对于要处理的文件必须存在并与整个路径模式匹配(不仅后缀或前缀)。
2020-04-03 13:23:32 +00:00
- `*` — 替换任意数量的任何字符,除了 `/` 包括空字符串。
- `?` — 替换任何单个字符。
- `{some_string,another_string,yet_another_one}` — 替换任何字符串 `'some_string', 'another_string', 'yet_another_one'`
- `{N..M}` — 替换范围从N到M的任何数字包括两个边界
2020-04-03 13:23:32 +00:00
使用 `{}` 的构造类似于 [remote](../../sql-reference/table-functions/remote.md))表函数。
2020-04-03 13:23:32 +00:00
**示例**
2020-04-03 13:23:32 +00:00
1. 假设我们在HDFS上有几个带有以下URI的文件:
2020-04-03 13:23:32 +00:00
2020-10-13 17:23:29 +00:00
- hdfs://hdfs1:9000/some_dir/some_file_1
- hdfs://hdfs1:9000/some_dir/some_file_2
- hdfs://hdfs1:9000/some_dir/some_file_3
- hdfs://hdfs1:9000/another_dir/some_file_1
- hdfs://hdfs1:9000/another_dir/some_file_2
- hdfs://hdfs1:9000/another_dir/some_file_3
2020-04-03 13:23:32 +00:00
2. 查询这些文件中的行数:
2020-04-03 13:23:32 +00:00
<!-- -->
``` sql
SELECT count(*)
FROM hdfs('hdfs://hdfs1:9000/{some,another}_dir/some_file_{1..3}', 'TSV', 'name String, value UInt32')
```
3. 查询这两个目录的所有文件中的行数:
2020-04-03 13:23:32 +00:00
<!-- -->
``` sql
SELECT count(*)
FROM hdfs('hdfs://hdfs1:9000/{some,another}_dir/*', 'TSV', 'name String, value UInt32')
```
!!! warning "警告"
如果您的文件列表包含带前导零的数字范围,请对每个数字分别使用带有大括号的结构或使用 `?`
2020-04-03 13:23:32 +00:00
**示例**
2020-04-03 13:23:32 +00:00
从名为 `file000`, `file001`, … , `file999`的文件中查询数据:
2020-04-03 13:23:32 +00:00
``` sql
SELECT count(*)
FROM hdfs('hdfs://hdfs1:9000/big_dir/file{0..9}{0..9}{0..9}', 'CSV', 'name String, value UInt32')
```
## 虚拟列 {#virtual-columns}
2020-04-03 13:23:32 +00:00
- `_path` — 文件路径。
- `_file` — 文件名称。
2020-04-03 13:23:32 +00:00
**另请参阅**
2020-04-03 13:23:32 +00:00
- [虚拟列](https://clickhouse.com/docs/en/operations/table_engines/#table_engines-virtual_columns)