2013-11-26 11:55:11 +00:00
|
|
|
|
#pragma once
|
|
|
|
|
|
2015-04-16 06:12:35 +00:00
|
|
|
|
#include <DB/Storages/MarkCache.h>
|
2015-06-24 11:03:53 +00:00
|
|
|
|
#include <DB/Storages/MergeTree/MarkRange.h>
|
2014-03-09 17:36:01 +00:00
|
|
|
|
#include <DB/Storages/MergeTree/MergeTreeData.h>
|
2013-11-26 11:55:11 +00:00
|
|
|
|
#include <DB/DataTypes/IDataType.h>
|
|
|
|
|
#include <DB/DataTypes/DataTypeNested.h>
|
2014-03-13 12:48:07 +00:00
|
|
|
|
#include <DB/DataTypes/DataTypeArray.h>
|
2013-11-26 11:55:11 +00:00
|
|
|
|
#include <DB/Core/NamesAndTypes.h>
|
|
|
|
|
#include <DB/Common/escapeForFileName.h>
|
|
|
|
|
#include <DB/IO/CachedCompressedReadBuffer.h>
|
2014-01-15 14:53:20 +00:00
|
|
|
|
#include <DB/IO/CompressedReadBufferFromFile.h>
|
2014-03-13 12:48:07 +00:00
|
|
|
|
#include <DB/Columns/ColumnArray.h>
|
2014-10-23 13:53:16 +00:00
|
|
|
|
#include <DB/Interpreters/evaluateMissingDefaults.h>
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
|
|
|
|
|
|
|
|
|
namespace DB
|
|
|
|
|
{
|
|
|
|
|
|
2014-03-13 12:48:07 +00:00
|
|
|
|
|
2016-01-11 21:46:36 +00:00
|
|
|
|
namespace ErrorCodes
|
|
|
|
|
{
|
|
|
|
|
extern const int NOT_FOUND_EXPECTED_DATA_PART;
|
|
|
|
|
extern const int MEMORY_LIMIT_EXCEEDED;
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
|
2013-11-26 11:55:11 +00:00
|
|
|
|
/** Умеет читать данные между парой засечек из одного куска. При чтении последовательных отрезков не делает лишних seek-ов.
|
|
|
|
|
* При чтении почти последовательных отрезков делает seek-и быстро, не выбрасывая содержимое буфера.
|
|
|
|
|
*/
|
|
|
|
|
class MergeTreeReader
|
|
|
|
|
{
|
2015-09-16 17:49:08 +00:00
|
|
|
|
using OffsetColumns = std::map<std::string, ColumnPtr>;
|
2014-03-24 16:10:14 +00:00
|
|
|
|
|
2013-11-26 11:55:11 +00:00
|
|
|
|
public:
|
2015-12-13 04:52:13 +00:00
|
|
|
|
using ValueSizeMap = std::map<std::string, double>;
|
|
|
|
|
|
2015-09-16 17:49:08 +00:00
|
|
|
|
MergeTreeReader(const String & path, /// Путь к куску
|
|
|
|
|
const MergeTreeData::DataPartPtr & data_part, const NamesAndTypesList & columns,
|
2015-12-26 00:59:09 +00:00
|
|
|
|
UncompressedCache * uncompressed_cache, MarkCache * mark_cache, bool save_marks_in_cache,
|
2015-09-16 17:49:08 +00:00
|
|
|
|
MergeTreeData & storage, const MarkRanges & all_mark_ranges,
|
2015-12-13 04:52:13 +00:00
|
|
|
|
size_t aio_threshold, size_t max_read_buffer_size, const ValueSizeMap & avg_value_size_hints = ValueSizeMap{},
|
|
|
|
|
const ReadBufferFromFileBase::ProfileCallback & profile_callback = ReadBufferFromFileBase::ProfileCallback{},
|
|
|
|
|
clockid_t clock_type = CLOCK_MONOTONIC_COARSE)
|
2015-09-16 17:49:08 +00:00
|
|
|
|
: avg_value_size_hints(avg_value_size_hints), path(path), data_part(data_part), columns(columns),
|
2015-12-26 00:59:09 +00:00
|
|
|
|
uncompressed_cache(uncompressed_cache), mark_cache(mark_cache), save_marks_in_cache(save_marks_in_cache), storage(storage),
|
2015-09-16 17:49:08 +00:00
|
|
|
|
all_mark_ranges(all_mark_ranges), aio_threshold(aio_threshold), max_read_buffer_size(max_read_buffer_size)
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
2014-07-23 09:15:41 +00:00
|
|
|
|
try
|
|
|
|
|
{
|
2014-07-23 15:24:45 +00:00
|
|
|
|
if (!Poco::File(path).exists())
|
|
|
|
|
throw Exception("Part " + path + " is missing", ErrorCodes::NOT_FOUND_EXPECTED_DATA_PART);
|
|
|
|
|
|
2014-07-23 09:15:41 +00:00
|
|
|
|
for (const NameAndTypePair & column : columns)
|
2015-12-13 04:52:13 +00:00
|
|
|
|
addStream(column.name, *column.type, all_mark_ranges, profile_callback, clock_type);
|
2014-07-23 09:15:41 +00:00
|
|
|
|
}
|
|
|
|
|
catch (...)
|
|
|
|
|
{
|
2015-09-16 17:49:08 +00:00
|
|
|
|
storage.reportBrokenPart(data_part->name);
|
2014-07-23 09:15:41 +00:00
|
|
|
|
throw;
|
|
|
|
|
}
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
|
2015-09-16 17:49:08 +00:00
|
|
|
|
const ValueSizeMap & getAvgValueSizeHints() const { return avg_value_size_hints; }
|
|
|
|
|
|
2013-11-26 11:55:11 +00:00
|
|
|
|
/** Если столбцов нет в блоке, добавляет их, если есть - добавляет прочитанные значения к ним в конец.
|
|
|
|
|
* Не добавляет столбцы, для которых нет файлов. Чтобы их добавить, нужно вызвать fillMissingColumns.
|
2015-04-02 03:08:43 +00:00
|
|
|
|
* В блоке должно быть либо ни одного столбца из columns, либо все, для которых есть файлы.
|
|
|
|
|
*/
|
2013-11-26 11:55:11 +00:00
|
|
|
|
void readRange(size_t from_mark, size_t to_mark, Block & res)
|
|
|
|
|
{
|
2014-07-01 08:50:30 +00:00
|
|
|
|
try
|
|
|
|
|
{
|
|
|
|
|
size_t max_rows_to_read = (to_mark - from_mark) * storage.index_granularity;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2014-07-01 08:50:30 +00:00
|
|
|
|
/// Указатели на столбцы смещений, общие для столбцов из вложенных структур данных
|
|
|
|
|
/// Если append, все значения nullptr, и offset_columns используется только для проверки, что столбец смещений уже прочитан.
|
|
|
|
|
OffsetColumns offset_columns;
|
2015-07-03 15:08:21 +00:00
|
|
|
|
|
|
|
|
|
for (const NameAndTypePair & it : columns)
|
|
|
|
|
{
|
2014-07-17 13:41:47 +00:00
|
|
|
|
if (streams.end() == streams.find(it.name))
|
2015-07-03 15:08:21 +00:00
|
|
|
|
continue;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2014-07-01 08:50:30 +00:00
|
|
|
|
/// Все столбцы уже есть в блоке. Будем добавлять значения в конец.
|
2014-07-17 13:41:47 +00:00
|
|
|
|
bool append = res.has(it.name);
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2015-07-17 01:27:35 +00:00
|
|
|
|
ColumnWithTypeAndName column;
|
2014-07-17 13:41:47 +00:00
|
|
|
|
column.name = it.name;
|
|
|
|
|
column.type = it.type;
|
2014-07-01 08:50:30 +00:00
|
|
|
|
if (append)
|
|
|
|
|
column.column = res.getByName(column.name).column;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2014-07-01 08:50:30 +00:00
|
|
|
|
bool read_offsets = true;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2014-07-01 08:50:30 +00:00
|
|
|
|
/// Для вложенных структур запоминаем указатели на столбцы со смещениями
|
|
|
|
|
if (const DataTypeArray * type_arr = typeid_cast<const DataTypeArray *>(&*column.type))
|
|
|
|
|
{
|
|
|
|
|
String name = DataTypeNested::extractNestedTableName(column.name);
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2014-07-01 08:50:30 +00:00
|
|
|
|
if (offset_columns.count(name) == 0)
|
2014-11-25 20:55:34 +00:00
|
|
|
|
offset_columns[name] = append ? nullptr : new ColumnArray::ColumnOffsets_t;
|
2014-07-01 08:50:30 +00:00
|
|
|
|
else
|
|
|
|
|
read_offsets = false; /// на предыдущих итерациях смещения уже считали вызовом readData
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2014-07-01 08:50:30 +00:00
|
|
|
|
if (!append)
|
|
|
|
|
column.column = new ColumnArray(type_arr->getNestedType()->createColumn(), offset_columns[name]);
|
|
|
|
|
}
|
|
|
|
|
else if (!append)
|
|
|
|
|
column.column = column.type->createColumn();
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2016-05-04 18:04:36 +00:00
|
|
|
|
try
|
|
|
|
|
{
|
|
|
|
|
readData(column.name, *column.type, *column.column, from_mark, max_rows_to_read, 0, read_offsets);
|
|
|
|
|
}
|
|
|
|
|
catch (Exception & e)
|
|
|
|
|
{
|
|
|
|
|
/// Более хорошая диагностика.
|
|
|
|
|
e.addMessage("(while reading column " + column.name + ")");
|
|
|
|
|
throw;
|
|
|
|
|
}
|
2014-07-01 08:50:30 +00:00
|
|
|
|
|
|
|
|
|
if (!append && column.column->size())
|
|
|
|
|
res.insert(column);
|
2014-11-25 20:55:34 +00:00
|
|
|
|
}
|
2014-07-01 08:50:30 +00:00
|
|
|
|
}
|
2016-05-04 18:04:36 +00:00
|
|
|
|
catch (Exception & e)
|
2014-07-01 08:50:30 +00:00
|
|
|
|
{
|
2015-04-02 03:08:43 +00:00
|
|
|
|
if (e.code() != ErrorCodes::MEMORY_LIMIT_EXCEEDED)
|
2015-09-16 17:49:08 +00:00
|
|
|
|
storage.reportBrokenPart(data_part->name);
|
2014-07-23 09:15:41 +00:00
|
|
|
|
|
2014-07-01 08:50:30 +00:00
|
|
|
|
/// Более хорошая диагностика.
|
2016-05-04 18:04:36 +00:00
|
|
|
|
e.addMessage("(while reading from part " + path + " from mark " + toString(from_mark) + " to " + toString(to_mark) + ")");
|
|
|
|
|
throw;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
2014-07-23 09:15:41 +00:00
|
|
|
|
catch (...)
|
|
|
|
|
{
|
2015-09-16 17:49:08 +00:00
|
|
|
|
storage.reportBrokenPart(data_part->name);
|
2014-07-23 09:15:41 +00:00
|
|
|
|
|
|
|
|
|
throw;
|
|
|
|
|
}
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
|
2015-04-02 03:08:43 +00:00
|
|
|
|
/** Добавляет в блок недостающие столбцы из ordered_names, состоящие из значений по-умолчанию.
|
|
|
|
|
* Недостающие столбцы добавляются в позиции, такие же как в ordered_names.
|
|
|
|
|
* Если был добавлен хотя бы один столбец - то все столбцы в блоке переупорядочиваются как в ordered_names.
|
|
|
|
|
*/
|
2015-07-03 15:08:21 +00:00
|
|
|
|
void fillMissingColumns(Block & res, const Names & ordered_names, const bool always_reorder = false)
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
2015-07-03 15:08:21 +00:00
|
|
|
|
fillMissingColumnsImpl(res, ordered_names, always_reorder);
|
2015-04-02 03:08:43 +00:00
|
|
|
|
}
|
2014-12-04 15:50:48 +00:00
|
|
|
|
|
2015-04-02 03:08:43 +00:00
|
|
|
|
/** То же самое, но всегда переупорядочивает столбцы в блоке, как в ordered_names
|
|
|
|
|
* (даже если не было недостающих столбцов).
|
|
|
|
|
*/
|
|
|
|
|
void fillMissingColumnsAndReorder(Block & res, const Names & ordered_names)
|
|
|
|
|
{
|
|
|
|
|
fillMissingColumnsImpl(res, ordered_names, true);
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
private:
|
|
|
|
|
struct Stream
|
|
|
|
|
{
|
2014-02-11 13:30:42 +00:00
|
|
|
|
MarkCache::MappedPtr marks;
|
2014-01-15 14:53:20 +00:00
|
|
|
|
ReadBuffer * data_buffer;
|
2015-06-24 17:05:40 +00:00
|
|
|
|
std::unique_ptr<CachedCompressedReadBuffer> cached_buffer;
|
|
|
|
|
std::unique_ptr<CompressedReadBufferFromFile> non_cached_buffer;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
std::string path_prefix;
|
2014-04-23 15:34:47 +00:00
|
|
|
|
size_t max_mark_range;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2015-07-08 17:59:44 +00:00
|
|
|
|
Stream(
|
2015-12-26 00:59:09 +00:00
|
|
|
|
const String & path_prefix_, UncompressedCache * uncompressed_cache,
|
|
|
|
|
MarkCache * mark_cache, bool save_marks_in_cache,
|
2015-12-13 04:52:13 +00:00
|
|
|
|
const MarkRanges & all_mark_ranges, size_t aio_threshold, size_t max_read_buffer_size,
|
|
|
|
|
const ReadBufferFromFileBase::ProfileCallback & profile_callback, clockid_t clock_type)
|
2015-08-31 20:22:06 +00:00
|
|
|
|
: path_prefix(path_prefix_)
|
2014-01-15 14:53:20 +00:00
|
|
|
|
{
|
2015-12-26 00:59:09 +00:00
|
|
|
|
loadMarks(mark_cache, save_marks_in_cache);
|
2014-04-23 15:34:47 +00:00
|
|
|
|
size_t max_mark_range = 0;
|
|
|
|
|
|
|
|
|
|
for (size_t i = 0; i < all_mark_ranges.size(); ++i)
|
|
|
|
|
{
|
|
|
|
|
size_t right = all_mark_ranges[i].end;
|
2014-04-25 14:55:27 +00:00
|
|
|
|
|
2014-04-23 15:34:47 +00:00
|
|
|
|
/// Если правая граница лежит внутри блока, то его тоже придется читать.
|
2014-04-25 14:55:27 +00:00
|
|
|
|
if (right < (*marks).size() && (*marks)[right].offset_in_decompressed_block > 0)
|
2014-04-23 15:34:47 +00:00
|
|
|
|
{
|
|
|
|
|
while (right < (*marks).size() && (*marks)[right].offset_in_compressed_file ==
|
|
|
|
|
(*marks)[all_mark_ranges[i].end].offset_in_compressed_file)
|
|
|
|
|
++right;
|
|
|
|
|
}
|
|
|
|
|
|
2015-07-27 13:36:22 +00:00
|
|
|
|
/// Если правее засечек нет, просто используем max_read_buffer_size
|
2014-04-25 14:55:27 +00:00
|
|
|
|
if (right >= (*marks).size() || (right + 1 == (*marks).size() &&
|
|
|
|
|
(*marks)[right].offset_in_compressed_file == (*marks)[all_mark_ranges[i].end].offset_in_compressed_file))
|
2014-04-23 15:34:47 +00:00
|
|
|
|
{
|
2015-04-12 04:39:20 +00:00
|
|
|
|
max_mark_range = max_read_buffer_size;
|
2014-04-23 15:34:47 +00:00
|
|
|
|
break;
|
|
|
|
|
}
|
|
|
|
|
|
2014-12-25 00:18:16 +00:00
|
|
|
|
max_mark_range = std::max(max_mark_range,
|
|
|
|
|
(*marks)[right].offset_in_compressed_file - (*marks)[all_mark_ranges[i].begin].offset_in_compressed_file);
|
2014-04-23 15:34:47 +00:00
|
|
|
|
}
|
|
|
|
|
|
2015-04-13 15:02:39 +00:00
|
|
|
|
size_t buffer_size = std::min(max_read_buffer_size, max_mark_range);
|
2015-04-14 10:33:00 +00:00
|
|
|
|
|
|
|
|
|
size_t estimated_size = 0;
|
|
|
|
|
if (aio_threshold > 0)
|
|
|
|
|
{
|
|
|
|
|
for (const auto & mark_range : all_mark_ranges)
|
|
|
|
|
{
|
|
|
|
|
size_t offset_begin = (*marks)[mark_range.begin].offset_in_compressed_file;
|
|
|
|
|
|
|
|
|
|
size_t offset_end;
|
|
|
|
|
if (mark_range.end < (*marks).size())
|
|
|
|
|
offset_end = (*marks)[mark_range.end].offset_in_compressed_file;
|
|
|
|
|
else
|
|
|
|
|
offset_end = Poco::File(path_prefix + ".bin").getSize();
|
|
|
|
|
|
|
|
|
|
if (offset_end > 0)
|
|
|
|
|
estimated_size += offset_end - offset_begin;
|
|
|
|
|
}
|
|
|
|
|
}
|
2014-04-23 15:34:47 +00:00
|
|
|
|
|
2014-01-15 14:53:20 +00:00
|
|
|
|
if (uncompressed_cache)
|
|
|
|
|
{
|
2015-06-24 17:05:40 +00:00
|
|
|
|
cached_buffer = std::make_unique<CachedCompressedReadBuffer>(
|
2015-09-03 12:07:46 +00:00
|
|
|
|
path_prefix + ".bin", uncompressed_cache, estimated_size, aio_threshold, buffer_size);
|
2015-12-13 04:52:13 +00:00
|
|
|
|
|
|
|
|
|
if (profile_callback)
|
|
|
|
|
cached_buffer->setProfileCallback(profile_callback, clock_type);
|
|
|
|
|
|
2015-06-24 17:05:40 +00:00
|
|
|
|
data_buffer = cached_buffer.get();
|
2014-01-15 14:53:20 +00:00
|
|
|
|
}
|
|
|
|
|
else
|
|
|
|
|
{
|
2015-06-24 17:05:40 +00:00
|
|
|
|
non_cached_buffer = std::make_unique<CompressedReadBufferFromFile>(
|
2015-09-03 12:07:46 +00:00
|
|
|
|
path_prefix + ".bin", estimated_size, aio_threshold, buffer_size);
|
2015-12-13 04:52:13 +00:00
|
|
|
|
|
|
|
|
|
if (profile_callback)
|
|
|
|
|
non_cached_buffer->setProfileCallback(profile_callback, clock_type);
|
|
|
|
|
|
2015-06-24 17:05:40 +00:00
|
|
|
|
data_buffer = non_cached_buffer.get();
|
2014-01-15 14:53:20 +00:00
|
|
|
|
}
|
|
|
|
|
}
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2015-12-26 00:59:09 +00:00
|
|
|
|
void loadMarks(MarkCache * cache, bool save_in_cache)
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
2014-02-11 13:30:42 +00:00
|
|
|
|
std::string path = path_prefix + ".mrk";
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2014-02-11 13:30:42 +00:00
|
|
|
|
UInt128 key;
|
|
|
|
|
if (cache)
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
2014-02-11 13:30:42 +00:00
|
|
|
|
key = cache->hash(path);
|
|
|
|
|
marks = cache->get(key);
|
|
|
|
|
if (marks)
|
|
|
|
|
return;
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
marks.reset(new MarksInCompressedFile);
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2014-02-11 13:30:42 +00:00
|
|
|
|
ReadBufferFromFile buffer(path);
|
|
|
|
|
while (!buffer.eof())
|
|
|
|
|
{
|
|
|
|
|
MarkInCompressedFile mark;
|
|
|
|
|
readIntBinary(mark.offset_in_compressed_file, buffer);
|
|
|
|
|
readIntBinary(mark.offset_in_decompressed_block, buffer);
|
|
|
|
|
marks->push_back(mark);
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
|
2015-12-26 00:59:09 +00:00
|
|
|
|
if (cache && save_in_cache)
|
2014-02-11 13:30:42 +00:00
|
|
|
|
cache->set(key, marks);
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
void seekToMark(size_t index)
|
|
|
|
|
{
|
|
|
|
|
MarkInCompressedFile mark = (*marks)[index];
|
|
|
|
|
|
2013-11-26 11:55:11 +00:00
|
|
|
|
try
|
|
|
|
|
{
|
2014-01-15 14:53:20 +00:00
|
|
|
|
if (cached_buffer)
|
2014-04-23 15:34:47 +00:00
|
|
|
|
{
|
2014-02-11 13:30:42 +00:00
|
|
|
|
cached_buffer->seek(mark.offset_in_compressed_file, mark.offset_in_decompressed_block);
|
2014-04-23 15:34:47 +00:00
|
|
|
|
}
|
2014-01-15 14:53:20 +00:00
|
|
|
|
if (non_cached_buffer)
|
2014-02-11 13:30:42 +00:00
|
|
|
|
non_cached_buffer->seek(mark.offset_in_compressed_file, mark.offset_in_decompressed_block);
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
2016-05-04 18:04:36 +00:00
|
|
|
|
catch (Exception & e)
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
|
|
|
|
/// Более хорошая диагностика.
|
|
|
|
|
if (e.code() == ErrorCodes::ARGUMENT_OUT_OF_BOUND)
|
2016-05-04 18:04:36 +00:00
|
|
|
|
e.addMessage("(while seeking to mark " + toString(index)
|
2014-02-11 13:30:42 +00:00
|
|
|
|
+ " of column " + path_prefix + "; offsets are: "
|
|
|
|
|
+ toString(mark.offset_in_compressed_file) + " "
|
2016-05-04 18:04:36 +00:00
|
|
|
|
+ toString(mark.offset_in_decompressed_block) + ")");
|
|
|
|
|
|
|
|
|
|
throw;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
};
|
|
|
|
|
|
2014-04-22 22:43:55 +00:00
|
|
|
|
typedef std::map<std::string, std::unique_ptr<Stream> > FileStreams;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2015-09-03 09:17:25 +00:00
|
|
|
|
/// Используется в качестве подсказки, чтобы уменьшить количество реаллокаций при создании столбца переменной длины.
|
2015-09-16 17:49:08 +00:00
|
|
|
|
ValueSizeMap avg_value_size_hints;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
String path;
|
2015-07-08 17:59:44 +00:00
|
|
|
|
MergeTreeData::DataPartPtr data_part;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
FileStreams streams;
|
2015-04-09 00:37:08 +00:00
|
|
|
|
|
2015-07-03 15:08:21 +00:00
|
|
|
|
/// Запрашиваемые столбцы.
|
2014-07-17 13:41:47 +00:00
|
|
|
|
NamesAndTypesList columns;
|
2015-04-09 00:37:08 +00:00
|
|
|
|
|
2015-04-16 06:12:35 +00:00
|
|
|
|
UncompressedCache * uncompressed_cache;
|
|
|
|
|
MarkCache * mark_cache;
|
2015-12-26 00:59:09 +00:00
|
|
|
|
/// Если выставлено в false - при отсутствии засечек в кэше, считавать засечки, но не сохранять их в кэш, чтобы не вымывать оттуда другие данные.
|
|
|
|
|
bool save_marks_in_cache;
|
2015-04-16 06:12:35 +00:00
|
|
|
|
|
2014-03-09 17:36:01 +00:00
|
|
|
|
MergeTreeData & storage;
|
2015-07-08 17:59:44 +00:00
|
|
|
|
MarkRanges all_mark_ranges;
|
2015-04-09 13:34:16 +00:00
|
|
|
|
size_t aio_threshold;
|
2015-04-12 04:39:20 +00:00
|
|
|
|
size_t max_read_buffer_size;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2015-12-13 04:52:13 +00:00
|
|
|
|
void addStream(const String & name, const IDataType & type, const MarkRanges & all_mark_ranges,
|
|
|
|
|
const ReadBufferFromFileBase::ProfileCallback & profile_callback, clockid_t clock_type,
|
|
|
|
|
size_t level = 0)
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
|
|
|
|
String escaped_column_name = escapeForFileName(name);
|
|
|
|
|
|
|
|
|
|
/** Если файла с данными нет - то не будем пытаться открыть его.
|
|
|
|
|
* Это нужно, чтобы можно было добавлять новые столбцы к структуре таблицы без создания файлов для старых кусков.
|
|
|
|
|
*/
|
|
|
|
|
if (!Poco::File(path + escaped_column_name + ".bin").exists())
|
|
|
|
|
return;
|
|
|
|
|
|
|
|
|
|
/// Для массивов используются отдельные потоки для размеров.
|
2014-06-26 00:58:14 +00:00
|
|
|
|
if (const DataTypeArray * type_arr = typeid_cast<const DataTypeArray *>(&type))
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
|
|
|
|
String size_name = DataTypeNested::extractNestedTableName(name)
|
|
|
|
|
+ ARRAY_SIZES_COLUMN_NAME_SUFFIX + toString(level);
|
|
|
|
|
String escaped_size_name = escapeForFileName(DataTypeNested::extractNestedTableName(name))
|
|
|
|
|
+ ARRAY_SIZES_COLUMN_NAME_SUFFIX + toString(level);
|
|
|
|
|
|
2014-01-15 16:12:48 +00:00
|
|
|
|
if (!streams.count(size_name))
|
2015-07-08 17:59:44 +00:00
|
|
|
|
streams.emplace(size_name, std::make_unique<Stream>(
|
2015-12-26 00:59:09 +00:00
|
|
|
|
path + escaped_size_name, uncompressed_cache, mark_cache, save_marks_in_cache,
|
2015-12-13 04:52:13 +00:00
|
|
|
|
all_mark_ranges, aio_threshold, max_read_buffer_size, profile_callback, clock_type));
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2015-12-13 04:52:13 +00:00
|
|
|
|
addStream(name, *type_arr->getNestedType(), all_mark_ranges, profile_callback, clock_type, level + 1);
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
else
|
2015-07-08 17:59:44 +00:00
|
|
|
|
streams.emplace(name, std::make_unique<Stream>(
|
2015-12-26 00:59:09 +00:00
|
|
|
|
path + escaped_column_name, uncompressed_cache, mark_cache, save_marks_in_cache,
|
2015-12-13 04:52:13 +00:00
|
|
|
|
all_mark_ranges, aio_threshold, max_read_buffer_size, profile_callback, clock_type));
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
|
2015-04-09 00:37:08 +00:00
|
|
|
|
|
2013-11-26 11:55:11 +00:00
|
|
|
|
void readData(const String & name, const IDataType & type, IColumn & column, size_t from_mark, size_t max_rows_to_read,
|
2015-04-09 00:37:08 +00:00
|
|
|
|
size_t level = 0, bool read_offsets = true)
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
|
|
|
|
/// Для массивов требуется сначала десериализовать размеры, а потом значения.
|
2014-06-26 00:58:14 +00:00
|
|
|
|
if (const DataTypeArray * type_arr = typeid_cast<const DataTypeArray *>(&type))
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
|
|
|
|
if (read_offsets)
|
|
|
|
|
{
|
|
|
|
|
Stream & stream = *streams[DataTypeNested::extractNestedTableName(name) + ARRAY_SIZES_COLUMN_NAME_SUFFIX + toString(level)];
|
|
|
|
|
stream.seekToMark(from_mark);
|
|
|
|
|
type_arr->deserializeOffsets(
|
|
|
|
|
column,
|
|
|
|
|
*stream.data_buffer,
|
|
|
|
|
max_rows_to_read);
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
if (column.size())
|
2013-12-04 10:14:35 +00:00
|
|
|
|
{
|
2014-06-26 00:58:14 +00:00
|
|
|
|
ColumnArray & array = typeid_cast<ColumnArray &>(column);
|
2015-04-09 00:37:08 +00:00
|
|
|
|
const size_t required_internal_size = array.getOffsets()[column.size() - 1];
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2015-04-09 00:37:08 +00:00
|
|
|
|
if (required_internal_size)
|
2013-11-26 11:55:11 +00:00
|
|
|
|
{
|
|
|
|
|
readData(
|
2015-04-09 00:37:08 +00:00
|
|
|
|
name,
|
|
|
|
|
*type_arr->getNestedType(),
|
|
|
|
|
array.getData(),
|
2013-11-26 11:55:11 +00:00
|
|
|
|
from_mark,
|
2015-04-09 00:37:08 +00:00
|
|
|
|
required_internal_size - array.getData().size(),
|
2013-11-26 11:55:11 +00:00
|
|
|
|
level + 1);
|
2015-04-09 00:37:08 +00:00
|
|
|
|
|
|
|
|
|
/** Исправление для ошибочно записанных пустых файлов с данными массива.
|
|
|
|
|
* Такое бывает после ALTER с добавлением новых столбцов во вложенную структуру данных.
|
|
|
|
|
*/
|
|
|
|
|
size_t read_internal_size = array.getData().size();
|
|
|
|
|
if (required_internal_size != read_internal_size)
|
|
|
|
|
{
|
|
|
|
|
if (read_internal_size != 0)
|
2015-04-09 02:10:06 +00:00
|
|
|
|
LOG_ERROR((&Logger::get("MergeTreeReader")),
|
|
|
|
|
"Internal size of array " + name + " doesn't match offsets: corrupted data, filling with default values.");
|
2015-04-09 00:37:08 +00:00
|
|
|
|
|
|
|
|
|
array.getDataPtr() = dynamic_cast<IColumnConst &>(
|
|
|
|
|
*type_arr->getNestedType()->createConstColumn(
|
|
|
|
|
required_internal_size,
|
|
|
|
|
type_arr->getNestedType()->getDefault())).convertToFullColumn();
|
|
|
|
|
|
|
|
|
|
/** NOTE Можно было бы занулять этот столбец, чтобы он не добавлялся в блок,
|
|
|
|
|
* а впоследствии создавался с более правильными (из определения таблицы) значениями по-умолчанию.
|
|
|
|
|
*/
|
|
|
|
|
}
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
else
|
|
|
|
|
{
|
|
|
|
|
Stream & stream = *streams[name];
|
2015-09-02 15:48:10 +00:00
|
|
|
|
double & avg_value_size_hint = avg_value_size_hints[name];
|
2013-11-26 11:55:11 +00:00
|
|
|
|
stream.seekToMark(from_mark);
|
2015-09-02 15:48:10 +00:00
|
|
|
|
type.deserializeBinary(column, *stream.data_buffer, max_rows_to_read, avg_value_size_hint);
|
2015-02-15 12:38:21 +00:00
|
|
|
|
|
|
|
|
|
/// Вычисление подсказки о среднем размере значения.
|
|
|
|
|
size_t column_size = column.size();
|
|
|
|
|
if (column_size)
|
|
|
|
|
{
|
|
|
|
|
double current_avg_value_size = static_cast<double>(column.byteSize()) / column_size;
|
|
|
|
|
|
|
|
|
|
/// Эвристика, чтобы при изменениях, значение avg_value_size_hint быстро росло, но медленно уменьшалось.
|
2015-09-02 15:48:10 +00:00
|
|
|
|
if (current_avg_value_size > avg_value_size_hint)
|
|
|
|
|
avg_value_size_hint = current_avg_value_size;
|
|
|
|
|
else if (current_avg_value_size * 2 < avg_value_size_hint)
|
|
|
|
|
avg_value_size_hint = (current_avg_value_size + avg_value_size_hint * 3) / 4;
|
2015-02-15 12:38:21 +00:00
|
|
|
|
}
|
2013-11-26 11:55:11 +00:00
|
|
|
|
}
|
|
|
|
|
}
|
2015-04-02 03:08:43 +00:00
|
|
|
|
|
2015-04-09 00:37:08 +00:00
|
|
|
|
|
2015-04-02 03:08:43 +00:00
|
|
|
|
void fillMissingColumnsImpl(Block & res, const Names & ordered_names, bool always_reorder)
|
|
|
|
|
{
|
2015-12-21 20:17:24 +00:00
|
|
|
|
if (!res)
|
|
|
|
|
throw Exception("Empty block passed to fillMissingColumnsImpl", ErrorCodes::LOGICAL_ERROR);
|
|
|
|
|
|
2015-04-02 03:08:43 +00:00
|
|
|
|
try
|
|
|
|
|
{
|
|
|
|
|
/** Для недостающих столбцов из вложенной структуры нужно создавать не столбец пустых массивов, а столбец массивов
|
|
|
|
|
* правильных длин.
|
|
|
|
|
* TODO: Если для какой-то вложенной структуры были запрошены только отсутствующие столбцы, для них вернутся пустые
|
|
|
|
|
* массивы, даже если в куске есть смещения для этой вложенной структуры. Это можно исправить.
|
2015-04-09 02:10:06 +00:00
|
|
|
|
* NOTE: Похожий код есть в Block::addDefaults, но он немного отличается.
|
2015-04-02 03:08:43 +00:00
|
|
|
|
*/
|
|
|
|
|
|
|
|
|
|
/// Сначала запомним столбцы смещений для всех массивов в блоке.
|
|
|
|
|
OffsetColumns offset_columns;
|
|
|
|
|
for (size_t i = 0; i < res.columns(); ++i)
|
|
|
|
|
{
|
2015-07-17 01:27:35 +00:00
|
|
|
|
const ColumnWithTypeAndName & column = res.getByPosition(i);
|
2015-04-02 03:08:43 +00:00
|
|
|
|
if (const ColumnArray * array = typeid_cast<const ColumnArray *>(&*column.column))
|
|
|
|
|
{
|
|
|
|
|
String offsets_name = DataTypeNested::extractNestedTableName(column.name);
|
2015-04-09 00:37:08 +00:00
|
|
|
|
auto & offsets_column = offset_columns[offsets_name];
|
|
|
|
|
|
|
|
|
|
/// Если почему-то есть разные столбцы смещений для одной вложенной структуры, то берём непустой.
|
|
|
|
|
if (!offsets_column || offsets_column->empty())
|
|
|
|
|
offsets_column = array->getOffsetsColumn();
|
2015-04-02 03:08:43 +00:00
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
auto should_evaluate_defaults = false;
|
|
|
|
|
auto should_sort = always_reorder;
|
2015-04-09 00:37:08 +00:00
|
|
|
|
|
|
|
|
|
for (const auto & requested_column : columns)
|
2015-04-02 03:08:43 +00:00
|
|
|
|
{
|
|
|
|
|
/// insert default values only for columns without default expressions
|
2015-04-09 00:37:08 +00:00
|
|
|
|
if (!res.has(requested_column.name))
|
2015-04-02 03:08:43 +00:00
|
|
|
|
{
|
|
|
|
|
should_sort = true;
|
2015-04-09 00:37:08 +00:00
|
|
|
|
if (storage.column_defaults.count(requested_column.name) != 0)
|
2015-04-02 03:08:43 +00:00
|
|
|
|
{
|
|
|
|
|
should_evaluate_defaults = true;
|
|
|
|
|
continue;
|
|
|
|
|
}
|
|
|
|
|
|
2015-07-17 01:27:35 +00:00
|
|
|
|
ColumnWithTypeAndName column_to_add;
|
2015-04-09 00:37:08 +00:00
|
|
|
|
column_to_add.name = requested_column.name;
|
|
|
|
|
column_to_add.type = requested_column.type;
|
2015-04-02 03:08:43 +00:00
|
|
|
|
|
2015-04-09 00:37:08 +00:00
|
|
|
|
String offsets_name = DataTypeNested::extractNestedTableName(column_to_add.name);
|
2015-04-02 03:08:43 +00:00
|
|
|
|
if (offset_columns.count(offsets_name))
|
|
|
|
|
{
|
|
|
|
|
ColumnPtr offsets_column = offset_columns[offsets_name];
|
2015-04-09 00:37:08 +00:00
|
|
|
|
DataTypePtr nested_type = typeid_cast<DataTypeArray &>(*column_to_add.type).getNestedType();
|
2015-04-02 03:08:43 +00:00
|
|
|
|
size_t nested_rows = offsets_column->empty() ? 0
|
|
|
|
|
: typeid_cast<ColumnUInt64 &>(*offsets_column).getData().back();
|
|
|
|
|
|
|
|
|
|
ColumnPtr nested_column = dynamic_cast<IColumnConst &>(*nested_type->createConstColumn(
|
|
|
|
|
nested_rows, nested_type->getDefault())).convertToFullColumn();
|
|
|
|
|
|
2015-04-09 00:37:08 +00:00
|
|
|
|
column_to_add.column = new ColumnArray(nested_column, offsets_column);
|
2015-04-02 03:08:43 +00:00
|
|
|
|
}
|
|
|
|
|
else
|
|
|
|
|
{
|
|
|
|
|
/** Нужно превратить константный столбец в полноценный, так как в части блоков (из других кусков),
|
|
|
|
|
* он может быть полноценным (а то интерпретатор может посчитать, что он константный везде).
|
|
|
|
|
*/
|
2015-04-09 00:37:08 +00:00
|
|
|
|
column_to_add.column = dynamic_cast<IColumnConst &>(*column_to_add.type->createConstColumn(
|
|
|
|
|
res.rows(), column_to_add.type->getDefault())).convertToFullColumn();
|
2015-04-02 03:08:43 +00:00
|
|
|
|
}
|
|
|
|
|
|
2015-04-09 00:37:08 +00:00
|
|
|
|
res.insert(column_to_add);
|
2015-04-02 03:08:43 +00:00
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
/// evaluate defaulted columns if necessary
|
|
|
|
|
if (should_evaluate_defaults)
|
|
|
|
|
evaluateMissingDefaults(res, columns, storage.column_defaults, storage.context);
|
|
|
|
|
|
|
|
|
|
/// sort columns to ensure consistent order among all blocks
|
|
|
|
|
if (should_sort)
|
|
|
|
|
{
|
|
|
|
|
Block ordered_block;
|
|
|
|
|
|
|
|
|
|
for (const auto & name : ordered_names)
|
|
|
|
|
if (res.has(name))
|
|
|
|
|
ordered_block.insert(res.getByName(name));
|
|
|
|
|
|
|
|
|
|
std::swap(res, ordered_block);
|
|
|
|
|
}
|
|
|
|
|
}
|
2016-05-04 18:04:36 +00:00
|
|
|
|
catch (Exception & e)
|
2015-04-02 03:08:43 +00:00
|
|
|
|
{
|
|
|
|
|
/// Более хорошая диагностика.
|
2016-05-04 18:04:36 +00:00
|
|
|
|
e.addMessage("(while reading from part " + path + ")");
|
2015-04-02 03:08:43 +00:00
|
|
|
|
}
|
|
|
|
|
}
|
2013-11-26 11:55:11 +00:00
|
|
|
|
};
|
|
|
|
|
|
|
|
|
|
}
|