2013-04-24 10:31:32 +00:00
|
|
|
|
#pragma once
|
|
|
|
|
|
2013-05-03 10:20:53 +00:00
|
|
|
|
#include <DB/DataStreams/IProfilingBlockInputStream.h>
|
2013-04-24 10:31:32 +00:00
|
|
|
|
#include <DB/Storages/StorageMergeTree.h>
|
2013-05-03 10:20:53 +00:00
|
|
|
|
#include <DB/Storages/MergeTree/PKCondition.h>
|
2013-04-24 10:31:32 +00:00
|
|
|
|
|
2013-11-26 11:55:11 +00:00
|
|
|
|
#include <DB/Storages/MergeTree/MergeTreeReader.h>
|
2013-09-08 05:53:10 +00:00
|
|
|
|
|
2013-04-24 10:31:32 +00:00
|
|
|
|
|
|
|
|
|
namespace DB
|
|
|
|
|
{
|
|
|
|
|
|
|
|
|
|
/// Для чтения из одного куска. Для чтения сразу из многих, Storage использует сразу много таких объектов.
|
|
|
|
|
class MergeTreeBlockInputStream : public IProfilingBlockInputStream
|
|
|
|
|
{
|
|
|
|
|
public:
|
|
|
|
|
/// Параметры storage_ и owned_storage разделены, чтобы можно было сделать поток, не владеющий своим storage
|
|
|
|
|
/// (например, поток, сливаящий куски). В таком случае сам storage должен следить, чтобы не удалить данные, пока их читают.
|
|
|
|
|
MergeTreeBlockInputStream(const String & path_, /// Путь к куску
|
2013-09-08 05:53:10 +00:00
|
|
|
|
size_t block_size_, const Names & column_names_,
|
|
|
|
|
StorageMergeTree & storage_, const StorageMergeTree::DataPartPtr & owned_data_part_,
|
2013-11-28 13:16:46 +00:00
|
|
|
|
const MarkRanges & mark_ranges_, StoragePtr owned_storage, bool use_uncompressed_cache_,
|
2013-12-02 09:48:57 +00:00
|
|
|
|
ExpressionActionsPtr prewhere_actions, String prewhere_column)
|
2013-09-08 05:53:10 +00:00
|
|
|
|
: IProfilingBlockInputStream(owned_storage),
|
|
|
|
|
path(path_), block_size(block_size_), column_names(column_names_),
|
|
|
|
|
storage(storage_), owned_data_part(owned_data_part_),
|
2013-11-26 11:55:11 +00:00
|
|
|
|
all_mark_ranges(mark_ranges_), remaining_mark_ranges(mark_ranges_),
|
2013-12-02 09:48:57 +00:00
|
|
|
|
use_uncompressed_cache(use_uncompressed_cache_)
|
2013-04-24 10:31:32 +00:00
|
|
|
|
{
|
2013-11-26 11:55:11 +00:00
|
|
|
|
std::reverse(remaining_mark_ranges.begin(), remaining_mark_ranges.end());
|
|
|
|
|
|
|
|
|
|
LOG_TRACE(storage.log, "Reading " << all_mark_ranges.size() << " ranges from part " << owned_data_part->name
|
|
|
|
|
<< ", up to " << (all_mark_ranges.back().end - all_mark_ranges.front().begin) * storage.index_granularity
|
|
|
|
|
<< " rows starting from " << all_mark_ranges.front().begin * storage.index_granularity);
|
2013-04-24 10:31:32 +00:00
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
String getName() const { return "MergeTreeBlockInputStream"; }
|
2013-05-03 10:20:53 +00:00
|
|
|
|
|
|
|
|
|
String getID() const
|
|
|
|
|
{
|
|
|
|
|
std::stringstream res;
|
|
|
|
|
res << "MergeTree(" << owned_storage->getTableName() << ", " << path << ", columns";
|
|
|
|
|
|
|
|
|
|
for (size_t i = 0; i < column_names.size(); ++i)
|
|
|
|
|
res << ", " << column_names[i];
|
|
|
|
|
|
|
|
|
|
res << ", marks";
|
|
|
|
|
|
2013-11-26 11:55:11 +00:00
|
|
|
|
for (size_t i = 0; i < all_mark_ranges.size(); ++i)
|
|
|
|
|
res << ", " << all_mark_ranges[i].begin << ", " << all_mark_ranges[i].end;
|
2013-05-03 10:20:53 +00:00
|
|
|
|
|
|
|
|
|
res << ")";
|
|
|
|
|
return res.str();
|
|
|
|
|
}
|
2013-04-24 10:31:32 +00:00
|
|
|
|
|
|
|
|
|
/// Получает набор диапазонов засечек, вне которых не могут находиться ключи из заданного диапазона.
|
|
|
|
|
static MarkRanges markRangesFromPkRange(const String & path,
|
|
|
|
|
size_t marks_count,
|
2013-11-26 11:55:11 +00:00
|
|
|
|
StorageMergeTree & storage,
|
|
|
|
|
PKCondition & key_condition)
|
2013-04-24 10:31:32 +00:00
|
|
|
|
{
|
|
|
|
|
MarkRanges res;
|
|
|
|
|
|
|
|
|
|
/// Если индекс не используется.
|
|
|
|
|
if (key_condition.alwaysTrue())
|
|
|
|
|
{
|
|
|
|
|
res.push_back(MarkRange(0, marks_count));
|
|
|
|
|
}
|
|
|
|
|
else
|
|
|
|
|
{
|
|
|
|
|
/// Читаем индекс.
|
|
|
|
|
typedef AutoArray<Row> Index;
|
|
|
|
|
size_t key_size = storage.sort_descr.size();
|
|
|
|
|
Index index(marks_count);
|
|
|
|
|
for (size_t i = 0; i < marks_count; ++i)
|
|
|
|
|
index[i].resize(key_size);
|
|
|
|
|
|
|
|
|
|
{
|
|
|
|
|
String index_path = path + "primary.idx";
|
|
|
|
|
ReadBufferFromFile index_file(index_path, std::min(static_cast<size_t>(DBMS_DEFAULT_BUFFER_SIZE), Poco::File(index_path).getSize()));
|
|
|
|
|
|
|
|
|
|
for (size_t i = 0; i < marks_count; ++i)
|
|
|
|
|
{
|
|
|
|
|
for (size_t j = 0; j < key_size; ++j)
|
|
|
|
|
storage.primary_key_sample.getByPosition(j).type->deserializeBinary(index[i][j], index_file);
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
if (!index_file.eof())
|
|
|
|
|
throw Exception("index file " + index_path + " is unexpectedly long", ErrorCodes::EXPECTED_END_OF_FILE);
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
/// В стеке всегда будут находиться непересекающиеся подозрительные отрезки, самый левый наверху (back).
|
|
|
|
|
/// На каждом шаге берем левый отрезок и проверяем, подходит ли он.
|
|
|
|
|
/// Если подходит, разбиваем его на более мелкие и кладем их в стек. Если нет - выбрасываем его.
|
|
|
|
|
/// Если отрезок уже длиной в одну засечку, добавляем его в ответ и выбрасываем.
|
|
|
|
|
std::vector<MarkRange> ranges_stack;
|
|
|
|
|
ranges_stack.push_back(MarkRange(0, marks_count));
|
|
|
|
|
while (!ranges_stack.empty())
|
|
|
|
|
{
|
|
|
|
|
MarkRange range = ranges_stack.back();
|
|
|
|
|
ranges_stack.pop_back();
|
|
|
|
|
|
|
|
|
|
bool may_be_true;
|
|
|
|
|
if (range.end == marks_count)
|
|
|
|
|
may_be_true = key_condition.mayBeTrueAfter(index[range.begin]);
|
|
|
|
|
else
|
|
|
|
|
may_be_true = key_condition.mayBeTrueInRange(index[range.begin], index[range.end]);
|
|
|
|
|
|
|
|
|
|
if (!may_be_true)
|
|
|
|
|
continue;
|
|
|
|
|
|
|
|
|
|
if (range.end == range.begin + 1)
|
|
|
|
|
{
|
|
|
|
|
/// Увидели полезный промежуток между соседними засечками. Либо добавим его к последнему диапазону, либо начнем новый диапазон.
|
|
|
|
|
if (res.empty() || range.begin - res.back().end > storage.min_marks_for_seek)
|
|
|
|
|
{
|
|
|
|
|
res.push_back(range);
|
|
|
|
|
}
|
|
|
|
|
else
|
|
|
|
|
{
|
|
|
|
|
res.back().end = range.end;
|
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
else
|
|
|
|
|
{
|
|
|
|
|
/// Разбиваем отрезок и кладем результат в стек справа налево.
|
|
|
|
|
size_t step = (range.end - range.begin - 1) / storage.settings.coarse_index_granularity + 1;
|
|
|
|
|
size_t end;
|
|
|
|
|
for (end = range.end; end > range.begin + step; end -= step)
|
|
|
|
|
{
|
|
|
|
|
ranges_stack.push_back(MarkRange(end - step, end));
|
|
|
|
|
}
|
|
|
|
|
ranges_stack.push_back(MarkRange(range.begin, end));
|
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
return res;
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
protected:
|
|
|
|
|
Block readImpl()
|
|
|
|
|
{
|
|
|
|
|
Block res;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
|
|
|
|
if (remaining_mark_ranges.empty())
|
|
|
|
|
return res;
|
|
|
|
|
|
|
|
|
|
if (!reader)
|
2013-04-24 10:31:32 +00:00
|
|
|
|
{
|
2013-11-26 11:55:11 +00:00
|
|
|
|
UncompressedCache * uncompressed_cache = use_uncompressed_cache ? storage.context.getUncompressedCache() : NULL;
|
|
|
|
|
reader = new MergeTreeReader(path, column_names, uncompressed_cache, storage);
|
2013-04-24 10:31:32 +00:00
|
|
|
|
}
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2013-12-02 09:48:57 +00:00
|
|
|
|
size_t space_left = std::max(1LU, block_size / storage.index_granularity);
|
|
|
|
|
while (!remaining_mark_ranges.empty() && space_left)
|
2013-04-24 10:31:32 +00:00
|
|
|
|
{
|
2013-12-02 09:48:57 +00:00
|
|
|
|
MarkRange & range = remaining_mark_ranges.back();
|
2013-06-25 12:19:10 +00:00
|
|
|
|
|
2013-12-02 09:48:57 +00:00
|
|
|
|
size_t marks_to_read = std::min(range.end - range.begin, space_left);
|
|
|
|
|
reader->readRange(range.begin, range.begin + marks_to_read, res);
|
2013-11-11 05:35:58 +00:00
|
|
|
|
|
2013-12-02 09:48:57 +00:00
|
|
|
|
space_left -= marks_to_read;
|
|
|
|
|
range.begin += marks_to_read;
|
|
|
|
|
if (range.begin == range.end)
|
|
|
|
|
remaining_mark_ranges.pop_back();
|
2013-04-24 10:31:32 +00:00
|
|
|
|
}
|
2013-11-11 05:35:58 +00:00
|
|
|
|
|
2013-12-02 09:48:57 +00:00
|
|
|
|
reader->fillMissingColumns(res);
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
|
|
|
|
if (remaining_mark_ranges.empty())
|
2013-04-24 10:31:32 +00:00
|
|
|
|
{
|
|
|
|
|
/** Закрываем файлы (ещё до уничтожения объекта).
|
|
|
|
|
* Чтобы при создании многих источников, но одновременном чтении только из нескольких,
|
|
|
|
|
* буферы не висели в памяти.
|
|
|
|
|
*/
|
2013-11-26 11:55:11 +00:00
|
|
|
|
reader = NULL;
|
2013-04-24 10:31:32 +00:00
|
|
|
|
}
|
2013-11-26 11:55:11 +00:00
|
|
|
|
|
2013-04-24 10:31:32 +00:00
|
|
|
|
return res;
|
|
|
|
|
}
|
|
|
|
|
|
|
|
|
|
private:
|
|
|
|
|
const String path;
|
|
|
|
|
size_t block_size;
|
|
|
|
|
Names column_names;
|
|
|
|
|
StorageMergeTree & storage;
|
|
|
|
|
const StorageMergeTree::DataPartPtr owned_data_part; /// Кусок не будет удалён, пока им владеет этот объект.
|
2013-11-26 11:55:11 +00:00
|
|
|
|
MarkRanges all_mark_ranges; /// В каких диапазонах засечек читать. В порядке возрастания номеров.
|
|
|
|
|
MarkRanges remaining_mark_ranges; /// В каких диапазонах засечек еще не прочли.
|
|
|
|
|
/// В порядке убывания номеров, чтобы можно было выбрасывать из конца.
|
2013-09-08 05:53:10 +00:00
|
|
|
|
bool use_uncompressed_cache;
|
2013-11-26 11:55:11 +00:00
|
|
|
|
Poco::SharedPtr<MergeTreeReader> reader;
|
2013-11-28 13:16:46 +00:00
|
|
|
|
ExpressionActionsPtr prewhere_actions;
|
|
|
|
|
String prewhere_column;
|
2013-04-24 10:31:32 +00:00
|
|
|
|
};
|
|
|
|
|
|
|
|
|
|
}
|