mirror of
https://github.com/ClickHouse/ClickHouse.git
synced 2024-11-27 18:12:02 +00:00
261 lines
10 KiB
C++
261 lines
10 KiB
C++
#pragma once
|
||
|
||
#include <boost/thread.hpp>
|
||
|
||
#include <statdaemons/Increment.h>
|
||
|
||
#include <DB/Core/SortDescription.h>
|
||
#include <DB/Interpreters/Context.h>
|
||
#include <DB/Interpreters/Expression.h>
|
||
#include <DB/Storages/IStorage.h>
|
||
|
||
|
||
namespace DB
|
||
{
|
||
|
||
struct Range;
|
||
|
||
|
||
/** Движок, использующий merge tree для инкрементальной сортировки данных.
|
||
* Таблица представлена набором сортированных кусков.
|
||
* При вставке, данные сортируются по указанному выражению (первичному ключу) и пишутся в новый кусок.
|
||
* Куски объединяются в фоне, согласно некоторой эвристике.
|
||
* Для каждого куска, создаётся индексный файл, содержащий значение первичного ключа для каждой n-ой строки.
|
||
* Таким образом, реализуется эффективная выборка по диапазону первичного ключа.
|
||
*
|
||
* Дополнительно:
|
||
*
|
||
* Указывается столбец, содержащий дату.
|
||
* Для каждого куска пишется минимальная и максимальная дата.
|
||
* (по сути - ещё один индекс)
|
||
*
|
||
* Данные разделяются по разным месяцам (пишутся в разные куски для разных месяцев).
|
||
* Куски для разных месяцев не объединяются - для простоты эксплуатации.
|
||
* (дают локальность обновлений, что удобно для синхронизации и бэкапа)
|
||
*
|
||
* Структура файлов:
|
||
* / increment.txt - файл, содержащий одно число, увеличивающееся на 1 - для генерации идентификаторов кусков.
|
||
* / min-date _ max-date _ min-id _ max-id _ level / - директория с куском.
|
||
* / min-date _ max-date _ min-id _ max-id _ level / primary.idx - индексный файл.
|
||
* Внутри директории с куском:
|
||
* Column.bin - данные столбца
|
||
* Column.mrk - засечки, указывающие, откуда начинать чтение, чтобы пропустить n * k строк.
|
||
*
|
||
* Если указано sign_column, то при склейке кусков, также "схлопываются"
|
||
* пары записей с разными значениями sign_column для одного значения первичного ключа.
|
||
* (см. CollapsingSortedBlockInputStream.h)
|
||
*/
|
||
|
||
struct StorageMergeTreeSettings
|
||
{
|
||
/// В каких случаях можно объединять куски разного уровня.
|
||
ssize_t delay_time_to_merge_different_level_parts;
|
||
size_t max_level_to_merge_different_level_parts;
|
||
size_t max_rows_to_merge_different_level_parts;
|
||
|
||
/// Куски настолько большого размера объединять нельзя вообще.
|
||
size_t max_rows_to_merge_parts;
|
||
|
||
StorageMergeTreeSettings() :
|
||
delay_time_to_merge_different_level_parts(36000),
|
||
max_level_to_merge_different_level_parts(10),
|
||
max_rows_to_merge_different_level_parts(10 * 1024 * 1024),
|
||
max_rows_to_merge_parts(100 * 1024 * 1024) {}
|
||
};
|
||
|
||
|
||
class StorageMergeTree : public IStorage
|
||
{
|
||
friend class MergeTreeBlockInputStream;
|
||
friend class MergeTreeBlockOutputStream;
|
||
friend class MergedBlockOutputStream;
|
||
|
||
public:
|
||
/** Подцепить таблицу с соответствующим именем, по соответствующему пути (с / на конце),
|
||
* (корректность имён и путей не проверяется)
|
||
* состоящую из указанных столбцов.
|
||
*
|
||
* primary_expr - выражение для сортировки;
|
||
* date_column_name - имя столбца с датой;
|
||
* index_granularity - на сколько строчек пишется одно значение индекса.
|
||
*/
|
||
StorageMergeTree(const String & path_, const String & name_, NamesAndTypesListPtr columns_,
|
||
Context & context_,
|
||
ASTPtr & primary_expr_ast_, const String & date_column_name_,
|
||
size_t index_granularity_,
|
||
const String & sign_column_ = "",
|
||
const StorageMergeTreeSettings & settings_ = StorageMergeTreeSettings());
|
||
|
||
~StorageMergeTree();
|
||
|
||
std::string getName() const { return "MergeTree"; }
|
||
std::string getTableName() const { return name; }
|
||
|
||
const NamesAndTypesList & getColumnsList() const { return *columns; }
|
||
|
||
/** При чтении, выбирается набор кусков, покрывающий нужный диапазон индекса.
|
||
*/
|
||
BlockInputStreams read(
|
||
const Names & column_names,
|
||
ASTPtr query,
|
||
QueryProcessingStage::Enum & processed_stage,
|
||
size_t max_block_size = DEFAULT_BLOCK_SIZE,
|
||
unsigned threads = 1);
|
||
|
||
/** При записи, данные сортируются и пишутся в новые куски.
|
||
*/
|
||
BlockOutputStreamPtr write(
|
||
ASTPtr query);
|
||
|
||
/** Выполнить очередной шаг объединения кусков.
|
||
* Для нормальной работы, этот метод требуется вызывать постоянно.
|
||
* (С некоторой задержкой, если возвращено false.)
|
||
*/
|
||
bool optimize()
|
||
{
|
||
merge(1, false);
|
||
return true;
|
||
}
|
||
|
||
void drop();
|
||
|
||
// void rename(const String & new_path_to_db, const String & new_name);
|
||
|
||
private:
|
||
String path;
|
||
String name;
|
||
String full_path;
|
||
NamesAndTypesListPtr columns;
|
||
|
||
Context context;
|
||
ASTPtr primary_expr_ast;
|
||
String date_column_name;
|
||
size_t index_granularity;
|
||
|
||
/// Для схлопывания записей об изменениях, если это требуется.
|
||
String sign_column;
|
||
|
||
StorageMergeTreeSettings settings;
|
||
|
||
SharedPtr<Expression> primary_expr;
|
||
SortDescription sort_descr;
|
||
Block primary_key_sample;
|
||
|
||
Increment increment;
|
||
|
||
Logger * log;
|
||
|
||
/// Описание куска с данными.
|
||
struct DataPart
|
||
{
|
||
DataPart(StorageMergeTree & storage_) : storage(storage_) {}
|
||
|
||
StorageMergeTree & storage;
|
||
Yandex::DayNum_t left_date;
|
||
Yandex::DayNum_t right_date;
|
||
UInt64 left;
|
||
UInt64 right;
|
||
UInt32 level;
|
||
|
||
std::string name;
|
||
size_t size; /// в количестве засечек.
|
||
time_t modification_time;
|
||
|
||
Yandex::DayNum_t left_month;
|
||
Yandex::DayNum_t right_month;
|
||
|
||
/// NOTE можно загружать индекс и засечки в оперативку
|
||
|
||
void remove() const
|
||
{
|
||
String from = storage.full_path + name + "/";
|
||
String to = storage.full_path + "tmp2_" + name + "/";
|
||
|
||
Poco::File(from).renameTo(to);
|
||
Poco::File(to).remove(true);
|
||
}
|
||
|
||
bool operator< (const DataPart & rhs) const
|
||
{
|
||
if (left_month < rhs.left_month)
|
||
return true;
|
||
if (left_month > rhs.left_month)
|
||
return false;
|
||
if (right_month < rhs.right_month)
|
||
return true;
|
||
if (right_month > rhs.right_month)
|
||
return false;
|
||
|
||
if (left < rhs.left)
|
||
return true;
|
||
if (left > rhs.left)
|
||
return false;
|
||
if (right < rhs.right)
|
||
return true;
|
||
if (right > rhs.right)
|
||
return false;
|
||
|
||
if (level < rhs.level)
|
||
return true;
|
||
|
||
return false;
|
||
}
|
||
|
||
/// Содержит другой кусок (получен после объединения другого куска с каким-то ещё)
|
||
bool contains(const DataPart & rhs) const
|
||
{
|
||
return left_month == rhs.left_month /// Куски за разные месяцы не объединяются
|
||
&& right_month == rhs.right_month
|
||
&& level > rhs.level
|
||
&& left_date <= rhs.left_date
|
||
&& right_date >= rhs.right_date
|
||
&& left <= rhs.left
|
||
&& right >= rhs.right
|
||
&& (left == rhs.left /// У кусков общее начало или конец.
|
||
|| right == rhs.right); /// (только такие образуются после объединения)
|
||
}
|
||
};
|
||
|
||
typedef SharedPtr<DataPart> DataPartPtr;
|
||
struct DataPartPtrLess { bool operator() (const DataPartPtr & lhs, const DataPartPtr & rhs) const { return *lhs < *rhs; } };
|
||
typedef std::set<DataPartPtr, DataPartPtrLess> DataParts;
|
||
|
||
/** Множество всех кусков с данными, включая уже слитые в более крупные, но ещё не удалённые. Оно обычно небольшое (десятки элементов).
|
||
* Ссылки на кусок есть отсюда, из списка актуальных кусков, и из каждого потока чтения, который его сейчас использует.
|
||
* То есть, если количество ссылок равно 1 - то кусок не актуален и не используется прямо сейчас, и его можно удалить.
|
||
*/
|
||
DataParts all_data_parts;
|
||
Poco::FastMutex all_data_parts_mutex;
|
||
|
||
/** Актуальное множество кусков с данными. */
|
||
DataParts data_parts;
|
||
Poco::FastMutex data_parts_mutex;
|
||
|
||
static String getPartName(Yandex::DayNum_t left_date, Yandex::DayNum_t right_date, UInt64 left_id, UInt64 right_id, UInt64 level);
|
||
|
||
/// Загрузить множество кусков с данными с диска. Вызывается один раз - при создании объекта.
|
||
void loadDataParts();
|
||
|
||
/// Удалить неактуальные куски.
|
||
void clearOldParts();
|
||
|
||
/** Определить диапазоны индексов для запроса.
|
||
* Возвращается:
|
||
* date_range - диапазон дат;
|
||
* primary_prefix - префикс первичного ключа, для которого требуется равенство;
|
||
* primary_range - диапазон значений следующего после префикса столбца первичного ключа.
|
||
*/
|
||
void getIndexRanges(ASTPtr & query, Range & date_range, Row & primary_prefix, Range & primary_range);
|
||
|
||
/// Определяет, какие куски нужно объединять, и запускает их слияние в отдельном потоке.
|
||
void merge(size_t iterations = 1, bool async = true);
|
||
void mergeThread(size_t iterations);
|
||
bool selectPartsToMerge(DataPartPtr & left, DataPartPtr & right);
|
||
void mergeParts(DataPartPtr left, DataPartPtr right);
|
||
|
||
boost::thread merge_thread;
|
||
Poco::Mutex merge_mutex;
|
||
};
|
||
|
||
}
|