#pragma once #include #include #include #include #include #include #include #include #include #include #include #include #include namespace DB { /** Умеет читать данные между парой засечек из одного куска. При чтении последовательных отрезков не делает лишних seek-ов. * При чтении почти последовательных отрезков делает seek-и быстро, не выбрасывая содержимое буфера. */ class MergeTreeReader { using OffsetColumns = std::map; using ValueSizeMap = std::map; public: MergeTreeReader(const String & path, /// Путь к куску const MergeTreeData::DataPartPtr & data_part, const NamesAndTypesList & columns, UncompressedCache * uncompressed_cache, MarkCache * mark_cache, MergeTreeData & storage, const MarkRanges & all_mark_ranges, size_t aio_threshold, size_t max_read_buffer_size, const ValueSizeMap & avg_value_size_hints = ValueSizeMap{}) : avg_value_size_hints(avg_value_size_hints), path(path), data_part(data_part), columns(columns), uncompressed_cache(uncompressed_cache), mark_cache(mark_cache), storage(storage), all_mark_ranges(all_mark_ranges), aio_threshold(aio_threshold), max_read_buffer_size(max_read_buffer_size) { try { if (!Poco::File(path).exists()) throw Exception("Part " + path + " is missing", ErrorCodes::NOT_FOUND_EXPECTED_DATA_PART); for (const NameAndTypePair & column : columns) addStream(column.name, *column.type, all_mark_ranges); } catch (...) { storage.reportBrokenPart(data_part->name); throw; } } const ValueSizeMap & getAvgValueSizeHints() const { return avg_value_size_hints; } /** Если столбцов нет в блоке, добавляет их, если есть - добавляет прочитанные значения к ним в конец. * Не добавляет столбцы, для которых нет файлов. Чтобы их добавить, нужно вызвать fillMissingColumns. * В блоке должно быть либо ни одного столбца из columns, либо все, для которых есть файлы. */ void readRange(size_t from_mark, size_t to_mark, Block & res) { try { size_t max_rows_to_read = (to_mark - from_mark) * storage.index_granularity; /// Указатели на столбцы смещений, общие для столбцов из вложенных структур данных /// Если append, все значения nullptr, и offset_columns используется только для проверки, что столбец смещений уже прочитан. OffsetColumns offset_columns; for (const NameAndTypePair & it : columns) { if (streams.end() == streams.find(it.name)) continue; /// Все столбцы уже есть в блоке. Будем добавлять значения в конец. bool append = res.has(it.name); ColumnWithTypeAndName column; column.name = it.name; column.type = it.type; if (append) column.column = res.getByName(column.name).column; bool read_offsets = true; /// Для вложенных структур запоминаем указатели на столбцы со смещениями if (const DataTypeArray * type_arr = typeid_cast(&*column.type)) { String name = DataTypeNested::extractNestedTableName(column.name); if (offset_columns.count(name) == 0) offset_columns[name] = append ? nullptr : new ColumnArray::ColumnOffsets_t; else read_offsets = false; /// на предыдущих итерациях смещения уже считали вызовом readData if (!append) column.column = new ColumnArray(type_arr->getNestedType()->createColumn(), offset_columns[name]); } else if (!append) column.column = column.type->createColumn(); readData(column.name, *column.type, *column.column, from_mark, max_rows_to_read, 0, read_offsets); if (!append && column.column->size()) res.insert(column); } } catch (const Exception & e) { if (e.code() != ErrorCodes::MEMORY_LIMIT_EXCEEDED) storage.reportBrokenPart(data_part->name); /// Более хорошая диагностика. throw Exception(e.message() + "\n(while reading from part " + path + " from mark " + toString(from_mark) + " to " + toString(to_mark) + ")", e.code()); } catch (...) { storage.reportBrokenPart(data_part->name); throw; } } /** Добавляет в блок недостающие столбцы из ordered_names, состоящие из значений по-умолчанию. * Недостающие столбцы добавляются в позиции, такие же как в ordered_names. * Если был добавлен хотя бы один столбец - то все столбцы в блоке переупорядочиваются как в ordered_names. */ void fillMissingColumns(Block & res, const Names & ordered_names, const bool always_reorder = false) { fillMissingColumnsImpl(res, ordered_names, always_reorder); } /** То же самое, но всегда переупорядочивает столбцы в блоке, как в ordered_names * (даже если не было недостающих столбцов). */ void fillMissingColumnsAndReorder(Block & res, const Names & ordered_names) { fillMissingColumnsImpl(res, ordered_names, true); } private: struct Stream { MarkCache::MappedPtr marks; ReadBuffer * data_buffer; std::unique_ptr cached_buffer; std::unique_ptr non_cached_buffer; std::string path_prefix; size_t max_mark_range; Stream( const String & path_prefix_, UncompressedCache * uncompressed_cache, MarkCache * mark_cache, const MarkRanges & all_mark_ranges, size_t aio_threshold, size_t max_read_buffer_size) : path_prefix(path_prefix_) { loadMarks(mark_cache); size_t max_mark_range = 0; for (size_t i = 0; i < all_mark_ranges.size(); ++i) { size_t right = all_mark_ranges[i].end; /// Если правая граница лежит внутри блока, то его тоже придется читать. if (right < (*marks).size() && (*marks)[right].offset_in_decompressed_block > 0) { while (right < (*marks).size() && (*marks)[right].offset_in_compressed_file == (*marks)[all_mark_ranges[i].end].offset_in_compressed_file) ++right; } /// Если правее засечек нет, просто используем max_read_buffer_size if (right >= (*marks).size() || (right + 1 == (*marks).size() && (*marks)[right].offset_in_compressed_file == (*marks)[all_mark_ranges[i].end].offset_in_compressed_file)) { max_mark_range = max_read_buffer_size; break; } max_mark_range = std::max(max_mark_range, (*marks)[right].offset_in_compressed_file - (*marks)[all_mark_ranges[i].begin].offset_in_compressed_file); } size_t buffer_size = std::min(max_read_buffer_size, max_mark_range); size_t estimated_size = 0; if (aio_threshold > 0) { for (const auto & mark_range : all_mark_ranges) { size_t offset_begin = (*marks)[mark_range.begin].offset_in_compressed_file; size_t offset_end; if (mark_range.end < (*marks).size()) offset_end = (*marks)[mark_range.end].offset_in_compressed_file; else offset_end = Poco::File(path_prefix + ".bin").getSize(); if (offset_end > 0) estimated_size += offset_end - offset_begin; } } if (uncompressed_cache) { cached_buffer = std::make_unique( path_prefix + ".bin", uncompressed_cache, estimated_size, aio_threshold, buffer_size); data_buffer = cached_buffer.get(); } else { non_cached_buffer = std::make_unique( path_prefix + ".bin", estimated_size, aio_threshold, buffer_size); data_buffer = non_cached_buffer.get(); } } void loadMarks(MarkCache * cache) { std::string path = path_prefix + ".mrk"; UInt128 key; if (cache) { key = cache->hash(path); marks = cache->get(key); if (marks) return; } marks.reset(new MarksInCompressedFile); ReadBufferFromFile buffer(path); while (!buffer.eof()) { MarkInCompressedFile mark; readIntBinary(mark.offset_in_compressed_file, buffer); readIntBinary(mark.offset_in_decompressed_block, buffer); marks->push_back(mark); } if (cache) cache->set(key, marks); } void seekToMark(size_t index) { MarkInCompressedFile mark = (*marks)[index]; try { if (cached_buffer) { cached_buffer->seek(mark.offset_in_compressed_file, mark.offset_in_decompressed_block); } if (non_cached_buffer) non_cached_buffer->seek(mark.offset_in_compressed_file, mark.offset_in_decompressed_block); } catch (const Exception & e) { /// Более хорошая диагностика. if (e.code() == ErrorCodes::ARGUMENT_OUT_OF_BOUND) throw Exception(e.message() + " (while seeking to mark " + toString(index) + " of column " + path_prefix + "; offsets are: " + toString(mark.offset_in_compressed_file) + " " + toString(mark.offset_in_decompressed_block) + ")", e.code()); else throw; } } }; typedef std::map > FileStreams; /// Используется в качестве подсказки, чтобы уменьшить количество реаллокаций при создании столбца переменной длины. ValueSizeMap avg_value_size_hints; String path; MergeTreeData::DataPartPtr data_part; FileStreams streams; /// Запрашиваемые столбцы. NamesAndTypesList columns; UncompressedCache * uncompressed_cache; MarkCache * mark_cache; MergeTreeData & storage; MarkRanges all_mark_ranges; size_t aio_threshold; size_t max_read_buffer_size; void addStream(const String & name, const IDataType & type, const MarkRanges & all_mark_ranges, size_t level = 0) { String escaped_column_name = escapeForFileName(name); /** Если файла с данными нет - то не будем пытаться открыть его. * Это нужно, чтобы можно было добавлять новые столбцы к структуре таблицы без создания файлов для старых кусков. */ if (!Poco::File(path + escaped_column_name + ".bin").exists()) return; /// Для массивов используются отдельные потоки для размеров. if (const DataTypeArray * type_arr = typeid_cast(&type)) { String size_name = DataTypeNested::extractNestedTableName(name) + ARRAY_SIZES_COLUMN_NAME_SUFFIX + toString(level); String escaped_size_name = escapeForFileName(DataTypeNested::extractNestedTableName(name)) + ARRAY_SIZES_COLUMN_NAME_SUFFIX + toString(level); if (!streams.count(size_name)) streams.emplace(size_name, std::make_unique( path + escaped_size_name, uncompressed_cache, mark_cache, all_mark_ranges, aio_threshold, max_read_buffer_size)); addStream(name, *type_arr->getNestedType(), all_mark_ranges, level + 1); } else streams.emplace(name, std::make_unique( path + escaped_column_name, uncompressed_cache, mark_cache, all_mark_ranges, aio_threshold, max_read_buffer_size)); } void readData(const String & name, const IDataType & type, IColumn & column, size_t from_mark, size_t max_rows_to_read, size_t level = 0, bool read_offsets = true) { /// Для массивов требуется сначала десериализовать размеры, а потом значения. if (const DataTypeArray * type_arr = typeid_cast(&type)) { if (read_offsets) { Stream & stream = *streams[DataTypeNested::extractNestedTableName(name) + ARRAY_SIZES_COLUMN_NAME_SUFFIX + toString(level)]; stream.seekToMark(from_mark); type_arr->deserializeOffsets( column, *stream.data_buffer, max_rows_to_read); } if (column.size()) { ColumnArray & array = typeid_cast(column); const size_t required_internal_size = array.getOffsets()[column.size() - 1]; if (required_internal_size) { readData( name, *type_arr->getNestedType(), array.getData(), from_mark, required_internal_size - array.getData().size(), level + 1); /** Исправление для ошибочно записанных пустых файлов с данными массива. * Такое бывает после ALTER с добавлением новых столбцов во вложенную структуру данных. */ size_t read_internal_size = array.getData().size(); if (required_internal_size != read_internal_size) { if (read_internal_size != 0) LOG_ERROR((&Logger::get("MergeTreeReader")), "Internal size of array " + name + " doesn't match offsets: corrupted data, filling with default values."); array.getDataPtr() = dynamic_cast( *type_arr->getNestedType()->createConstColumn( required_internal_size, type_arr->getNestedType()->getDefault())).convertToFullColumn(); /** NOTE Можно было бы занулять этот столбец, чтобы он не добавлялся в блок, * а впоследствии создавался с более правильными (из определения таблицы) значениями по-умолчанию. */ } } } } else { Stream & stream = *streams[name]; double & avg_value_size_hint = avg_value_size_hints[name]; stream.seekToMark(from_mark); type.deserializeBinary(column, *stream.data_buffer, max_rows_to_read, avg_value_size_hint); /// Вычисление подсказки о среднем размере значения. size_t column_size = column.size(); if (column_size) { double current_avg_value_size = static_cast(column.byteSize()) / column_size; /// Эвристика, чтобы при изменениях, значение avg_value_size_hint быстро росло, но медленно уменьшалось. if (current_avg_value_size > avg_value_size_hint) avg_value_size_hint = current_avg_value_size; else if (current_avg_value_size * 2 < avg_value_size_hint) avg_value_size_hint = (current_avg_value_size + avg_value_size_hint * 3) / 4; } } } void fillMissingColumnsImpl(Block & res, const Names & ordered_names, bool always_reorder) { try { /** Для недостающих столбцов из вложенной структуры нужно создавать не столбец пустых массивов, а столбец массивов * правильных длин. * TODO: Если для какой-то вложенной структуры были запрошены только отсутствующие столбцы, для них вернутся пустые * массивы, даже если в куске есть смещения для этой вложенной структуры. Это можно исправить. * NOTE: Похожий код есть в Block::addDefaults, но он немного отличается. */ /// Сначала запомним столбцы смещений для всех массивов в блоке. OffsetColumns offset_columns; for (size_t i = 0; i < res.columns(); ++i) { const ColumnWithTypeAndName & column = res.getByPosition(i); if (const ColumnArray * array = typeid_cast(&*column.column)) { String offsets_name = DataTypeNested::extractNestedTableName(column.name); auto & offsets_column = offset_columns[offsets_name]; /// Если почему-то есть разные столбцы смещений для одной вложенной структуры, то берём непустой. if (!offsets_column || offsets_column->empty()) offsets_column = array->getOffsetsColumn(); } } auto should_evaluate_defaults = false; auto should_sort = always_reorder; for (const auto & requested_column : columns) { /// insert default values only for columns without default expressions if (!res.has(requested_column.name)) { should_sort = true; if (storage.column_defaults.count(requested_column.name) != 0) { should_evaluate_defaults = true; continue; } ColumnWithTypeAndName column_to_add; column_to_add.name = requested_column.name; column_to_add.type = requested_column.type; String offsets_name = DataTypeNested::extractNestedTableName(column_to_add.name); if (offset_columns.count(offsets_name)) { ColumnPtr offsets_column = offset_columns[offsets_name]; DataTypePtr nested_type = typeid_cast(*column_to_add.type).getNestedType(); size_t nested_rows = offsets_column->empty() ? 0 : typeid_cast(*offsets_column).getData().back(); ColumnPtr nested_column = dynamic_cast(*nested_type->createConstColumn( nested_rows, nested_type->getDefault())).convertToFullColumn(); column_to_add.column = new ColumnArray(nested_column, offsets_column); } else { /** Нужно превратить константный столбец в полноценный, так как в части блоков (из других кусков), * он может быть полноценным (а то интерпретатор может посчитать, что он константный везде). */ column_to_add.column = dynamic_cast(*column_to_add.type->createConstColumn( res.rows(), column_to_add.type->getDefault())).convertToFullColumn(); } res.insert(column_to_add); } } /// evaluate defaulted columns if necessary if (should_evaluate_defaults) evaluateMissingDefaults(res, columns, storage.column_defaults, storage.context); /// sort columns to ensure consistent order among all blocks if (should_sort) { Block ordered_block; for (const auto & name : ordered_names) if (res.has(name)) ordered_block.insert(res.getByName(name)); std::swap(res, ordered_block); } } catch (const Exception & e) { /// Более хорошая диагностика. throw Exception(e.message() + '\n' + e.getStackTrace().toString() + "\n(while reading from part " + path + ")", e.code()); } } }; }