mirror of
https://github.com/ClickHouse/ClickHouse.git
synced 2024-12-11 17:02:25 +00:00
372 lines
13 KiB
C++
372 lines
13 KiB
C++
#pragma once
|
||
|
||
#include <Yandex/logger_useful.h>
|
||
|
||
#include <DB/DataStreams/IProfilingBlockInputStream.h>
|
||
#include <DB/DataStreams/OneBlockInputStream.h>
|
||
#include <DB/Common/VirtualColumnUtils.h>
|
||
#include <DB/Common/Throttler.h>
|
||
#include <DB/Interpreters/Context.h>
|
||
|
||
#include <DB/Client/ConnectionPool.h>
|
||
#include <DB/Client/ParallelReplicas.h>
|
||
|
||
|
||
namespace DB
|
||
{
|
||
|
||
/** Позволяет выполнить запрос (SELECT) на удалённых репликах одного шарда и получить результат.
|
||
*/
|
||
class RemoteBlockInputStream : public IProfilingBlockInputStream
|
||
{
|
||
private:
|
||
void init(const Settings * settings_)
|
||
{
|
||
if (settings_)
|
||
{
|
||
send_settings = true;
|
||
settings = *settings_;
|
||
}
|
||
else
|
||
send_settings = false;
|
||
}
|
||
|
||
public:
|
||
/// Принимает готовое соединение.
|
||
RemoteBlockInputStream(Connection & connection_, const String & query_, const Settings * settings_, ThrottlerPtr throttler_ = nullptr,
|
||
const Tables & external_tables_ = Tables(), QueryProcessingStage::Enum stage_ = QueryProcessingStage::Complete,
|
||
const Context & context = getDefaultContext())
|
||
: connection(&connection_), query(query_), throttler(throttler_), external_tables(external_tables_), stage(stage_), context(context)
|
||
{
|
||
init(settings_);
|
||
}
|
||
|
||
/// Принимает готовое соединение. Захватывает владение соединением из пула.
|
||
RemoteBlockInputStream(ConnectionPool::Entry & pool_entry_, const String & query_, const Settings * settings_, ThrottlerPtr throttler_ = nullptr,
|
||
const Tables & external_tables_ = Tables(), QueryProcessingStage::Enum stage_ = QueryProcessingStage::Complete,
|
||
const Context & context = getDefaultContext())
|
||
: pool_entry(pool_entry_), connection(&*pool_entry_), query(query_), throttler(throttler_),
|
||
external_tables(external_tables_), stage(stage_), context(context)
|
||
{
|
||
init(settings_);
|
||
}
|
||
|
||
/// Принимает пул, из которого нужно будет достать одно или несколько соединений.
|
||
RemoteBlockInputStream(IConnectionPool * pool_, const String & query_, const Settings * settings_, ThrottlerPtr throttler_ = nullptr,
|
||
const Tables & external_tables_ = Tables(), QueryProcessingStage::Enum stage_ = QueryProcessingStage::Complete,
|
||
const Context & context = getDefaultContext())
|
||
: pool(pool_), query(query_), throttler(throttler_), external_tables(external_tables_), stage(stage_), context(context)
|
||
{
|
||
init(settings_);
|
||
}
|
||
|
||
|
||
String getName() const override { return "Remote"; }
|
||
|
||
|
||
String getID() const override
|
||
{
|
||
std::stringstream res;
|
||
res << this;
|
||
return res.str();
|
||
}
|
||
|
||
|
||
/** Отменяем умолчальное уведомление о прогрессе,
|
||
* так как колбэк прогресса вызывается самостоятельно.
|
||
*/
|
||
void progress(const Progress & value) override {}
|
||
|
||
|
||
void cancel() override
|
||
{
|
||
bool old_val = false;
|
||
if (!is_cancelled.compare_exchange_strong(old_val, true, std::memory_order_seq_cst, std::memory_order_relaxed))
|
||
return;
|
||
|
||
{
|
||
std::lock_guard<std::mutex> lock(external_tables_mutex);
|
||
|
||
/// Останавливаем отправку внешних данных.
|
||
for (auto & vec : external_tables_data)
|
||
for (auto & elem : vec)
|
||
if (IProfilingBlockInputStream * stream = dynamic_cast<IProfilingBlockInputStream *>(elem.first.get()))
|
||
stream->cancel();
|
||
}
|
||
|
||
if (!isQueryPending() || hasThrownException())
|
||
return;
|
||
|
||
tryCancel("Cancelling query");
|
||
}
|
||
|
||
|
||
~RemoteBlockInputStream() override
|
||
{
|
||
/** Если прервались в середине цикла общения с репликами, то прервываем
|
||
* все соединения, затем читаем и пропускаем оставшиеся пакеты чтобы
|
||
* эти соединения не остались висеть в рассихронизированном состоянии.
|
||
*/
|
||
if (established || isQueryPending())
|
||
parallel_replicas->disconnect();
|
||
}
|
||
|
||
|
||
/// Отправляет запрос (инициирует вычисления) раньше, чем read.
|
||
void readPrefix() override
|
||
{
|
||
if (!sent_query)
|
||
sendQuery();
|
||
}
|
||
|
||
protected:
|
||
/// Отправить на удаленные серверы все временные таблицы.
|
||
void sendExternalTables()
|
||
{
|
||
size_t count = parallel_replicas->size();
|
||
|
||
{
|
||
std::lock_guard<std::mutex> lock(external_tables_mutex);
|
||
|
||
external_tables_data.reserve(count);
|
||
|
||
for (size_t i = 0; i < count; ++i)
|
||
{
|
||
ExternalTablesData res;
|
||
for (const auto & table : external_tables)
|
||
{
|
||
StoragePtr cur = table.second;
|
||
QueryProcessingStage::Enum stage = QueryProcessingStage::Complete;
|
||
DB::BlockInputStreams input = cur->read(cur->getColumnNamesList(), ASTPtr(), context, settings,
|
||
stage, DEFAULT_BLOCK_SIZE, 1);
|
||
if (input.size() == 0)
|
||
res.push_back(std::make_pair(new OneBlockInputStream(cur->getSampleBlock()), table.first));
|
||
else
|
||
res.push_back(std::make_pair(input[0], table.first));
|
||
}
|
||
external_tables_data.push_back(std::move(res));
|
||
}
|
||
}
|
||
|
||
parallel_replicas->sendExternalTablesData(external_tables_data);
|
||
}
|
||
|
||
|
||
Block readImpl() override
|
||
{
|
||
if (!sent_query)
|
||
{
|
||
sendQuery();
|
||
|
||
if (settings.skip_unavailable_shards && 0 == parallel_replicas->size())
|
||
return {};
|
||
}
|
||
|
||
while (true)
|
||
{
|
||
if (isCancelled())
|
||
return Block();
|
||
|
||
Connection::Packet packet = parallel_replicas->receivePacket();
|
||
|
||
switch (packet.type)
|
||
{
|
||
case Protocol::Server::Data:
|
||
/// Если блок не пуст и не является заголовочным блоком
|
||
if (packet.block && packet.block.rows() > 0)
|
||
return packet.block;
|
||
break; /// Если блок пустой - получим другие пакеты до EndOfStream.
|
||
|
||
case Protocol::Server::Exception:
|
||
got_exception_from_replica = true;
|
||
packet.exception->rethrow();
|
||
break;
|
||
|
||
case Protocol::Server::EndOfStream:
|
||
if (!parallel_replicas->hasActiveReplicas())
|
||
{
|
||
finished = true;
|
||
return Block();
|
||
}
|
||
break;
|
||
|
||
case Protocol::Server::Progress:
|
||
/** Используем прогресс с удалённого сервера.
|
||
* В том числе, запишем его в ProcessList,
|
||
* и будем использовать его для проверки
|
||
* ограничений (например, минимальная скорость выполнения запроса)
|
||
* и квот (например, на количество строчек для чтения).
|
||
*/
|
||
progressImpl(packet.progress);
|
||
break;
|
||
|
||
case Protocol::Server::ProfileInfo:
|
||
info = packet.profile_info;
|
||
break;
|
||
|
||
case Protocol::Server::Totals:
|
||
totals = packet.block;
|
||
break;
|
||
|
||
case Protocol::Server::Extremes:
|
||
extremes = packet.block;
|
||
break;
|
||
|
||
default:
|
||
got_unknown_packet_from_replica = true;
|
||
throw Exception("Unknown packet from server", ErrorCodes::UNKNOWN_PACKET_FROM_SERVER);
|
||
}
|
||
}
|
||
}
|
||
|
||
void readSuffixImpl() override
|
||
{
|
||
/** Если одно из:
|
||
* - ничего не начинали делать;
|
||
* - получили все пакеты до EndOfStream;
|
||
* - получили с одной реплики эксепшен;
|
||
* - получили с одной реплики неизвестный пакет;
|
||
* - то больше читать ничего не нужно.
|
||
*/
|
||
if (!isQueryPending() || hasThrownException())
|
||
return;
|
||
|
||
/** Если ещё прочитали не все данные, но они больше не нужны.
|
||
* Это может быть из-за того, что данных достаточно (например, при использовании LIMIT).
|
||
*/
|
||
|
||
/// Отправим просьбу прервать выполнение запроса, если ещё не отправляли.
|
||
tryCancel("Cancelling query because enough data has been read");
|
||
|
||
/// Получим оставшиеся пакеты, чтобы не было рассинхронизации в соединениях с репликами.
|
||
Connection::Packet packet = parallel_replicas->drain();
|
||
switch (packet.type)
|
||
{
|
||
case Protocol::Server::EndOfStream:
|
||
finished = true;
|
||
break;
|
||
|
||
case Protocol::Server::Exception:
|
||
got_exception_from_replica = true;
|
||
packet.exception->rethrow();
|
||
break;
|
||
|
||
default:
|
||
got_unknown_packet_from_replica = true;
|
||
throw Exception("Unknown packet from server", ErrorCodes::UNKNOWN_PACKET_FROM_SERVER);
|
||
}
|
||
}
|
||
|
||
/// Создать объект для общения с репликами одного шарда, на которых должен выполниться запрос.
|
||
void createParallelReplicas()
|
||
{
|
||
Settings * parallel_replicas_settings = send_settings ? &settings : nullptr;
|
||
if (connection != nullptr)
|
||
parallel_replicas = std::make_unique<ParallelReplicas>(connection, parallel_replicas_settings, throttler);
|
||
else
|
||
parallel_replicas = std::make_unique<ParallelReplicas>(pool, parallel_replicas_settings, throttler);
|
||
}
|
||
|
||
/// Возвращает true, если запрос отправлен.
|
||
bool isQueryPending() const
|
||
{
|
||
return sent_query && !finished;
|
||
}
|
||
|
||
/// Возвращает true, если исключение было выкинуто.
|
||
bool hasThrownException() const
|
||
{
|
||
return got_exception_from_replica || got_unknown_packet_from_replica;
|
||
}
|
||
|
||
private:
|
||
void sendQuery()
|
||
{
|
||
createParallelReplicas();
|
||
|
||
if (settings.skip_unavailable_shards && 0 == parallel_replicas->size())
|
||
return;
|
||
|
||
established = true;
|
||
|
||
parallel_replicas->sendQuery(query, "", stage, true);
|
||
|
||
established = false;
|
||
sent_query = true;
|
||
|
||
sendExternalTables();
|
||
}
|
||
|
||
/// ITable::read requires a Context, therefore we should create one if the user can't supply it
|
||
static Context & getDefaultContext()
|
||
{
|
||
static Context instance;
|
||
return instance;
|
||
}
|
||
|
||
/// Отправить запрос на отмену всех соединений к репликам, если такой запрос ещё не был отправлен.
|
||
void tryCancel(const char * reason)
|
||
{
|
||
bool old_val = false;
|
||
if (!was_cancelled.compare_exchange_strong(old_val, true, std::memory_order_seq_cst, std::memory_order_relaxed))
|
||
return;
|
||
|
||
LOG_TRACE(log, "(" << parallel_replicas->dumpAddresses() << ") " << reason);
|
||
parallel_replicas->sendCancel();
|
||
}
|
||
|
||
private:
|
||
IConnectionPool * pool = nullptr;
|
||
|
||
ConnectionPool::Entry pool_entry;
|
||
Connection * connection = nullptr;
|
||
std::unique_ptr<ParallelReplicas> parallel_replicas;
|
||
|
||
const String query;
|
||
bool send_settings;
|
||
Settings settings;
|
||
/// Если не nullptr, то используется, чтобы ограничить сетевой трафик.
|
||
ThrottlerPtr throttler;
|
||
/// Временные таблицы, которые необходимо переслать на удаленные сервера.
|
||
Tables external_tables;
|
||
QueryProcessingStage::Enum stage;
|
||
Context context;
|
||
|
||
/// Потоки для чтения из временных таблиц - для последующей отправки данных на удалённые серверы для GLOBAL-подзапросов.
|
||
std::vector<ExternalTablesData> external_tables_data;
|
||
std::mutex external_tables_mutex;
|
||
|
||
/// Установили соединения с репликами, но ещё не отправили запрос.
|
||
std::atomic<bool> established { false };
|
||
|
||
/// Отправили запрос (это делается перед получением первого блока).
|
||
std::atomic<bool> sent_query { false };
|
||
|
||
/** Получили все данные от всех реплик, до пакета EndOfStream.
|
||
* Если при уничтожении объекта, ещё не все данные считаны,
|
||
* то для того, чтобы не было рассинхронизации, на реплики отправляются просьбы прервать выполнение запроса,
|
||
* и после этого считываются все пакеты до EndOfStream.
|
||
*/
|
||
std::atomic<bool> finished { false };
|
||
|
||
/** На каждую реплику была отправлена просьба прервать выполнение запроса, так как данные больше не нужны.
|
||
* Это может быть из-за того, что данных достаточно (например, при использовании LIMIT),
|
||
* или если на стороне клиента произошло исключение.
|
||
*/
|
||
std::atomic<bool> was_cancelled { false };
|
||
|
||
/** С одной репилки было получено исключение. В этом случае получать больше пакетов или
|
||
* просить прервать запрос на этой реплике не нужно.
|
||
*/
|
||
std::atomic<bool> got_exception_from_replica { false };
|
||
|
||
/** С одной реплики был получен неизвестный пакет. В этом случае получать больше пакетов или
|
||
* просить прервать запрос на этой реплике не нужно.
|
||
*/
|
||
std::atomic<bool> got_unknown_packet_from_replica { false };
|
||
|
||
Logger * log = &Logger::get("RemoteBlockInputStream");
|
||
};
|
||
|
||
}
|