From 7fd7f689780def5f6ef507778a23118708a3fb62 Mon Sep 17 00:00:00 2001 From: Alexey Milovidov Date: Fri, 3 Jun 2016 05:52:20 +0300 Subject: [PATCH] Development of texts [#METR-20000]. --- doc/habrahabr/2/text.txt | 314 +++++++++++++++++++++------------------ 1 file changed, 169 insertions(+), 145 deletions(-) diff --git a/doc/habrahabr/2/text.txt b/doc/habrahabr/2/text.txt index 965ea8ff381..e7b07bf1e99 100644 --- a/doc/habrahabr/2/text.txt +++ b/doc/habrahabr/2/text.txt @@ -18,7 +18,6 @@ Расширение пользовательской базы позволяет рассматривать примеры использования, о которых другим способом было бы трудно догадаться. Также это позволяет раньше находить баги и неудобства, которые имеют значение в том числе и для основного применения ClickHouse в Метрике. Без сомнения, это делает продукт качественнее. - Давайте рассмотрим, где находится ниша ClickHouse. Зачем кому-то может понадобиться использовать ClickHouse, когда есть много других технологий для работы с большими данными? Если вам нужно просто хранить логи, у вас есть много вариантов. Вы можете загружать логи в Hadoop, анализировать их с помощью Hive, Spark или Impala. В этом случае, вам вовсе необязательно использовать ClickHouse. Всё становится сложнее, если вам нужно выполнять запросы в интерактивном режиме по неагрегированным данным, поступающим в систему в реальном времени. Для решения этой задачи, открытых технологий подходящего качества до сих пор не существовало. @@ -27,15 +26,15 @@
  1. Коммерческие OLAP СУБД для использования в собственной инфраструктуре. -Примеры: HP Vertica, Actian Vector, Actian Matrix, Sybase IQ, SAP HANA и другие. +Примеры: HP Vertica, Actian Vector, Actian Matrix, EXASol, Sybase IQ и другие. Наше отличие: мы сделали технологию открытой и бесплатной.
  2. -
  3. Облачные решения. Примеры: Amazon Redshift и Google BigQuery. +
  4. Облачные решения. Примеры: Amazon Redshift и Google BigQuery. Наше отличие: клиент может использовать ClickHouse в своей инфраструктуре и не платить за облака.
  5. -
  6. Надстройки над Hadoop. Примеры: Cloudera Impala, Facebook Presto, Apache Drill. +
  7. Надстройки над Hadoop. Примеры: Cloudera Impala, Spark SQL, Facebook Presto, Apache Drill. Наши отличия:
    • в отличие от Hadoop, ClickHouse позволяет обслуживать аналитические запросы даже в рамках массового сервиса, доступного публично, такого как Яндекс.Метрика;
    • @@ -45,12 +44,12 @@
  8. -
  9. Open-source OLAP СУБД. Пример: InfiniDB, MonetDB, LucidDB. +
  10. Open-source OLAP СУБД. Пример: InfiniDB, MonetDB, LucidDB. Разработка всех этих проектов заброшена, они никогда не были достаточно зрелыми и, по сути, так и не вышли из альфа-версии. Эти системы не были распределёнными, что является критически необходимым для обработки больших данных. Активная разработка ClickHouse, зрелость технологии и ориентация на практические потребности, возникающие при обработке больших данных, обеспечечивается задачами Яндекса. Без использования «в бою» на реальных задачах, выходящих за рамки возможностей существующих систем, создать качественный продукт было бы невозможно.
  11. Open-source системы для аналитики, не являющиеся Relational OLAP СУБД. -Пример: Metamarkets Druid, Apache Kylin. +Пример: Metamarkets Druid, Apache Kylin. Нашё отличия: ClickHouse не требует предагрегации данных. ClickHouse поддерживает диалект языка SQL и предоставляет удобство реляционных СУБД.
@@ -62,7 +61,7 @@

Как перестать бояться и начать использовать ClickHouse

-Давайте рассмотрим начало работы с ClickHouse на примере «игрушечных» открытых данных — информации об авиаперелётах в США с 1987 по 2015 годы. Это нельзя назвать большими данными (всего 166 млн. строк, 63 GB несжатых данных), зато вы можете быстро скачать их и начать экспериментировать. Ссылка на Яндекс.Диск. +Давайте рассмотрим начало работы с ClickHouse на примере «игрушечных» открытых данных — информации об авиаперелётах в США с 1987 по 2015 годы. Это нельзя назвать большими данными (всего 166 млн. строк, 63 GB несжатых данных), зато вы можете быстро скачать их и начать экспериментировать. TODO Ссылка на Яндекс.Диск. Также вы можете скачать данные из первоисточника. Как это сделать, написано здесь. @@ -70,8 +69,7 @@ На Ubuntu и Debian Linux, вы можете установить ClickHouse из готовых пакетов. На других Linux системах, вы можете собрать ClickHouse из исходников и установить его самостоятельно. -Пакет clickhouse-client содержит программу clickhouse-client — клиент ClickHouse для работы в интерактивном режиме. -Пакет clickhouse-server-base содержит бинарник clickhouse-server, а clickhouse-server-common — конфигурационные файлы к серверу. +Пакет clickhouse-client содержит программу clickhouse-client — клиент ClickHouse для работы в интерактивном режиме. Пакет clickhouse-server-base содержит бинарник clickhouse-server, а clickhouse-server-common — конфигурационные файлы к серверу. Конфигурационные файлы сервера находятся в /etc/clickhouse-server/. Главное, на что следует обратить внимание перед началом работы — элемент path — место хранения данных. Не обязательно модифицировать непосредственно файл config.xml — это не очень удобно при обновлении пакетов. Вместо этого, можно переопределить нужные элементы в файлах в config.d директории. Также имеет смысл обратить внимание на настройки прав доступа. @@ -79,8 +77,7 @@ Сервер не запускается самостоятельно при установке пакета и не перезапускается сам при обновлении. Для запуска сервера, выполните: -sudo service clickhouse-server start - +sudo service clickhouse-server start Логи сервера расположены по-умолчанию в директории /var/log/clickhouse-server/ После появления сообщения Ready for connections в логе, сервер будет принимать соединения. @@ -88,31 +85,30 @@ Работа в интерактивном режиме: - + clickhouse-client clickhouse-client --host=... --port=... --user=... --password=... - + Включить многострочные запросы: - + clickhouse-client -m clickhouse-client --multiline - + Выполнение запросов в batch режиме: - + clickhouse-client --query='SELECT 1' echo 'SELECT 1' | clickhouse-client - + Вставка данных в заданном формате: - -clickhouse-client --query='INSERT INTO table VALUES' < data.txt -clickhouse-client --query='INSERT INTO table FORMAT TabSeparated' < data.tsv - + +clickhouse-client --query='INSERT INTO table VALUES' < data.txt +clickhouse-client --query='INSERT INTO table FORMAT TabSeparated' < data.tsv + -

Создадим таблицу для тестовых данных

- +

Создадим таблицу для тестовых данных

- + $ clickhouse-client --multiline ClickHouse client version 0.0.53720. Connecting to localhost:9000. @@ -231,128 +227,162 @@ Connected to ClickHouse server version 0.0.53720. Div5TailNum String ) ENGINE = MergeTree(FlightDate, (Year, FlightDate), 8192); - + - Мы создали таблицу типа MergeTree. Таблицы семейства MergeTree рекомендуется использовать для любых серьёзных применений. Такие таблицы содержит первичный ключ, по которому данные инкрементально сортируются, что позволяет быстро выполнять запросы по диапазону первичного ключа. Например, если у нас есть логи рекламной сети, и нам нужно показывать отчёты для конкретных клиентов — рекламодателей, то первичный ключ в таблице должен начинаться на идентификатор клиента ClientId, чтобы для получения данных для одного клиента, достаточно было только прочитать небольшой диапазон данных. -

Загрузим данные в таблицу

- -xz -v -c -d < ontime.csv.xz | clickhouse-client --query="INSERT INTO ontime FORMAT CSV" - -Запрос INSERT в ClickHouse позволяет загружать данные в любом поддерживаемом формате. При этом, на загрузку данных расходуется O(1) памяти. На вход запроса INSERT можно передать любой объём данных. Вставлять данные всегда следует пачками не слишком маленького размера. При этом, вставка блоков данных размера до max_insert_block_size, 1 048 576 по-умолчанию, является атомарной: блок данных либо целиком вставится, либо целиком не вставится. В случае разрыва соединения в процессе вставки, вы можете не знать, вставился ли блок данных. Для достижения exactly once семантики, для реплицированных таблиц, поддерживается идемпотентность: вы можете вставить один и тот же блок данных повторно, возможно, на другую реплику, и он будет вставлен только один раз. В данном примере, мы вставляем данные из localhost, поэтому мы не беспокоимся о формировании пачек и exactly-once семантике. +

Загрузим данные в таблицу

+xz -v -c -d < ontime.csv.xz | clickhouse-client --query="INSERT INTO ontime FORMAT CSV" +Запрос INSERT в ClickHouse позволяет загружать данные в любом поддерживаемом формате. При этом, на загрузку данных расходуется O(1) памяти. На вход запроса INSERT можно передать любой объём данных. Вставлять данные всегда следует пачками не слишком маленького размера. При этом, вставка блоков данных размера до max_insert_block_size (= 1 048 576 строк по-умолчанию), является атомарной: блок данных либо целиком вставится, либо целиком не вставится. В случае разрыва соединения в процессе вставки, вы можете не знать, вставился ли блок данных. Для достижения exactly once семантики, для реплицированных таблиц, поддерживается идемпотентность: вы можете вставить один и тот же блок данных повторно, возможно, на другую реплику, и он будет вставлен только один раз. В данном примере, мы вставляем данные из localhost, поэтому мы не беспокоимся о формировании пачек и exactly-once семантике. Запрос INSERT в таблицы типа MergeTree является неблокирующим, ровно как и SELECT. После загрузки данных, или даже во время процесса загрузки, мы уже можем выполнять SELECT-ы. -В данном примере, некоторая неоптимальность состоит в том, что в таблице используется тип данных String тогда, когда подошёл бы Enum или числовой тип. Если множество разных значений строк заведомо небольшое (пример: название операционной системы, производитель мобильного телефона), то для максимальной производительности, мы рекомендуем использовать Enum-ы или числа. Если множество строк потенциально неограничено (пример: поисковый запрос, URL), то используйте тип данных String. +В данном примере, некоторая неоптимальность состоит в том, что в таблице используется тип данных String тогда, когда подошёл бы Enum или числовой тип. Если множество разных значений строк заведомо небольшое (пример: название операционной системы, производитель мобильного телефона), то для максимальной производительности, мы рекомендуем использовать Enum-ы или числа. Если множество строк потенциально неограничено (пример: поисковый запрос, URL), то используйте тип данных String. Во вторых отметим, что в данном примере, структура таблицы содержит избыточные столбцы Year, Quarter, Month, DayofMonth, DayOfWeek, тогда как достаточно одного FlightDate. Скорее всего, это сделано для эффективной работы других СУБД, в которых функции для работы с датой и временем, могут быть неэффективными. В случае ClickHouse, в этом нет необходимости, так как соответствующие функции хорошо оптимизированы. Впрочем, в наличии лишних столбцов нет проблемы: так как ClickHouse — это столбцовая СУБД, вы можете позволить себе иметь в таблице достаточно много столбцов. Сотни столбцов — это нормально для ClickHouse. -

Примеры работы с загруженными данными

+

Примеры работы с загруженными данными

-

Теперь рассмотрим, как установить ClickHouse на кластер из нескольких серверов

- +

Теперь рассмотрим, как установить ClickHouse на кластер из нескольких серверов

С точки зрения установленного ПО, кластер ClickHouse является однородным, без выделенных узлов. Вам надо установить ClickHouse на все серверы кластера, затем прописать конфигурацию кластера в конфигурационном файле, создать на каждом сервере локальную таблицу и затем создать Distributed таблицу. Distributed таблица представляет собой «вид» на локальные таблицы на кластере ClickHouse. При SELECT-е из распределённой таблицы, запрос будет обработан распределённо, с использованием ресурсов всех шардов кластера. Вы можете объявить конфигурации нескольких разных кластеров и создать несколько Distributed таблиц, которые смотрят на разные кластеры. - + <remote_servers> - <perftest_3shards_1replicas> - <shard> - <replica> - <host>example-perftest01j.yandex.ru</host> - <port>9000</port> - </replica> - </shard> - <shard> - <replica> - <host>example-perftest02j.yandex.ru</host> - <port>9000</port> - </replica> - </shard> - <shard> - <replica> - <host>example-perftest03j.yandex.ru</host> - <port>9000</port> - </replica> - </shard> - </perftest_3shards_1replicas> + <perftest_3shards_1replicas> + <shard> + <replica> + <host>example-perftest01j.yandex.ru</host> + <port>9000</port> + </replica> + </shard> + <shard> + <replica> + <host>example-perftest02j.yandex.ru</host> + <port>9000</port> + </replica> + </shard> + <shard> + <replica> + <host>example-perftest03j.yandex.ru</host> + <port>9000</port> + </replica> + </shard> + </perftest_3shards_1replicas> </remote_servers> - + - Создание локальной таблицы: -CREATE TABLE ontime_local (...) ENGINE = MergeTree(FlightDate, (Year, FlightDate), 8192); - +CREATE TABLE ontime_local (...) ENGINE = MergeTree(FlightDate, (Year, FlightDate), 8192); Создание распределённой таблицы, которая смотрит на локальные таблицы на кластере: -CREATE TABLE ontime_all AS ontime_local ENGINE = Distributed(perftest_3shards_1replicas, default, ontime_local, rand()); - +CREATE TABLE ontime_all AS ontime_local ENGINE = Distributed(perftest_3shards_1replicas, default, ontime_local, rand()); Вы можете создать Distributed таблицу на всех серверах кластера — тогда для выполнения распределённых запросов, можно будет обратиться на любой сервер кластера. Кроме Distributed таблицы, вы также можете воспользоваться табличной функцией remote. Для того, чтобы распределить таблицу по нескольким серверам, сделаем INSERT SELECT в Distributed таблицу. -INSERT INTO ontime_all SELECT * FROM ontime; - +INSERT INTO ontime_all SELECT * FROM ontime; Отметим, что для перешардирования больших таблиц, такой способ не подходит, и вместо этого следует воспользоваться встроенной функциональностью перешардирования. Как и ожидается, большинство запросов из распределённой таблицы на трёх серверах, работают в несколько раз быстрее. @@ -363,82 +393,76 @@ TODO SELECT OriginCityName, count(*) AS flights FROM ontime GROUP BY OriginCityN В данном примере, мы использовали кластер из трёх шардов, каждый шард которого состоит из одной реплики. Для реальных задач, в целях отказоустойчивости, каждый шард должен состоять из двух или трёх реплик, расположенных в разных датацентрах. (Поддерживается произвольное количество реплик). - + <remote_servers> - ... - <perftest_1shards_3replicas> - <shard> - <replica> - <host>example-perftest01j.yandex.ru</host> - <port>9000</port> - </replica> - <replica> - <host>example-perftest02j.yandex.ru</host> - <port>9000</port> - </replica> - <replica> - <host>example-perftest03j.yandex.ru</host> - <port>9000</port> - </replica> - </shard> - </perftest_1shards_3replicas> + ... + <perftest_1shards_3replicas> + <shard> + <replica> + <host>example-perftest01j.yandex.ru</host> + <port>9000</port> + </replica> + <replica> + <host>example-perftest02j.yandex.ru</host> + <port>9000</port> + </replica> + <replica> + <host>example-perftest03j.yandex.ru</host> + <port>9000</port> + </replica> + </shard> + </perftest_1shards_3replicas> </remote_servers> - + - Для работы репликации (хранение метаданных и координация действий), требуется ZooKeeper. ClickHouse самостоятельно будет обеспечивать консистентность данных на репликах и производит восстановление после сбоя. Рекомендуется расположить кластер ZooKeeper на отдельных серверах. На самом деле, использование ZooKeeper не обязательно: в самых простых случаях, вы можете дублировать данные, записывая их на все реплики вручную, и не использовать встроенный механизм репликации. Но такой способ не рекомендуется — ведь в таком случае, ClickHouse не сможет обеспечивать консистентность данных на репликах. -Пропишите адреса ZooKeeper в конфигурационном файле. - - + + <zookeeper-servers> - <node index="1"> - <host>zoo01.yandex.ru</host> - <port>2181</port> - </node> - <node index="2"> - <host>zoo02.yandex.ru</host> - <port>2181</port> - </node> - <node index="3"> - <host>zoo03.yandex.ru</host> - <port>2181</port> - </node> + <node index="1"> + <host>zoo01.yandex.ru</host> + <port>2181</port> + </node> + <node index="2"> + <host>zoo02.yandex.ru</host> + <port>2181</port> + </node> + <node index="3"> + <host>zoo03.yandex.ru</host> + <port>2181</port> + </node> </zookeeper-servers> - - + + Также пропишем подстановки, идентифицирующие шард и реплику — они будут использоваться при создании таблицы. - + <macros> - <shard>01</shard> - <replica>01</replica> + <shard>01</shard> + <replica>01</replica> </macros> - - + При создании реплицированной таблицы, если других реплик ещё нет, то создаётся первая реплика, а если есть — создаётся новая реплика и клонирует данные существующих реплик. Вы можете сразу создать все таблицы-реплики и затем загрузить в них данные, либо сначала создать часть реплик, а затем добавить другие, уже после загрузки или во время загрузки данных. - + CREATE TABLE ontime_replica (...) ENGINE = ReplicatedMergeTree( - '/clickhouse_perftest/tables/{shard}/ontime', - '{replica}', - FlightDate, - (Year, FlightDate), - 8192); - - + '/clickhouse_perftest/tables/{shard}/ontime', + '{replica}', + FlightDate, + (Year, FlightDate), + 8192); + Здесь видно, что мы используем тип таблицы ReplicatedMergeTree, указывая в качестве параметров путь в ZooKeeper, содержащий идентификатор шарда, а также идентификатор реплики. -INSERT INTO ontime_replica SELECT * FROM ontime; - +INSERT INTO ontime_replica SELECT * FROM ontime; Репликация работает в режиме multi-master. Вы можете вставлять данные на любую реплику, и данные автоматически разъезжаются по всем репликам. При этом, репликация асинхронная, и в заданный момент времени, реплики могут содержать не все недавно записанные данные. Для записи данных, достаточно доступности хотя бы одной реплики. Остальные реплики будут скачивать новые данные как только станут активными. Такая схема допускает возможность потери только что вставленных данных.

Как я могу повлиять на развитие ClickHouse?

- Если у вас возникли вопросы, вы можете задать их на Stackoverflow с тегом «clickhouse», создать тему для обсуждения в группе , или написать своё предложение на рассылку clickhouse-feedback@yandex-team.ru. Вы можете разрабатывать ClickHouse, присоединившись к нашей команде в Яндексе. Для этого достаточно знать C++. Выберите любую вакансию из списка и укажите, что хотите попасть в группу разработки ClickHouse. Также у нас открыт приём на стажировку.