Hide example on main docs page behind spoiler

This commit is contained in:
Ivan Blinkov 2018-07-24 19:37:57 +03:00
parent 1e07aa206e
commit 5ad0d74dff
2 changed files with 12 additions and 8 deletions

View File

@ -78,9 +78,9 @@ See the difference? Read further to learn why this happens.
For example, the query "count the number of records for each advertising platform" requires reading one "advertising platform ID" column, which takes up 1 byte uncompressed. If most of the traffic was not from advertising platforms, you can expect at least 10-fold compression of this column. When using a quick compression algorithm, data decompression is possible at a speed of at least several gigabytes of uncompressed data per second. In other words, this query can be processed at a speed of approximately several billion rows per second on a single server. This speed is actually achieved in practice.
Example:
```bash
<details><summary>Example</summary>
<p>
<pre>
$ clickhouse-client
ClickHouse client version 0.0.52053.
Connecting to localhost:9000.
@ -122,7 +122,9 @@ LIMIT 20
20 rows in set. Elapsed: 0.153 sec. Processed 1.00 billion rows, 4.00 GB (6.53 billion rows/s., 26.10 GB/s.)
:)
```
</pre>
</p>
</details>
### CPU

View File

@ -78,9 +78,9 @@ ClickHouse - столбцовая система управления базам
Для примера, для запроса "посчитать количество записей для каждой рекламной системы", требуется прочитать один столбец "идентификатор рекламной системы", который занимает 1 байт в несжатом виде. Если большинство переходов было не с рекламных систем, то можно рассчитывать хотя бы на десятикратное сжатие этого столбца. При использовании быстрого алгоритма сжатия, возможно разжатие данных со скоростью более нескольких гигабайт несжатых данных в секунду. То есть, такой запрос может выполняться со скоростью около нескольких миллиардов строк в секунду на одном сервере. На практике, такая скорость действительно достигается.
Пример:
```bash
<details><summary>Пример</summary>
<p>
<pre>
$ clickhouse-client
ClickHouse client version 0.0.52053.
Connecting to localhost:9000.
@ -122,7 +122,9 @@ LIMIT 20
20 rows in set. Elapsed: 0.153 sec. Processed 1.00 billion rows, 4.00 GB (6.53 billion rows/s., 26.10 GB/s.)
:)
```
</pre>
</p>
</details>
### По вычислениям