mirror of
https://github.com/ClickHouse/ClickHouse.git
synced 2024-11-10 01:25:21 +00:00
Merge branch 'master' of https://github.com/ClickHouse/ClickHouse into filelog-engine
This commit is contained in:
commit
7513cbe9d6
2
.github/ISSUE_TEMPLATE/85_bug-report.md
vendored
2
.github/ISSUE_TEMPLATE/85_bug-report.md
vendored
@ -9,7 +9,7 @@ assignees: ''
|
|||||||
|
|
||||||
> You have to provide the following information whenever possible.
|
> You have to provide the following information whenever possible.
|
||||||
|
|
||||||
**Describe the bug**
|
**Describe what's wrong**
|
||||||
|
|
||||||
> A clear and concise description of what works not as it is supposed to.
|
> A clear and concise description of what works not as it is supposed to.
|
||||||
|
|
||||||
|
@ -45,6 +45,7 @@ include (cmake/arch.cmake)
|
|||||||
include (cmake/target.cmake)
|
include (cmake/target.cmake)
|
||||||
include (cmake/tools.cmake)
|
include (cmake/tools.cmake)
|
||||||
include (cmake/analysis.cmake)
|
include (cmake/analysis.cmake)
|
||||||
|
include (cmake/git_status.cmake)
|
||||||
|
|
||||||
# Ignore export() since we don't use it,
|
# Ignore export() since we don't use it,
|
||||||
# but it gets broken with a global targets via link_libraries()
|
# but it gets broken with a global targets via link_libraries()
|
||||||
@ -126,12 +127,13 @@ if (USE_STATIC_LIBRARIES)
|
|||||||
list(REVERSE CMAKE_FIND_LIBRARY_SUFFIXES)
|
list(REVERSE CMAKE_FIND_LIBRARY_SUFFIXES)
|
||||||
endif ()
|
endif ()
|
||||||
|
|
||||||
# Implies ${WITH_COVERAGE}
|
|
||||||
option (ENABLE_FUZZING "Fuzzy testing using libfuzzer" OFF)
|
option (ENABLE_FUZZING "Fuzzy testing using libfuzzer" OFF)
|
||||||
|
|
||||||
if (ENABLE_FUZZING)
|
if (ENABLE_FUZZING)
|
||||||
|
# Also set WITH_COVERAGE=1 for better fuzzing process
|
||||||
|
# By default this is disabled, because fuzzers are built in CI with the clickhouse itself.
|
||||||
|
# And we don't want to enable coverage for it.
|
||||||
message (STATUS "Fuzzing instrumentation enabled")
|
message (STATUS "Fuzzing instrumentation enabled")
|
||||||
set (WITH_COVERAGE ON)
|
|
||||||
set (FUZZER "libfuzzer")
|
set (FUZZER "libfuzzer")
|
||||||
endif()
|
endif()
|
||||||
|
|
||||||
|
@ -12,7 +12,3 @@ ClickHouse® is an open-source column-oriented database management system that a
|
|||||||
* [Blog](https://clickhouse.yandex/blog/en/) contains various ClickHouse-related articles, as well as announcements and reports about events.
|
* [Blog](https://clickhouse.yandex/blog/en/) contains various ClickHouse-related articles, as well as announcements and reports about events.
|
||||||
* [Code Browser](https://clickhouse.tech/codebrowser/html_report/ClickHouse/index.html) with syntax highlight and navigation.
|
* [Code Browser](https://clickhouse.tech/codebrowser/html_report/ClickHouse/index.html) with syntax highlight and navigation.
|
||||||
* [Contacts](https://clickhouse.tech/#contacts) can help to get your questions answered if there are any.
|
* [Contacts](https://clickhouse.tech/#contacts) can help to get your questions answered if there are any.
|
||||||
* You can also [fill this form](https://clickhouse.tech/#meet) to meet Yandex ClickHouse team in person.
|
|
||||||
|
|
||||||
## Upcoming Events
|
|
||||||
* [SF Bay Area ClickHouse August Community Meetup (online)](https://www.meetup.com/San-Francisco-Bay-Area-ClickHouse-Meetup/events/279109379/) on 25 August 2021.
|
|
||||||
|
49
SECURITY.md
49
SECURITY.md
@ -1,9 +1,11 @@
|
|||||||
# Security Policy
|
# Security Policy
|
||||||
|
|
||||||
## Supported Versions
|
## Security Announcements
|
||||||
|
Security fixes will be announced by posting them in the [security changelog](https://clickhouse.tech/docs/en/whats-new/security-changelog/)
|
||||||
|
|
||||||
The following versions of ClickHouse server are
|
## Scope and Supported Versions
|
||||||
currently being supported with security updates:
|
|
||||||
|
The following versions of ClickHouse server are currently being supported with security updates:
|
||||||
|
|
||||||
| Version | Supported |
|
| Version | Supported |
|
||||||
| ------- | ------------------ |
|
| ------- | ------------------ |
|
||||||
@ -11,18 +13,49 @@ currently being supported with security updates:
|
|||||||
| 18.x | :x: |
|
| 18.x | :x: |
|
||||||
| 19.x | :x: |
|
| 19.x | :x: |
|
||||||
| 20.1 | :x: |
|
| 20.1 | :x: |
|
||||||
| 20.3 | :white_check_mark: |
|
| 20.3 | :x: |
|
||||||
| 20.4 | :x: |
|
| 20.4 | :x: |
|
||||||
| 20.5 | :x: |
|
| 20.5 | :x: |
|
||||||
| 20.6 | :x: |
|
| 20.6 | :x: |
|
||||||
| 20.7 | :x: |
|
| 20.7 | :x: |
|
||||||
| 20.8 | :white_check_mark: |
|
| 20.8 | :x: |
|
||||||
| 20.9 | :x: |
|
| 20.9 | :x: |
|
||||||
| 20.10 | :x: |
|
| 20.10 | :x: |
|
||||||
| 20.11 | :white_check_mark: |
|
| 20.11 | :x: |
|
||||||
| 20.12 | :white_check_mark: |
|
| 20.12 | :x: |
|
||||||
| 21.1 | :white_check_mark: |
|
| 21.1 | :x: |
|
||||||
|
| 21.2 | :x: |
|
||||||
|
| 21.3 | ✅ |
|
||||||
|
| 21.4 | :x: |
|
||||||
|
| 21.5 | :x: |
|
||||||
|
| 21.6 | ✅ |
|
||||||
|
| 21.7 | ✅ |
|
||||||
|
| 21.8 | ✅ |
|
||||||
|
|
||||||
## Reporting a Vulnerability
|
## Reporting a Vulnerability
|
||||||
|
|
||||||
|
We're extremely grateful for security researchers and users that report vulnerabilities to the ClickHouse Open Source Community. All reports are thoroughly investigated by developers.
|
||||||
|
|
||||||
To report a potential vulnerability in ClickHouse please send the details about it to [clickhouse-feedback@yandex-team.com](mailto:clickhouse-feedback@yandex-team.com).
|
To report a potential vulnerability in ClickHouse please send the details about it to [clickhouse-feedback@yandex-team.com](mailto:clickhouse-feedback@yandex-team.com).
|
||||||
|
|
||||||
|
### When Should I Report a Vulnerability?
|
||||||
|
|
||||||
|
- You think you discovered a potential security vulnerability in ClickHouse
|
||||||
|
- You are unsure how a vulnerability affects ClickHouse
|
||||||
|
|
||||||
|
### When Should I NOT Report a Vulnerability?
|
||||||
|
|
||||||
|
- You need help tuning ClickHouse components for security
|
||||||
|
- You need help applying security related updates
|
||||||
|
- Your issue is not security related
|
||||||
|
|
||||||
|
## Security Vulnerability Response
|
||||||
|
|
||||||
|
Each report is acknowledged and analyzed by ClickHouse maintainers within 5 working days.
|
||||||
|
As the security issue moves from triage, to identified fix, to release planning we will keep the reporter updated.
|
||||||
|
|
||||||
|
## Public Disclosure Timing
|
||||||
|
|
||||||
|
A public disclosure date is negotiated by the ClickHouse maintainers and the bug submitter. We prefer to fully disclose the bug as soon as possible once a user mitigation is available. It is reasonable to delay disclosure when the bug or the fix is not yet fully understood, the solution is not well-tested, or for vendor coordination. The timeframe for disclosure is from immediate (especially if it's already publicly known) to 90 days. For a vulnerability with a straightforward mitigation, we expect report date to disclosure date to be on the order of 7 days.
|
||||||
|
|
||||||
|
|
||||||
|
28
base/common/insertAtEnd.h
Normal file
28
base/common/insertAtEnd.h
Normal file
@ -0,0 +1,28 @@
|
|||||||
|
#pragma once
|
||||||
|
|
||||||
|
#include <vector>
|
||||||
|
|
||||||
|
/// Appends a specified vector with elements of another vector.
|
||||||
|
template <typename T>
|
||||||
|
void insertAtEnd(std::vector<T> & dest, const std::vector<T> & src)
|
||||||
|
{
|
||||||
|
if (src.empty())
|
||||||
|
return;
|
||||||
|
dest.reserve(dest.size() + src.size());
|
||||||
|
dest.insert(dest.end(), src.begin(), src.end());
|
||||||
|
}
|
||||||
|
|
||||||
|
template <typename T>
|
||||||
|
void insertAtEnd(std::vector<T> & dest, std::vector<T> && src)
|
||||||
|
{
|
||||||
|
if (src.empty())
|
||||||
|
return;
|
||||||
|
if (dest.empty())
|
||||||
|
{
|
||||||
|
dest.swap(src);
|
||||||
|
return;
|
||||||
|
}
|
||||||
|
dest.reserve(dest.size() + src.size());
|
||||||
|
dest.insert(dest.end(), std::make_move_iterator(src.begin()), std::make_move_iterator(src.end()));
|
||||||
|
src.clear();
|
||||||
|
}
|
10
base/common/unit.h
Normal file
10
base/common/unit.h
Normal file
@ -0,0 +1,10 @@
|
|||||||
|
#pragma once
|
||||||
|
#include <cstddef>
|
||||||
|
|
||||||
|
constexpr size_t KiB = 1024;
|
||||||
|
constexpr size_t MiB = 1024 * KiB;
|
||||||
|
constexpr size_t GiB = 1024 * MiB;
|
||||||
|
|
||||||
|
constexpr size_t operator"" _KiB(unsigned long long val) { return val * KiB; }
|
||||||
|
constexpr size_t operator"" _MiB(unsigned long long val) { return val * MiB; }
|
||||||
|
constexpr size_t operator"" _GiB(unsigned long long val) { return val * GiB; }
|
@ -9,6 +9,7 @@
|
|||||||
#include <cmath>
|
#include <cmath>
|
||||||
#include <cfloat>
|
#include <cfloat>
|
||||||
#include <cassert>
|
#include <cassert>
|
||||||
|
#include <tuple>
|
||||||
#include <limits>
|
#include <limits>
|
||||||
|
|
||||||
|
|
||||||
@ -39,6 +40,18 @@ static constexpr bool IntegralConcept() noexcept
|
|||||||
return std::is_integral_v<T> || IsWideInteger<T>::value;
|
return std::is_integral_v<T> || IsWideInteger<T>::value;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
template <typename T>
|
||||||
|
class IsTupleLike
|
||||||
|
{
|
||||||
|
template <typename U>
|
||||||
|
static auto check(U * p) -> decltype(std::tuple_size<U>::value, int());
|
||||||
|
template <typename>
|
||||||
|
static void check(...);
|
||||||
|
|
||||||
|
public:
|
||||||
|
static constexpr const bool value = !std::is_void<decltype(check<T>(nullptr))>::value;
|
||||||
|
};
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
namespace std
|
namespace std
|
||||||
@ -227,6 +240,19 @@ struct integer<Bits, Signed>::_impl
|
|||||||
self.items[i] = 0;
|
self.items[i] = 0;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
template <typename TupleLike, size_t i = 0>
|
||||||
|
constexpr static void wide_integer_from_tuple_like(integer<Bits, Signed> & self, const TupleLike & tuple) noexcept
|
||||||
|
{
|
||||||
|
if constexpr (i < item_count)
|
||||||
|
{
|
||||||
|
if constexpr (i < std::tuple_size_v<TupleLike>)
|
||||||
|
self.items[i] = std::get<i>(tuple);
|
||||||
|
else
|
||||||
|
self.items[i] = 0;
|
||||||
|
wide_integer_from_tuple_like<TupleLike, i + 1>(self, tuple);
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
* N.B. t is constructed from double, so max(t) = max(double) ~ 2^310
|
* N.B. t is constructed from double, so max(t) = max(double) ~ 2^310
|
||||||
* the recursive call happens when t / 2^64 > 2^64, so there won't be more than 5 of them.
|
* the recursive call happens when t / 2^64 > 2^64, so there won't be more than 5 of them.
|
||||||
@ -966,6 +992,8 @@ constexpr integer<Bits, Signed>::integer(T rhs) noexcept
|
|||||||
{
|
{
|
||||||
if constexpr (IsWideInteger<T>::value)
|
if constexpr (IsWideInteger<T>::value)
|
||||||
_impl::wide_integer_from_wide_integer(*this, rhs);
|
_impl::wide_integer_from_wide_integer(*this, rhs);
|
||||||
|
else if constexpr (IsTupleLike<T>::value)
|
||||||
|
_impl::wide_integer_from_tuple_like(*this, rhs);
|
||||||
else
|
else
|
||||||
_impl::wide_integer_from_builtin(*this, rhs);
|
_impl::wide_integer_from_builtin(*this, rhs);
|
||||||
}
|
}
|
||||||
@ -979,6 +1007,8 @@ constexpr integer<Bits, Signed>::integer(std::initializer_list<T> il) noexcept
|
|||||||
{
|
{
|
||||||
if constexpr (IsWideInteger<T>::value)
|
if constexpr (IsWideInteger<T>::value)
|
||||||
_impl::wide_integer_from_wide_integer(*this, *il.begin());
|
_impl::wide_integer_from_wide_integer(*this, *il.begin());
|
||||||
|
else if constexpr (IsTupleLike<T>::value)
|
||||||
|
_impl::wide_integer_from_tuple_like(*this, *il.begin());
|
||||||
else
|
else
|
||||||
_impl::wide_integer_from_builtin(*this, *il.begin());
|
_impl::wide_integer_from_builtin(*this, *il.begin());
|
||||||
}
|
}
|
||||||
@ -1007,6 +1037,9 @@ template <size_t Bits, typename Signed>
|
|||||||
template <typename T>
|
template <typename T>
|
||||||
constexpr integer<Bits, Signed> & integer<Bits, Signed>::operator=(T rhs) noexcept
|
constexpr integer<Bits, Signed> & integer<Bits, Signed>::operator=(T rhs) noexcept
|
||||||
{
|
{
|
||||||
|
if constexpr (IsTupleLike<T>::value)
|
||||||
|
_impl::wide_integer_from_tuple_like(*this, rhs);
|
||||||
|
else
|
||||||
_impl::wide_integer_from_builtin(*this, rhs);
|
_impl::wide_integer_from_builtin(*this, rhs);
|
||||||
return *this;
|
return *this;
|
||||||
}
|
}
|
||||||
|
@ -1,4 +1,5 @@
|
|||||||
#include <sys/auxv.h>
|
#include <sys/auxv.h>
|
||||||
|
#include "atomic.h"
|
||||||
#include <unistd.h> // __environ
|
#include <unistd.h> // __environ
|
||||||
#include <errno.h>
|
#include <errno.h>
|
||||||
|
|
||||||
@ -17,18 +18,7 @@ static size_t __find_auxv(unsigned long type)
|
|||||||
return (size_t) -1;
|
return (size_t) -1;
|
||||||
}
|
}
|
||||||
|
|
||||||
__attribute__((constructor)) static void __auxv_init()
|
unsigned long __getauxval(unsigned long type)
|
||||||
{
|
|
||||||
size_t i;
|
|
||||||
for (i = 0; __environ[i]; i++);
|
|
||||||
__auxv = (unsigned long *) (__environ + i + 1);
|
|
||||||
|
|
||||||
size_t secure_idx = __find_auxv(AT_SECURE);
|
|
||||||
if (secure_idx != ((size_t) -1))
|
|
||||||
__auxv_secure = __auxv[secure_idx];
|
|
||||||
}
|
|
||||||
|
|
||||||
unsigned long getauxval(unsigned long type)
|
|
||||||
{
|
{
|
||||||
if (type == AT_SECURE)
|
if (type == AT_SECURE)
|
||||||
return __auxv_secure;
|
return __auxv_secure;
|
||||||
@ -43,3 +33,38 @@ unsigned long getauxval(unsigned long type)
|
|||||||
errno = ENOENT;
|
errno = ENOENT;
|
||||||
return 0;
|
return 0;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static void * volatile getauxval_func;
|
||||||
|
|
||||||
|
static unsigned long __auxv_init(unsigned long type)
|
||||||
|
{
|
||||||
|
if (!__environ)
|
||||||
|
{
|
||||||
|
// __environ is not initialized yet so we can't initialize __auxv right now.
|
||||||
|
// That's normally occurred only when getauxval() is called from some sanitizer's internal code.
|
||||||
|
errno = ENOENT;
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
|
// Initialize __auxv and __auxv_secure.
|
||||||
|
size_t i;
|
||||||
|
for (i = 0; __environ[i]; i++);
|
||||||
|
__auxv = (unsigned long *) (__environ + i + 1);
|
||||||
|
|
||||||
|
size_t secure_idx = __find_auxv(AT_SECURE);
|
||||||
|
if (secure_idx != ((size_t) -1))
|
||||||
|
__auxv_secure = __auxv[secure_idx];
|
||||||
|
|
||||||
|
// Now we've initialized __auxv, next time getauxval() will only call __get_auxval().
|
||||||
|
a_cas_p(&getauxval_func, (void *)__auxv_init, (void *)__getauxval);
|
||||||
|
|
||||||
|
return __getauxval(type);
|
||||||
|
}
|
||||||
|
|
||||||
|
// First time getauxval() will call __auxv_init().
|
||||||
|
static void * volatile getauxval_func = (void *)__auxv_init;
|
||||||
|
|
||||||
|
unsigned long getauxval(unsigned long type)
|
||||||
|
{
|
||||||
|
return ((unsigned long (*)(unsigned long))getauxval_func)(type);
|
||||||
|
}
|
||||||
|
17
cmake/git_status.cmake
Normal file
17
cmake/git_status.cmake
Normal file
@ -0,0 +1,17 @@
|
|||||||
|
# Print the status of the git repository (if git is available).
|
||||||
|
# This is useful for troubleshooting build failure reports
|
||||||
|
find_package(Git)
|
||||||
|
|
||||||
|
if (Git_FOUND)
|
||||||
|
execute_process(
|
||||||
|
COMMAND ${GIT_EXECUTABLE} rev-parse HEAD
|
||||||
|
WORKING_DIRECTORY ${CMAKE_SOURCE_DIR}
|
||||||
|
OUTPUT_VARIABLE GIT_COMMIT_ID
|
||||||
|
OUTPUT_STRIP_TRAILING_WHITESPACE)
|
||||||
|
message(STATUS "HEAD's commit hash ${GIT_COMMIT_ID}")
|
||||||
|
execute_process(
|
||||||
|
COMMAND ${GIT_EXECUTABLE} status
|
||||||
|
WORKING_DIRECTORY ${CMAKE_SOURCE_DIR})
|
||||||
|
else()
|
||||||
|
message(STATUS "The git program could not be found.")
|
||||||
|
endif()
|
2
contrib/aws
vendored
2
contrib/aws
vendored
@ -1 +1 @@
|
|||||||
Subproject commit 7d48b2c8193679cc4516e5bd68ae4a64b94dae7d
|
Subproject commit 06aa8759d17f2032ffd5efa83969270ca9ac727b
|
@ -22,6 +22,7 @@ set (SRCS
|
|||||||
"${LIBRARY_DIR}/src/transaction.cxx"
|
"${LIBRARY_DIR}/src/transaction.cxx"
|
||||||
"${LIBRARY_DIR}/src/transaction_base.cxx"
|
"${LIBRARY_DIR}/src/transaction_base.cxx"
|
||||||
"${LIBRARY_DIR}/src/row.cxx"
|
"${LIBRARY_DIR}/src/row.cxx"
|
||||||
|
"${LIBRARY_DIR}/src/params.cxx"
|
||||||
"${LIBRARY_DIR}/src/util.cxx"
|
"${LIBRARY_DIR}/src/util.cxx"
|
||||||
"${LIBRARY_DIR}/src/version.cxx"
|
"${LIBRARY_DIR}/src/version.cxx"
|
||||||
)
|
)
|
||||||
@ -31,6 +32,7 @@ set (SRCS
|
|||||||
# conflicts with all includes of <array>.
|
# conflicts with all includes of <array>.
|
||||||
set (HDRS
|
set (HDRS
|
||||||
"${LIBRARY_DIR}/include/pqxx/array.hxx"
|
"${LIBRARY_DIR}/include/pqxx/array.hxx"
|
||||||
|
"${LIBRARY_DIR}/include/pqxx/params.hxx"
|
||||||
"${LIBRARY_DIR}/include/pqxx/binarystring.hxx"
|
"${LIBRARY_DIR}/include/pqxx/binarystring.hxx"
|
||||||
"${LIBRARY_DIR}/include/pqxx/composite.hxx"
|
"${LIBRARY_DIR}/include/pqxx/composite.hxx"
|
||||||
"${LIBRARY_DIR}/include/pqxx/connection.hxx"
|
"${LIBRARY_DIR}/include/pqxx/connection.hxx"
|
||||||
@ -75,4 +77,3 @@ set(CM_CONFIG_PQ "${LIBRARY_DIR}/include/pqxx/config-internal-libpq.h")
|
|||||||
configure_file("${CM_CONFIG_H_IN}" "${CM_CONFIG_INT}" @ONLY)
|
configure_file("${CM_CONFIG_H_IN}" "${CM_CONFIG_INT}" @ONLY)
|
||||||
configure_file("${CM_CONFIG_H_IN}" "${CM_CONFIG_PUB}" @ONLY)
|
configure_file("${CM_CONFIG_H_IN}" "${CM_CONFIG_PUB}" @ONLY)
|
||||||
configure_file("${CM_CONFIG_H_IN}" "${CM_CONFIG_PQ}" @ONLY)
|
configure_file("${CM_CONFIG_H_IN}" "${CM_CONFIG_PQ}" @ONLY)
|
||||||
|
|
||||||
|
2
contrib/libunwind
vendored
2
contrib/libunwind
vendored
@ -1 +1 @@
|
|||||||
Subproject commit 6b816d2fba3991f8fd6aaec17d92f68947eab667
|
Subproject commit c4ea9848a697747dfa35325af9b3452f30841685
|
2
contrib/nanodbc
vendored
2
contrib/nanodbc
vendored
@ -1 +1 @@
|
|||||||
Subproject commit 9fc459675515d491401727ec67fca38db721f28c
|
Subproject commit df52a1232dfa182f9af60974d001b91823afe9bc
|
2
contrib/replxx
vendored
2
contrib/replxx
vendored
@ -1 +1 @@
|
|||||||
Subproject commit c81be6c68b146f15f2096b7ef80e3f21fe27004c
|
Subproject commit f97765df14f4a6236d69b8f14b53ef2051ebd95a
|
@ -2,6 +2,8 @@ FROM ubuntu:20.04
|
|||||||
|
|
||||||
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& apt-get install ca-certificates lsb-release wget gnupg apt-transport-https \
|
&& apt-get install ca-certificates lsb-release wget gnupg apt-transport-https \
|
||||||
--yes --no-install-recommends --verbose-versions \
|
--yes --no-install-recommends --verbose-versions \
|
||||||
|
@ -3,6 +3,8 @@ FROM ubuntu:18.04
|
|||||||
ARG repository="deb https://repo.clickhouse.tech/deb/stable/ main/"
|
ARG repository="deb https://repo.clickhouse.tech/deb/stable/ main/"
|
||||||
ARG version=21.10.1.*
|
ARG version=21.10.1.*
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& apt-get install --yes --no-install-recommends \
|
&& apt-get install --yes --no-install-recommends \
|
||||||
apt-transport-https \
|
apt-transport-https \
|
||||||
|
@ -3,6 +3,8 @@ FROM ubuntu:20.04
|
|||||||
|
|
||||||
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& apt-get install \
|
&& apt-get install \
|
||||||
apt-transport-https \
|
apt-transport-https \
|
||||||
|
@ -83,6 +83,16 @@ then
|
|||||||
mv "$COMBINED_OUTPUT.tgz" /output
|
mv "$COMBINED_OUTPUT.tgz" /output
|
||||||
fi
|
fi
|
||||||
|
|
||||||
|
# Also build fuzzers if any sanitizer specified
|
||||||
|
if [ -n "$SANITIZER" ]
|
||||||
|
then
|
||||||
|
# Currently we are in build/build_docker directory
|
||||||
|
../docker/packager/other/fuzzer.sh
|
||||||
|
fi
|
||||||
|
|
||||||
|
ccache --show-config ||:
|
||||||
|
ccache --show-stats ||:
|
||||||
|
|
||||||
if [ "${CCACHE_DEBUG:-}" == "1" ]
|
if [ "${CCACHE_DEBUG:-}" == "1" ]
|
||||||
then
|
then
|
||||||
find . -name '*.ccache-*' -print0 \
|
find . -name '*.ccache-*' -print0 \
|
||||||
@ -95,4 +105,3 @@ then
|
|||||||
# files in place, and will fail because this directory is not writable.
|
# files in place, and will fail because this directory is not writable.
|
||||||
tar -cv -I pixz -f /output/ccache.log.txz "$CCACHE_LOGFILE"
|
tar -cv -I pixz -f /output/ccache.log.txz "$CCACHE_LOGFILE"
|
||||||
fi
|
fi
|
||||||
|
|
||||||
|
@ -3,6 +3,8 @@ FROM ubuntu:20.04
|
|||||||
|
|
||||||
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& apt-get install ca-certificates lsb-release wget gnupg apt-transport-https \
|
&& apt-get install ca-certificates lsb-release wget gnupg apt-transport-https \
|
||||||
--yes --no-install-recommends --verbose-versions \
|
--yes --no-install-recommends --verbose-versions \
|
||||||
|
@ -23,12 +23,24 @@ then
|
|||||||
echo "Place $BINARY_OUTPUT to output"
|
echo "Place $BINARY_OUTPUT to output"
|
||||||
mkdir /output/binary ||: # if exists
|
mkdir /output/binary ||: # if exists
|
||||||
mv /build/obj-*/programs/clickhouse* /output/binary
|
mv /build/obj-*/programs/clickhouse* /output/binary
|
||||||
|
|
||||||
if [ "$BINARY_OUTPUT" = "tests" ]
|
if [ "$BINARY_OUTPUT" = "tests" ]
|
||||||
then
|
then
|
||||||
mv /build/obj-*/src/unit_tests_dbms /output/binary
|
mv /build/obj-*/src/unit_tests_dbms /output/binary
|
||||||
fi
|
fi
|
||||||
fi
|
fi
|
||||||
|
|
||||||
|
# Also build fuzzers if any sanitizer specified
|
||||||
|
if [ -n "$SANITIZER" ]
|
||||||
|
then
|
||||||
|
# Script is supposed that we are in build directory.
|
||||||
|
mkdir -p build/build_docker
|
||||||
|
cd build/build_docker
|
||||||
|
# Launching build script
|
||||||
|
../docker/packager/other/fuzzer.sh
|
||||||
|
cd
|
||||||
|
fi
|
||||||
|
|
||||||
ccache --show-config ||:
|
ccache --show-config ||:
|
||||||
ccache --show-stats ||:
|
ccache --show-stats ||:
|
||||||
|
|
||||||
|
35
docker/packager/other/fuzzer.sh
Executable file
35
docker/packager/other/fuzzer.sh
Executable file
@ -0,0 +1,35 @@
|
|||||||
|
#!/usr/bin/env bash
|
||||||
|
|
||||||
|
# This script is responsible for building all fuzzers, and copy them to output directory
|
||||||
|
# as an archive.
|
||||||
|
# Script is supposed that we are in build directory.
|
||||||
|
|
||||||
|
set -x -e
|
||||||
|
|
||||||
|
printenv
|
||||||
|
|
||||||
|
# Delete previous cache, because we add a new flags -DENABLE_FUZZING=1 and -DFUZZER=libfuzzer
|
||||||
|
rm -f CMakeCache.txt
|
||||||
|
read -ra CMAKE_FLAGS <<< "${CMAKE_FLAGS:-}"
|
||||||
|
# Hope, that the most part of files will be in cache, so we just link new executables
|
||||||
|
cmake --debug-trycompile --verbose=1 -DCMAKE_VERBOSE_MAKEFILE=1 -LA -DCMAKE_C_COMPILER="$CC" -DCMAKE_CXX_COMPILER="$CXX" -DENABLE_CLICKHOUSE_ODBC_BRIDGE=OFF \
|
||||||
|
-DENABLE_LIBRARIES=0 -DENABLE_SSL=1 -DUSE_INTERNAL_SSL_LIBRARY=1 -DUSE_UNWIND=ON -DENABLE_EMBEDDED_COMPILER=0 \
|
||||||
|
-DENABLE_EXAMPLES=0 -DENABLE_UTILS=0 -DENABLE_THINLTO=0 "-DSANITIZE=$SANITIZER" \
|
||||||
|
-DENABLE_FUZZING=1 -DFUZZER='libfuzzer' -DENABLE_TCMALLOC=0 -DENABLE_JEMALLOC=0 \
|
||||||
|
-DENABLE_CHECK_HEAVY_BUILDS=1 "${CMAKE_FLAGS[@]}" ..
|
||||||
|
|
||||||
|
FUZZER_TARGETS=$(find ../src -name '*_fuzzer.cpp' -execdir basename {} .cpp ';' | tr '\n' ' ')
|
||||||
|
|
||||||
|
mkdir -p /output/fuzzers
|
||||||
|
for FUZZER_TARGET in $FUZZER_TARGETS
|
||||||
|
do
|
||||||
|
# shellcheck disable=SC2086 # No quotes because I want it to expand to nothing if empty.
|
||||||
|
ninja $NINJA_FLAGS $FUZZER_TARGET
|
||||||
|
# Find this binary in build directory and strip it
|
||||||
|
FUZZER_PATH=$(find ./src -name "$FUZZER_TARGET")
|
||||||
|
strip --strip-unneeded "$FUZZER_PATH"
|
||||||
|
mv "$FUZZER_PATH" /output/fuzzers
|
||||||
|
done
|
||||||
|
|
||||||
|
tar -zcvf /output/fuzzers.tar.gz /output/fuzzers
|
||||||
|
rm -rf /output/fuzzers
|
@ -105,6 +105,9 @@ def parse_env_variables(build_type, compiler, sanitizer, package_type, image_typ
|
|||||||
if image_type == "deb" or image_type == "unbundled":
|
if image_type == "deb" or image_type == "unbundled":
|
||||||
result.append("DEB_CC={}".format(cc))
|
result.append("DEB_CC={}".format(cc))
|
||||||
result.append("DEB_CXX={}".format(cxx))
|
result.append("DEB_CXX={}".format(cxx))
|
||||||
|
# For building fuzzers
|
||||||
|
result.append("CC={}".format(cc))
|
||||||
|
result.append("CXX={}".format(cxx))
|
||||||
elif image_type == "binary":
|
elif image_type == "binary":
|
||||||
result.append("CC={}".format(cc))
|
result.append("CC={}".format(cc))
|
||||||
result.append("CXX={}".format(cxx))
|
result.append("CXX={}".format(cxx))
|
||||||
@ -173,9 +176,6 @@ def parse_env_variables(build_type, compiler, sanitizer, package_type, image_typ
|
|||||||
cmake_flags.append('-DUSE_GTEST=1')
|
cmake_flags.append('-DUSE_GTEST=1')
|
||||||
cmake_flags.append('-DENABLE_TESTS=1')
|
cmake_flags.append('-DENABLE_TESTS=1')
|
||||||
cmake_flags.append('-DENABLE_EXAMPLES=1')
|
cmake_flags.append('-DENABLE_EXAMPLES=1')
|
||||||
cmake_flags.append('-DENABLE_FUZZING=1')
|
|
||||||
# For fuzzing needs
|
|
||||||
cmake_flags.append('-DUSE_YAML_CPP=1')
|
|
||||||
# Don't stop on first error to find more clang-tidy errors in one run.
|
# Don't stop on first error to find more clang-tidy errors in one run.
|
||||||
result.append('NINJA_FLAGS=-k0')
|
result.append('NINJA_FLAGS=-k0')
|
||||||
|
|
||||||
|
@ -5,6 +5,8 @@ RUN export CODENAME="$(lsb_release --codename --short | tr 'A-Z' 'a-z')" \
|
|||||||
&& wget -nv -O /tmp/arrow-keyring.deb "https://apache.jfrog.io/artifactory/arrow/ubuntu/apache-arrow-apt-source-latest-${CODENAME}.deb" \
|
&& wget -nv -O /tmp/arrow-keyring.deb "https://apache.jfrog.io/artifactory/arrow/ubuntu/apache-arrow-apt-source-latest-${CODENAME}.deb" \
|
||||||
&& dpkg -i /tmp/arrow-keyring.deb
|
&& dpkg -i /tmp/arrow-keyring.deb
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
# Libraries from OS are only needed to test the "unbundled" build (that is not used in production).
|
# Libraries from OS are only needed to test the "unbundled" build (that is not used in production).
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& apt-get install \
|
&& apt-get install \
|
||||||
|
@ -26,6 +26,8 @@ ARG DEBIAN_FRONTEND=noninteractive
|
|||||||
# installed to prevent picking those uid / gid by some unrelated software.
|
# installed to prevent picking those uid / gid by some unrelated software.
|
||||||
# The same uid / gid (101) is used both for alpine and ubuntu.
|
# The same uid / gid (101) is used both for alpine and ubuntu.
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN groupadd -r clickhouse --gid=101 \
|
RUN groupadd -r clickhouse --gid=101 \
|
||||||
&& useradd -r -g clickhouse --uid=101 --home-dir=/var/lib/clickhouse --shell=/bin/bash clickhouse \
|
&& useradd -r -g clickhouse --uid=101 --home-dir=/var/lib/clickhouse --shell=/bin/bash clickhouse \
|
||||||
&& apt-get update \
|
&& apt-get update \
|
||||||
|
@ -3,6 +3,8 @@ FROM ubuntu:20.04
|
|||||||
|
|
||||||
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& apt-get install ca-certificates lsb-release wget gnupg apt-transport-https \
|
&& apt-get install ca-certificates lsb-release wget gnupg apt-transport-https \
|
||||||
--yes --no-install-recommends --verbose-versions \
|
--yes --no-install-recommends --verbose-versions \
|
||||||
|
@ -2,6 +2,8 @@
|
|||||||
# docker run --volume=path_to_repo:/repo_folder --volume=path_to_result:/test_output yandex/clickhouse-codebrowser
|
# docker run --volume=path_to_repo:/repo_folder --volume=path_to_result:/test_output yandex/clickhouse-codebrowser
|
||||||
FROM yandex/clickhouse-binary-builder
|
FROM yandex/clickhouse-binary-builder
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update && apt-get --yes --allow-unauthenticated install clang-9 libllvm9 libclang-9-dev
|
RUN apt-get update && apt-get --yes --allow-unauthenticated install clang-9 libllvm9 libclang-9-dev
|
||||||
|
|
||||||
# repo versions doesn't work correctly with C++17
|
# repo versions doesn't work correctly with C++17
|
||||||
|
@ -3,6 +3,8 @@ FROM ubuntu:20.04
|
|||||||
|
|
||||||
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
ENV DEBIAN_FRONTEND=noninteractive LLVM_VERSION=11
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& apt-get install ca-certificates lsb-release wget gnupg apt-transport-https \
|
&& apt-get install ca-certificates lsb-release wget gnupg apt-transport-https \
|
||||||
--yes --no-install-recommends --verbose-versions \
|
--yes --no-install-recommends --verbose-versions \
|
||||||
|
@ -377,6 +377,7 @@ function run_tests
|
|||||||
|
|
||||||
# Depends on AWS
|
# Depends on AWS
|
||||||
01801_s3_cluster
|
01801_s3_cluster
|
||||||
|
02012_settings_clause_for_s3
|
||||||
|
|
||||||
# needs psql
|
# needs psql
|
||||||
01889_postgresql_protocol_null_fields
|
01889_postgresql_protocol_null_fields
|
||||||
@ -393,6 +394,12 @@ function run_tests
|
|||||||
01853_s2_cells_intersect
|
01853_s2_cells_intersect
|
||||||
01854_s2_cap_contains
|
01854_s2_cap_contains
|
||||||
01854_s2_cap_union
|
01854_s2_cap_union
|
||||||
|
|
||||||
|
# needs s3
|
||||||
|
01944_insert_partition_by
|
||||||
|
|
||||||
|
# depends on Go
|
||||||
|
02013_zlib_read_after_eof
|
||||||
)
|
)
|
||||||
|
|
||||||
time clickhouse-test --hung-check -j 8 --order=random --use-skip-list \
|
time clickhouse-test --hung-check -j 8 --order=random --use-skip-list \
|
||||||
|
@ -5,6 +5,8 @@ ENV LANG=C.UTF-8
|
|||||||
ENV TZ=Europe/Moscow
|
ENV TZ=Europe/Moscow
|
||||||
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& DEBIAN_FRONTEND=noninteractive apt-get install --yes --no-install-recommends \
|
&& DEBIAN_FRONTEND=noninteractive apt-get install --yes --no-install-recommends \
|
||||||
ca-certificates \
|
ca-certificates \
|
||||||
@ -14,6 +16,8 @@ RUN apt-get update \
|
|||||||
p7zip-full \
|
p7zip-full \
|
||||||
parallel \
|
parallel \
|
||||||
psmisc \
|
psmisc \
|
||||||
|
python3 \
|
||||||
|
python3-pip \
|
||||||
rsync \
|
rsync \
|
||||||
tree \
|
tree \
|
||||||
tzdata \
|
tzdata \
|
||||||
@ -23,6 +27,8 @@ RUN apt-get update \
|
|||||||
&& apt-get clean \
|
&& apt-get clean \
|
||||||
&& rm -rf /var/lib/apt/lists/*
|
&& rm -rf /var/lib/apt/lists/*
|
||||||
|
|
||||||
|
RUN pip3 install Jinja2
|
||||||
|
|
||||||
COPY * /
|
COPY * /
|
||||||
|
|
||||||
SHELL ["/bin/bash", "-c"]
|
SHELL ["/bin/bash", "-c"]
|
||||||
|
62
docker/test/fuzzer/generate-test-j2.py
Executable file
62
docker/test/fuzzer/generate-test-j2.py
Executable file
@ -0,0 +1,62 @@
|
|||||||
|
#!/usr/bin/env python3
|
||||||
|
|
||||||
|
from argparse import ArgumentParser
|
||||||
|
import os
|
||||||
|
import jinja2
|
||||||
|
|
||||||
|
|
||||||
|
def removesuffix(text, suffix):
|
||||||
|
"""
|
||||||
|
Added in python 3.9
|
||||||
|
https://www.python.org/dev/peps/pep-0616/
|
||||||
|
"""
|
||||||
|
if suffix and text.endswith(suffix):
|
||||||
|
return text[:-len(suffix)]
|
||||||
|
else:
|
||||||
|
return text[:]
|
||||||
|
|
||||||
|
|
||||||
|
def render_test_template(j2env, suite_dir, test_name):
|
||||||
|
"""
|
||||||
|
Render template for test and reference file if needed
|
||||||
|
"""
|
||||||
|
|
||||||
|
test_base_name = removesuffix(test_name, ".sql.j2")
|
||||||
|
|
||||||
|
reference_file_name = test_base_name + ".reference.j2"
|
||||||
|
reference_file_path = os.path.join(suite_dir, reference_file_name)
|
||||||
|
if os.path.isfile(reference_file_path):
|
||||||
|
tpl = j2env.get_template(reference_file_name)
|
||||||
|
tpl.stream().dump(os.path.join(suite_dir, test_base_name) + ".gen.reference")
|
||||||
|
|
||||||
|
if test_name.endswith(".sql.j2"):
|
||||||
|
tpl = j2env.get_template(test_name)
|
||||||
|
generated_test_name = test_base_name + ".gen.sql"
|
||||||
|
tpl.stream().dump(os.path.join(suite_dir, generated_test_name))
|
||||||
|
return generated_test_name
|
||||||
|
|
||||||
|
return test_name
|
||||||
|
|
||||||
|
|
||||||
|
def main(args):
|
||||||
|
suite_dir = args.path
|
||||||
|
|
||||||
|
print(f"Scanning {suite_dir} directory...")
|
||||||
|
|
||||||
|
j2env = jinja2.Environment(
|
||||||
|
loader=jinja2.FileSystemLoader(suite_dir),
|
||||||
|
keep_trailing_newline=True,
|
||||||
|
)
|
||||||
|
|
||||||
|
test_names = os.listdir(suite_dir)
|
||||||
|
for test_name in test_names:
|
||||||
|
if not test_name.endswith(".sql.j2"):
|
||||||
|
continue
|
||||||
|
new_name = render_test_template(j2env, suite_dir, test_name)
|
||||||
|
print(f"File {new_name} generated")
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
parser = ArgumentParser(description="Jinja2 test generator")
|
||||||
|
parser.add_argument("-p", "--path", help="Path to test dir", required=True)
|
||||||
|
main(parser.parse_args())
|
@ -1,5 +1,5 @@
|
|||||||
#!/bin/bash
|
#!/bin/bash
|
||||||
# shellcheck disable=SC2086
|
# shellcheck disable=SC2086,SC2001
|
||||||
|
|
||||||
set -eux
|
set -eux
|
||||||
set -o pipefail
|
set -o pipefail
|
||||||
@ -71,12 +71,15 @@ function watchdog
|
|||||||
kill -9 -- $fuzzer_pid ||:
|
kill -9 -- $fuzzer_pid ||:
|
||||||
}
|
}
|
||||||
|
|
||||||
function filter_exists
|
function filter_exists_and_template
|
||||||
{
|
{
|
||||||
local path
|
local path
|
||||||
for path in "$@"; do
|
for path in "$@"; do
|
||||||
if [ -e "$path" ]; then
|
if [ -e "$path" ]; then
|
||||||
echo "$path"
|
# SC2001 shellcheck suggests:
|
||||||
|
# echo ${path//.sql.j2/.gen.sql}
|
||||||
|
# but it doesn't allow to use regex
|
||||||
|
echo "$path" | sed 's/\.sql\.j2$/.gen.sql/'
|
||||||
else
|
else
|
||||||
echo "'$path' does not exists" >&2
|
echo "'$path' does not exists" >&2
|
||||||
fi
|
fi
|
||||||
@ -85,11 +88,13 @@ function filter_exists
|
|||||||
|
|
||||||
function fuzz
|
function fuzz
|
||||||
{
|
{
|
||||||
|
/generate-test-j2.py --path ch/tests/queries/0_stateless
|
||||||
|
|
||||||
# Obtain the list of newly added tests. They will be fuzzed in more extreme way than other tests.
|
# Obtain the list of newly added tests. They will be fuzzed in more extreme way than other tests.
|
||||||
# Don't overwrite the NEW_TESTS_OPT so that it can be set from the environment.
|
# Don't overwrite the NEW_TESTS_OPT so that it can be set from the environment.
|
||||||
NEW_TESTS="$(sed -n 's!\(^tests/queries/0_stateless/.*\.sql\)$!ch/\1!p' ci-changed-files.txt | sort -R)"
|
NEW_TESTS="$(sed -n 's!\(^tests/queries/0_stateless/.*\.sql\(\.j2\)\?\)$!ch/\1!p' ci-changed-files.txt | sort -R)"
|
||||||
# ci-changed-files.txt contains also files that has been deleted/renamed, filter them out.
|
# ci-changed-files.txt contains also files that has been deleted/renamed, filter them out.
|
||||||
NEW_TESTS="$(filter_exists $NEW_TESTS)"
|
NEW_TESTS="$(filter_exists_and_template $NEW_TESTS)"
|
||||||
if [[ -n "$NEW_TESTS" ]]
|
if [[ -n "$NEW_TESTS" ]]
|
||||||
then
|
then
|
||||||
NEW_TESTS_OPT="${NEW_TESTS_OPT:---interleave-queries-file ${NEW_TESTS}}"
|
NEW_TESTS_OPT="${NEW_TESTS_OPT:---interleave-queries-file ${NEW_TESTS}}"
|
||||||
|
@ -1,6 +1,8 @@
|
|||||||
# docker build -t yandex/clickhouse-integration-tests-runner .
|
# docker build -t yandex/clickhouse-integration-tests-runner .
|
||||||
FROM ubuntu:20.04
|
FROM ubuntu:20.04
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& env DEBIAN_FRONTEND=noninteractive apt-get install --yes \
|
&& env DEBIAN_FRONTEND=noninteractive apt-get install --yes \
|
||||||
ca-certificates \
|
ca-certificates \
|
||||||
@ -77,8 +79,9 @@ RUN python3 -m pip install \
|
|||||||
pytest-timeout \
|
pytest-timeout \
|
||||||
pytest-xdist \
|
pytest-xdist \
|
||||||
pytest-repeat \
|
pytest-repeat \
|
||||||
|
pytz \
|
||||||
redis \
|
redis \
|
||||||
tzlocal \
|
tzlocal==2.1 \
|
||||||
urllib3 \
|
urllib3 \
|
||||||
requests-kerberos \
|
requests-kerberos \
|
||||||
pyhdfs
|
pyhdfs
|
||||||
@ -95,6 +98,8 @@ RUN set -x \
|
|||||||
&& echo 'dockremap:165536:65536' >> /etc/subuid \
|
&& echo 'dockremap:165536:65536' >> /etc/subuid \
|
||||||
&& echo 'dockremap:165536:65536' >> /etc/subgid
|
&& echo 'dockremap:165536:65536' >> /etc/subgid
|
||||||
|
|
||||||
|
RUN echo '127.0.0.1 localhost test.com' >> /etc/hosts
|
||||||
|
|
||||||
EXPOSE 2375
|
EXPOSE 2375
|
||||||
ENTRYPOINT ["dockerd-entrypoint.sh"]
|
ENTRYPOINT ["dockerd-entrypoint.sh"]
|
||||||
CMD ["sh", "-c", "pytest $PYTEST_OPTS"]
|
CMD ["sh", "-c", "pytest $PYTEST_OPTS"]
|
||||||
|
@ -0,0 +1,11 @@
|
|||||||
|
version: '2.3'
|
||||||
|
services:
|
||||||
|
# nginx server to host static files.
|
||||||
|
# Accepts only PUT data by test.com/path and GET already existing data on test.com/path.
|
||||||
|
# Files will be put into /usr/share/nginx/files.
|
||||||
|
|
||||||
|
nginx:
|
||||||
|
image: kssenii/nginx-test:1.1
|
||||||
|
restart: always
|
||||||
|
ports:
|
||||||
|
- 80:80
|
@ -5,6 +5,8 @@ ENV LANG=C.UTF-8
|
|||||||
ENV TZ=Europe/Moscow
|
ENV TZ=Europe/Moscow
|
||||||
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& DEBIAN_FRONTEND=noninteractive apt-get install --yes --no-install-recommends \
|
&& DEBIAN_FRONTEND=noninteractive apt-get install --yes --no-install-recommends \
|
||||||
bash \
|
bash \
|
||||||
|
@ -18,9 +18,6 @@
|
|||||||
<!-- One NUMA node w/o hyperthreading -->
|
<!-- One NUMA node w/o hyperthreading -->
|
||||||
<max_threads>12</max_threads>
|
<max_threads>12</max_threads>
|
||||||
|
|
||||||
<!-- mmap shows some improvements in perf tests -->
|
|
||||||
<min_bytes_to_use_mmap_io>64Mi</min_bytes_to_use_mmap_io>
|
|
||||||
|
|
||||||
<!-- disable jit for perf tests -->
|
<!-- disable jit for perf tests -->
|
||||||
<compile_expressions>0</compile_expressions>
|
<compile_expressions>0</compile_expressions>
|
||||||
<compile_aggregate_expressions>0</compile_aggregate_expressions>
|
<compile_aggregate_expressions>0</compile_aggregate_expressions>
|
||||||
|
@ -1,6 +1,8 @@
|
|||||||
# docker build -t yandex/clickhouse-sqlancer-test .
|
# docker build -t yandex/clickhouse-sqlancer-test .
|
||||||
FROM ubuntu:20.04
|
FROM ubuntu:20.04
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update --yes && env DEBIAN_FRONTEND=noninteractive apt-get install wget unzip git openjdk-14-jdk maven python3 --yes --no-install-recommends
|
RUN apt-get update --yes && env DEBIAN_FRONTEND=noninteractive apt-get install wget unzip git openjdk-14-jdk maven python3 --yes --no-install-recommends
|
||||||
RUN wget https://github.com/sqlancer/sqlancer/archive/master.zip -O /sqlancer.zip
|
RUN wget https://github.com/sqlancer/sqlancer/archive/master.zip -O /sqlancer.zip
|
||||||
RUN mkdir /sqlancer && \
|
RUN mkdir /sqlancer && \
|
||||||
|
@ -24,6 +24,8 @@ RUN apt-get update -y \
|
|||||||
python3-pip \
|
python3-pip \
|
||||||
qemu-user-static \
|
qemu-user-static \
|
||||||
sudo \
|
sudo \
|
||||||
|
# golang version 1.13 on Ubuntu 20 is enough for tests
|
||||||
|
golang \
|
||||||
telnet \
|
telnet \
|
||||||
tree \
|
tree \
|
||||||
unixodbc \
|
unixodbc \
|
||||||
@ -47,6 +49,17 @@ RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
|||||||
ENV NUM_TRIES=1
|
ENV NUM_TRIES=1
|
||||||
ENV MAX_RUN_TIME=0
|
ENV MAX_RUN_TIME=0
|
||||||
|
|
||||||
|
|
||||||
|
# Download Minio-related binaries
|
||||||
|
RUN wget 'https://dl.min.io/server/minio/release/linux-amd64/minio' \
|
||||||
|
&& chmod +x ./minio \
|
||||||
|
&& wget 'https://dl.min.io/client/mc/release/linux-amd64/mc' \
|
||||||
|
&& chmod +x ./mc
|
||||||
|
|
||||||
|
ENV MINIO_ROOT_USER="clickhouse"
|
||||||
|
ENV MINIO_ROOT_PASSWORD="clickhouse"
|
||||||
|
|
||||||
COPY run.sh /
|
COPY run.sh /
|
||||||
COPY process_functional_tests_result.py /
|
COPY process_functional_tests_result.py /
|
||||||
|
COPY setup_minio.sh /
|
||||||
CMD ["/bin/bash", "/run.sh"]
|
CMD ["/bin/bash", "/run.sh"]
|
||||||
|
@ -17,6 +17,8 @@ dpkg -i package_folder/clickhouse-test_*.deb
|
|||||||
# install test configs
|
# install test configs
|
||||||
/usr/share/clickhouse-test/config/install.sh
|
/usr/share/clickhouse-test/config/install.sh
|
||||||
|
|
||||||
|
./setup_minio.sh
|
||||||
|
|
||||||
# For flaky check we also enable thread fuzzer
|
# For flaky check we also enable thread fuzzer
|
||||||
if [ "$NUM_TRIES" -gt "1" ]; then
|
if [ "$NUM_TRIES" -gt "1" ]; then
|
||||||
export THREAD_FUZZER_CPU_TIME_PERIOD_US=1000
|
export THREAD_FUZZER_CPU_TIME_PERIOD_US=1000
|
||||||
|
57
docker/test/stateless/setup_minio.sh
Executable file
57
docker/test/stateless/setup_minio.sh
Executable file
@ -0,0 +1,57 @@
|
|||||||
|
#!/bin/bash
|
||||||
|
|
||||||
|
# Usage for local run:
|
||||||
|
#
|
||||||
|
# ./docker/test/stateless/setup_minio.sh ./tests/
|
||||||
|
#
|
||||||
|
|
||||||
|
set -e -x -a -u
|
||||||
|
|
||||||
|
ls -lha
|
||||||
|
|
||||||
|
mkdir -p ./minio_data
|
||||||
|
|
||||||
|
if [ ! -f ./minio ]; then
|
||||||
|
echo 'MinIO binary not found, downloading...'
|
||||||
|
|
||||||
|
BINARY_TYPE=$(uname -s | tr '[:upper:]' '[:lower:]')
|
||||||
|
|
||||||
|
wget "https://dl.min.io/server/minio/release/${BINARY_TYPE}-amd64/minio" \
|
||||||
|
&& chmod +x ./minio \
|
||||||
|
&& wget "https://dl.min.io/client/mc/release/${BINARY_TYPE}-amd64/mc" \
|
||||||
|
&& chmod +x ./mc
|
||||||
|
fi
|
||||||
|
|
||||||
|
MINIO_ROOT_USER=${MINIO_ROOT_USER:-clickhouse}
|
||||||
|
MINIO_ROOT_PASSWORD=${MINIO_ROOT_PASSWORD:-clickhouse}
|
||||||
|
|
||||||
|
./minio server --address ":11111" ./minio_data &
|
||||||
|
|
||||||
|
while ! curl -v --silent http://localhost:11111 2>&1 | grep AccessDenied
|
||||||
|
do
|
||||||
|
echo "Trying to connect to minio"
|
||||||
|
sleep 1
|
||||||
|
done
|
||||||
|
|
||||||
|
lsof -i :11111
|
||||||
|
|
||||||
|
sleep 5
|
||||||
|
|
||||||
|
./mc alias set clickminio http://localhost:11111 clickhouse clickhouse
|
||||||
|
./mc admin user add clickminio test testtest
|
||||||
|
./mc admin policy set clickminio readwrite user=test
|
||||||
|
./mc mb clickminio/test
|
||||||
|
|
||||||
|
|
||||||
|
# Upload data to Minio. By default after unpacking all tests will in
|
||||||
|
# /usr/share/clickhouse-test/queries
|
||||||
|
|
||||||
|
TEST_PATH=${1:-/usr/share/clickhouse-test}
|
||||||
|
MINIO_DATA_PATH=${TEST_PATH}/queries/0_stateless/data_minio
|
||||||
|
|
||||||
|
# Iterating over globs will cause redudant FILE variale to be a path to a file, not a filename
|
||||||
|
# shellcheck disable=SC2045
|
||||||
|
for FILE in $(ls "${MINIO_DATA_PATH}"); do
|
||||||
|
echo "$FILE";
|
||||||
|
./mc cp "${MINIO_DATA_PATH}"/"$FILE" clickminio/test/"$FILE";
|
||||||
|
done
|
@ -4,6 +4,28 @@
|
|||||||
|
|
||||||
set -x
|
set -x
|
||||||
|
|
||||||
|
# Thread Fuzzer allows to check more permutations of possible thread scheduling
|
||||||
|
# and find more potential issues.
|
||||||
|
|
||||||
|
export THREAD_FUZZER_CPU_TIME_PERIOD_US=1000
|
||||||
|
export THREAD_FUZZER_SLEEP_PROBABILITY=0.1
|
||||||
|
export THREAD_FUZZER_SLEEP_TIME_US=100000
|
||||||
|
|
||||||
|
export THREAD_FUZZER_pthread_mutex_lock_BEFORE_MIGRATE_PROBABILITY=1
|
||||||
|
export THREAD_FUZZER_pthread_mutex_lock_AFTER_MIGRATE_PROBABILITY=1
|
||||||
|
export THREAD_FUZZER_pthread_mutex_unlock_BEFORE_MIGRATE_PROBABILITY=1
|
||||||
|
export THREAD_FUZZER_pthread_mutex_unlock_AFTER_MIGRATE_PROBABILITY=1
|
||||||
|
|
||||||
|
export THREAD_FUZZER_pthread_mutex_lock_BEFORE_SLEEP_PROBABILITY=0.001
|
||||||
|
export THREAD_FUZZER_pthread_mutex_lock_AFTER_SLEEP_PROBABILITY=0.001
|
||||||
|
export THREAD_FUZZER_pthread_mutex_unlock_BEFORE_SLEEP_PROBABILITY=0.001
|
||||||
|
export THREAD_FUZZER_pthread_mutex_unlock_AFTER_SLEEP_PROBABILITY=0.001
|
||||||
|
export THREAD_FUZZER_pthread_mutex_lock_BEFORE_SLEEP_TIME_US=10000
|
||||||
|
export THREAD_FUZZER_pthread_mutex_lock_AFTER_SLEEP_TIME_US=10000
|
||||||
|
export THREAD_FUZZER_pthread_mutex_unlock_BEFORE_SLEEP_TIME_US=10000
|
||||||
|
export THREAD_FUZZER_pthread_mutex_unlock_AFTER_SLEEP_TIME_US=10000
|
||||||
|
|
||||||
|
|
||||||
dpkg -i package_folder/clickhouse-common-static_*.deb
|
dpkg -i package_folder/clickhouse-common-static_*.deb
|
||||||
dpkg -i package_folder/clickhouse-common-static-dbg_*.deb
|
dpkg -i package_folder/clickhouse-common-static-dbg_*.deb
|
||||||
dpkg -i package_folder/clickhouse-server_*.deb
|
dpkg -i package_folder/clickhouse-server_*.deb
|
||||||
@ -53,12 +75,12 @@ function start()
|
|||||||
counter=0
|
counter=0
|
||||||
until clickhouse-client --query "SELECT 1"
|
until clickhouse-client --query "SELECT 1"
|
||||||
do
|
do
|
||||||
if [ "$counter" -gt 120 ]
|
if [ "$counter" -gt 240 ]
|
||||||
then
|
then
|
||||||
echo "Cannot start clickhouse-server"
|
echo "Cannot start clickhouse-server"
|
||||||
cat /var/log/clickhouse-server/stdout.log
|
cat /var/log/clickhouse-server/stdout.log
|
||||||
tail -n1000 /var/log/clickhouse-server/stderr.log
|
tail -n1000 /var/log/clickhouse-server/stderr.log
|
||||||
tail -n100000 /var/log/clickhouse-server/clickhouse-server.log | grep -F -v '<Warning> RaftInstance:' -e '<Information> RaftInstance' | tail -n1000
|
tail -n100000 /var/log/clickhouse-server/clickhouse-server.log | grep -F -v -e '<Warning> RaftInstance:' -e '<Information> RaftInstance' | tail -n1000
|
||||||
break
|
break
|
||||||
fi
|
fi
|
||||||
# use root to match with current uid
|
# use root to match with current uid
|
||||||
|
@ -1,6 +1,8 @@
|
|||||||
# docker build -t yandex/clickhouse-style-test .
|
# docker build -t yandex/clickhouse-style-test .
|
||||||
FROM ubuntu:20.04
|
FROM ubuntu:20.04
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update && env DEBIAN_FRONTEND=noninteractive apt-get install --yes \
|
RUN apt-get update && env DEBIAN_FRONTEND=noninteractive apt-get install --yes \
|
||||||
shellcheck \
|
shellcheck \
|
||||||
libxml2-utils \
|
libxml2-utils \
|
||||||
|
@ -1,6 +1,8 @@
|
|||||||
# docker build -t yandex/clickhouse-testflows-runner .
|
# docker build -t yandex/clickhouse-testflows-runner .
|
||||||
FROM ubuntu:20.04
|
FROM ubuntu:20.04
|
||||||
|
|
||||||
|
RUN sed -i 's|http://archive|http://ru.archive|g' /etc/apt/sources.list
|
||||||
|
|
||||||
RUN apt-get update \
|
RUN apt-get update \
|
||||||
&& env DEBIAN_FRONTEND=noninteractive apt-get install --yes \
|
&& env DEBIAN_FRONTEND=noninteractive apt-get install --yes \
|
||||||
ca-certificates \
|
ca-certificates \
|
||||||
@ -35,7 +37,7 @@ RUN apt-get update \
|
|||||||
ENV TZ=Europe/Moscow
|
ENV TZ=Europe/Moscow
|
||||||
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
||||||
|
|
||||||
RUN pip3 install urllib3 testflows==1.7.20 docker-compose==1.29.1 docker==5.0.0 dicttoxml kazoo tzlocal python-dateutil numpy
|
RUN pip3 install urllib3 testflows==1.7.20 docker-compose==1.29.1 docker==5.0.0 dicttoxml kazoo tzlocal==2.1 pytz python-dateutil numpy
|
||||||
|
|
||||||
ENV DOCKER_CHANNEL stable
|
ENV DOCKER_CHANNEL stable
|
||||||
ENV DOCKER_VERSION 20.10.6
|
ENV DOCKER_VERSION 20.10.6
|
||||||
|
@ -5,6 +5,86 @@ toc_title: Third-Party Libraries Used
|
|||||||
|
|
||||||
# Third-Party Libraries Used {#third-party-libraries-used}
|
# Third-Party Libraries Used {#third-party-libraries-used}
|
||||||
|
|
||||||
|
The list of third-party libraries:
|
||||||
|
|
||||||
|
| Library name | License type |
|
||||||
|
|:-|:-|
|
||||||
|
| abseil-cpp | [Apache](https://github.com/ClickHouse-Extras/abseil-cpp/blob/4f3b686f86c3ebaba7e4e926e62a79cb1c659a54/LICENSE) |
|
||||||
|
| AMQP-CPP | [Apache](https://github.com/ClickHouse-Extras/AMQP-CPP/blob/1a6c51f4ac51ac56610fa95081bd2f349911375a/LICENSE) |
|
||||||
|
| arrow | [Apache](https://github.com/ClickHouse-Extras/arrow/blob/078e21bad344747b7656ef2d7a4f7410a0a303eb/LICENSE.txt) |
|
||||||
|
| avro | [Apache](https://github.com/ClickHouse-Extras/avro/blob/e43c46e87fd32eafdc09471e95344555454c5ef8/LICENSE.txt) |
|
||||||
|
| aws | [Apache](https://github.com/ClickHouse-Extras/aws-sdk-cpp/blob/7d48b2c8193679cc4516e5bd68ae4a64b94dae7d/LICENSE.txt) |
|
||||||
|
| aws-c-common | [Apache](https://github.com/ClickHouse-Extras/aws-c-common/blob/736a82d1697c108b04a277e66438a7f4e19b6857/LICENSE) |
|
||||||
|
| aws-c-event-stream | [Apache](https://github.com/ClickHouse-Extras/aws-c-event-stream/blob/3bc33662f9ccff4f4cbcf9509cc78c26e022fde0/LICENSE) |
|
||||||
|
| aws-checksums | [Apache](https://github.com/ClickHouse-Extras/aws-checksums/blob/519d6d9093819b6cf89ffff589a27ef8f83d0f65/LICENSE) |
|
||||||
|
| base64 | [BSD 2-clause](https://github.com/ClickHouse-Extras/Turbo-Base64/blob/af9b331f2b4f30b41c70f3a571ff904a8251c1d3/LICENSE) |
|
||||||
|
| boost | [Boost](https://github.com/ClickHouse-Extras/boost/blob/9cf09dbfd55a5c6202dedbdf40781a51b02c2675/LICENSE_1_0.txt) |
|
||||||
|
| boringssl | [BSD](https://github.com/ClickHouse-Extras/boringssl/blob/a6a2e2ab3e44d97ce98e51c558e989f211de7eb3/LICENSE) |
|
||||||
|
| brotli | [MIT](https://github.com/google/brotli/blob/63be8a99401992075c23e99f7c84de1c653e39e2/LICENSE) |
|
||||||
|
| capnproto | [MIT](https://github.com/capnproto/capnproto/blob/a00ccd91b3746ef2ab51d40fe3265829949d1ace/LICENSE) |
|
||||||
|
| cassandra | [Apache](https://github.com/ClickHouse-Extras/cpp-driver/blob/eb9b68dadbb4417a2c132ad4a1c2fa76e65e6fc1/LICENSE.txt) |
|
||||||
|
| cctz | [Apache](https://github.com/ClickHouse-Extras/cctz/blob/c0f1bcb97fd2782f7c3f972fadd5aad5affac4b8/LICENSE.txt) |
|
||||||
|
| cityhash102 | [MIT](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/cityhash102/COPYING) |
|
||||||
|
| cppkafka | [BSD 2-clause](https://github.com/mfontanini/cppkafka/blob/5a119f689f8a4d90d10a9635e7ee2bee5c127de1/LICENSE) |
|
||||||
|
| croaring | [Apache](https://github.com/RoaringBitmap/CRoaring/blob/2c867e9f9c9e2a3a7032791f94c4c7ae3013f6e0/LICENSE) |
|
||||||
|
| curl | [Apache](https://github.com/curl/curl/blob/3b8bbbbd1609c638a3d3d0acb148a33dedb67be3/docs/LICENSE-MIXING.md) |
|
||||||
|
| cyrus-sasl | [BSD 2-clause](https://github.com/ClickHouse-Extras/cyrus-sasl/blob/e6466edfd638cc5073debe941c53345b18a09512/COPYING) |
|
||||||
|
| double-conversion | [BSD 3-clause](https://github.com/google/double-conversion/blob/cf2f0f3d547dc73b4612028a155b80536902ba02/LICENSE) |
|
||||||
|
| dragonbox | [Apache](https://github.com/ClickHouse-Extras/dragonbox/blob/923705af6fd953aa948fc175f6020b15f7359838/LICENSE-Apache2-LLVM) |
|
||||||
|
| fast_float | [Apache](https://github.com/fastfloat/fast_float/blob/7eae925b51fd0f570ccd5c880c12e3e27a23b86f/LICENSE) |
|
||||||
|
| fastops | [MIT](https://github.com/ClickHouse-Extras/fastops/blob/88752a5e03cf34639a4a37a4b41d8b463fffd2b5/LICENSE) |
|
||||||
|
| flatbuffers | [Apache](https://github.com/ClickHouse-Extras/flatbuffers/blob/eb3f827948241ce0e701516f16cd67324802bce9/LICENSE.txt) |
|
||||||
|
| fmtlib | [Unknown](https://github.com/fmtlib/fmt/blob/c108ee1d590089ccf642fc85652b845924067af2/LICENSE.rst) |
|
||||||
|
| gcem | [Apache](https://github.com/kthohr/gcem/blob/8d4f1b5d76ea8f6ff12f3f4f34cda45424556b00/LICENSE) |
|
||||||
|
| googletest | [BSD 3-clause](https://github.com/google/googletest/blob/e7e591764baba0a0c3c9ad0014430e7a27331d16/LICENSE) |
|
||||||
|
| grpc | [Apache](https://github.com/ClickHouse-Extras/grpc/blob/60c986e15cae70aade721d26badabab1f822fdd6/LICENSE) |
|
||||||
|
| h3 | [Apache](https://github.com/ClickHouse-Extras/h3/blob/c7f46cfd71fb60e2fefc90e28abe81657deff735/LICENSE) |
|
||||||
|
| hyperscan | [Boost](https://github.com/ClickHouse-Extras/hyperscan/blob/e9f08df0213fc637aac0a5bbde9beeaeba2fe9fa/LICENSE) |
|
||||||
|
| icu | [Public Domain](https://github.com/unicode-org/icu/blob/faa2f9f9e1fe74c5ed00eba371d2830134cdbea1/icu4c/LICENSE) |
|
||||||
|
| icudata | [Public Domain](https://github.com/ClickHouse-Extras/icudata/blob/f020820388e3faafb44cc643574a2d563dfde572/LICENSE) |
|
||||||
|
| jemalloc | [BSD 2-clause](https://github.com/ClickHouse-Extras/jemalloc/blob/e6891d9746143bf2cf617493d880ba5a0b9a3efd/COPYING) |
|
||||||
|
| krb5 | [MIT](https://github.com/ClickHouse-Extras/krb5/blob/5149dea4e2be0f67707383d2682b897c14631374/src/lib/gssapi/LICENSE) |
|
||||||
|
| libc-headers | [LGPL](https://github.com/ClickHouse-Extras/libc-headers/blob/a720b7105a610acbd7427eea475a5b6810c151eb/LICENSE) |
|
||||||
|
| libcpuid | [BSD 2-clause](https://github.com/ClickHouse-Extras/libcpuid/blob/8db3b8d2d32d22437f063ce692a1b9bb15e42d18/COPYING) |
|
||||||
|
| libcxx | [Apache](https://github.com/ClickHouse-Extras/libcxx/blob/2fa892f69acbaa40f8a18c6484854a6183a34482/LICENSE.TXT) |
|
||||||
|
| libcxxabi | [Apache](https://github.com/ClickHouse-Extras/libcxxabi/blob/df8f1e727dbc9e2bedf2282096fa189dc3fe0076/LICENSE.TXT) |
|
||||||
|
| libdivide | [zLib](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libdivide/LICENSE.txt) |
|
||||||
|
| libfarmhash | [MIT](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libfarmhash/COPYING) |
|
||||||
|
| libgsasl | [LGPL](https://github.com/ClickHouse-Extras/libgsasl/blob/383ee28e82f69fa16ed43b48bd9c8ee5b313ab84/LICENSE) |
|
||||||
|
| libhdfs3 | [Apache](https://github.com/ClickHouse-Extras/libhdfs3/blob/095b9d48b400abb72d967cb0539af13b1e3d90cf/LICENSE.txt) |
|
||||||
|
| libmetrohash | [Apache](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libmetrohash/LICENSE) |
|
||||||
|
| libpq | [Unknown](https://github.com/ClickHouse-Extras/libpq/blob/e071ea570f8985aa00e34f5b9d50a3cfe666327e/COPYRIGHT) |
|
||||||
|
| libpqxx | [BSD 3-clause](https://github.com/ClickHouse-Extras/libpqxx/blob/357608d11b7a1961c3fb7db2ef9a5dbb2e87da77/COPYING) |
|
||||||
|
| librdkafka | [MIT](https://github.com/ClickHouse-Extras/librdkafka/blob/b8554f1682062c85ba519eb54ef2f90e02b812cb/LICENSE.murmur2) |
|
||||||
|
| libunwind | [Apache](https://github.com/ClickHouse-Extras/libunwind/blob/6b816d2fba3991f8fd6aaec17d92f68947eab667/LICENSE.TXT) |
|
||||||
|
| libuv | [BSD](https://github.com/ClickHouse-Extras/libuv/blob/e2e9b7e9f978ce8a1367b5fe781d97d1ce9f94ab/LICENSE) |
|
||||||
|
| llvm | [Apache](https://github.com/ClickHouse-Extras/llvm/blob/e5751459412bce1391fb7a2e9bbc01e131bf72f1/llvm/LICENSE.TXT) |
|
||||||
|
| lz4 | [BSD](https://github.com/lz4/lz4/blob/f39b79fb02962a1cd880bbdecb6dffba4f754a11/LICENSE) |
|
||||||
|
| mariadb-connector-c | [LGPL](https://github.com/ClickHouse-Extras/mariadb-connector-c/blob/5f4034a3a6376416504f17186c55fe401c6d8e5e/COPYING.LIB) |
|
||||||
|
| miniselect | [Boost](https://github.com/danlark1/miniselect/blob/be0af6bd0b6eb044d1acc4f754b229972d99903a/LICENSE_1_0.txt) |
|
||||||
|
| msgpack-c | [Boost](https://github.com/msgpack/msgpack-c/blob/46684265d50b5d1b062d4c5c428ba08462844b1d/LICENSE_1_0.txt) |
|
||||||
|
| murmurhash | [Public Domain](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/murmurhash/LICENSE) |
|
||||||
|
| NuRaft | [Apache](https://github.com/ClickHouse-Extras/NuRaft/blob/7ecb16844af6a9c283ad432d85ecc2e7d1544676/LICENSE) |
|
||||||
|
| openldap | [Unknown](https://github.com/ClickHouse-Extras/openldap/blob/0208811b6043ca06fda8631a5e473df1ec515ccb/LICENSE) |
|
||||||
|
| orc | [Apache](https://github.com/ClickHouse-Extras/orc/blob/0a936f6bbdb9303308973073f8623b5a8d82eae1/LICENSE) |
|
||||||
|
| poco | [Boost](https://github.com/ClickHouse-Extras/poco/blob/7351c4691b5d401f59e3959adfc5b4fa263b32da/LICENSE) |
|
||||||
|
| protobuf | [BSD 3-clause](https://github.com/ClickHouse-Extras/protobuf/blob/75601841d172c73ae6bf4ce8121f42b875cdbabd/LICENSE) |
|
||||||
|
| rapidjson | [MIT](https://github.com/ClickHouse-Extras/rapidjson/blob/c4ef90ccdbc21d5d5a628d08316bfd301e32d6fa/bin/jsonschema/LICENSE) |
|
||||||
|
| re2 | [BSD 3-clause](https://github.com/google/re2/blob/13ebb377c6ad763ca61d12dd6f88b1126bd0b911/LICENSE) |
|
||||||
|
| replxx | [BSD 3-clause](https://github.com/ClickHouse-Extras/replxx/blob/c81be6c68b146f15f2096b7ef80e3f21fe27004c/LICENSE.md) |
|
||||||
|
| rocksdb | [BSD 3-clause](https://github.com/ClickHouse-Extras/rocksdb/blob/b6480c69bf3ab6e298e0d019a07fd4f69029b26a/LICENSE.leveldb) |
|
||||||
|
| s2geometry | [Apache](https://github.com/ClickHouse-Extras/s2geometry/blob/20ea540d81f4575a3fc0aea585aac611bcd03ede/LICENSE) |
|
||||||
|
| sentry-native | [MIT](https://github.com/ClickHouse-Extras/sentry-native/blob/94644e92f0a3ff14bd35ed902a8622a2d15f7be4/LICENSE) |
|
||||||
|
| simdjson | [Apache](https://github.com/simdjson/simdjson/blob/8df32cea3359cb30120795da6020b3b73da01d38/LICENSE) |
|
||||||
|
| snappy | [Public Domain](https://github.com/google/snappy/blob/3f194acb57e0487531c96b97af61dcbd025a78a3/COPYING) |
|
||||||
|
| sparsehash-c11 | [BSD 3-clause](https://github.com/sparsehash/sparsehash-c11/blob/cf0bffaa456f23bc4174462a789b90f8b6f5f42f/LICENSE) |
|
||||||
|
| stats | [Apache](https://github.com/kthohr/stats/blob/b6dd459c10a88c7ea04693c007e9e35820c5d9ad/LICENSE) |
|
||||||
|
| thrift | [Apache](https://github.com/apache/thrift/blob/010ccf0a0c7023fea0f6bf4e4078ebdff7e61982/LICENSE) |
|
||||||
|
| unixodbc | [LGPL](https://github.com/ClickHouse-Extras/UnixODBC/blob/b0ad30f7f6289c12b76f04bfb9d466374bb32168/COPYING) |
|
||||||
|
| xz | [Public Domain](https://github.com/xz-mirror/xz/blob/869b9d1b4edd6df07f819d360d306251f8147353/COPYING) |
|
||||||
|
| zlib-ng | [zLib](https://github.com/ClickHouse-Extras/zlib-ng/blob/6a5e93b9007782115f7f7e5235dedc81c4f1facb/LICENSE.md) |
|
||||||
|
| zstd | [BSD](https://github.com/facebook/zstd/blob/a488ba114ec17ea1054b9057c26a046fc122b3b6/LICENSE) |
|
||||||
|
|
||||||
The list of third-party libraries can be obtained by the following query:
|
The list of third-party libraries can be obtained by the following query:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
@ -13,84 +93,6 @@ SELECT library_name, license_type, license_path FROM system.licenses ORDER BY li
|
|||||||
|
|
||||||
[Example](https://gh-api.clickhouse.tech/play?user=play#U0VMRUNUIGxpYnJhcnlfbmFtZSwgbGljZW5zZV90eXBlLCBsaWNlbnNlX3BhdGggRlJPTSBzeXN0ZW0ubGljZW5zZXMgT1JERVIgQlkgbGlicmFyeV9uYW1lIENPTExBVEUgJ2VuJw==)
|
[Example](https://gh-api.clickhouse.tech/play?user=play#U0VMRUNUIGxpYnJhcnlfbmFtZSwgbGljZW5zZV90eXBlLCBsaWNlbnNlX3BhdGggRlJPTSBzeXN0ZW0ubGljZW5zZXMgT1JERVIgQlkgbGlicmFyeV9uYW1lIENPTExBVEUgJ2VuJw==)
|
||||||
|
|
||||||
| library_name | license_type | license_path |
|
|
||||||
|:-|:-|:-|
|
|
||||||
| abseil-cpp | Apache | /contrib/abseil-cpp/LICENSE |
|
|
||||||
| AMQP-CPP | Apache | /contrib/AMQP-CPP/LICENSE |
|
|
||||||
| arrow | Apache | /contrib/arrow/LICENSE.txt |
|
|
||||||
| avro | Apache | /contrib/avro/LICENSE.txt |
|
|
||||||
| aws | Apache | /contrib/aws/LICENSE.txt |
|
|
||||||
| aws-c-common | Apache | /contrib/aws-c-common/LICENSE |
|
|
||||||
| aws-c-event-stream | Apache | /contrib/aws-c-event-stream/LICENSE |
|
|
||||||
| aws-checksums | Apache | /contrib/aws-checksums/LICENSE |
|
|
||||||
| base64 | BSD 2-clause | /contrib/base64/LICENSE |
|
|
||||||
| boost | Boost | /contrib/boost/LICENSE_1_0.txt |
|
|
||||||
| boringssl | BSD | /contrib/boringssl/LICENSE |
|
|
||||||
| brotli | MIT | /contrib/brotli/LICENSE |
|
|
||||||
| capnproto | MIT | /contrib/capnproto/LICENSE |
|
|
||||||
| cassandra | Apache | /contrib/cassandra/LICENSE.txt |
|
|
||||||
| cctz | Apache | /contrib/cctz/LICENSE.txt |
|
|
||||||
| cityhash102 | MIT | /contrib/cityhash102/COPYING |
|
|
||||||
| cppkafka | BSD 2-clause | /contrib/cppkafka/LICENSE |
|
|
||||||
| croaring | Apache | /contrib/croaring/LICENSE |
|
|
||||||
| curl | Apache | /contrib/curl/docs/LICENSE-MIXING.md |
|
|
||||||
| cyrus-sasl | BSD 2-clause | /contrib/cyrus-sasl/COPYING |
|
|
||||||
| double-conversion | BSD 3-clause | /contrib/double-conversion/LICENSE |
|
|
||||||
| dragonbox | Apache | /contrib/dragonbox/LICENSE-Apache2-LLVM |
|
|
||||||
| fast_float | Apache | /contrib/fast_float/LICENSE |
|
|
||||||
| fastops | MIT | /contrib/fastops/LICENSE |
|
|
||||||
| flatbuffers | Apache | /contrib/flatbuffers/LICENSE.txt |
|
|
||||||
| fmtlib | Unknown | /contrib/fmtlib/LICENSE.rst |
|
|
||||||
| gcem | Apache | /contrib/gcem/LICENSE |
|
|
||||||
| googletest | BSD 3-clause | /contrib/googletest/LICENSE |
|
|
||||||
| grpc | Apache | /contrib/grpc/LICENSE |
|
|
||||||
| h3 | Apache | /contrib/h3/LICENSE |
|
|
||||||
| hyperscan | Boost | /contrib/hyperscan/LICENSE |
|
|
||||||
| icu | Public Domain | /contrib/icu/icu4c/LICENSE |
|
|
||||||
| icudata | Public Domain | /contrib/icudata/LICENSE |
|
|
||||||
| jemalloc | BSD 2-clause | /contrib/jemalloc/COPYING |
|
|
||||||
| krb5 | MIT | /contrib/krb5/src/lib/gssapi/LICENSE |
|
|
||||||
| libc-headers | LGPL | /contrib/libc-headers/LICENSE |
|
|
||||||
| libcpuid | BSD 2-clause | /contrib/libcpuid/COPYING |
|
|
||||||
| libcxx | Apache | /contrib/libcxx/LICENSE.TXT |
|
|
||||||
| libcxxabi | Apache | /contrib/libcxxabi/LICENSE.TXT |
|
|
||||||
| libdivide | zLib | /contrib/libdivide/LICENSE.txt |
|
|
||||||
| libfarmhash | MIT | /contrib/libfarmhash/COPYING |
|
|
||||||
| libgsasl | LGPL | /contrib/libgsasl/LICENSE |
|
|
||||||
| libhdfs3 | Apache | /contrib/libhdfs3/LICENSE.txt |
|
|
||||||
| libmetrohash | Apache | /contrib/libmetrohash/LICENSE |
|
|
||||||
| libpq | Unknown | /contrib/libpq/COPYRIGHT |
|
|
||||||
| libpqxx | BSD 3-clause | /contrib/libpqxx/COPYING |
|
|
||||||
| librdkafka | MIT | /contrib/librdkafka/LICENSE.murmur2 |
|
|
||||||
| libunwind | Apache | /contrib/libunwind/LICENSE.TXT |
|
|
||||||
| libuv | BSD | /contrib/libuv/LICENSE |
|
|
||||||
| llvm | Apache | /contrib/llvm/llvm/LICENSE.TXT |
|
|
||||||
| lz4 | BSD | /contrib/lz4/LICENSE |
|
|
||||||
| mariadb-connector-c | LGPL | /contrib/mariadb-connector-c/COPYING.LIB |
|
|
||||||
| miniselect | Boost | /contrib/miniselect/LICENSE_1_0.txt |
|
|
||||||
| msgpack-c | Boost | /contrib/msgpack-c/LICENSE_1_0.txt |
|
|
||||||
| murmurhash | Public Domain | /contrib/murmurhash/LICENSE |
|
|
||||||
| NuRaft | Apache | /contrib/NuRaft/LICENSE |
|
|
||||||
| openldap | Unknown | /contrib/openldap/LICENSE |
|
|
||||||
| orc | Apache | /contrib/orc/LICENSE |
|
|
||||||
| poco | Boost | /contrib/poco/LICENSE |
|
|
||||||
| protobuf | BSD 3-clause | /contrib/protobuf/LICENSE |
|
|
||||||
| rapidjson | MIT | /contrib/rapidjson/bin/jsonschema/LICENSE |
|
|
||||||
| re2 | BSD 3-clause | /contrib/re2/LICENSE |
|
|
||||||
| replxx | BSD 3-clause | /contrib/replxx/LICENSE.md |
|
|
||||||
| rocksdb | BSD 3-clause | /contrib/rocksdb/LICENSE.leveldb |
|
|
||||||
| s2geometry | Apache | /contrib/s2geometry/LICENSE |
|
|
||||||
| sentry-native | MIT | /contrib/sentry-native/LICENSE |
|
|
||||||
| simdjson | Apache | /contrib/simdjson/LICENSE |
|
|
||||||
| snappy | Public Domain | /contrib/snappy/COPYING |
|
|
||||||
| sparsehash-c11 | BSD 3-clause | /contrib/sparsehash-c11/LICENSE |
|
|
||||||
| stats | Apache | /contrib/stats/LICENSE |
|
|
||||||
| thrift | Apache | /contrib/thrift/LICENSE |
|
|
||||||
| unixodbc | LGPL | /contrib/unixodbc/COPYING |
|
|
||||||
| xz | Public Domain | /contrib/xz/COPYING |
|
|
||||||
| zlib-ng | zLib | /contrib/zlib-ng/LICENSE.md |
|
|
||||||
| zstd | BSD | /contrib/zstd/LICENSE |
|
|
||||||
|
|
||||||
## Guidelines for adding new third-party libraries and maintaining custom changes in them {#adding-third-party-libraries}
|
## Guidelines for adding new third-party libraries and maintaining custom changes in them {#adding-third-party-libraries}
|
||||||
|
|
||||||
1. All external third-party code should reside in the dedicated directories under `contrib` directory of ClickHouse repo. Prefer Git submodules, when available.
|
1. All external third-party code should reside in the dedicated directories under `contrib` directory of ClickHouse repo. Prefer Git submodules, when available.
|
||||||
|
@ -23,3 +23,5 @@ You can also use the following database engines:
|
|||||||
- [PostgreSQL](../../engines/database-engines/postgresql.md)
|
- [PostgreSQL](../../engines/database-engines/postgresql.md)
|
||||||
|
|
||||||
- [Replicated](../../engines/database-engines/replicated.md)
|
- [Replicated](../../engines/database-engines/replicated.md)
|
||||||
|
|
||||||
|
- [SQLite](../../engines/database-engines/sqlite.md)
|
||||||
|
@ -1,6 +1,6 @@
|
|||||||
---
|
---
|
||||||
toc_priority: 29
|
toc_priority: 29
|
||||||
toc_title: "[experimental] MaterializedMySQL"
|
toc_title: MaterializedMySQL
|
||||||
---
|
---
|
||||||
|
|
||||||
# [experimental] MaterializedMySQL {#materialized-mysql}
|
# [experimental] MaterializedMySQL {#materialized-mysql}
|
||||||
|
80
docs/en/engines/database-engines/sqlite.md
Normal file
80
docs/en/engines/database-engines/sqlite.md
Normal file
@ -0,0 +1,80 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 32
|
||||||
|
toc_title: SQLite
|
||||||
|
---
|
||||||
|
|
||||||
|
# SQLite {#sqlite}
|
||||||
|
|
||||||
|
Allows to connect to [SQLite](https://www.sqlite.org/index.html) database and perform `INSERT` and `SELECT` queries to exchange data between ClickHouse and SQLite.
|
||||||
|
|
||||||
|
## Creating a Database {#creating-a-database}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE sqlite_database
|
||||||
|
ENGINE = SQLite('db_path')
|
||||||
|
```
|
||||||
|
|
||||||
|
**Engine Parameters**
|
||||||
|
|
||||||
|
- `db_path` — Path to a file with SQLite database.
|
||||||
|
|
||||||
|
## Data Types Support {#data_types-support}
|
||||||
|
|
||||||
|
| SQLite | ClickHouse |
|
||||||
|
|---------------|---------------------------------------------------------|
|
||||||
|
| INTEGER | [Int32](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| REAL | [Float32](../../sql-reference/data-types/float.md) |
|
||||||
|
| TEXT | [String](../../sql-reference/data-types/string.md) |
|
||||||
|
| BLOB | [String](../../sql-reference/data-types/string.md) |
|
||||||
|
|
||||||
|
## Specifics and Recommendations {#specifics-and-recommendations}
|
||||||
|
|
||||||
|
SQLite stores the entire database (definitions, tables, indices, and the data itself) as a single cross-platform file on a host machine. During writing SQLite locks the entire database file, therefore write operations are performed sequentially. Read operations can be multitasked.
|
||||||
|
SQLite does not require service management (such as startup scripts) or access control based on `GRANT` and passwords. Access control is handled by means of file-system permissions given to the database file itself.
|
||||||
|
|
||||||
|
## Usage Example {#usage-example}
|
||||||
|
|
||||||
|
Database in ClickHouse, connected to the SQLite:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE sqlite_db ENGINE = SQLite('sqlite.db');
|
||||||
|
SHOW TABLES FROM sqlite_db;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──name───┐
|
||||||
|
│ table1 │
|
||||||
|
│ table2 │
|
||||||
|
└─────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
Shows the tables:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM sqlite_db.table1;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─col1──┬─col2─┐
|
||||||
|
│ line1 │ 1 │
|
||||||
|
│ line2 │ 2 │
|
||||||
|
│ line3 │ 3 │
|
||||||
|
└───────┴──────┘
|
||||||
|
```
|
||||||
|
Inserting data into SQLite table from ClickHouse table:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE clickhouse_table(`col1` String,`col2` Int16) ENGINE = MergeTree() ORDER BY col2;
|
||||||
|
INSERT INTO clickhouse_table VALUES ('text',10);
|
||||||
|
INSERT INTO sqlite_db.table1 SELECT * FROM clickhouse_table;
|
||||||
|
SELECT * FROM sqlite_db.table1;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─col1──┬─col2─┐
|
||||||
|
│ line1 │ 1 │
|
||||||
|
│ line2 │ 2 │
|
||||||
|
│ line3 │ 3 │
|
||||||
|
│ text │ 10 │
|
||||||
|
└───────┴──────┘
|
||||||
|
```
|
@ -184,9 +184,10 @@ Similar to GraphiteMergeTree, the HDFS engine supports extended configuration us
|
|||||||
|hadoop\_kerberos\_keytab | "" |
|
|hadoop\_kerberos\_keytab | "" |
|
||||||
|hadoop\_kerberos\_principal | "" |
|
|hadoop\_kerberos\_principal | "" |
|
||||||
|hadoop\_kerberos\_kinit\_command | kinit |
|
|hadoop\_kerberos\_kinit\_command | kinit |
|
||||||
|
|libhdfs3\_conf | "" |
|
||||||
|
|
||||||
### Limitations {#limitations}
|
### Limitations {#limitations}
|
||||||
* hadoop\_security\_kerberos\_ticket\_cache\_path can be global only, not user specific
|
* hadoop\_security\_kerberos\_ticket\_cache\_path and libhdfs3\_conf can be global only, not user specific
|
||||||
|
|
||||||
## Kerberos support {#kerberos-support}
|
## Kerberos support {#kerberos-support}
|
||||||
|
|
||||||
@ -198,6 +199,22 @@ security approach). Use tests/integration/test\_storage\_kerberized\_hdfs/hdfs_c
|
|||||||
|
|
||||||
If hadoop\_kerberos\_keytab, hadoop\_kerberos\_principal or hadoop\_kerberos\_kinit\_command is specified, kinit will be invoked. hadoop\_kerberos\_keytab and hadoop\_kerberos\_principal are mandatory in this case. kinit tool and krb5 configuration files are required.
|
If hadoop\_kerberos\_keytab, hadoop\_kerberos\_principal or hadoop\_kerberos\_kinit\_command is specified, kinit will be invoked. hadoop\_kerberos\_keytab and hadoop\_kerberos\_principal are mandatory in this case. kinit tool and krb5 configuration files are required.
|
||||||
|
|
||||||
|
## HDFS Namenode HA support{#namenode-ha}
|
||||||
|
|
||||||
|
libhdfs3 support HDFS namenode HA.
|
||||||
|
|
||||||
|
- Copy `hdfs-site.xml` from an HDFS node to `/etc/clickhouse-server/`.
|
||||||
|
- Add following piece to ClickHouse config file:
|
||||||
|
|
||||||
|
``` xml
|
||||||
|
<hdfs>
|
||||||
|
<libhdfs3_conf>/etc/clickhouse-server/hdfs-site.xml</libhdfs3_conf>
|
||||||
|
</hdfs>
|
||||||
|
```
|
||||||
|
|
||||||
|
- Then use `dfs.nameservices` tag value of `hdfs-site.xml` as the namenode address in the HDFS URI. For example, replace `hdfs://appadmin@192.168.101.11:8020/abc/` with `hdfs://appadmin@my_nameservice/abc/`.
|
||||||
|
|
||||||
|
|
||||||
## Virtual Columns {#virtual-columns}
|
## Virtual Columns {#virtual-columns}
|
||||||
|
|
||||||
- `_path` — Path to the file.
|
- `_path` — Path to the file.
|
||||||
|
@ -19,3 +19,4 @@ List of supported integrations:
|
|||||||
- [EmbeddedRocksDB](../../../engines/table-engines/integrations/embedded-rocksdb.md)
|
- [EmbeddedRocksDB](../../../engines/table-engines/integrations/embedded-rocksdb.md)
|
||||||
- [RabbitMQ](../../../engines/table-engines/integrations/rabbitmq.md)
|
- [RabbitMQ](../../../engines/table-engines/integrations/rabbitmq.md)
|
||||||
- [PostgreSQL](../../../engines/table-engines/integrations/postgresql.md)
|
- [PostgreSQL](../../../engines/table-engines/integrations/postgresql.md)
|
||||||
|
- [SQLite](../../../engines/table-engines/integrations/sqlite.md)
|
||||||
|
@ -34,6 +34,7 @@ The table structure can differ from the original PostgreSQL table structure:
|
|||||||
- `user` — PostgreSQL user.
|
- `user` — PostgreSQL user.
|
||||||
- `password` — User password.
|
- `password` — User password.
|
||||||
- `schema` — Non-default table schema. Optional.
|
- `schema` — Non-default table schema. Optional.
|
||||||
|
- `on conflict ...` — example: `ON CONFLICT DO NOTHING`. Optional. Note: adding this option will make insertion less efficient.
|
||||||
|
|
||||||
## Implementation Details {#implementation-details}
|
## Implementation Details {#implementation-details}
|
||||||
|
|
||||||
|
59
docs/en/engines/table-engines/integrations/sqlite.md
Normal file
59
docs/en/engines/table-engines/integrations/sqlite.md
Normal file
@ -0,0 +1,59 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 7
|
||||||
|
toc_title: SQLite
|
||||||
|
---
|
||||||
|
|
||||||
|
# SQLite {#sqlite}
|
||||||
|
|
||||||
|
The engine allows to import and export data to SQLite and supports queries to SQLite tables directly from ClickHouse.
|
||||||
|
|
||||||
|
## Creating a Table {#creating-a-table}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE [IF NOT EXISTS] [db.]table_name
|
||||||
|
(
|
||||||
|
name1 [type1],
|
||||||
|
name2 [type2], ...
|
||||||
|
) ENGINE = SQLite('db_path', 'table')
|
||||||
|
```
|
||||||
|
|
||||||
|
**Engine Parameters**
|
||||||
|
|
||||||
|
- `db_path` — Path to SQLite file with a database.
|
||||||
|
- `table` — Name of a table in the SQLite database.
|
||||||
|
|
||||||
|
## Usage Example {#usage-example}
|
||||||
|
|
||||||
|
Shows a query creating the SQLite table:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
SHOW CREATE TABLE sqlite_db.table2;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
CREATE TABLE SQLite.table2
|
||||||
|
(
|
||||||
|
`col1` Nullable(Int32),
|
||||||
|
`col2` Nullable(String)
|
||||||
|
)
|
||||||
|
ENGINE = SQLite('sqlite.db','table2');
|
||||||
|
```
|
||||||
|
|
||||||
|
Returns the data from the table:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM sqlite_db.table2 ORDER BY col1;
|
||||||
|
```
|
||||||
|
|
||||||
|
```text
|
||||||
|
┌─col1─┬─col2──┐
|
||||||
|
│ 1 │ text1 │
|
||||||
|
│ 2 │ text2 │
|
||||||
|
│ 3 │ text3 │
|
||||||
|
└──────┴───────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
**See Also**
|
||||||
|
|
||||||
|
- [SQLite](../../../engines/database-engines/sqlite.md) engine
|
||||||
|
- [sqlite](../../../sql-reference/table-functions/sqlite.md) table function
|
@ -99,7 +99,9 @@ For a description of parameters, see the [CREATE query description](../../../sql
|
|||||||
- `use_minimalistic_part_header_in_zookeeper` — Storage method of the data parts headers in ZooKeeper. If `use_minimalistic_part_header_in_zookeeper=1`, then ZooKeeper stores less data. For more information, see the [setting description](../../../operations/server-configuration-parameters/settings.md#server-settings-use_minimalistic_part_header_in_zookeeper) in “Server configuration parameters”.
|
- `use_minimalistic_part_header_in_zookeeper` — Storage method of the data parts headers in ZooKeeper. If `use_minimalistic_part_header_in_zookeeper=1`, then ZooKeeper stores less data. For more information, see the [setting description](../../../operations/server-configuration-parameters/settings.md#server-settings-use_minimalistic_part_header_in_zookeeper) in “Server configuration parameters”.
|
||||||
- `min_merge_bytes_to_use_direct_io` — The minimum data volume for merge operation that is required for using direct I/O access to the storage disk. When merging data parts, ClickHouse calculates the total storage volume of all the data to be merged. If the volume exceeds `min_merge_bytes_to_use_direct_io` bytes, ClickHouse reads and writes the data to the storage disk using the direct I/O interface (`O_DIRECT` option). If `min_merge_bytes_to_use_direct_io = 0`, then direct I/O is disabled. Default value: `10 * 1024 * 1024 * 1024` bytes.
|
- `min_merge_bytes_to_use_direct_io` — The minimum data volume for merge operation that is required for using direct I/O access to the storage disk. When merging data parts, ClickHouse calculates the total storage volume of all the data to be merged. If the volume exceeds `min_merge_bytes_to_use_direct_io` bytes, ClickHouse reads and writes the data to the storage disk using the direct I/O interface (`O_DIRECT` option). If `min_merge_bytes_to_use_direct_io = 0`, then direct I/O is disabled. Default value: `10 * 1024 * 1024 * 1024` bytes.
|
||||||
<a name="mergetree_setting-merge_with_ttl_timeout"></a>
|
<a name="mergetree_setting-merge_with_ttl_timeout"></a>
|
||||||
- `merge_with_ttl_timeout` — Minimum delay in seconds before repeating a merge with TTL. Default value: 86400 (1 day).
|
- `merge_with_ttl_timeout` — Minimum delay in seconds before repeating a merge with delete TTL. Default value: `14400` seconds (4 hours).
|
||||||
|
- `merge_with_recompression_ttl_timeout` — Minimum delay in seconds before repeating a merge with recompression TTL. Default value: `14400` seconds (4 hours).
|
||||||
|
- `try_fetch_recompressed_part_timeout` — Timeout (in seconds) before starting merge with recompression. During this time ClickHouse tries to fetch recompressed part from replica which assigned this merge with recompression. Default value: `7200` seconds (2 hours).
|
||||||
- `write_final_mark` — Enables or disables writing the final index mark at the end of data part (after the last byte). Default value: 1. Don’t turn it off.
|
- `write_final_mark` — Enables or disables writing the final index mark at the end of data part (after the last byte). Default value: 1. Don’t turn it off.
|
||||||
- `merge_max_block_size` — Maximum number of rows in block for merge operations. Default value: 8192.
|
- `merge_max_block_size` — Maximum number of rows in block for merge operations. Default value: 8192.
|
||||||
- `storage_policy` — Storage policy. See [Using Multiple Block Devices for Data Storage](#table_engine-mergetree-multiple-volumes).
|
- `storage_policy` — Storage policy. See [Using Multiple Block Devices for Data Storage](#table_engine-mergetree-multiple-volumes).
|
||||||
@ -333,7 +335,7 @@ SELECT count() FROM table WHERE u64 * i32 == 10 AND u64 * length(s) >= 1234
|
|||||||
|
|
||||||
The optional `false_positive` parameter is the probability of receiving a false positive response from the filter. Possible values: (0, 1). Default value: 0.025.
|
The optional `false_positive` parameter is the probability of receiving a false positive response from the filter. Possible values: (0, 1). Default value: 0.025.
|
||||||
|
|
||||||
Supported data types: `Int*`, `UInt*`, `Float*`, `Enum`, `Date`, `DateTime`, `String`, `FixedString`, `Array`, `LowCardinality`, `Nullable`.
|
Supported data types: `Int*`, `UInt*`, `Float*`, `Enum`, `Date`, `DateTime`, `String`, `FixedString`, `Array`, `LowCardinality`, `Nullable`, `UUID`.
|
||||||
|
|
||||||
The following functions can use it: [equals](../../../sql-reference/functions/comparison-functions.md), [notEquals](../../../sql-reference/functions/comparison-functions.md), [in](../../../sql-reference/functions/in-functions.md), [notIn](../../../sql-reference/functions/in-functions.md), [has](../../../sql-reference/functions/array-functions.md).
|
The following functions can use it: [equals](../../../sql-reference/functions/comparison-functions.md), [notEquals](../../../sql-reference/functions/comparison-functions.md), [in](../../../sql-reference/functions/in-functions.md), [notIn](../../../sql-reference/functions/in-functions.md), [has](../../../sql-reference/functions/array-functions.md).
|
||||||
|
|
||||||
@ -388,20 +390,27 @@ Functions with a constant argument that is less than ngram size can’t be used
|
|||||||
- `s != 1`
|
- `s != 1`
|
||||||
- `NOT startsWith(s, 'test')`
|
- `NOT startsWith(s, 'test')`
|
||||||
|
|
||||||
### Projections {#projections}
|
## Projections {#projections}
|
||||||
Projections are like materialized views but defined in part-level. It provides consistency guarantees along with automatic usage in queries.
|
Projections are like [materialized views](../../../sql-reference/statements/create/view.md#materialized) but defined in part-level. It provides consistency guarantees along with automatic usage in queries.
|
||||||
|
|
||||||
#### Query {#projection-query}
|
Projections are an experimental feature. To enable them you must set the [allow_experimental_projection_optimization](../../../operations/settings/settings.md#allow-experimental-projection-optimization) to `1`. See also the [force_optimize_projection](../../../operations/settings/settings.md#force-optimize-projection) setting.
|
||||||
A projection query is what defines a projection. It has the following grammar:
|
|
||||||
|
|
||||||
`SELECT <COLUMN LIST EXPR> [GROUP BY] [ORDER BY]`
|
Projections are not supported in the `SELECT` statements with the [FINAL](../../../sql-reference/statements/select/from.md#select-from-final) modifier.
|
||||||
|
|
||||||
It implicitly selects data from the parent table.
|
### Projection Query {#projection-query}
|
||||||
|
A projection query is what defines a projection. It implicitly selects data from the parent table.
|
||||||
|
**Syntax**
|
||||||
|
|
||||||
#### Storage {#projection-storage}
|
```sql
|
||||||
Projections are stored inside the part directory. It's similar to an index but contains a subdirectory that stores an anonymous MergeTree table's part. The table is induced by the definition query of the projection. If there is a GROUP BY clause, the underlying storage engine becomes AggregatedMergeTree, and all aggregate functions are converted to AggregateFunction. If there is an ORDER BY clause, the MergeTree table will use it as its primary key expression. During the merge process, the projection part will be merged via its storage's merge routine. The checksum of the parent table's part will combine the projection's part. Other maintenance jobs are similar to skip indices.
|
SELECT <column list expr> [GROUP BY] <group keys expr> [ORDER BY] <expr>
|
||||||
|
```
|
||||||
|
|
||||||
#### Query Analysis {#projection-query-analysis}
|
Projections can be modified or dropped with the [ALTER](../../../sql-reference/statements/alter/projection.md) statement.
|
||||||
|
|
||||||
|
### Projection Storage {#projection-storage}
|
||||||
|
Projections are stored inside the part directory. It's similar to an index but contains a subdirectory that stores an anonymous `MergeTree` table's part. The table is induced by the definition query of the projection. If there is a `GROUP BY` clause, the underlying storage engine becomes [AggregatingMergeTree](aggregatingmergetree.md), and all aggregate functions are converted to `AggregateFunction`. If there is an `ORDER BY` clause, the `MergeTree` table uses it as its primary key expression. During the merge process the projection part is merged via its storage's merge routine. The checksum of the parent table's part is combined with the projection's part. Other maintenance jobs are similar to skip indices.
|
||||||
|
|
||||||
|
### Query Analysis {#projection-query-analysis}
|
||||||
1. Check if the projection can be used to answer the given query, that is, it generates the same answer as querying the base table.
|
1. Check if the projection can be used to answer the given query, that is, it generates the same answer as querying the base table.
|
||||||
2. Select the best feasible match, which contains the least granules to read.
|
2. Select the best feasible match, which contains the least granules to read.
|
||||||
3. The query pipeline which uses projections will be different from the one that uses the original parts. If the projection is absent in some parts, we can add the pipeline to "project" it on the fly.
|
3. The query pipeline which uses projections will be different from the one that uses the original parts. If the projection is absent in some parts, we can add the pipeline to "project" it on the fly.
|
||||||
@ -416,18 +425,20 @@ Reading from a table is automatically parallelized.
|
|||||||
|
|
||||||
Determines the lifetime of values.
|
Determines the lifetime of values.
|
||||||
|
|
||||||
The `TTL` clause can be set for the whole table and for each individual column. Table-level TTL can also specify logic of automatic move of data between disks and volumes.
|
The `TTL` clause can be set for the whole table and for each individual column. Table-level `TTL` can also specify the logic of automatic moving data between disks and volumes, or recompressing parts where all the data has been expired.
|
||||||
|
|
||||||
Expressions must evaluate to [Date](../../../sql-reference/data-types/date.md) or [DateTime](../../../sql-reference/data-types/datetime.md) data type.
|
Expressions must evaluate to [Date](../../../sql-reference/data-types/date.md) or [DateTime](../../../sql-reference/data-types/datetime.md) data type.
|
||||||
|
|
||||||
Example:
|
**Syntax**
|
||||||
|
|
||||||
|
Setting time-to-live for a column:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
TTL time_column
|
TTL time_column
|
||||||
TTL time_column + interval
|
TTL time_column + interval
|
||||||
```
|
```
|
||||||
|
|
||||||
To define `interval`, use [time interval](../../../sql-reference/operators/index.md#operators-datetime) operators.
|
To define `interval`, use [time interval](../../../sql-reference/operators/index.md#operators-datetime) operators, for example:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
TTL date_time + INTERVAL 1 MONTH
|
TTL date_time + INTERVAL 1 MONTH
|
||||||
@ -440,9 +451,9 @@ When the values in the column expire, ClickHouse replaces them with the default
|
|||||||
|
|
||||||
The `TTL` clause can’t be used for key columns.
|
The `TTL` clause can’t be used for key columns.
|
||||||
|
|
||||||
Examples:
|
**Examples**
|
||||||
|
|
||||||
Creating a table with TTL
|
Creating a table with `TTL`:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE TABLE example_table
|
CREATE TABLE example_table
|
||||||
@ -475,11 +486,11 @@ ALTER TABLE example_table
|
|||||||
|
|
||||||
### Table TTL {#mergetree-table-ttl}
|
### Table TTL {#mergetree-table-ttl}
|
||||||
|
|
||||||
Table can have an expression for removal of expired rows, and multiple expressions for automatic move of parts between [disks or volumes](#table_engine-mergetree-multiple-volumes). When rows in the table expire, ClickHouse deletes all corresponding rows. For parts moving feature, all rows of a part must satisfy the movement expression criteria.
|
Table can have an expression for removal of expired rows, and multiple expressions for automatic move of parts between [disks or volumes](#table_engine-mergetree-multiple-volumes). When rows in the table expire, ClickHouse deletes all corresponding rows. For parts moving or recompressing, all rows of a part must satisfy the `TTL` expression criteria.
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
TTL expr
|
TTL expr
|
||||||
[DELETE|TO DISK 'xxx'|TO VOLUME 'xxx'][, DELETE|TO DISK 'aaa'|TO VOLUME 'bbb'] ...
|
[DELETE|RECOMPRESS codec_name1|TO DISK 'xxx'|TO VOLUME 'xxx'][, DELETE|RECOMPRESS codec_name2|TO DISK 'aaa'|TO VOLUME 'bbb'] ...
|
||||||
[WHERE conditions]
|
[WHERE conditions]
|
||||||
[GROUP BY key_expr [SET v1 = aggr_func(v1) [, v2 = aggr_func(v2) ...]] ]
|
[GROUP BY key_expr [SET v1 = aggr_func(v1) [, v2 = aggr_func(v2) ...]] ]
|
||||||
```
|
```
|
||||||
@ -487,11 +498,12 @@ TTL expr
|
|||||||
Type of TTL rule may follow each TTL expression. It affects an action which is to be done once the expression is satisfied (reaches current time):
|
Type of TTL rule may follow each TTL expression. It affects an action which is to be done once the expression is satisfied (reaches current time):
|
||||||
|
|
||||||
- `DELETE` - delete expired rows (default action);
|
- `DELETE` - delete expired rows (default action);
|
||||||
|
- `RECOMPRESS codec_name` - recompress data part with the `codec_name`;
|
||||||
- `TO DISK 'aaa'` - move part to the disk `aaa`;
|
- `TO DISK 'aaa'` - move part to the disk `aaa`;
|
||||||
- `TO VOLUME 'bbb'` - move part to the disk `bbb`;
|
- `TO VOLUME 'bbb'` - move part to the disk `bbb`;
|
||||||
- `GROUP BY` - aggregate expired rows.
|
- `GROUP BY` - aggregate expired rows.
|
||||||
|
|
||||||
With `WHERE` clause you may specify which of the expired rows to delete or aggregate (it cannot be applied to moves).
|
With `WHERE` clause you may specify which of the expired rows to delete or aggregate (it cannot be applied to moves or recompression).
|
||||||
|
|
||||||
`GROUP BY` expression must be a prefix of the table primary key.
|
`GROUP BY` expression must be a prefix of the table primary key.
|
||||||
|
|
||||||
@ -499,7 +511,7 @@ If a column is not part of the `GROUP BY` expression and is not set explicitly i
|
|||||||
|
|
||||||
**Examples**
|
**Examples**
|
||||||
|
|
||||||
Creating a table with TTL:
|
Creating a table with `TTL`:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE TABLE example_table
|
CREATE TABLE example_table
|
||||||
@ -515,7 +527,7 @@ TTL d + INTERVAL 1 MONTH [DELETE],
|
|||||||
d + INTERVAL 2 WEEK TO DISK 'bbb';
|
d + INTERVAL 2 WEEK TO DISK 'bbb';
|
||||||
```
|
```
|
||||||
|
|
||||||
Altering TTL of the table:
|
Altering `TTL` of the table:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
ALTER TABLE example_table
|
ALTER TABLE example_table
|
||||||
@ -536,6 +548,21 @@ ORDER BY d
|
|||||||
TTL d + INTERVAL 1 MONTH DELETE WHERE toDayOfWeek(d) = 1;
|
TTL d + INTERVAL 1 MONTH DELETE WHERE toDayOfWeek(d) = 1;
|
||||||
```
|
```
|
||||||
|
|
||||||
|
Creating a table, where expired rows are recompressed:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
CREATE TABLE table_for_recompression
|
||||||
|
(
|
||||||
|
d DateTime,
|
||||||
|
key UInt64,
|
||||||
|
value String
|
||||||
|
) ENGINE MergeTree()
|
||||||
|
ORDER BY tuple()
|
||||||
|
PARTITION BY key
|
||||||
|
TTL d + INTERVAL 1 MONTH RECOMPRESS CODEC(ZSTD(17)), d + INTERVAL 1 YEAR RECOMPRESS CODEC(LZ4HC(10))
|
||||||
|
SETTINGS min_rows_for_wide_part = 0, min_bytes_for_wide_part = 0;
|
||||||
|
```
|
||||||
|
|
||||||
Creating a table, where expired rows are aggregated. In result rows `x` contains the maximum value accross the grouped rows, `y` — the minimum value, and `d` — any occasional value from grouped rows.
|
Creating a table, where expired rows are aggregated. In result rows `x` contains the maximum value accross the grouped rows, `y` — the minimum value, and `d` — any occasional value from grouped rows.
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
@ -552,14 +579,19 @@ ORDER BY (k1, k2)
|
|||||||
TTL d + INTERVAL 1 MONTH GROUP BY k1, k2 SET x = max(x), y = min(y);
|
TTL d + INTERVAL 1 MONTH GROUP BY k1, k2 SET x = max(x), y = min(y);
|
||||||
```
|
```
|
||||||
|
|
||||||
**Removing Data**
|
### Removing Expired Data {#mergetree-removing-expired-data}
|
||||||
|
|
||||||
Data with an expired TTL is removed when ClickHouse merges data parts.
|
Data with an expired `TTL` is removed when ClickHouse merges data parts.
|
||||||
|
|
||||||
When ClickHouse see that data is expired, it performs an off-schedule merge. To control the frequency of such merges, you can set `merge_with_ttl_timeout`. If the value is too low, it will perform many off-schedule merges that may consume a lot of resources.
|
When ClickHouse detects that data is expired, it performs an off-schedule merge. To control the frequency of such merges, you can set `merge_with_ttl_timeout`. If the value is too low, it will perform many off-schedule merges that may consume a lot of resources.
|
||||||
|
|
||||||
If you perform the `SELECT` query between merges, you may get expired data. To avoid it, use the [OPTIMIZE](../../../sql-reference/statements/optimize.md) query before `SELECT`.
|
If you perform the `SELECT` query between merges, you may get expired data. To avoid it, use the [OPTIMIZE](../../../sql-reference/statements/optimize.md) query before `SELECT`.
|
||||||
|
|
||||||
|
**See Also**
|
||||||
|
|
||||||
|
- [ttl_only_drop_parts](../../../operations/settings/settings.md#ttl_only_drop_parts) setting
|
||||||
|
|
||||||
|
|
||||||
## Using Multiple Block Devices for Data Storage {#table_engine-mergetree-multiple-volumes}
|
## Using Multiple Block Devices for Data Storage {#table_engine-mergetree-multiple-volumes}
|
||||||
|
|
||||||
### Introduction {#introduction}
|
### Introduction {#introduction}
|
||||||
|
@ -149,4 +149,30 @@ Example of a config file:
|
|||||||
</config>
|
</config>
|
||||||
```
|
```
|
||||||
|
|
||||||
[Original article](https://clickhouse.tech/docs/en/interfaces/cli/) <!--hide-->
|
### Query ID Format {#query-id-format}
|
||||||
|
|
||||||
|
In interactive mode `clickhouse-client` shows query ID for every query. By default, the ID is formatted like this:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
Query id: 927f137d-00f1-4175-8914-0dd066365e96
|
||||||
|
```
|
||||||
|
|
||||||
|
A custom format may be specified in a configuration file inside a `query_id_formats` tag. `{query_id}` placeholder in the format string is replaced with the ID of a query. Several format strings are allowed inside the tag.
|
||||||
|
This feature can be used to generate URLs to facilitate profiling of queries.
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
```xml
|
||||||
|
<config>
|
||||||
|
<query_id_formats>
|
||||||
|
<speedscope>http://speedscope-host/#profileURL=qp%3Fid%3D{query_id}</speedscope>
|
||||||
|
</query_id_formats>
|
||||||
|
</config>
|
||||||
|
```
|
||||||
|
|
||||||
|
If the configuration above is applied, the ID of a query is shown in the following format:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
speedscope:http://speedscope-host/#profileURL=qp%3Fid%3Dc8ecc783-e753-4b38-97f1-42cddfb98b7d
|
||||||
|
```
|
||||||
|
|
||||||
|
@ -44,4 +44,10 @@ Restrictions:
|
|||||||
|
|
||||||
- some data types are sent as strings
|
- some data types are sent as strings
|
||||||
|
|
||||||
|
To cancel a long query use `KILL QUERY connection_id` statement (it is replaced with `KILL QUERY WHERE query_id = connection_id` while proceeding). For example:
|
||||||
|
|
||||||
|
``` bash
|
||||||
|
$ mysql --protocol tcp -h mysql_server -P 9004 default -u default --password=123 -e "KILL QUERY 123456;"
|
||||||
|
```
|
||||||
|
|
||||||
[Original article](https://clickhouse.tech/docs/en/interfaces/mysql/) <!--hide-->
|
[Original article](https://clickhouse.tech/docs/en/interfaces/mysql/) <!--hide-->
|
||||||
|
16
docs/en/interfaces/third-party/gui.md
vendored
16
docs/en/interfaces/third-party/gui.md
vendored
@ -190,4 +190,20 @@ SeekTable is [free](https://www.seektable.com/help/cloud-pricing) for personal/i
|
|||||||
|
|
||||||
[Chadmin](https://github.com/bun4uk/chadmin) is a simple UI where you can visualize your currently running queries on your ClickHouse cluster and info about them and kill them if you want.
|
[Chadmin](https://github.com/bun4uk/chadmin) is a simple UI where you can visualize your currently running queries on your ClickHouse cluster and info about them and kill them if you want.
|
||||||
|
|
||||||
|
### DBM {#dbm}
|
||||||
|
|
||||||
|
[DBM](https://dbm.incubator.edurt.io/) DBM is a visual management tool for ClickHouse!
|
||||||
|
|
||||||
|
Features:
|
||||||
|
|
||||||
|
- Support query history (pagination, clear all, etc.)
|
||||||
|
- Support selected sql clauses query
|
||||||
|
- Support terminating query
|
||||||
|
- Support table management (metadata, delete, preview)
|
||||||
|
- Support database management (delete, create)
|
||||||
|
- Support custom query
|
||||||
|
- Support multiple data sources management(connection test, monitoring)
|
||||||
|
- Support monitor (processor, connection, query)
|
||||||
|
- Support migrate data
|
||||||
|
|
||||||
[Original article](https://clickhouse.tech/docs/en/interfaces/third-party/gui/) <!--hide-->
|
[Original article](https://clickhouse.tech/docs/en/interfaces/third-party/gui/) <!--hide-->
|
||||||
|
@ -7,7 +7,7 @@ toc_title: Configuration Files
|
|||||||
|
|
||||||
ClickHouse supports multi-file configuration management. The main server configuration file is `/etc/clickhouse-server/config.xml` or `/etc/clickhouse-server/config.yaml`. Other files must be in the `/etc/clickhouse-server/config.d` directory. Note, that any configuration file can be written either in XML or YAML, but mixing formats in one file is not supported. For example, you can have main configs as `config.xml` and `users.xml` and write additional files in `config.d` and `users.d` directories in `.yaml`.
|
ClickHouse supports multi-file configuration management. The main server configuration file is `/etc/clickhouse-server/config.xml` or `/etc/clickhouse-server/config.yaml`. Other files must be in the `/etc/clickhouse-server/config.d` directory. Note, that any configuration file can be written either in XML or YAML, but mixing formats in one file is not supported. For example, you can have main configs as `config.xml` and `users.xml` and write additional files in `config.d` and `users.d` directories in `.yaml`.
|
||||||
|
|
||||||
All the configuration files should be in XML or YAML formats. All XML files should have the same root element, usually `<yandex>`. As for YAML, `yandex:` should not be present, the parser will insert it automatically.
|
All XML files should have the same root element, usually `<yandex>`. As for YAML, `yandex:` should not be present, the parser will insert it automatically.
|
||||||
|
|
||||||
## Override {#override}
|
## Override {#override}
|
||||||
|
|
||||||
@ -32,7 +32,7 @@ You can also declare attributes as coming from environment variables by using `f
|
|||||||
|
|
||||||
## Substitution {#substitution}
|
## Substitution {#substitution}
|
||||||
|
|
||||||
The config can also define “substitutions”. If an element has the `incl` attribute, the corresponding substitution from the file will be used as the value. By default, the path to the file with substitutions is `/etc/metrika.xml`. This can be changed in the [include_from](../operations/server-configuration-parameters/settings.md#server_configuration_parameters-include_from) element in the server config. The substitution values are specified in `/yandex/substitution_name` elements in this file. If a substitution specified in `incl` does not exist, it is recorded in the log. To prevent ClickHouse from logging missing substitutions, specify the `optional="true"` attribute (for example, settings for [macros](../operations/server-configuration-parameters/settings.md)).
|
The config can also define “substitutions”. If an element has the `incl` attribute, the corresponding substitution from the file will be used as the value. By default, the path to the file with substitutions is `/etc/metrika.xml`. This can be changed in the [include_from](../operations/server-configuration-parameters/settings.md#server_configuration_parameters-include_from) element in the server config. The substitution values are specified in `/yandex/substitution_name` elements in this file. If a substitution specified in `incl` does not exist, it is recorded in the log. To prevent ClickHouse from logging missing substitutions, specify the `optional="true"` attribute (for example, settings for [macros](../operations/server-configuration-parameters/settings.md#macros)).
|
||||||
|
|
||||||
If you want to replace an entire element with a substitution use `include` as element name.
|
If you want to replace an entire element with a substitution use `include` as element name.
|
||||||
|
|
||||||
|
@ -2041,10 +2041,25 @@ Default value: 0.
|
|||||||
|
|
||||||
## input_format_parallel_parsing {#input-format-parallel-parsing}
|
## input_format_parallel_parsing {#input-format-parallel-parsing}
|
||||||
|
|
||||||
- Type: bool
|
Enables or disables order-preserving parallel parsing of data formats. Supported only for [TSV](../../interfaces/formats.md#tabseparated), [TKSV](../../interfaces/formats.md#tskv), [CSV](../../interfaces/formats.md#csv) and [JSONEachRow](../../interfaces/formats.md#jsoneachrow) formats.
|
||||||
- Default value: True
|
|
||||||
|
|
||||||
Enable order-preserving parallel parsing of data formats. Supported only for TSV, TKSV, CSV, and JSONEachRow formats.
|
Possible values:
|
||||||
|
|
||||||
|
- 1 — Enabled.
|
||||||
|
- 0 — Disabled.
|
||||||
|
|
||||||
|
Default value: `0`.
|
||||||
|
|
||||||
|
## output_format_parallel_formatting {#output-format-parallel-formatting}
|
||||||
|
|
||||||
|
Enables or disables parallel formatting of data formats. Supported only for [TSV](../../interfaces/formats.md#tabseparated), [TKSV](../../interfaces/formats.md#tskv), [CSV](../../interfaces/formats.md#csv) and [JSONEachRow](../../interfaces/formats.md#jsoneachrow) formats.
|
||||||
|
|
||||||
|
Possible values:
|
||||||
|
|
||||||
|
- 1 — Enabled.
|
||||||
|
- 0 — Disabled.
|
||||||
|
|
||||||
|
Default value: `0`.
|
||||||
|
|
||||||
## min_chunk_bytes_for_parallel_parsing {#min-chunk-bytes-for-parallel-parsing}
|
## min_chunk_bytes_for_parallel_parsing {#min-chunk-bytes-for-parallel-parsing}
|
||||||
|
|
||||||
@ -3420,3 +3435,25 @@ Possible values:
|
|||||||
- 1 — The table is automatically updated in the background, when schema changes are detected.
|
- 1 — The table is automatically updated in the background, when schema changes are detected.
|
||||||
|
|
||||||
Default value: `0`.
|
Default value: `0`.
|
||||||
|
|
||||||
|
## allow_experimental_projection_optimization {#allow-experimental-projection-optimization}
|
||||||
|
|
||||||
|
Enables or disables [projection](../../engines/table-engines/mergetree-family/mergetree.md#projections) optimization when processing `SELECT` queries.
|
||||||
|
|
||||||
|
Possible values:
|
||||||
|
|
||||||
|
- 0 — Projection optimization disabled.
|
||||||
|
- 1 — Projection optimization enabled.
|
||||||
|
|
||||||
|
Default value: `0`.
|
||||||
|
|
||||||
|
## force_optimize_projection {#force-optimize-projection}
|
||||||
|
|
||||||
|
Enables or disables the obligatory use of [projections](../../engines/table-engines/mergetree-family/mergetree.md#projections) in `SELECT` queries, when projection optimization is enabled (see [allow_experimental_projection_optimization](#allow-experimental-projection-optimization) setting).
|
||||||
|
|
||||||
|
Possible values:
|
||||||
|
|
||||||
|
- 0 — Projection optimization is not obligatory.
|
||||||
|
- 1 — Projection optimization is obligatory.
|
||||||
|
|
||||||
|
Default value: `0`.
|
||||||
|
44
docs/en/operations/system-tables/views.md
Normal file
44
docs/en/operations/system-tables/views.md
Normal file
@ -0,0 +1,44 @@
|
|||||||
|
# system.views {#system-views}
|
||||||
|
|
||||||
|
Contains the dependencies of all views and the type to which the view belongs. The metadata of the view comes from the [system.tables](tables.md).
|
||||||
|
|
||||||
|
Columns:
|
||||||
|
|
||||||
|
- `database` ([String](../../sql-reference/data-types/string.md)) — The name of the database the view is in.
|
||||||
|
|
||||||
|
- `name` ([String](../../sql-reference/data-types/string.md)) — Name of the view.
|
||||||
|
|
||||||
|
- `main_dependency_database` ([String](../../sql-reference/data-types/string.md)) — The name of the database on which the view depends.
|
||||||
|
|
||||||
|
- `main_dependency_table` ([String](../../sql-reference/data-types/string.md)) - The name of the table on which the view depends.
|
||||||
|
|
||||||
|
- `view_type` ([Enum8](../../sql-reference/data-types/enum.md)) — Type of the view. Values:
|
||||||
|
- `'Default' = 1` — [Default views](../../sql-reference/statements/create/view.md#normal). Should not appear in this log.
|
||||||
|
- `'Materialized' = 2` — [Materialized views](../../sql-reference/statements/create/view.md#materialized).
|
||||||
|
- `'Live' = 3` — [Live views](../../sql-reference/statements/create/view.md#live-view).
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
```sql
|
||||||
|
SELECT * FROM system.views LIMIT 2 FORMAT Vertical;
|
||||||
|
```
|
||||||
|
|
||||||
|
```text
|
||||||
|
Row 1:
|
||||||
|
──────
|
||||||
|
database: default
|
||||||
|
name: live_view
|
||||||
|
main_dependency_database: default
|
||||||
|
main_dependency_table: view_source_tb
|
||||||
|
view_type: Live
|
||||||
|
|
||||||
|
Row 2:
|
||||||
|
──────
|
||||||
|
database: default
|
||||||
|
name: materialized_view
|
||||||
|
main_dependency_database: default
|
||||||
|
main_dependency_table: view_source_tb
|
||||||
|
view_type: Materialized
|
||||||
|
```
|
||||||
|
|
||||||
|
[Original article](https://clickhouse.tech/docs/en/operations/system-tables/views) <!--hide-->
|
@ -154,7 +154,7 @@ SELECT sequenceMatch('(?1)(?2)')(time, number = 1, number = 2, number = 3) FROM
|
|||||||
└──────────────────────────────────────────────────────────────────────────────────────────┘
|
└──────────────────────────────────────────────────────────────────────────────────────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
In this case, the function couldn’t find the event chain matching the pattern, because the event for number 3 occured between 1 and 2. If in the same case we checked the condition for number 4, the sequence would match the pattern.
|
In this case, the function couldn’t find the event chain matching the pattern, because the event for number 3 occurred between 1 and 2. If in the same case we checked the condition for number 4, the sequence would match the pattern.
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT sequenceMatch('(?1)(?2)')(time, number = 1, number = 2, number = 4) FROM t
|
SELECT sequenceMatch('(?1)(?2)')(time, number = 1, number = 2, number = 4) FROM t
|
||||||
|
@ -9,9 +9,9 @@ A date. Stored in two bytes as the number of days since 1970-01-01 (unsigned). A
|
|||||||
|
|
||||||
The date value is stored without the time zone.
|
The date value is stored without the time zone.
|
||||||
|
|
||||||
## Examples {#examples}
|
**Example**
|
||||||
|
|
||||||
**1.** Creating a table with a `DateTime`-type column and inserting data into it:
|
Creating a table with a `Date`-type column and inserting data into it:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE TABLE dt
|
CREATE TABLE dt
|
||||||
@ -23,10 +23,7 @@ ENGINE = TinyLog;
|
|||||||
```
|
```
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
INSERT INTO dt Values (1546300800, 1), ('2019-01-01', 2);
|
INSERT INTO dt VALUES (1546300800, 1), ('2019-01-01', 2);
|
||||||
```
|
|
||||||
|
|
||||||
``` sql
|
|
||||||
SELECT * FROM dt;
|
SELECT * FROM dt;
|
||||||
```
|
```
|
||||||
|
|
||||||
@ -37,11 +34,8 @@ SELECT * FROM dt;
|
|||||||
└────────────┴──────────┘
|
└────────────┴──────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
## See Also {#see-also}
|
**See Also**
|
||||||
|
|
||||||
- [Functions for working with dates and times](../../sql-reference/functions/date-time-functions.md)
|
- [Functions for working with dates and times](../../sql-reference/functions/date-time-functions.md)
|
||||||
- [Operators for working with dates and times](../../sql-reference/operators/index.md#operators-datetime)
|
- [Operators for working with dates and times](../../sql-reference/operators/index.md#operators-datetime)
|
||||||
- [`DateTime` data type](../../sql-reference/data-types/datetime.md)
|
- [`DateTime` data type](../../sql-reference/data-types/datetime.md)
|
||||||
|
|
||||||
|
|
||||||
[Original article](https://clickhouse.tech/docs/en/data_types/date/) <!--hide-->
|
|
||||||
|
40
docs/en/sql-reference/data-types/date32.md
Normal file
40
docs/en/sql-reference/data-types/date32.md
Normal file
@ -0,0 +1,40 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 48
|
||||||
|
toc_title: Date32
|
||||||
|
---
|
||||||
|
|
||||||
|
# Date32 {#data_type-datetime32}
|
||||||
|
|
||||||
|
A date. Supports the date range same with [Datetime64](../../sql-reference/data-types/datetime64.md). Stored in four bytes as the number of days since 1925-01-01. Allows storing values till 2283-11-11.
|
||||||
|
|
||||||
|
**Examples**
|
||||||
|
|
||||||
|
Creating a table with a `Date32`-type column and inserting data into it:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE new
|
||||||
|
(
|
||||||
|
`timestamp` Date32,
|
||||||
|
`event_id` UInt8
|
||||||
|
)
|
||||||
|
ENGINE = TinyLog;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
INSERT INTO new VALUES (4102444800, 1), ('2100-01-01', 2);
|
||||||
|
SELECT * FROM new;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──timestamp─┬─event_id─┐
|
||||||
|
│ 2100-01-01 │ 1 │
|
||||||
|
│ 2100-01-01 │ 2 │
|
||||||
|
└────────────┴──────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
**See Also**
|
||||||
|
|
||||||
|
- [toDate32](../../sql-reference/functions/type-conversion-functions.md#todate32)
|
||||||
|
- [toDate32OrZero](../../sql-reference/functions/type-conversion-functions.md#todate32-or-zero)
|
||||||
|
- [toDate32OrNull](../../sql-reference/functions/type-conversion-functions.md#todate32-or-null)
|
||||||
|
|
@ -17,7 +17,7 @@ DateTime64(precision, [timezone])
|
|||||||
|
|
||||||
Internally, stores data as a number of ‘ticks’ since epoch start (1970-01-01 00:00:00 UTC) as Int64. The tick resolution is determined by the precision parameter. Additionally, the `DateTime64` type can store time zone that is the same for the entire column, that affects how the values of the `DateTime64` type values are displayed in text format and how the values specified as strings are parsed (‘2020-01-01 05:00:01.000’). The time zone is not stored in the rows of the table (or in resultset), but is stored in the column metadata. See details in [DateTime](../../sql-reference/data-types/datetime.md).
|
Internally, stores data as a number of ‘ticks’ since epoch start (1970-01-01 00:00:00 UTC) as Int64. The tick resolution is determined by the precision parameter. Additionally, the `DateTime64` type can store time zone that is the same for the entire column, that affects how the values of the `DateTime64` type values are displayed in text format and how the values specified as strings are parsed (‘2020-01-01 05:00:01.000’). The time zone is not stored in the rows of the table (or in resultset), but is stored in the column metadata. See details in [DateTime](../../sql-reference/data-types/datetime.md).
|
||||||
|
|
||||||
Supported range from January 1, 1925 till December 31, 2283.
|
Supported range from January 1, 1925 till November 11, 2283.
|
||||||
|
|
||||||
## Examples {#examples}
|
## Examples {#examples}
|
||||||
|
|
||||||
|
@ -58,6 +58,7 @@ LAYOUT(LAYOUT_TYPE(param value)) -- layout settings
|
|||||||
- [direct](#direct)
|
- [direct](#direct)
|
||||||
- [range_hashed](#range-hashed)
|
- [range_hashed](#range-hashed)
|
||||||
- [complex_key_hashed](#complex-key-hashed)
|
- [complex_key_hashed](#complex-key-hashed)
|
||||||
|
- [complex_key_range_hashed](#complex-key-range-hashed)
|
||||||
- [complex_key_cache](#complex-key-cache)
|
- [complex_key_cache](#complex-key-cache)
|
||||||
- [ssd_cache](#ssd-cache)
|
- [ssd_cache](#ssd-cache)
|
||||||
- [ssd_complex_key_cache](#complex-key-ssd-cache)
|
- [ssd_complex_key_cache](#complex-key-ssd-cache)
|
||||||
@ -269,6 +270,28 @@ PRIMARY KEY Abcdef
|
|||||||
RANGE(MIN StartTimeStamp MAX EndTimeStamp)
|
RANGE(MIN StartTimeStamp MAX EndTimeStamp)
|
||||||
```
|
```
|
||||||
|
|
||||||
|
### complex_key_range_hashed {#complex-key-range-hashed}
|
||||||
|
|
||||||
|
The dictionary is stored in memory in the form of a hash table with an ordered array of ranges and their corresponding values (see [range_hashed](#range-hashed)). This type of storage is for use with composite [keys](../../../sql-reference/dictionaries/external-dictionaries/external-dicts-dict-structure.md).
|
||||||
|
|
||||||
|
Configuration example:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DICTIONARY range_dictionary
|
||||||
|
(
|
||||||
|
CountryID UInt64,
|
||||||
|
CountryKey String,
|
||||||
|
StartDate Date,
|
||||||
|
EndDate Date,
|
||||||
|
Tax Float64 DEFAULT 0.2
|
||||||
|
)
|
||||||
|
PRIMARY KEY CountryID, CountryKey
|
||||||
|
SOURCE(CLICKHOUSE(TABLE 'date_table'))
|
||||||
|
LIFETIME(MIN 1 MAX 1000)
|
||||||
|
LAYOUT(COMPLEX_KEY_RANGE_HASHED())
|
||||||
|
RANGE(MIN StartDate MAX EndDate);
|
||||||
|
```
|
||||||
|
|
||||||
### cache {#cache}
|
### cache {#cache}
|
||||||
|
|
||||||
The dictionary is stored in a cache that has a fixed number of cells. These cells contain frequently used elements.
|
The dictionary is stored in a cache that has a fixed number of cells. These cells contain frequently used elements.
|
||||||
|
@ -2236,3 +2236,121 @@ defaultRoles()
|
|||||||
|
|
||||||
Type: [Array](../../sql-reference/data-types/array.md)([String](../../sql-reference/data-types/string.md)).
|
Type: [Array](../../sql-reference/data-types/array.md)([String](../../sql-reference/data-types/string.md)).
|
||||||
|
|
||||||
|
## getServerPort {#getserverport}
|
||||||
|
|
||||||
|
Returns the number of the server port. When the port is not used by the server, throws an exception.
|
||||||
|
|
||||||
|
**Syntax**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
getServerPort(port_name)
|
||||||
|
```
|
||||||
|
|
||||||
|
**Arguments**
|
||||||
|
|
||||||
|
- `port_name` — The name of the server port. [String](../../sql-reference/data-types/string.md#string). Possible values:
|
||||||
|
|
||||||
|
- 'tcp_port'
|
||||||
|
- 'tcp_port_secure'
|
||||||
|
- 'http_port'
|
||||||
|
- 'https_port'
|
||||||
|
- 'interserver_http_port'
|
||||||
|
- 'interserver_https_port'
|
||||||
|
- 'mysql_port'
|
||||||
|
- 'postgresql_port'
|
||||||
|
- 'grpc_port'
|
||||||
|
- 'prometheus.port'
|
||||||
|
|
||||||
|
**Returned value**
|
||||||
|
|
||||||
|
- The number of the server port.
|
||||||
|
|
||||||
|
Type: [UInt16](../../sql-reference/data-types/int-uint.md).
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
Query:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT getServerPort('tcp_port');
|
||||||
|
```
|
||||||
|
|
||||||
|
Result:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─getServerPort('tcp_port')─┐
|
||||||
|
│ 9000 │
|
||||||
|
└───────────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
## queryID {#query-id}
|
||||||
|
|
||||||
|
Returns the ID of the current query. Other parameters of a query can be extracted from the [system.query_log](../../operations/system-tables/query_log.md) table via `query_id`.
|
||||||
|
|
||||||
|
In contrast to [initialQueryID](#initial-query-id) function, `queryID` can return different results on different shards (see example).
|
||||||
|
|
||||||
|
**Syntax**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
queryID()
|
||||||
|
```
|
||||||
|
|
||||||
|
**Returned value**
|
||||||
|
|
||||||
|
- The ID of the current query.
|
||||||
|
|
||||||
|
Type: [String](../../sql-reference/data-types/string.md)
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
Query:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE tmp (str String) ENGINE = Log;
|
||||||
|
INSERT INTO tmp (*) VALUES ('a');
|
||||||
|
SELECT count(DISTINCT t) FROM (SELECT queryID() AS t FROM remote('127.0.0.{1..3}', currentDatabase(), 'tmp') GROUP BY queryID());
|
||||||
|
```
|
||||||
|
|
||||||
|
Result:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─count()─┐
|
||||||
|
│ 3 │
|
||||||
|
└─────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
## initialQueryID {#initial-query-id}
|
||||||
|
|
||||||
|
Returns the ID of the initial current query. Other parameters of a query can be extracted from the [system.query_log](../../operations/system-tables/query_log.md) table via `initial_query_id`.
|
||||||
|
|
||||||
|
In contrast to [queryID](#query-id) function, `initialQueryID` returns the same results on different shards (see example).
|
||||||
|
|
||||||
|
**Syntax**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
initialQueryID()
|
||||||
|
```
|
||||||
|
|
||||||
|
**Returned value**
|
||||||
|
|
||||||
|
- The ID of the initial current query.
|
||||||
|
|
||||||
|
Type: [String](../../sql-reference/data-types/string.md)
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
Query:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE tmp (str String) ENGINE = Log;
|
||||||
|
INSERT INTO tmp (*) VALUES ('a');
|
||||||
|
SELECT count(DISTINCT t) FROM (SELECT initialQueryID() AS t FROM remote('127.0.0.{1..3}', currentDatabase(), 'tmp') GROUP BY queryID());
|
||||||
|
```
|
||||||
|
|
||||||
|
Result:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─count()─┐
|
||||||
|
│ 1 │
|
||||||
|
└─────────┘
|
||||||
|
```
|
||||||
|
@ -152,6 +152,104 @@ Alias: `DATE`.
|
|||||||
|
|
||||||
## toDateTimeOrNull {#todatetimeornull}
|
## toDateTimeOrNull {#todatetimeornull}
|
||||||
|
|
||||||
|
## toDate32 {#todate32}
|
||||||
|
|
||||||
|
Converts the argument to the [Date32](../../sql-reference/data-types/date32.md) data type. If the value is outside the range returns the border values supported by `Date32`. If the argument has [Date](../../sql-reference/data-types/date.md) type, borders of `Date` are taken into account.
|
||||||
|
|
||||||
|
**Syntax**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
toDate32(expr)
|
||||||
|
```
|
||||||
|
|
||||||
|
**Arguments**
|
||||||
|
|
||||||
|
- `expr` — The value. [String](../../sql-reference/data-types/string.md), [UInt32](../../sql-reference/data-types/int-uint.md) or [Date](../../sql-reference/data-types/date.md).
|
||||||
|
|
||||||
|
**Returned value**
|
||||||
|
|
||||||
|
- A calendar date.
|
||||||
|
|
||||||
|
Type: [Date32](../../sql-reference/data-types/date32.md).
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
1. The value is within the range:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32('1955-01-01') AS value, toTypeName(value);
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──────value─┬─toTypeName(toDate32('1925-01-01'))─┐
|
||||||
|
│ 1955-01-01 │ Date32 │
|
||||||
|
└────────────┴────────────────────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
2. The value is outside the range:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32('1924-01-01') AS value, toTypeName(value);
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──────value─┬─toTypeName(toDate32('1925-01-01'))─┐
|
||||||
|
│ 1925-01-01 │ Date32 │
|
||||||
|
└────────────┴────────────────────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
3. With `Date`-type argument:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32(toDate('1924-01-01')) AS value, toTypeName(value);
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──────value─┬─toTypeName(toDate32(toDate('1924-01-01')))─┐
|
||||||
|
│ 1970-01-01 │ Date32 │
|
||||||
|
└────────────┴────────────────────────────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
## toDate32OrZero {#todate32-or-zero}
|
||||||
|
|
||||||
|
The same as [toDate32](#todate32) but returns the min value of [Date32](../../sql-reference/data-types/date32.md) if invalid argument is received.
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
Query:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32OrZero('1924-01-01'), toDate32OrZero('');
|
||||||
|
```
|
||||||
|
|
||||||
|
Result:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─toDate32OrZero('1924-01-01')─┬─toDate32OrZero('')─┐
|
||||||
|
│ 1925-01-01 │ 1925-01-01 │
|
||||||
|
└──────────────────────────────┴────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
## toDate32OrNull {#todate32-or-null}
|
||||||
|
|
||||||
|
The same as [toDate32](#todate32) but returns `NULL` if invalid argument is received.
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
Query:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32OrNull('1955-01-01'), toDate32OrNull('');
|
||||||
|
```
|
||||||
|
|
||||||
|
Result:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─toDate32OrNull('1955-01-01')─┬─toDate32OrNull('')─┐
|
||||||
|
│ 1955-01-01 │ ᴺᵁᴸᴸ │
|
||||||
|
└──────────────────────────────┴────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
## toDecimal(32\|64\|128\|256) {#todecimal3264128256}
|
## toDecimal(32\|64\|128\|256) {#todecimal3264128256}
|
||||||
|
|
||||||
Converts `value` to the [Decimal](../../sql-reference/data-types/decimal.md) data type with precision of `S`. The `value` can be a number or a string. The `S` (scale) parameter specifies the number of decimal places.
|
Converts `value` to the [Decimal](../../sql-reference/data-types/decimal.md) data type with precision of `S`. The `value` can be a number or a string. The `S` (scale) parameter specifies the number of decimal places.
|
||||||
|
@ -245,7 +245,22 @@ SELECT
|
|||||||
└──────────────────┴──────────────────────────────────────┘
|
└──────────────────┴──────────────────────────────────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
|
## serverUUID() {#server-uuid}
|
||||||
|
|
||||||
|
Returns the random and unique UUID, which is generated when the server is first started and stored forever. The result writes to the file `uuid` created in the ClickHouse server directory `/var/lib/clickhouse/`.
|
||||||
|
|
||||||
|
**Syntax**
|
||||||
|
|
||||||
|
```sql
|
||||||
|
serverUUID()
|
||||||
|
```
|
||||||
|
|
||||||
|
**Returned value**
|
||||||
|
|
||||||
|
- The UUID of the server.
|
||||||
|
|
||||||
|
Type: [UUID](../data-types/uuid.md).
|
||||||
|
|
||||||
## See Also {#see-also}
|
## See Also {#see-also}
|
||||||
|
|
||||||
- [dictGetUUID](../../sql-reference/functions/ext-dict-functions.md#ext_dict_functions-other)
|
- [dictGetUUID](../../sql-reference/functions/ext-dict-functions.md#ext_dict_functions-other)
|
||||||
|
|
||||||
|
@ -5,7 +5,7 @@ toc_title: PROJECTION
|
|||||||
|
|
||||||
# Manipulating Projections {#manipulations-with-projections}
|
# Manipulating Projections {#manipulations-with-projections}
|
||||||
|
|
||||||
The following operations are available:
|
The following operations with [projections](../../../engines/table-engines/mergetree-family/mergetree.md#projections) are available:
|
||||||
|
|
||||||
- `ALTER TABLE [db].name ADD PROJECTION name AS SELECT <COLUMN LIST EXPR> [GROUP BY] [ORDER BY]` - Adds projection description to tables metadata.
|
- `ALTER TABLE [db].name ADD PROJECTION name AS SELECT <COLUMN LIST EXPR> [GROUP BY] [ORDER BY]` - Adds projection description to tables metadata.
|
||||||
|
|
||||||
@ -15,7 +15,7 @@ The following operations are available:
|
|||||||
|
|
||||||
- `ALTER TABLE [db.]table CLEAR PROJECTION name IN PARTITION partition_name` - Deletes projection files from disk without removing description.
|
- `ALTER TABLE [db.]table CLEAR PROJECTION name IN PARTITION partition_name` - Deletes projection files from disk without removing description.
|
||||||
|
|
||||||
The commands ADD, DROP and CLEAR are lightweight in a sense that they only change metadata or remove files.
|
The commands `ADD`, `DROP` and `CLEAR` are lightweight in a sense that they only change metadata or remove files.
|
||||||
|
|
||||||
Also, they are replicated, syncing projections metadata via ZooKeeper.
|
Also, they are replicated, syncing projections metadata via ZooKeeper.
|
||||||
|
|
||||||
|
@ -49,6 +49,9 @@ When creating a materialized view with `TO [db].[table]`, you must not use `POPU
|
|||||||
|
|
||||||
A materialized view is implemented as follows: when inserting data to the table specified in `SELECT`, part of the inserted data is converted by this `SELECT` query, and the result is inserted in the view.
|
A materialized view is implemented as follows: when inserting data to the table specified in `SELECT`, part of the inserted data is converted by this `SELECT` query, and the result is inserted in the view.
|
||||||
|
|
||||||
|
!!! important "Important"
|
||||||
|
Materialized views in ClickHouse use **column names** instead of column order during insertion into destination table. If some column names are not present in `SELECT`'s result ClickHouse will use a default value, even if column is not `Nullable`. A safe practice would be to add aliases for every column when using Materialized views.
|
||||||
|
|
||||||
!!! important "Important"
|
!!! important "Important"
|
||||||
Materialized views in ClickHouse are implemented more like insert triggers. If there’s some aggregation in the view query, it’s applied only to the batch of freshly inserted data. Any changes to existing data of source table (like update, delete, drop partition, etc.) does not change the materialized view.
|
Materialized views in ClickHouse are implemented more like insert triggers. If there’s some aggregation in the view query, it’s applied only to the batch of freshly inserted data. Any changes to existing data of source table (like update, delete, drop partition, etc.) does not change the materialized view.
|
||||||
|
|
||||||
|
@ -6,7 +6,7 @@ toc_title: JOIN
|
|||||||
|
|
||||||
Join produces a new table by combining columns from one or multiple tables by using values common to each. It is a common operation in databases with SQL support, which corresponds to [relational algebra](https://en.wikipedia.org/wiki/Relational_algebra#Joins_and_join-like_operators) join. The special case of one table join is often referred to as “self-join”.
|
Join produces a new table by combining columns from one or multiple tables by using values common to each. It is a common operation in databases with SQL support, which corresponds to [relational algebra](https://en.wikipedia.org/wiki/Relational_algebra#Joins_and_join-like_operators) join. The special case of one table join is often referred to as “self-join”.
|
||||||
|
|
||||||
Syntax:
|
**Syntax**
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT <expr_list>
|
SELECT <expr_list>
|
||||||
@ -36,9 +36,12 @@ Additional join types available in ClickHouse:
|
|||||||
- `LEFT ANY JOIN`, `RIGHT ANY JOIN` and `INNER ANY JOIN`, partially (for opposite side of `LEFT` and `RIGHT`) or completely (for `INNER` and `FULL`) disables the cartesian product for standard `JOIN` types.
|
- `LEFT ANY JOIN`, `RIGHT ANY JOIN` and `INNER ANY JOIN`, partially (for opposite side of `LEFT` and `RIGHT`) or completely (for `INNER` and `FULL`) disables the cartesian product for standard `JOIN` types.
|
||||||
- `ASOF JOIN` and `LEFT ASOF JOIN`, joining sequences with a non-exact match. `ASOF JOIN` usage is described below.
|
- `ASOF JOIN` and `LEFT ASOF JOIN`, joining sequences with a non-exact match. `ASOF JOIN` usage is described below.
|
||||||
|
|
||||||
|
!!! note "Note"
|
||||||
|
When [join_algorithm](../../../operations/settings/settings.md#settings-join_algorithm) is set to `partial_merge`, `RIGHT JOIN` and `FULL JOIN` are supported only with `ALL` strictness (`SEMI`, `ANTI`, `ANY`, and `ASOF` are not supported).
|
||||||
|
|
||||||
## Settings {#join-settings}
|
## Settings {#join-settings}
|
||||||
|
|
||||||
The default join type can be overriden using [join_default_strictness](../../../operations/settings/settings.md#settings-join_default_strictness) setting.
|
The default join type can be overridden using [join_default_strictness](../../../operations/settings/settings.md#settings-join_default_strictness) setting.
|
||||||
|
|
||||||
The behavior of ClickHouse server for `ANY JOIN` operations depends on the [any_join_distinct_right_table_keys](../../../operations/settings/settings.md#any_join_distinct_right_table_keys) setting.
|
The behavior of ClickHouse server for `ANY JOIN` operations depends on the [any_join_distinct_right_table_keys](../../../operations/settings/settings.md#any_join_distinct_right_table_keys) setting.
|
||||||
|
|
||||||
@ -52,6 +55,61 @@ The behavior of ClickHouse server for `ANY JOIN` operations depends on the [any_
|
|||||||
- [join_on_disk_max_files_to_merge](../../../operations/settings/settings.md#join_on_disk_max_files_to_merge)
|
- [join_on_disk_max_files_to_merge](../../../operations/settings/settings.md#join_on_disk_max_files_to_merge)
|
||||||
- [any_join_distinct_right_table_keys](../../../operations/settings/settings.md#any_join_distinct_right_table_keys)
|
- [any_join_distinct_right_table_keys](../../../operations/settings/settings.md#any_join_distinct_right_table_keys)
|
||||||
|
|
||||||
|
## ON Section Conditions {on-section-conditions}
|
||||||
|
|
||||||
|
An `ON` section can contain several conditions combined using the `AND` operator. Conditions specifying join keys must refer both left and right tables and must use the equality operator. Other conditions may use other logical operators but they must refer either the left or the right table of a query.
|
||||||
|
Rows are joined if the whole complex condition is met. If the conditions are not met, still rows may be included in the result depending on the `JOIN` type. Note that if the same conditions are placed in a `WHERE` section and they are not met, then rows are always filtered out from the result.
|
||||||
|
|
||||||
|
!!! note "Note"
|
||||||
|
The `OR` operator inside an `ON` section is not supported yet.
|
||||||
|
|
||||||
|
!!! note "Note"
|
||||||
|
If a condition refers columns from different tables, then only the equality operator (`=`) is supported so far.
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
Consider `table_1` and `table_2`:
|
||||||
|
|
||||||
|
```
|
||||||
|
┌─Id─┬─name─┐ ┌─Id─┬─text───────────┬─scores─┐
|
||||||
|
│ 1 │ A │ │ 1 │ Text A │ 10 │
|
||||||
|
│ 2 │ B │ │ 1 │ Another text A │ 12 │
|
||||||
|
│ 3 │ C │ │ 2 │ Text B │ 15 │
|
||||||
|
└────┴──────┘ └────┴────────────────┴────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
Query with one join key condition and an additional condition for `table_2`:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT name, text FROM table_1 LEFT OUTER JOIN table_2
|
||||||
|
ON table_1.Id = table_2.Id AND startsWith(table_2.text, 'Text');
|
||||||
|
```
|
||||||
|
|
||||||
|
Note that the result contains the row with the name `C` and the empty text column. It is included into the result because an `OUTER` type of a join is used.
|
||||||
|
|
||||||
|
```
|
||||||
|
┌─name─┬─text───┐
|
||||||
|
│ A │ Text A │
|
||||||
|
│ B │ Text B │
|
||||||
|
│ C │ │
|
||||||
|
└──────┴────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
Query with `INNER` type of a join and multiple conditions:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT name, text, scores FROM table_1 INNER JOIN table_2
|
||||||
|
ON table_1.Id = table_2.Id AND table_2.scores > 10 AND startsWith(table_2.text, 'Text');
|
||||||
|
```
|
||||||
|
|
||||||
|
Result:
|
||||||
|
|
||||||
|
```
|
||||||
|
┌─name─┬─text───┬─scores─┐
|
||||||
|
│ B │ Text B │ 15 │
|
||||||
|
└──────┴────────┴────────┘
|
||||||
|
```
|
||||||
|
|
||||||
## ASOF JOIN Usage {#asof-join-usage}
|
## ASOF JOIN Usage {#asof-join-usage}
|
||||||
|
|
||||||
`ASOF JOIN` is useful when you need to join records that have no exact match.
|
`ASOF JOIN` is useful when you need to join records that have no exact match.
|
||||||
@ -59,7 +117,7 @@ The behavior of ClickHouse server for `ANY JOIN` operations depends on the [any_
|
|||||||
Algorithm requires the special column in tables. This column:
|
Algorithm requires the special column in tables. This column:
|
||||||
|
|
||||||
- Must contain an ordered sequence.
|
- Must contain an ordered sequence.
|
||||||
- Can be one of the following types: [Int*, UInt*](../../../sql-reference/data-types/int-uint.md), [Float\*](../../../sql-reference/data-types/float.md), [Date](../../../sql-reference/data-types/date.md), [DateTime](../../../sql-reference/data-types/datetime.md), [Decimal\*](../../../sql-reference/data-types/decimal.md).
|
- Can be one of the following types: [Int, UInt](../../../sql-reference/data-types/int-uint.md), [Float](../../../sql-reference/data-types/float.md), [Date](../../../sql-reference/data-types/date.md), [DateTime](../../../sql-reference/data-types/datetime.md), [Decimal](../../../sql-reference/data-types/decimal.md).
|
||||||
- Can’t be the only column in the `JOIN` clause.
|
- Can’t be the only column in the `JOIN` clause.
|
||||||
|
|
||||||
Syntax `ASOF JOIN ... ON`:
|
Syntax `ASOF JOIN ... ON`:
|
||||||
@ -84,7 +142,7 @@ ASOF JOIN table_2
|
|||||||
USING (equi_column1, ... equi_columnN, asof_column)
|
USING (equi_column1, ... equi_columnN, asof_column)
|
||||||
```
|
```
|
||||||
|
|
||||||
`ASOF JOIN` uses `equi_columnX` for joining on equality and `asof_column` for joining on the closest match with the `table_1.asof_column >= table_2.asof_column` condition. The `asof_column` column always the last one in the `USING` clause.
|
`ASOF JOIN` uses `equi_columnX` for joining on equality and `asof_column` for joining on the closest match with the `table_1.asof_column >= table_2.asof_column` condition. The `asof_column` column is always the last one in the `USING` clause.
|
||||||
|
|
||||||
For example, consider the following tables:
|
For example, consider the following tables:
|
||||||
|
|
||||||
|
@ -14,7 +14,7 @@ You can use table functions in:
|
|||||||
|
|
||||||
The method for creating a temporary table that is available only in the current query. The table is deleted when the query finishes.
|
The method for creating a temporary table that is available only in the current query. The table is deleted when the query finishes.
|
||||||
|
|
||||||
- [CREATE TABLE AS \<table_function()\>](../../sql-reference/statements/create/table.md) query.
|
- [CREATE TABLE AS table_function()](../../sql-reference/statements/create/table.md) query.
|
||||||
|
|
||||||
It's one of the methods of creating a table.
|
It's one of the methods of creating a table.
|
||||||
|
|
||||||
@ -34,5 +34,6 @@ You can use table functions in:
|
|||||||
| [odbc](../../sql-reference/table-functions/odbc.md) | Creates a [ODBC](../../engines/table-engines/integrations/odbc.md)-engine table. |
|
| [odbc](../../sql-reference/table-functions/odbc.md) | Creates a [ODBC](../../engines/table-engines/integrations/odbc.md)-engine table. |
|
||||||
| [hdfs](../../sql-reference/table-functions/hdfs.md) | Creates a [HDFS](../../engines/table-engines/integrations/hdfs.md)-engine table. |
|
| [hdfs](../../sql-reference/table-functions/hdfs.md) | Creates a [HDFS](../../engines/table-engines/integrations/hdfs.md)-engine table. |
|
||||||
| [s3](../../sql-reference/table-functions/s3.md) | Creates a [S3](../../engines/table-engines/integrations/s3.md)-engine table. |
|
| [s3](../../sql-reference/table-functions/s3.md) | Creates a [S3](../../engines/table-engines/integrations/s3.md)-engine table. |
|
||||||
|
| [sqlite](../../sql-reference/table-functions/sqlite.md) | Creates a [sqlite](../../engines/table-engines/integrations/sqlite.md)-engine table. |
|
||||||
|
|
||||||
[Original article](https://clickhouse.tech/docs/en/sql-reference/table-functions/) <!--hide-->
|
[Original article](https://clickhouse.tech/docs/en/sql-reference/table-functions/) <!--hide-->
|
||||||
|
45
docs/en/sql-reference/table-functions/sqlite.md
Normal file
45
docs/en/sql-reference/table-functions/sqlite.md
Normal file
@ -0,0 +1,45 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 55
|
||||||
|
toc_title: sqlite
|
||||||
|
---
|
||||||
|
|
||||||
|
## sqlite {#sqlite}
|
||||||
|
|
||||||
|
Allows to perform queries on a data stored in an [SQLite](../../engines/database-engines/sqlite.md) database.
|
||||||
|
|
||||||
|
**Syntax**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
sqlite('db_path', 'table_name')
|
||||||
|
```
|
||||||
|
|
||||||
|
**Arguments**
|
||||||
|
|
||||||
|
- `db_path` — Path to a file with an SQLite database. [String](../../sql-reference/data-types/string.md).
|
||||||
|
- `table_name` — Name of a table in the SQLite database. [String](../../sql-reference/data-types/string.md).
|
||||||
|
|
||||||
|
**Returned value**
|
||||||
|
|
||||||
|
- A table object with the same columns as in the original `SQLite` table.
|
||||||
|
|
||||||
|
**Example**
|
||||||
|
|
||||||
|
Query:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM sqlite('sqlite.db', 'table1') ORDER BY col2;
|
||||||
|
```
|
||||||
|
|
||||||
|
Result:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─col1──┬─col2─┐
|
||||||
|
│ line1 │ 1 │
|
||||||
|
│ line2 │ 2 │
|
||||||
|
│ line3 │ 3 │
|
||||||
|
└───────┴──────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
**See Also**
|
||||||
|
|
||||||
|
- [SQLite](../../engines/table-engines/integrations/sqlite.md) table engine
|
@ -36,7 +36,7 @@ ClickHouse - полноценная колоночная СУБД. Данные
|
|||||||
|
|
||||||
`IDataType` и `IColumn` слабо связаны друг с другом. Различные типы данных могут быть представлены в памяти с помощью одной реализации `IColumn`. Например, и `DataTypeUInt32`, и `DataTypeDateTime` в памяти представлены как `ColumnUInt32` или `ColumnConstUInt32`. В добавок к этому, один тип данных может быть представлен различными реализациями `IColumn`. Например, `DataTypeUInt8` может быть представлен как `ColumnUInt8` и `ColumnConstUInt8`.
|
`IDataType` и `IColumn` слабо связаны друг с другом. Различные типы данных могут быть представлены в памяти с помощью одной реализации `IColumn`. Например, и `DataTypeUInt32`, и `DataTypeDateTime` в памяти представлены как `ColumnUInt32` или `ColumnConstUInt32`. В добавок к этому, один тип данных может быть представлен различными реализациями `IColumn`. Например, `DataTypeUInt8` может быть представлен как `ColumnUInt8` и `ColumnConstUInt8`.
|
||||||
|
|
||||||
`IDataType` хранит только метаданные. Например, `DataTypeUInt8` не хранить ничего (кроме скрытого указателя `vptr`), а `DataTypeFixedString` хранит только `N` (фиксированный размер строки).
|
`IDataType` хранит только метаданные. Например, `DataTypeUInt8` не хранит ничего (кроме скрытого указателя `vptr`), а `DataTypeFixedString` хранит только `N` (фиксированный размер строки).
|
||||||
|
|
||||||
В `IDataType` есть вспомогательные методы для данных различного формата. Среди них методы сериализации значений, допускающих использование кавычек, сериализации значения в JSON или XML. Среди них нет прямого соответствия форматам данных. Например, различные форматы `Pretty` и `TabSeparated` могут использовать один вспомогательный метод `serializeTextEscaped` интерфейса `IDataType`.
|
В `IDataType` есть вспомогательные методы для данных различного формата. Среди них методы сериализации значений, допускающих использование кавычек, сериализации значения в JSON или XML. Среди них нет прямого соответствия форматам данных. Например, различные форматы `Pretty` и `TabSeparated` могут использовать один вспомогательный метод `serializeTextEscaped` интерфейса `IDataType`.
|
||||||
|
|
||||||
@ -62,7 +62,7 @@ ClickHouse - полноценная колоночная СУБД. Данные
|
|||||||
|
|
||||||
> Потоки блоков используют «втягивающий» (pull) подход к управлению потоком выполнения: когда вы вытягиваете блок из первого потока, он, следовательно, вытягивает необходимые блоки из вложенных потоков, так и работает весь конвейер выполнения. Ни «pull» ни «push» не имеют явного преимущества, потому что поток управления неявный, и это ограничивает в реализации различных функций, таких как одновременное выполнение нескольких запросов (слияние нескольких конвейеров вместе). Это ограничение можно преодолеть с помощью сопрограмм (coroutines) или просто запуском дополнительных потоков, которые ждут друг друга. У нас может быть больше возможностей, если мы сделаем поток управления явным: если мы локализуем логику для передачи данных из одной расчетной единицы в другую вне этих расчетных единиц. Читайте эту [статью](http://journal.stuffwithstuff.com/2013/01/13/iteration-inside-and-out/) для углубленного изучения.
|
> Потоки блоков используют «втягивающий» (pull) подход к управлению потоком выполнения: когда вы вытягиваете блок из первого потока, он, следовательно, вытягивает необходимые блоки из вложенных потоков, так и работает весь конвейер выполнения. Ни «pull» ни «push» не имеют явного преимущества, потому что поток управления неявный, и это ограничивает в реализации различных функций, таких как одновременное выполнение нескольких запросов (слияние нескольких конвейеров вместе). Это ограничение можно преодолеть с помощью сопрограмм (coroutines) или просто запуском дополнительных потоков, которые ждут друг друга. У нас может быть больше возможностей, если мы сделаем поток управления явным: если мы локализуем логику для передачи данных из одной расчетной единицы в другую вне этих расчетных единиц. Читайте эту [статью](http://journal.stuffwithstuff.com/2013/01/13/iteration-inside-and-out/) для углубленного изучения.
|
||||||
|
|
||||||
Следует отметить, что конвейер выполнения запроса создает временные данные на каждом шаге. Мы стараемся сохранить размер блока достаточно маленьким, чтобы временные данные помещались в кэш процессора. При таком допущении запись и чтение временных данных практически бесплатны по сравнению с другими расчетами. Мы могли бы рассмотреть альтернативу, которая заключается в том, чтобы объединить многие операции в конвеере вместе. Это может сделать конвейер как можно короче и удалить большую часть временных данных, что может быть преимуществом, но у такого подхода также есть недостатки. Например, разделенный конвейер позволяет легко реализовать кэширование промежуточных данных, использование промежуточных данных из аналогичных запросов, выполняемых одновременно, и объединение конвейеров для аналогичных запросов.
|
Следует отметить, что конвейер выполнения запроса создает временные данные на каждом шаге. Мы стараемся сохранить размер блока достаточно маленьким, чтобы временные данные помещались в кэш процессора. При таком допущении запись и чтение временных данных практически бесплатны по сравнению с другими расчетами. Мы могли бы рассмотреть альтернативу, которая заключается в том, чтобы объединить многие операции в конвейере вместе. Это может сделать конвейер как можно короче и удалить большую часть временных данных, что может быть преимуществом, но у такого подхода также есть недостатки. Например, разделенный конвейер позволяет легко реализовать кэширование промежуточных данных, использование промежуточных данных из аналогичных запросов, выполняемых одновременно, и объединение конвейеров для аналогичных запросов.
|
||||||
|
|
||||||
## Форматы {#formats}
|
## Форматы {#formats}
|
||||||
|
|
||||||
@ -119,7 +119,7 @@ ClickHouse - полноценная колоночная СУБД. Данные
|
|||||||
|
|
||||||
Существуют обычные функции и агрегатные функции. Агрегатные функции смотрите в следующем разделе.
|
Существуют обычные функции и агрегатные функции. Агрегатные функции смотрите в следующем разделе.
|
||||||
|
|
||||||
Обычный функции не изменяют число строк и работают так, как если бы обрабатывали каждую строку независимо. В действительности же, функции вызываются не к отдельным строкам, а блокам данных для реализации векторизованного выполнения запросов.
|
Обычные функции не изменяют число строк и работают так, как если бы обрабатывали каждую строку независимо. В действительности же, функции вызываются не к отдельным строкам, а блокам данных для реализации векторизованного выполнения запросов.
|
||||||
|
|
||||||
Некоторые функции, такие как [blockSize](../sql-reference/functions/other-functions.md#function-blocksize), [rowNumberInBlock](../sql-reference/functions/other-functions.md#function-rownumberinblock), и [runningAccumulate](../sql-reference/functions/other-functions.md#runningaccumulate), эксплуатируют блочную обработку и нарушают независимость строк.
|
Некоторые функции, такие как [blockSize](../sql-reference/functions/other-functions.md#function-blocksize), [rowNumberInBlock](../sql-reference/functions/other-functions.md#function-rownumberinblock), и [runningAccumulate](../sql-reference/functions/other-functions.md#runningaccumulate), эксплуатируют блочную обработку и нарушают независимость строк.
|
||||||
|
|
||||||
@ -162,7 +162,7 @@ ClickHouse имеет сильную типизацию, поэтому нет
|
|||||||
|
|
||||||
Сервера в кластере в основном независимы. Вы можете создать `Распределенную` (`Distributed`) таблицу на одном или всех серверах в кластере. Такая таблица сама по себе не хранит данные - она только предоставляет возможность "просмотра" всех локальных таблиц на нескольких узлах кластера. При выполнении `SELECT` распределенная таблица переписывает запрос, выбирает удаленные узлы в соответствии с настройками балансировки нагрузки и отправляет им запрос. Распределенная таблица просит удаленные сервера обработать запрос до той стадии, когда промежуточные результаты с разных серверов могут быть объединены. Затем он получает промежуточные результаты и объединяет их. Распределенная таблица пытается возложить как можно больше работы на удаленные серверы и сократить объем промежуточных данных, передаваемых по сети.
|
Сервера в кластере в основном независимы. Вы можете создать `Распределенную` (`Distributed`) таблицу на одном или всех серверах в кластере. Такая таблица сама по себе не хранит данные - она только предоставляет возможность "просмотра" всех локальных таблиц на нескольких узлах кластера. При выполнении `SELECT` распределенная таблица переписывает запрос, выбирает удаленные узлы в соответствии с настройками балансировки нагрузки и отправляет им запрос. Распределенная таблица просит удаленные сервера обработать запрос до той стадии, когда промежуточные результаты с разных серверов могут быть объединены. Затем он получает промежуточные результаты и объединяет их. Распределенная таблица пытается возложить как можно больше работы на удаленные серверы и сократить объем промежуточных данных, передаваемых по сети.
|
||||||
|
|
||||||
Ситуация усложняется, при использовании подзапросов в случае `IN` или `JOIN`, когда каждый из них использует таблицу `Distributed`. Есть разные стратегии для выполнения таких запросов.
|
Ситуация усложняется при использовании подзапросов в случае `IN` или `JOIN`, когда каждый из них использует таблицу `Distributed`. Есть разные стратегии для выполнения таких запросов.
|
||||||
|
|
||||||
Глобального плана выполнения распределенных запросов не существует. Каждый узел имеет собственный локальный план для своей части работы. У нас есть простое однонаправленное выполнение распределенных запросов: мы отправляем запросы на удаленные узлы и затем объединяем результаты. Но это невозможно для сложных запросов `GROUP BY` высокой кардинальности или запросов с большим числом временных данных в `JOIN`: в таких случаях нам необходимо перераспределить («reshuffle») данные между серверами, что требует дополнительной координации. ClickHouse не поддерживает выполнение запросов такого рода, и нам нужно работать над этим.
|
Глобального плана выполнения распределенных запросов не существует. Каждый узел имеет собственный локальный план для своей части работы. У нас есть простое однонаправленное выполнение распределенных запросов: мы отправляем запросы на удаленные узлы и затем объединяем результаты. Но это невозможно для сложных запросов `GROUP BY` высокой кардинальности или запросов с большим числом временных данных в `JOIN`: в таких случаях нам необходимо перераспределить («reshuffle») данные между серверами, что требует дополнительной координации. ClickHouse не поддерживает выполнение запросов такого рода, и нам нужно работать над этим.
|
||||||
|
|
||||||
|
@ -4,40 +4,95 @@ toc_title: "Используемые сторонние библиотеки"
|
|||||||
---
|
---
|
||||||
|
|
||||||
|
|
||||||
# Используемые сторонние библиотеки {#ispolzuemye-storonnie-biblioteki}
|
# Используемые сторонние библиотеки {#third-party-libraries-used}
|
||||||
|
|
||||||
| Библиотека | Лицензия |
|
Список сторонних библиотек:
|
||||||
|---------------------|----------------------------------------------------------------------------------------------------------------------------------------------|
|
|
||||||
| base64 | [BSD 2-Clause License](https://github.com/aklomp/base64/blob/a27c565d1b6c676beaf297fe503c4518185666f7/LICENSE) |
|
| Библиотека | Тип лицензии |
|
||||||
| boost | [Boost Software License 1.0](https://github.com/ClickHouse-Extras/boost-extra/blob/6883b40449f378019aec792f9983ce3afc7ff16e/LICENSE_1_0.txt) |
|
|:-|:-|
|
||||||
| brotli | [MIT](https://github.com/google/brotli/blob/master/LICENSE) |
|
| abseil-cpp | [Apache](https://github.com/ClickHouse-Extras/abseil-cpp/blob/4f3b686f86c3ebaba7e4e926e62a79cb1c659a54/LICENSE) |
|
||||||
| capnproto | [MIT](https://github.com/capnproto/capnproto/blob/master/LICENSE) |
|
| AMQP-CPP | [Apache](https://github.com/ClickHouse-Extras/AMQP-CPP/blob/1a6c51f4ac51ac56610fa95081bd2f349911375a/LICENSE) |
|
||||||
| cctz | [Apache License 2.0](https://github.com/google/cctz/blob/4f9776a310f4952454636363def82c2bf6641d5f/LICENSE.txt) |
|
| arrow | [Apache](https://github.com/ClickHouse-Extras/arrow/blob/078e21bad344747b7656ef2d7a4f7410a0a303eb/LICENSE.txt) |
|
||||||
| double-conversion | [BSD 3-Clause License](https://github.com/google/double-conversion/blob/cf2f0f3d547dc73b4612028a155b80536902ba02/LICENSE) |
|
| avro | [Apache](https://github.com/ClickHouse-Extras/avro/blob/e43c46e87fd32eafdc09471e95344555454c5ef8/LICENSE.txt) |
|
||||||
| FastMemcpy | [MIT](https://github.com/ClickHouse/ClickHouse/blob/master/libs/libmemcpy/impl/LICENSE) |
|
| aws | [Apache](https://github.com/ClickHouse-Extras/aws-sdk-cpp/blob/7d48b2c8193679cc4516e5bd68ae4a64b94dae7d/LICENSE.txt) |
|
||||||
| googletest | [BSD 3-Clause License](https://github.com/google/googletest/blob/master/LICENSE) |
|
| aws-c-common | [Apache](https://github.com/ClickHouse-Extras/aws-c-common/blob/736a82d1697c108b04a277e66438a7f4e19b6857/LICENSE) |
|
||||||
| h3 | [Apache License 2.0](https://github.com/uber/h3/blob/master/LICENSE) |
|
| aws-c-event-stream | [Apache](https://github.com/ClickHouse-Extras/aws-c-event-stream/blob/3bc33662f9ccff4f4cbcf9509cc78c26e022fde0/LICENSE) |
|
||||||
| hyperscan | [BSD 3-Clause License](https://github.com/intel/hyperscan/blob/master/LICENSE) |
|
| aws-checksums | [Apache](https://github.com/ClickHouse-Extras/aws-checksums/blob/519d6d9093819b6cf89ffff589a27ef8f83d0f65/LICENSE) |
|
||||||
| libcxxabi | [BSD + MIT](https://github.com/ClickHouse/ClickHouse/blob/master/libs/libglibc-compatibility/libcxxabi/LICENSE.TXT) |
|
| base64 | [BSD 2-clause](https://github.com/ClickHouse-Extras/Turbo-Base64/blob/af9b331f2b4f30b41c70f3a571ff904a8251c1d3/LICENSE) |
|
||||||
| libdivide | [Zlib License](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libdivide/LICENSE.txt) |
|
| boost | [Boost](https://github.com/ClickHouse-Extras/boost/blob/9cf09dbfd55a5c6202dedbdf40781a51b02c2675/LICENSE_1_0.txt) |
|
||||||
| libgsasl | [LGPL v2.1](https://github.com/ClickHouse-Extras/libgsasl/blob/3b8948a4042e34fb00b4fb987535dc9e02e39040/LICENSE) |
|
| boringssl | [BSD](https://github.com/ClickHouse-Extras/boringssl/blob/a6a2e2ab3e44d97ce98e51c558e989f211de7eb3/LICENSE) |
|
||||||
| libhdfs3 | [Apache License 2.0](https://github.com/ClickHouse-Extras/libhdfs3/blob/bd6505cbb0c130b0db695305b9a38546fa880e5a/LICENSE.txt) |
|
| brotli | [MIT](https://github.com/google/brotli/blob/63be8a99401992075c23e99f7c84de1c653e39e2/LICENSE) |
|
||||||
| libmetrohash | [Apache License 2.0](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libmetrohash/LICENSE) |
|
| capnproto | [MIT](https://github.com/capnproto/capnproto/blob/a00ccd91b3746ef2ab51d40fe3265829949d1ace/LICENSE) |
|
||||||
| libpcg-random | [Apache License 2.0](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libpcg-random/LICENSE-APACHE.txt) |
|
| cassandra | [Apache](https://github.com/ClickHouse-Extras/cpp-driver/blob/eb9b68dadbb4417a2c132ad4a1c2fa76e65e6fc1/LICENSE.txt) |
|
||||||
| libressl | [OpenSSL License](https://github.com/ClickHouse-Extras/ssl/blob/master/COPYING) |
|
| cctz | [Apache](https://github.com/ClickHouse-Extras/cctz/blob/c0f1bcb97fd2782f7c3f972fadd5aad5affac4b8/LICENSE.txt) |
|
||||||
| librdkafka | [BSD 2-Clause License](https://github.com/edenhill/librdkafka/blob/363dcad5a23dc29381cc626620e68ae418b3af19/LICENSE) |
|
| cityhash102 | [MIT](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/cityhash102/COPYING) |
|
||||||
| libwidechar_width | [CC0 1.0 Universal](https://github.com/ClickHouse/ClickHouse/blob/master/libs/libwidechar_width/LICENSE) |
|
| cppkafka | [BSD 2-clause](https://github.com/mfontanini/cppkafka/blob/5a119f689f8a4d90d10a9635e7ee2bee5c127de1/LICENSE) |
|
||||||
| llvm | [BSD 3-Clause License](https://github.com/ClickHouse-Extras/llvm/blob/163def217817c90fb982a6daf384744d8472b92b/llvm/LICENSE.TXT) |
|
| croaring | [Apache](https://github.com/RoaringBitmap/CRoaring/blob/2c867e9f9c9e2a3a7032791f94c4c7ae3013f6e0/LICENSE) |
|
||||||
| lz4 | [BSD 2-Clause License](https://github.com/lz4/lz4/blob/c10863b98e1503af90616ae99725ecd120265dfb/LICENSE) |
|
| curl | [Apache](https://github.com/curl/curl/blob/3b8bbbbd1609c638a3d3d0acb148a33dedb67be3/docs/LICENSE-MIXING.md) |
|
||||||
| mariadb-connector-c | [LGPL v2.1](https://github.com/ClickHouse-Extras/mariadb-connector-c/blob/3.1/COPYING.LIB) |
|
| cyrus-sasl | [BSD 2-clause](https://github.com/ClickHouse-Extras/cyrus-sasl/blob/e6466edfd638cc5073debe941c53345b18a09512/COPYING) |
|
||||||
|
| double-conversion | [BSD 3-clause](https://github.com/google/double-conversion/blob/cf2f0f3d547dc73b4612028a155b80536902ba02/LICENSE) |
|
||||||
|
| dragonbox | [Apache](https://github.com/ClickHouse-Extras/dragonbox/blob/923705af6fd953aa948fc175f6020b15f7359838/LICENSE-Apache2-LLVM) |
|
||||||
|
| fast_float | [Apache](https://github.com/fastfloat/fast_float/blob/7eae925b51fd0f570ccd5c880c12e3e27a23b86f/LICENSE) |
|
||||||
|
| fastops | [MIT](https://github.com/ClickHouse-Extras/fastops/blob/88752a5e03cf34639a4a37a4b41d8b463fffd2b5/LICENSE) |
|
||||||
|
| flatbuffers | [Apache](https://github.com/ClickHouse-Extras/flatbuffers/blob/eb3f827948241ce0e701516f16cd67324802bce9/LICENSE.txt) |
|
||||||
|
| fmtlib | [Unknown](https://github.com/fmtlib/fmt/blob/c108ee1d590089ccf642fc85652b845924067af2/LICENSE.rst) |
|
||||||
|
| gcem | [Apache](https://github.com/kthohr/gcem/blob/8d4f1b5d76ea8f6ff12f3f4f34cda45424556b00/LICENSE) |
|
||||||
|
| googletest | [BSD 3-clause](https://github.com/google/googletest/blob/e7e591764baba0a0c3c9ad0014430e7a27331d16/LICENSE) |
|
||||||
|
| grpc | [Apache](https://github.com/ClickHouse-Extras/grpc/blob/60c986e15cae70aade721d26badabab1f822fdd6/LICENSE) |
|
||||||
|
| h3 | [Apache](https://github.com/ClickHouse-Extras/h3/blob/c7f46cfd71fb60e2fefc90e28abe81657deff735/LICENSE) |
|
||||||
|
| hyperscan | [Boost](https://github.com/ClickHouse-Extras/hyperscan/blob/e9f08df0213fc637aac0a5bbde9beeaeba2fe9fa/LICENSE) |
|
||||||
|
| icu | [Public Domain](https://github.com/unicode-org/icu/blob/faa2f9f9e1fe74c5ed00eba371d2830134cdbea1/icu4c/LICENSE) |
|
||||||
|
| icudata | [Public Domain](https://github.com/ClickHouse-Extras/icudata/blob/f020820388e3faafb44cc643574a2d563dfde572/LICENSE) |
|
||||||
|
| jemalloc | [BSD 2-clause](https://github.com/ClickHouse-Extras/jemalloc/blob/e6891d9746143bf2cf617493d880ba5a0b9a3efd/COPYING) |
|
||||||
|
| krb5 | [MIT](https://github.com/ClickHouse-Extras/krb5/blob/5149dea4e2be0f67707383d2682b897c14631374/src/lib/gssapi/LICENSE) |
|
||||||
|
| libc-headers | [LGPL](https://github.com/ClickHouse-Extras/libc-headers/blob/a720b7105a610acbd7427eea475a5b6810c151eb/LICENSE) |
|
||||||
|
| libcpuid | [BSD 2-clause](https://github.com/ClickHouse-Extras/libcpuid/blob/8db3b8d2d32d22437f063ce692a1b9bb15e42d18/COPYING) |
|
||||||
|
| libcxx | [Apache](https://github.com/ClickHouse-Extras/libcxx/blob/2fa892f69acbaa40f8a18c6484854a6183a34482/LICENSE.TXT) |
|
||||||
|
| libcxxabi | [Apache](https://github.com/ClickHouse-Extras/libcxxabi/blob/df8f1e727dbc9e2bedf2282096fa189dc3fe0076/LICENSE.TXT) |
|
||||||
|
| libdivide | [zLib](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libdivide/LICENSE.txt) |
|
||||||
|
| libfarmhash | [MIT](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libfarmhash/COPYING) |
|
||||||
|
| libgsasl | [LGPL](https://github.com/ClickHouse-Extras/libgsasl/blob/383ee28e82f69fa16ed43b48bd9c8ee5b313ab84/LICENSE) |
|
||||||
|
| libhdfs3 | [Apache](https://github.com/ClickHouse-Extras/libhdfs3/blob/095b9d48b400abb72d967cb0539af13b1e3d90cf/LICENSE.txt) |
|
||||||
|
| libmetrohash | [Apache](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/libmetrohash/LICENSE) |
|
||||||
|
| libpq | [Unknown](https://github.com/ClickHouse-Extras/libpq/blob/e071ea570f8985aa00e34f5b9d50a3cfe666327e/COPYRIGHT) |
|
||||||
|
| libpqxx | [BSD 3-clause](https://github.com/ClickHouse-Extras/libpqxx/blob/357608d11b7a1961c3fb7db2ef9a5dbb2e87da77/COPYING) |
|
||||||
|
| librdkafka | [MIT](https://github.com/ClickHouse-Extras/librdkafka/blob/b8554f1682062c85ba519eb54ef2f90e02b812cb/LICENSE.murmur2) |
|
||||||
|
| libunwind | [Apache](https://github.com/ClickHouse-Extras/libunwind/blob/6b816d2fba3991f8fd6aaec17d92f68947eab667/LICENSE.TXT) |
|
||||||
|
| libuv | [BSD](https://github.com/ClickHouse-Extras/libuv/blob/e2e9b7e9f978ce8a1367b5fe781d97d1ce9f94ab/LICENSE) |
|
||||||
|
| llvm | [Apache](https://github.com/ClickHouse-Extras/llvm/blob/e5751459412bce1391fb7a2e9bbc01e131bf72f1/llvm/LICENSE.TXT) |
|
||||||
|
| lz4 | [BSD](https://github.com/lz4/lz4/blob/f39b79fb02962a1cd880bbdecb6dffba4f754a11/LICENSE) |
|
||||||
|
| mariadb-connector-c | [LGPL](https://github.com/ClickHouse-Extras/mariadb-connector-c/blob/5f4034a3a6376416504f17186c55fe401c6d8e5e/COPYING.LIB) |
|
||||||
|
| miniselect | [Boost](https://github.com/danlark1/miniselect/blob/be0af6bd0b6eb044d1acc4f754b229972d99903a/LICENSE_1_0.txt) |
|
||||||
|
| msgpack-c | [Boost](https://github.com/msgpack/msgpack-c/blob/46684265d50b5d1b062d4c5c428ba08462844b1d/LICENSE_1_0.txt) |
|
||||||
| murmurhash | [Public Domain](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/murmurhash/LICENSE) |
|
| murmurhash | [Public Domain](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/murmurhash/LICENSE) |
|
||||||
| pdqsort | [Zlib License](https://github.com/ClickHouse/ClickHouse/blob/master/contrib/pdqsort/license.txt) |
|
| NuRaft | [Apache](https://github.com/ClickHouse-Extras/NuRaft/blob/7ecb16844af6a9c283ad432d85ecc2e7d1544676/LICENSE) |
|
||||||
| poco | [Boost Software License - Version 1.0](https://github.com/ClickHouse-Extras/poco/blob/fe5505e56c27b6ecb0dcbc40c49dc2caf4e9637f/LICENSE) |
|
| openldap | [Unknown](https://github.com/ClickHouse-Extras/openldap/blob/0208811b6043ca06fda8631a5e473df1ec515ccb/LICENSE) |
|
||||||
| protobuf | [BSD 3-Clause License](https://github.com/ClickHouse-Extras/protobuf/blob/12735370922a35f03999afff478e1c6d7aa917a4/LICENSE) |
|
| orc | [Apache](https://github.com/ClickHouse-Extras/orc/blob/0a936f6bbdb9303308973073f8623b5a8d82eae1/LICENSE) |
|
||||||
| re2 | [BSD 3-Clause License](https://github.com/google/re2/blob/7cf8b88e8f70f97fd4926b56aa87e7f53b2717e0/LICENSE) |
|
| poco | [Boost](https://github.com/ClickHouse-Extras/poco/blob/7351c4691b5d401f59e3959adfc5b4fa263b32da/LICENSE) |
|
||||||
| UnixODBC | [LGPL v2.1](https://github.com/ClickHouse-Extras/UnixODBC/tree/b0ad30f7f6289c12b76f04bfb9d466374bb32168) |
|
| protobuf | [BSD 3-clause](https://github.com/ClickHouse-Extras/protobuf/blob/75601841d172c73ae6bf4ce8121f42b875cdbabd/LICENSE) |
|
||||||
| zlib-ng | [Zlib License](https://github.com/ClickHouse-Extras/zlib-ng/blob/develop/LICENSE.md) |
|
| rapidjson | [MIT](https://github.com/ClickHouse-Extras/rapidjson/blob/c4ef90ccdbc21d5d5a628d08316bfd301e32d6fa/bin/jsonschema/LICENSE) |
|
||||||
| zstd | [BSD 3-Clause License](https://github.com/facebook/zstd/blob/dev/LICENSE) |
|
| re2 | [BSD 3-clause](https://github.com/google/re2/blob/13ebb377c6ad763ca61d12dd6f88b1126bd0b911/LICENSE) |
|
||||||
|
| replxx | [BSD 3-clause](https://github.com/ClickHouse-Extras/replxx/blob/c81be6c68b146f15f2096b7ef80e3f21fe27004c/LICENSE.md) |
|
||||||
|
| rocksdb | [BSD 3-clause](https://github.com/ClickHouse-Extras/rocksdb/blob/b6480c69bf3ab6e298e0d019a07fd4f69029b26a/LICENSE.leveldb) |
|
||||||
|
| s2geometry | [Apache](https://github.com/ClickHouse-Extras/s2geometry/blob/20ea540d81f4575a3fc0aea585aac611bcd03ede/LICENSE) |
|
||||||
|
| sentry-native | [MIT](https://github.com/ClickHouse-Extras/sentry-native/blob/94644e92f0a3ff14bd35ed902a8622a2d15f7be4/LICENSE) |
|
||||||
|
| simdjson | [Apache](https://github.com/simdjson/simdjson/blob/8df32cea3359cb30120795da6020b3b73da01d38/LICENSE) |
|
||||||
|
| snappy | [Public Domain](https://github.com/google/snappy/blob/3f194acb57e0487531c96b97af61dcbd025a78a3/COPYING) |
|
||||||
|
| sparsehash-c11 | [BSD 3-clause](https://github.com/sparsehash/sparsehash-c11/blob/cf0bffaa456f23bc4174462a789b90f8b6f5f42f/LICENSE) |
|
||||||
|
| stats | [Apache](https://github.com/kthohr/stats/blob/b6dd459c10a88c7ea04693c007e9e35820c5d9ad/LICENSE) |
|
||||||
|
| thrift | [Apache](https://github.com/apache/thrift/blob/010ccf0a0c7023fea0f6bf4e4078ebdff7e61982/LICENSE) |
|
||||||
|
| unixodbc | [LGPL](https://github.com/ClickHouse-Extras/UnixODBC/blob/b0ad30f7f6289c12b76f04bfb9d466374bb32168/COPYING) |
|
||||||
|
| xz | [Public Domain](https://github.com/xz-mirror/xz/blob/869b9d1b4edd6df07f819d360d306251f8147353/COPYING) |
|
||||||
|
| zlib-ng | [zLib](https://github.com/ClickHouse-Extras/zlib-ng/blob/6a5e93b9007782115f7f7e5235dedc81c4f1facb/LICENSE.md) |
|
||||||
|
| zstd | [BSD](https://github.com/facebook/zstd/blob/a488ba114ec17ea1054b9057c26a046fc122b3b6/LICENSE) |
|
||||||
|
|
||||||
|
Список всех сторонних библиотек можно получить с помощью запроса:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT library_name, license_type, license_path FROM system.licenses ORDER BY library_name COLLATE 'en';
|
||||||
|
```
|
||||||
|
|
||||||
|
[Пример](https://gh-api.clickhouse.tech/play?user=play#U0VMRUNUIGxpYnJhcnlfbmFtZSwgbGljZW5zZV90eXBlLCBsaWNlbnNlX3BhdGggRlJPTSBzeXN0ZW0ubGljZW5zZXMgT1JERVIgQlkgbGlicmFyeV9uYW1lIENPTExBVEUgJ2VuJw==)
|
||||||
|
|
||||||
## Рекомендации по добавлению сторонних библиотек и поддержанию в них пользовательских изменений {#adding-third-party-libraries}
|
## Рекомендации по добавлению сторонних библиотек и поддержанию в них пользовательских изменений {#adding-third-party-libraries}
|
||||||
|
|
||||||
|
79
docs/ru/engines/database-engines/sqlite.md
Normal file
79
docs/ru/engines/database-engines/sqlite.md
Normal file
@ -0,0 +1,79 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 32
|
||||||
|
toc_title: SQLite
|
||||||
|
---
|
||||||
|
|
||||||
|
# SQLite {#sqlite}
|
||||||
|
|
||||||
|
Движок баз данных позволяет подключаться к базе [SQLite](https://www.sqlite.org/index.html) и выполнять запросы `INSERT` и `SELECT` для обмена данными между ClickHouse и SQLite.
|
||||||
|
|
||||||
|
## Создание базы данных {#creating-a-database}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE sqlite_database
|
||||||
|
ENGINE = SQLite('db_path')
|
||||||
|
```
|
||||||
|
|
||||||
|
**Параметры движка**
|
||||||
|
|
||||||
|
- `db_path` — путь к файлу с базой данных SQLite.
|
||||||
|
|
||||||
|
## Поддерживаемые типы данных {#data_types-support}
|
||||||
|
|
||||||
|
| SQLite | ClickHouse |
|
||||||
|
|---------------|---------------------------------------------------------|
|
||||||
|
| INTEGER | [Int32](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| REAL | [Float32](../../sql-reference/data-types/float.md) |
|
||||||
|
| TEXT | [String](../../sql-reference/data-types/string.md) |
|
||||||
|
| BLOB | [String](../../sql-reference/data-types/string.md) |
|
||||||
|
|
||||||
|
## Особенности и рекомендации {#specifics-and-recommendations}
|
||||||
|
|
||||||
|
SQLite хранит всю базу данных (определения, таблицы, индексы и сами данные) в виде единого кроссплатформенного файла на хост-машине. Во время записи SQLite блокирует весь файл базы данных, поэтому операции записи выполняются последовательно. Операции чтения могут быть многозадачными.
|
||||||
|
SQLite не требует управления службами (например, сценариями запуска) или контроля доступа на основе `GRANT` и паролей. Контроль доступа осуществляется с помощью разрешений файловой системы, предоставляемых самому файлу базы данных.
|
||||||
|
|
||||||
|
## Примеры использования {#usage-example}
|
||||||
|
|
||||||
|
Отобразим список таблиц базы данных в ClickHouse, подключенной к SQLite:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE sqlite_db ENGINE = SQLite('sqlite.db');
|
||||||
|
SHOW TABLES FROM sqlite_db;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──name───┐
|
||||||
|
│ table1 │
|
||||||
|
│ table2 │
|
||||||
|
└─────────┘
|
||||||
|
```
|
||||||
|
Отобразим содержимое таблицы:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM sqlite_db.table1;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─col1──┬─col2─┐
|
||||||
|
│ line1 │ 1 │
|
||||||
|
│ line2 │ 2 │
|
||||||
|
│ line3 │ 3 │
|
||||||
|
└───────┴──────┘
|
||||||
|
```
|
||||||
|
Вставим данные в таблицу SQLite из таблицы ClickHouse:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE clickhouse_table(`col1` String,`col2` Int16) ENGINE = MergeTree() ORDER BY col2;
|
||||||
|
INSERT INTO clickhouse_table VALUES ('text',10);
|
||||||
|
INSERT INTO sqlite_db.table1 SELECT * FROM clickhouse_table;
|
||||||
|
SELECT * FROM sqlite_db.table1;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─col1──┬─col2─┐
|
||||||
|
│ line1 │ 1 │
|
||||||
|
│ line2 │ 2 │
|
||||||
|
│ line3 │ 3 │
|
||||||
|
│ text │ 10 │
|
||||||
|
└───────┴──────┘
|
||||||
|
```
|
59
docs/ru/engines/table-engines/integrations/sqlite.md
Normal file
59
docs/ru/engines/table-engines/integrations/sqlite.md
Normal file
@ -0,0 +1,59 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 7
|
||||||
|
toc_title: SQLite
|
||||||
|
---
|
||||||
|
|
||||||
|
# SQLite {#sqlite}
|
||||||
|
|
||||||
|
Движок позволяет импортировать и экспортировать данные из SQLite, а также поддерживает отправку запросов к таблицам SQLite напрямую из ClickHouse.
|
||||||
|
|
||||||
|
## Создание таблицы {#creating-a-table}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE [IF NOT EXISTS] [db.]table_name
|
||||||
|
(
|
||||||
|
name1 [type1],
|
||||||
|
name2 [type2], ...
|
||||||
|
) ENGINE = SQLite('db_path', 'table')
|
||||||
|
```
|
||||||
|
|
||||||
|
**Параметры движка**
|
||||||
|
|
||||||
|
- `db_path` — путь к файлу с базой данных SQLite.
|
||||||
|
- `table` — имя таблицы в базе данных SQLite.
|
||||||
|
|
||||||
|
## Примеры использования {#usage-example}
|
||||||
|
|
||||||
|
Отобразим запрос, с помощью которого была создана таблица SQLite:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
SHOW CREATE TABLE sqlite_db.table2;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
CREATE TABLE SQLite.table2
|
||||||
|
(
|
||||||
|
`col1` Nullable(Int32),
|
||||||
|
`col2` Nullable(String)
|
||||||
|
)
|
||||||
|
ENGINE = SQLite('sqlite.db','table2');
|
||||||
|
```
|
||||||
|
|
||||||
|
Получим данные из таблицы:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM sqlite_db.table2 ORDER BY col1;
|
||||||
|
```
|
||||||
|
|
||||||
|
```text
|
||||||
|
┌─col1─┬─col2──┐
|
||||||
|
│ 1 │ text1 │
|
||||||
|
│ 2 │ text2 │
|
||||||
|
│ 3 │ text3 │
|
||||||
|
└──────┴───────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
**См. также**
|
||||||
|
|
||||||
|
- [SQLite](../../../engines/database-engines/sqlite.md) движок баз данных
|
||||||
|
- [sqlite](../../../sql-reference/table-functions/sqlite.md) табличная функция
|
@ -171,4 +171,4 @@ default
|
|||||||
|
|
||||||
|
|
||||||
!!! warning "Внимание"
|
!!! warning "Внимание"
|
||||||
Прореживание данных производится во время слияний. Обычно для старых партций слияния не запускаются, поэтому для прореживания надо иницировать незапланированное слияние используя [optimize](../../../sql-reference/statements/optimize.md). Или использовать дополнительные инструменты, например [graphite-ch-optimizer](https://github.com/innogames/graphite-ch-optimizer).
|
Прореживание данных производится во время слияний. Обычно для старых партиций слияния не запускаются, поэтому для прореживания надо инициировать незапланированное слияние используя [optimize](../../../sql-reference/statements/optimize.md). Или использовать дополнительные инструменты, например [graphite-ch-optimizer](https://github.com/innogames/graphite-ch-optimizer).
|
||||||
|
@ -86,7 +86,9 @@ ORDER BY expr
|
|||||||
- `enable_mixed_granularity_parts` — включает или выключает переход к ограничению размера гранул с помощью настройки `index_granularity_bytes`. Настройка `index_granularity_bytes` улучшает производительность ClickHouse при выборке данных из таблиц с большими (десятки и сотни мегабайтов) строками. Если у вас есть таблицы с большими строками, можно включить эту настройку, чтобы повысить эффективность запросов `SELECT`.
|
- `enable_mixed_granularity_parts` — включает или выключает переход к ограничению размера гранул с помощью настройки `index_granularity_bytes`. Настройка `index_granularity_bytes` улучшает производительность ClickHouse при выборке данных из таблиц с большими (десятки и сотни мегабайтов) строками. Если у вас есть таблицы с большими строками, можно включить эту настройку, чтобы повысить эффективность запросов `SELECT`.
|
||||||
- `use_minimalistic_part_header_in_zookeeper` — Способ хранения заголовков кусков данных в ZooKeeper. Если `use_minimalistic_part_header_in_zookeeper = 1`, то ZooKeeper хранит меньше данных. Подробнее читайте в [описании настройки](../../../operations/server-configuration-parameters/settings.md#server-settings-use_minimalistic_part_header_in_zookeeper) в разделе "Конфигурационные параметры сервера".
|
- `use_minimalistic_part_header_in_zookeeper` — Способ хранения заголовков кусков данных в ZooKeeper. Если `use_minimalistic_part_header_in_zookeeper = 1`, то ZooKeeper хранит меньше данных. Подробнее читайте в [описании настройки](../../../operations/server-configuration-parameters/settings.md#server-settings-use_minimalistic_part_header_in_zookeeper) в разделе "Конфигурационные параметры сервера".
|
||||||
- `min_merge_bytes_to_use_direct_io` — минимальный объём данных при слиянии, необходимый для прямого (небуферизованного) чтения/записи (direct I/O) на диск. При слиянии частей данных ClickHouse вычисляет общий объём хранения всех данных, подлежащих слиянию. Если общий объём хранения всех данных для чтения превышает `min_bytes_to_use_direct_io` байт, тогда ClickHouse использует флаг `O_DIRECT` при чтении данных с диска. Если `min_merge_bytes_to_use_direct_io = 0`, тогда прямой ввод-вывод отключен. Значение по умолчанию: `10 * 1024 * 1024 * 1024` байтов.
|
- `min_merge_bytes_to_use_direct_io` — минимальный объём данных при слиянии, необходимый для прямого (небуферизованного) чтения/записи (direct I/O) на диск. При слиянии частей данных ClickHouse вычисляет общий объём хранения всех данных, подлежащих слиянию. Если общий объём хранения всех данных для чтения превышает `min_bytes_to_use_direct_io` байт, тогда ClickHouse использует флаг `O_DIRECT` при чтении данных с диска. Если `min_merge_bytes_to_use_direct_io = 0`, тогда прямой ввод-вывод отключен. Значение по умолчанию: `10 * 1024 * 1024 * 1024` байтов.
|
||||||
- <a name="mergetree_setting-merge_with_ttl_timeout"></a>`merge_with_ttl_timeout` — минимальное время в секундах перед повторным слиянием с TTL. По умолчанию — 86400 (1 день).
|
- `merge_with_ttl_timeout` — минимальное время в секундах перед повторным слиянием для удаления данных с истекшим TTL. По умолчанию: `14400` секунд (4 часа).
|
||||||
|
- `merge_with_recompression_ttl_timeout` — минимальное время в секундах перед повторным слиянием для повторного сжатия данных с истекшим TTL. По умолчанию: `14400` секунд (4 часа).
|
||||||
|
- `try_fetch_recompressed_part_timeout` — время ожидания (в секундах) перед началом слияния с повторным сжатием. В течение этого времени ClickHouse пытается извлечь сжатую часть из реплики, которая назначила это слияние. Значение по умолчанию: `7200` секунд (2 часа).
|
||||||
- `write_final_mark` — включает или отключает запись последней засечки индекса в конце куска данных, указывающей за последний байт. По умолчанию — 1. Не отключайте её.
|
- `write_final_mark` — включает или отключает запись последней засечки индекса в конце куска данных, указывающей за последний байт. По умолчанию — 1. Не отключайте её.
|
||||||
- `merge_max_block_size` — максимальное количество строк в блоке для операций слияния. Значение по умолчанию: 8192.
|
- `merge_max_block_size` — максимальное количество строк в блоке для операций слияния. Значение по умолчанию: 8192.
|
||||||
- `storage_policy` — политика хранения данных. Смотрите [Хранение данных таблицы на нескольких блочных устройствах](#table_engine-mergetree-multiple-volumes).
|
- `storage_policy` — политика хранения данных. Смотрите [Хранение данных таблицы на нескольких блочных устройствах](#table_engine-mergetree-multiple-volumes).
|
||||||
@ -375,23 +377,33 @@ INDEX b (u64 * length(str), i32 + f64 * 100, date, str) TYPE set(100) GRANULARIT
|
|||||||
- `s != 1`
|
- `s != 1`
|
||||||
- `NOT startsWith(s, 'test')`
|
- `NOT startsWith(s, 'test')`
|
||||||
|
|
||||||
### Проекции {#projections}
|
## Проекции {#projections}
|
||||||
Проекции похожи на материализованные представления, но определяются на уровне партов. Это обеспечивает гарантии согласованности наряду с автоматическим использованием в запросах.
|
Проекции похожи на [материализованные представления](../../../sql-reference/statements/create/view.md#materialized), но определяются на уровне кусков данных. Это обеспечивает гарантии согласованности данных наряду с автоматическим использованием в запросах.
|
||||||
|
|
||||||
#### Запрос {#projection-query}
|
Проекции — это экспериментальная возможность. Чтобы включить поддержку проекций, установите настройку [allow_experimental_projection_optimization](../../../operations/settings/settings.md#allow-experimental-projection-optimization) в значение `1`. См. также настройку [force_optimize_projection ](../../../operations/settings/settings.md#force-optimize-projection).
|
||||||
Запрос проекции — это то, что определяет проекцию. Он имеет следующую грамматику:
|
|
||||||
|
|
||||||
`SELECT <COLUMN LIST EXPR> [GROUP BY] [ORDER BY]`
|
Проекции не поддерживаются для запросов `SELECT` с модификатором [FINAL](../../../sql-reference/statements/select/from.md#select-from-final).
|
||||||
|
|
||||||
Он неявно выбирает данные из родительской таблицы.
|
### Запрос проекции {#projection-query}
|
||||||
|
Запрос проекции — это то, что определяет проекцию. Такой запрос неявно выбирает данные из родительской таблицы.
|
||||||
|
**Синтаксис**
|
||||||
|
|
||||||
#### Хранение {#projection-storage}
|
```sql
|
||||||
Проекции хранятся в каталоге парта. Это похоже на хранение индексов, но используется подкаталог, в котором хранится анонимный парт таблицы MergeTree. Таблица создается запросом определения проекции. Если есть конструкция GROUP BY, то базовый механизм хранения становится AggregatedMergeTree, а все агрегатные функции преобразуются в AggregateFunction. Если есть конструкция ORDER BY, таблица MergeTree будет использовать его в качестве выражения первичного ключа. Во время процесса слияния парт проекции будет слит с помощью процедуры слияния ее хранилища. Контрольная сумма парта родительской таблицы будет включать парт проекции. Другие процедуры аналогичны индексам пропуска данных.
|
SELECT <column list expr> [GROUP BY] <group keys expr> [ORDER BY] <expr>
|
||||||
|
```
|
||||||
|
|
||||||
#### Анализ запросов {#projection-query-analysis}
|
Проекции можно изменить или удалить с помощью запроса [ALTER](../../../sql-reference/statements/alter/projection.md).
|
||||||
1. Проверить, можно ли использовать проекцию в данном запросе, то есть, что с ней выходит тот же результат, что и с запросом к базовой таблице.
|
|
||||||
2. Выбрать наиболее подходящее совпадение, содержащее наименьшее количество гранул для чтения.
|
### Хранение проекции {#projection-storage}
|
||||||
3. План запроса, который использует проекции, будет отличаться от того, который использует исходные парты. При отсутствии проекции в некоторых партах можно расширить план, чтобы «проецировать» на лету.
|
Проекции хранятся в каталоге куска данных. Это похоже на хранение индексов, но используется подкаталог, в котором хранится анонимный кусок таблицы `MergeTree`. Таблица создается запросом определения проекции.
|
||||||
|
Если присутствует секция `GROUP BY`, то используется движок [AggregatingMergeTree](aggregatingmergetree.md), а все агрегатные функции преобразуются в `AggregateFunction`.
|
||||||
|
Если присутствует секция `ORDER BY`, таблица `MergeTree` использует ее в качестве выражения для первичного ключа.
|
||||||
|
Во время процесса слияния кусок данных проекции объединяется с помощью процедуры слияния хранилища. Контрольная сумма куска данных родительской таблицы включает кусок данных проекции. Другие процедуры аналогичны индексам пропуска данных.
|
||||||
|
|
||||||
|
### Анализ запросов {#projection-query-analysis}
|
||||||
|
1. Проверьте, можно ли использовать проекцию в данном запросе, то есть, что с ней получается тот же результат, что и с запросом к базовой таблице.
|
||||||
|
2. Выберите наиболее подходящее совпадение, содержащее наименьшее количество гранул для чтения.
|
||||||
|
3. План запроса, который использует проекции, отличается от того, который использует исходные куски данных. Если в некоторых кусках проекции отсутствуют, можно расширить план, чтобы «проецировать» на лету.
|
||||||
|
|
||||||
## Конкурентный доступ к данным {#concurrent-data-access}
|
## Конкурентный доступ к данным {#concurrent-data-access}
|
||||||
|
|
||||||
@ -401,20 +413,22 @@ INDEX b (u64 * length(str), i32 + f64 * 100, date, str) TYPE set(100) GRANULARIT
|
|||||||
|
|
||||||
## TTL для столбцов и таблиц {#table_engine-mergetree-ttl}
|
## TTL для столбцов и таблиц {#table_engine-mergetree-ttl}
|
||||||
|
|
||||||
Определяет время жизни значений, а также правила перемещения данных на другой диск или том.
|
Определяет время жизни значений.
|
||||||
|
|
||||||
Секция `TTL` может быть установлена как для всей таблицы, так и для каждого отдельного столбца. Правила `TTL` для таблицы позволяют указать целевые диски или тома для фонового перемещения на них частей данных.
|
Секция `TTL` может быть установлена как для всей таблицы, так и для каждого отдельного столбца. Для таблиц можно установить правила `TTL` для фонового перемещения кусков данных на целевые диски или тома, или правила повторного сжатия кусков данных.
|
||||||
|
|
||||||
Выражения должны возвращать тип [Date](../../../engines/table-engines/mergetree-family/mergetree.md) или [DateTime](../../../engines/table-engines/mergetree-family/mergetree.md).
|
Выражения должны возвращать тип [Date](../../../engines/table-engines/mergetree-family/mergetree.md) или [DateTime](../../../engines/table-engines/mergetree-family/mergetree.md).
|
||||||
|
|
||||||
Для задания времени жизни столбца, например:
|
**Синтаксис**
|
||||||
|
|
||||||
|
Для задания времени жизни столбца:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
TTL time_column
|
TTL time_column
|
||||||
TTL time_column + interval
|
TTL time_column + interval
|
||||||
```
|
```
|
||||||
|
|
||||||
Чтобы задать `interval`, используйте операторы [интервала времени](../../../engines/table-engines/mergetree-family/mergetree.md#operators-datetime).
|
Чтобы задать `interval`, используйте операторы [интервала времени](../../../engines/table-engines/mergetree-family/mergetree.md#operators-datetime), например:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
TTL date_time + INTERVAL 1 MONTH
|
TTL date_time + INTERVAL 1 MONTH
|
||||||
@ -423,13 +437,13 @@ TTL date_time + INTERVAL 15 HOUR
|
|||||||
|
|
||||||
### TTL столбца {#mergetree-column-ttl}
|
### TTL столбца {#mergetree-column-ttl}
|
||||||
|
|
||||||
Когда срок действия значений в столбце истечет, ClickHouse заменит их значениями по умолчанию для типа данных столбца. Если срок действия всех значений столбцов в части данных истек, ClickHouse удаляет столбец из куска данных в файловой системе.
|
Когда срок действия значений в столбце истечёт, ClickHouse заменит их значениями по умолчанию для типа данных столбца. Если срок действия всех значений столбцов в части данных истек, ClickHouse удаляет столбец из куска данных в файловой системе.
|
||||||
|
|
||||||
Секцию `TTL` нельзя использовать для ключевых столбцов.
|
Секцию `TTL` нельзя использовать для ключевых столбцов.
|
||||||
|
|
||||||
Примеры:
|
**Примеры**
|
||||||
|
|
||||||
Создание таблицы с TTL
|
Создание таблицы с `TTL`:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE TABLE example_table
|
CREATE TABLE example_table
|
||||||
@ -444,7 +458,7 @@ PARTITION BY toYYYYMM(d)
|
|||||||
ORDER BY d;
|
ORDER BY d;
|
||||||
```
|
```
|
||||||
|
|
||||||
Добавление TTL на колонку существующей таблицы
|
Добавление `TTL` на колонку существующей таблицы:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
ALTER TABLE example_table
|
ALTER TABLE example_table
|
||||||
@ -452,7 +466,7 @@ ALTER TABLE example_table
|
|||||||
c String TTL d + INTERVAL 1 DAY;
|
c String TTL d + INTERVAL 1 DAY;
|
||||||
```
|
```
|
||||||
|
|
||||||
Изменение TTL у колонки
|
Изменение `TTL` у колонки:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
ALTER TABLE example_table
|
ALTER TABLE example_table
|
||||||
@ -462,23 +476,24 @@ ALTER TABLE example_table
|
|||||||
|
|
||||||
### TTL таблицы {#mergetree-table-ttl}
|
### TTL таблицы {#mergetree-table-ttl}
|
||||||
|
|
||||||
Для таблицы можно задать одно выражение для устаревания данных, а также несколько выражений, по срабатывании которых данные переместятся на [некоторый диск или том](#table_engine-mergetree-multiple-volumes). Когда некоторые данные в таблице устаревают, ClickHouse удаляет все соответствующие строки.
|
Для таблицы можно задать одно выражение для устаревания данных, а также несколько выражений, при срабатывании которых данные будут перемещены на [некоторый диск или том](#table_engine-mergetree-multiple-volumes). Когда некоторые данные в таблице устаревают, ClickHouse удаляет все соответствующие строки. Операции перемещения или повторного сжатия данных выполняются только когда устаревают все данные в куске.
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
TTL expr
|
TTL expr
|
||||||
[DELETE|TO DISK 'xxx'|TO VOLUME 'xxx'][, DELETE|TO DISK 'aaa'|TO VOLUME 'bbb'] ...
|
[DELETE|RECOMPRESS codec_name1|TO DISK 'xxx'|TO VOLUME 'xxx'][, DELETE|RECOMPRESS codec_name2|TO DISK 'aaa'|TO VOLUME 'bbb'] ...
|
||||||
[WHERE conditions]
|
[WHERE conditions]
|
||||||
[GROUP BY key_expr [SET v1 = aggr_func(v1) [, v2 = aggr_func(v2) ...]] ]
|
[GROUP BY key_expr [SET v1 = aggr_func(v1) [, v2 = aggr_func(v2) ...]] ]
|
||||||
```
|
```
|
||||||
|
|
||||||
За каждым TTL выражением может следовать тип действия, которое выполняется после достижения времени, соответствующего результату TTL выражения:
|
За каждым `TTL` выражением может следовать тип действия, которое выполняется после достижения времени, соответствующего результату `TTL` выражения:
|
||||||
|
|
||||||
- `DELETE` - удалить данные (действие по умолчанию);
|
- `DELETE` - удалить данные (действие по умолчанию);
|
||||||
|
- `RECOMPRESS codec_name` - повторно сжать данные с помощью кодека `codec_name`;
|
||||||
- `TO DISK 'aaa'` - переместить данные на диск `aaa`;
|
- `TO DISK 'aaa'` - переместить данные на диск `aaa`;
|
||||||
- `TO VOLUME 'bbb'` - переместить данные на том `bbb`;
|
- `TO VOLUME 'bbb'` - переместить данные на том `bbb`;
|
||||||
- `GROUP BY` - агрегировать данные.
|
- `GROUP BY` - агрегировать данные.
|
||||||
|
|
||||||
В секции `WHERE` можно задать условие удаления или агрегирования устаревших строк (для перемещения условие `WHERE` не применимо).
|
В секции `WHERE` можно задать условие удаления или агрегирования устаревших строк (для перемещения и сжатия условие `WHERE` не применимо).
|
||||||
|
|
||||||
Колонки, по которым агрегируются данные в `GROUP BY`, должны являться префиксом первичного ключа таблицы.
|
Колонки, по которым агрегируются данные в `GROUP BY`, должны являться префиксом первичного ключа таблицы.
|
||||||
|
|
||||||
@ -486,7 +501,7 @@ TTL expr
|
|||||||
|
|
||||||
**Примеры**
|
**Примеры**
|
||||||
|
|
||||||
Создание таблицы с TTL:
|
Создание таблицы с `TTL`:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE TABLE example_table
|
CREATE TABLE example_table
|
||||||
@ -502,7 +517,7 @@ TTL d + INTERVAL 1 MONTH [DELETE],
|
|||||||
d + INTERVAL 2 WEEK TO DISK 'bbb';
|
d + INTERVAL 2 WEEK TO DISK 'bbb';
|
||||||
```
|
```
|
||||||
|
|
||||||
Изменение TTL:
|
Изменение `TTL`:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
ALTER TABLE example_table
|
ALTER TABLE example_table
|
||||||
@ -523,6 +538,21 @@ ORDER BY d
|
|||||||
TTL d + INTERVAL 1 MONTH DELETE WHERE toDayOfWeek(d) = 1;
|
TTL d + INTERVAL 1 MONTH DELETE WHERE toDayOfWeek(d) = 1;
|
||||||
```
|
```
|
||||||
|
|
||||||
|
Создание таблицы, в которой куски с устаревшими данными повторно сжимаются:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
CREATE TABLE table_for_recompression
|
||||||
|
(
|
||||||
|
d DateTime,
|
||||||
|
key UInt64,
|
||||||
|
value String
|
||||||
|
) ENGINE MergeTree()
|
||||||
|
ORDER BY tuple()
|
||||||
|
PARTITION BY key
|
||||||
|
TTL d + INTERVAL 1 MONTH RECOMPRESS CODEC(ZSTD(17)), d + INTERVAL 1 YEAR RECOMPRESS CODEC(LZ4HC(10))
|
||||||
|
SETTINGS min_rows_for_wide_part = 0, min_bytes_for_wide_part = 0;
|
||||||
|
```
|
||||||
|
|
||||||
Создание таблицы, где устаревшие строки агрегируются. В результирующих строках колонка `x` содержит максимальное значение по сгруппированным строкам, `y` — минимальное значение, а `d` — случайное значение из одной из сгуппированных строк.
|
Создание таблицы, где устаревшие строки агрегируются. В результирующих строках колонка `x` содержит максимальное значение по сгруппированным строкам, `y` — минимальное значение, а `d` — случайное значение из одной из сгуппированных строк.
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
@ -539,14 +569,18 @@ ORDER BY (k1, k2)
|
|||||||
TTL d + INTERVAL 1 MONTH GROUP BY k1, k2 SET x = max(x), y = min(y);
|
TTL d + INTERVAL 1 MONTH GROUP BY k1, k2 SET x = max(x), y = min(y);
|
||||||
```
|
```
|
||||||
|
|
||||||
**Удаление данных**
|
### Удаление устаревших данных {#mergetree-removing-expired-data}
|
||||||
|
|
||||||
Данные с истекшим TTL удаляются, когда ClickHouse мёржит куски данных.
|
Данные с истекшим `TTL` удаляются, когда ClickHouse мёржит куски данных.
|
||||||
|
|
||||||
Когда ClickHouse видит, что некоторые данные устарели, он выполняет внеплановые мёржи. Для управление частотой подобных мёржей, можно задать настройку `merge_with_ttl_timeout`. Если её значение слишком низкое, придется выполнять много внеплановых мёржей, которые могут начать потреблять значительную долю ресурсов сервера.
|
Когда ClickHouse видит, что некоторые данные устарели, он выполняет внеплановые мёржи. Для управление частотой подобных мёржей, можно задать настройку `merge_with_ttl_timeout`. Если её значение слишком низкое, придется выполнять много внеплановых мёржей, которые могут начать потреблять значительную долю ресурсов сервера.
|
||||||
|
|
||||||
Если вы выполните запрос `SELECT` между слияниями вы можете получить устаревшие данные. Чтобы избежать этого используйте запрос [OPTIMIZE](../../../engines/table-engines/mergetree-family/mergetree.md#misc_operations-optimize) перед `SELECT`.
|
Если вы выполните запрос `SELECT` между слияниями вы можете получить устаревшие данные. Чтобы избежать этого используйте запрос [OPTIMIZE](../../../engines/table-engines/mergetree-family/mergetree.md#misc_operations-optimize) перед `SELECT`.
|
||||||
|
|
||||||
|
**См. также**
|
||||||
|
|
||||||
|
- настройку [ttl_only_drop_parts](../../../operations/settings/settings.md#ttl_only_drop_parts)
|
||||||
|
|
||||||
## Хранение данных таблицы на нескольких блочных устройствах {#table_engine-mergetree-multiple-volumes}
|
## Хранение данных таблицы на нескольких блочных устройствах {#table_engine-mergetree-multiple-volumes}
|
||||||
|
|
||||||
### Введение {#introduction}
|
### Введение {#introduction}
|
||||||
|
@ -26,7 +26,7 @@ Connected to ClickHouse server version 20.13.1 revision 54442.
|
|||||||
|
|
||||||
Клиент может быть использован в интерактивном и не интерактивном (batch) режиме.
|
Клиент может быть использован в интерактивном и не интерактивном (batch) режиме.
|
||||||
Чтобы использовать batch режим, укажите параметр query, или отправьте данные в stdin (проверяется, что stdin - не терминал), или и то, и другое.
|
Чтобы использовать batch режим, укажите параметр query, или отправьте данные в stdin (проверяется, что stdin - не терминал), или и то, и другое.
|
||||||
Аналогично HTTP интерфейсу, при использовании одновременно параметра query и отправке данных в stdin, запрос составляется из конкатенации параметра query, перевода строки, и данных в stdin. Это удобно для больших INSERT запросов.
|
Аналогично HTTP интерфейсу, при использовании одновременно параметра query и отправке данных в stdin, запрос составляется из конкатенации параметра query, перевода строки и данных в stdin. Это удобно для больших `INSERT` запросов.
|
||||||
|
|
||||||
Примеры использования клиента для вставки данных:
|
Примеры использования клиента для вставки данных:
|
||||||
|
|
||||||
@ -41,17 +41,17 @@ _EOF
|
|||||||
$ cat file.csv | clickhouse-client --database=test --query="INSERT INTO test FORMAT CSV";
|
$ cat file.csv | clickhouse-client --database=test --query="INSERT INTO test FORMAT CSV";
|
||||||
```
|
```
|
||||||
|
|
||||||
В batch режиме в качестве формата данных по умолчанию используется формат TabSeparated. Формат может быть указан в секции FORMAT запроса.
|
В batch режиме в качестве формата данных по умолчанию используется формат `TabSeparated`. Формат может быть указан в запросе в секции `FORMAT`.
|
||||||
|
|
||||||
По умолчанию, в batch режиме вы можете выполнить только один запрос. Чтобы выполнить несколько запросов из «скрипта», используйте параметр –multiquery. Это работает для всех запросов кроме INSERT. Результаты запросов выводятся подряд без дополнительных разделителей.
|
По умолчанию в batch режиме вы можете выполнить только один запрос. Чтобы выполнить несколько запросов из «скрипта», используйте параметр `–-multiquery`. Это работает для всех запросов кроме `INSERT`. Результаты запросов выводятся подряд без дополнительных разделителей.
|
||||||
Также, при необходимости выполнить много запросов, вы можете запускать clickhouse-client на каждый запрос. Заметим, что запуск программы clickhouse-client может занимать десятки миллисекунд.
|
Если нужно выполнить много запросов, вы можете запускать clickhouse-client отдельно на каждый запрос. Заметим, что запуск программы clickhouse-client может занимать десятки миллисекунд.
|
||||||
|
|
||||||
В интерактивном режиме, вы получите командную строку, в которую можно вводить запросы.
|
В интерактивном режиме вы получаете командную строку, в которую можно вводить запросы.
|
||||||
|
|
||||||
Если не указано multiline (по умолчанию):
|
Если не указано multiline (по умолчанию):
|
||||||
Чтобы выполнить запрос, нажмите Enter. Точка с запятой на конце запроса не обязательна. Чтобы ввести запрос, состоящий из нескольких строк, перед переводом строки, введите символ обратного слеша: `\` - тогда после нажатия Enter, вам предложат ввести следующую строку запроса.
|
Чтобы выполнить запрос, нажмите Enter. Точка с запятой на конце запроса необязательна. Чтобы ввести запрос, состоящий из нескольких строк, в конце строки поставьте символ обратного слеша `\`, тогда после нажатия Enter вы сможете ввести следующую строку запроса.
|
||||||
|
|
||||||
Если указано multiline (многострочный режим):
|
Если указан параметр `--multiline` (многострочный режим):
|
||||||
Чтобы выполнить запрос, завершите его точкой с запятой и нажмите Enter. Если в конце введённой строки не было точки с запятой, то вам предложат ввести следующую строчку запроса.
|
Чтобы выполнить запрос, завершите его точкой с запятой и нажмите Enter. Если в конце введённой строки не было точки с запятой, то вам предложат ввести следующую строчку запроса.
|
||||||
|
|
||||||
Исполняется только один запрос, поэтому всё, что введено после точки с запятой, игнорируется.
|
Исполняется только один запрос, поэтому всё, что введено после точки с запятой, игнорируется.
|
||||||
@ -61,20 +61,20 @@ $ cat file.csv | clickhouse-client --database=test --query="INSERT INTO test FOR
|
|||||||
Командная строка сделана на основе readline (и history) (или libedit, или без какой-либо библиотеки, в зависимости от сборки) - то есть, в ней работают привычные сочетания клавиш, а также присутствует история.
|
Командная строка сделана на основе readline (и history) (или libedit, или без какой-либо библиотеки, в зависимости от сборки) - то есть, в ней работают привычные сочетания клавиш, а также присутствует история.
|
||||||
История пишется в `~/.clickhouse-client-history`.
|
История пишется в `~/.clickhouse-client-history`.
|
||||||
|
|
||||||
По умолчанию, в качестве формата, используется формат PrettyCompact (красивые таблички). Вы можете изменить формат с помощью секции FORMAT запроса, или с помощью указания `\G` на конце запроса, с помощью аргумента командной строки `--format` или `--vertical`, или с помощью конфигурационного файла клиента.
|
По умолчанию используется формат вывода `PrettyCompact` (он поддерживает красивый вывод таблиц). Вы можете изменить формат вывода результатов запроса следующими способами: с помощью секции `FORMAT` в запросе, указав символ `\G` в конце запроса, используя аргументы командной строки `--format` или `--vertical` или с помощью конфигурационного файла клиента.
|
||||||
|
|
||||||
Чтобы выйти из клиента, нажмите Ctrl+D, или наберите вместо запроса одно из: «exit», «quit», «logout», «учше», «йгше», «дщпщге», «exit;», «quit;», «logout;», «учшеж», «йгшеж», «дщпщгеж», «q», «й», «q», «Q», «:q», «й», «Й», «Жй»
|
Чтобы выйти из клиента, нажмите Ctrl+D или наберите вместо запроса одно из: «exit», «quit», «logout», «учше», «йгше», «дщпщге», «exit;», «quit;», «logout;», «учшеж», «йгшеж», «дщпщгеж», «q», «й», «q», «Q», «:q», «й», «Й», «Жй».
|
||||||
|
|
||||||
При выполнении запроса, клиент показывает:
|
При выполнении запроса клиент показывает:
|
||||||
|
|
||||||
1. Прогресс выполнение запроса, который обновляется не чаще, чем 10 раз в секунду (по умолчанию). При быстрых запросах, прогресс может не успеть отобразиться.
|
1. Прогресс выполнение запроса, который обновляется не чаще, чем 10 раз в секунду (по умолчанию). При быстрых запросах прогресс может не успеть отобразиться.
|
||||||
2. Отформатированный запрос после его парсинга - для отладки.
|
2. Отформатированный запрос после его парсинга - для отладки.
|
||||||
3. Результат в заданном формате.
|
3. Результат в заданном формате.
|
||||||
4. Количество строк результата, прошедшее время, а также среднюю скорость выполнения запроса.
|
4. Количество строк результата, прошедшее время, а также среднюю скорость выполнения запроса.
|
||||||
|
|
||||||
Вы можете прервать длинный запрос, нажав Ctrl+C. При этом вам всё равно придётся чуть-чуть подождать, пока сервер остановит запрос. На некоторых стадиях выполнения, запрос невозможно прервать. Если вы не дождётесь и нажмёте Ctrl+C второй раз, то клиент будет завершён.
|
Вы можете прервать длинный запрос, нажав Ctrl+C. При этом вам всё равно придётся чуть-чуть подождать, пока сервер остановит запрос. На некоторых стадиях выполнения запрос невозможно прервать. Если вы не дождётесь и нажмёте Ctrl+C второй раз, то клиент будет завершён.
|
||||||
|
|
||||||
Клиент командной строки позволяет передать внешние данные (внешние временные таблицы) для использования запроса. Подробнее смотрите раздел «Внешние данные для обработки запроса»
|
Клиент командной строки позволяет передать внешние данные (внешние временные таблицы) для выполнения запроса. Подробнее смотрите раздел «Внешние данные для обработки запроса».
|
||||||
|
|
||||||
### Запросы с параметрами {#cli-queries-with-parameters}
|
### Запросы с параметрами {#cli-queries-with-parameters}
|
||||||
|
|
||||||
@ -84,7 +84,7 @@ $ cat file.csv | clickhouse-client --database=test --query="INSERT INTO test FOR
|
|||||||
clickhouse-client --param_parName="[1, 2]" -q "SELECT * FROM table WHERE a = {parName:Array(UInt16)}"
|
clickhouse-client --param_parName="[1, 2]" -q "SELECT * FROM table WHERE a = {parName:Array(UInt16)}"
|
||||||
```
|
```
|
||||||
|
|
||||||
#### Cинтаксис запроса {#cli-queries-with-parameters-syntax}
|
#### Синтаксис запроса {#cli-queries-with-parameters-syntax}
|
||||||
|
|
||||||
Отформатируйте запрос обычным способом. Представьте значения, которые вы хотите передать из параметров приложения в запрос в следующем формате:
|
Отформатируйте запрос обычным способом. Представьте значения, которые вы хотите передать из параметров приложения в запрос в следующем формате:
|
||||||
|
|
||||||
@ -155,3 +155,29 @@ $ clickhouse-client --param_tbl="numbers" --param_db="system" --param_col="numbe
|
|||||||
</config>
|
</config>
|
||||||
```
|
```
|
||||||
|
|
||||||
|
### Формат ID запроса {#query-id-format}
|
||||||
|
|
||||||
|
В интерактивном режиме `clickhouse-client` показывает ID для каждого запроса. По умолчанию ID выводится в таком виде:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
Query id: 927f137d-00f1-4175-8914-0dd066365e96
|
||||||
|
```
|
||||||
|
|
||||||
|
Произвольный формат ID можно задать в конфигурационном файле внутри тега `query_id_formats`. ID подставляется вместо `{query_id}` в строке формата. В теге может быть перечислено несколько строк формата.
|
||||||
|
Эта возможность может быть полезна для генерации URL, с помощью которых выполняется профилирование запросов.
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
```xml
|
||||||
|
<config>
|
||||||
|
<query_id_formats>
|
||||||
|
<speedscope>http://speedscope-host/#profileURL=qp%3Fid%3D{query_id}</speedscope>
|
||||||
|
</query_id_formats>
|
||||||
|
</config>
|
||||||
|
```
|
||||||
|
|
||||||
|
Если применить приведённую выше конфигурацию, то ID запроса будет выводиться в следующем виде:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
speedscope:http://speedscope-host/#profileURL=qp%3Fid%3Dc8ecc783-e753-4b38-97f1-42cddfb98b7d
|
||||||
|
```
|
||||||
|
@ -43,3 +43,9 @@ mysql>
|
|||||||
- не поддерживаются подготовленные запросы
|
- не поддерживаются подготовленные запросы
|
||||||
|
|
||||||
- некоторые типы данных отправляются как строки
|
- некоторые типы данных отправляются как строки
|
||||||
|
|
||||||
|
Чтобы прервать долго выполняемый запрос, используйте запрос `KILL QUERY connection_id` (во время выполнения он будет заменен на `KILL QUERY WHERE query_id = connection_id`). Например:
|
||||||
|
|
||||||
|
``` bash
|
||||||
|
$ mysql --protocol tcp -h mysql_server -P 9004 default -u default --password=123 -e "KILL QUERY 123456;"
|
||||||
|
```
|
@ -6,19 +6,51 @@ toc_title: "Конфигурационные файлы"
|
|||||||
|
|
||||||
# Конфигурационные файлы {#configuration_files}
|
# Конфигурационные файлы {#configuration_files}
|
||||||
|
|
||||||
Основной конфигурационный файл сервера - `config.xml` или `config.yaml`. Он расположен в директории `/etc/clickhouse-server/`.
|
ClickHouse поддерживает многофайловое управление конфигурацией. Основной конфигурационный файл сервера — `/etc/clickhouse-server/config.xml` или `/etc/clickhouse-server/config.yaml`. Остальные файлы должны находиться в директории `/etc/clickhouse-server/config.d`. Обратите внимание, что конфигурационные файлы могут быть записаны в форматах XML или YAML, но смешение этих форматов в одном файле не поддерживается. Например, можно хранить основные конфигурационные файлы как `config.xml` и `users.xml`, а дополнительные файлы записать в директории `config.d` и `users.d` в формате `.yaml`.
|
||||||
|
|
||||||
Отдельные настройки могут быть переопределены в файлах `*.xml` и `*.conf`, а также `.yaml` (для файлов в формате YAML) из директории `config.d` рядом с конфигом.
|
Все XML файлы должны иметь одинаковый корневой элемент, обычно `<yandex>`. Для YAML элемент `yandex:` должен отсутствовать, так как парсер вставляет его автоматически.
|
||||||
|
|
||||||
У элементов этих конфигурационных файлов могут быть указаны атрибуты `replace` или `remove`.
|
## Переопределение {#override}
|
||||||
|
|
||||||
Если ни один не указан - объединить содержимое элементов рекурсивно с заменой значений совпадающих детей.
|
Некоторые настройки, определенные в основном конфигурационном файле, могут быть переопределены в других файлах:
|
||||||
|
|
||||||
Если указано `replace` - заменить весь элемент на указанный.
|
- У элементов этих конфигурационных файлов могут быть указаны атрибуты `replace` или `remove`.
|
||||||
|
- Если ни один атрибут не указан, сервер объединит содержимое элементов рекурсивно, заменяя совпадающие значения дочерних элементов.
|
||||||
|
- Если указан атрибут `replace`, сервер заменит весь элемент на указанный.
|
||||||
|
- Если указан атрибут `remove`, сервер удалит элемент.
|
||||||
|
|
||||||
Если указано `remove` - удалить элемент.
|
Также возможно указать атрибуты как переменные среды с помощью `from_env="VARIABLE_NAME"`:
|
||||||
|
|
||||||
Также в конфиге могут быть указаны «подстановки». Если у элемента присутствует атрибут `incl`, то в качестве значения будет использована соответствующая подстановка из файла. По умолчанию, путь к файлу с подстановками - `/etc/metrika.xml`. Он может быть изменён в конфигурации сервера в элементе [include_from](server-configuration-parameters/settings.md#server_configuration_parameters-include_from). Значения подстановок указываются в элементах `/yandex/имя_подстановки` этого файла. Если подстановка, заданная в `incl` отсутствует, то в лог попадает соответствующая запись. Чтобы ClickHouse не писал в лог об отсутствии подстановки, необходимо указать атрибут `optional="true"` (например, настройка [macros](server-configuration-parameters/settings.md)).
|
```xml
|
||||||
|
<yandex>
|
||||||
|
<macros>
|
||||||
|
<replica from_env="REPLICA" />
|
||||||
|
<layer from_env="LAYER" />
|
||||||
|
<shard from_env="SHARD" />
|
||||||
|
</macros>
|
||||||
|
</yandex>
|
||||||
|
```
|
||||||
|
|
||||||
|
## Подстановки {#substitution}
|
||||||
|
|
||||||
|
В конфигурационном файле могут быть указаны «подстановки». Если у элемента присутствует атрибут `incl`, то в качестве значения будет использована соответствующая подстановка из файла. По умолчанию путь к файлу с подстановками - `/etc/metrika.xml`. Он может быть изменён в конфигурации сервера в элементе [include_from](server-configuration-parameters/settings.md#server_configuration_parameters-include_from). Значения подстановок указываются в элементах `/yandex/имя_подстановки` этого файла. Если подстановка, заданная в `incl`, отсутствует, то делается соответствующая запись в лог. Чтобы ClickHouse фиксировал в логе отсутствие подстановки, необходимо указать атрибут `optional="true"` (например, настройки для [macros](server-configuration-parameters/settings.md#macros)).
|
||||||
|
|
||||||
|
Если нужно заменить весь элемент подстановкой, можно использовать `include` как имя элемента.
|
||||||
|
|
||||||
|
Пример подстановки XML:
|
||||||
|
|
||||||
|
```xml
|
||||||
|
<yandex>
|
||||||
|
<!-- Appends XML subtree found at `/profiles-in-zookeeper` ZK path to `<profiles>` element. -->
|
||||||
|
<profiles from_zk="/profiles-in-zookeeper" />
|
||||||
|
|
||||||
|
<users>
|
||||||
|
<!-- Replaces `include` element with the subtree found at `/users-in-zookeeper` ZK path. -->
|
||||||
|
<include from_zk="/users-in-zookeeper" />
|
||||||
|
<include from_zk="/other-users-in-zookeeper" />
|
||||||
|
</users>
|
||||||
|
</yandex>
|
||||||
|
```
|
||||||
|
|
||||||
Подстановки могут также выполняться из ZooKeeper. Для этого укажите у элемента атрибут `from_zk = "/path/to/node"`. Значение элемента заменится на содержимое узла `/path/to/node` в ZooKeeper. В ZooKeeper-узел также можно положить целое XML-поддерево, оно будет целиком вставлено в исходный элемент.
|
Подстановки могут также выполняться из ZooKeeper. Для этого укажите у элемента атрибут `from_zk = "/path/to/node"`. Значение элемента заменится на содержимое узла `/path/to/node` в ZooKeeper. В ZooKeeper-узел также можно положить целое XML-поддерево, оно будет целиком вставлено в исходный элемент.
|
||||||
|
|
||||||
@ -115,3 +147,9 @@ seq:
|
|||||||
<seq attr1="value1" attr2="value2">123</seq>
|
<seq attr1="value1" attr2="value2">123</seq>
|
||||||
<seq attr1="value1" attr2="value2">abc</seq>
|
<seq attr1="value1" attr2="value2">abc</seq>
|
||||||
```
|
```
|
||||||
|
|
||||||
|
## Детали реализации {#implementation-details}
|
||||||
|
|
||||||
|
При старте сервера для каждого конфигурационного файла создаются файлы предобработки `file-preprocessed.xml`. Они содержат все выполненные подстановки и переопределения (эти сведения записываются просто для информации). Если в конфигурационном файле настроены подстановки ZooKeeper, но при старте сервера ZooKeeper не доступен, то сервер загружает конфигурацию из соответствующего файла предобработки.
|
||||||
|
|
||||||
|
Сервер отслеживает как изменения в конфигурационных файлах, так и файлы и узы ZooKeeper, которые были использованы при выполнении подстановок и переопределений, и на ходу перезагружает настройки для пользователей и кластеров. Это означает, что можно изменять кластеры, пользователей и их настройки без перезапуска сервера.
|
||||||
|
@ -1865,10 +1865,25 @@ ClickHouse генерирует исключение
|
|||||||
|
|
||||||
## input_format_parallel_parsing {#input-format-parallel-parsing}
|
## input_format_parallel_parsing {#input-format-parallel-parsing}
|
||||||
|
|
||||||
- Тип: bool
|
Включает или отключает режим, при котором входящие данные разбиваются на части, парсинг каждой из которых осуществляется параллельно с сохранением исходного порядка. Поддерживается только для форматов [TSV](../../interfaces/formats.md#tabseparated), [TKSV](../../interfaces/formats.md#tskv), [CSV](../../interfaces/formats.md#csv) и [JSONEachRow](../../interfaces/formats.md#jsoneachrow).
|
||||||
- Значение по умолчанию: True
|
|
||||||
|
|
||||||
Включает режим, при котором входящие данные парсятся параллельно, но с сохранением исходного порядка следования. Поддерживается только для форматов TSV, TKSV, CSV и JSONEachRow.
|
Возможные значения:
|
||||||
|
|
||||||
|
- 1 — включен режим параллельного разбора.
|
||||||
|
- 0 — отключен режим параллельного разбора.
|
||||||
|
|
||||||
|
Значение по умолчанию: `0`.
|
||||||
|
|
||||||
|
## output_format_parallel_formatting {#output-format-parallel-formatting}
|
||||||
|
|
||||||
|
Включает или отключает режим, при котором исходящие данные форматируются параллельно с сохранением исходного порядка. Поддерживается только для форматов [TSV](../../interfaces/formats.md#tabseparated), [TKSV](../../interfaces/formats.md#tskv), [CSV](../../interfaces/formats.md#csv) и [JSONEachRow](../../interfaces/formats.md#jsoneachrow).
|
||||||
|
|
||||||
|
Возможные значения:
|
||||||
|
|
||||||
|
- 1 — включен режим параллельного форматирования.
|
||||||
|
- 0 — отключен режим параллельного форматирования.
|
||||||
|
|
||||||
|
Значение по умолчанию: `0`.
|
||||||
|
|
||||||
## min_chunk_bytes_for_parallel_parsing {#min-chunk-bytes-for-parallel-parsing}
|
## min_chunk_bytes_for_parallel_parsing {#min-chunk-bytes-for-parallel-parsing}
|
||||||
|
|
||||||
@ -3237,3 +3252,25 @@ SETTINGS index_granularity = 8192 │
|
|||||||
- 1 — таблица обновляется автоматически в фоновом режиме при обнаружении изменений схемы.
|
- 1 — таблица обновляется автоматически в фоновом режиме при обнаружении изменений схемы.
|
||||||
|
|
||||||
Значение по умолчанию: `0`.
|
Значение по умолчанию: `0`.
|
||||||
|
|
||||||
|
## allow_experimental_projection_optimization {#allow-experimental-projection-optimization}
|
||||||
|
|
||||||
|
Включает или отключает поддержку [проекций](../../engines/table-engines/mergetree-family/mergetree.md#projections) при обработке запросов `SELECT`.
|
||||||
|
|
||||||
|
Возможные значения:
|
||||||
|
|
||||||
|
- 0 — Проекции не поддерживаются.
|
||||||
|
- 1 — Проекции поддерживаются.
|
||||||
|
|
||||||
|
Значение по умолчанию: `0`.
|
||||||
|
|
||||||
|
## force_optimize_projection {#force-optimize-projection}
|
||||||
|
|
||||||
|
Включает или отключает обязательное использование [проекций](../../engines/table-engines/mergetree-family/mergetree.md#projections) в запросах `SELECT`, если поддержка проекций включена (см. настройку [allow_experimental_projection_optimization](#allow-experimental-projection-optimization)).
|
||||||
|
|
||||||
|
Возможные значения:
|
||||||
|
|
||||||
|
- 0 — Проекции используются опционально.
|
||||||
|
- 1 — Проекции обязательно используются.
|
||||||
|
|
||||||
|
Значение по умолчанию: `0`.
|
@ -9,9 +9,9 @@ toc_title: Date
|
|||||||
|
|
||||||
Дата хранится без учёта часового пояса.
|
Дата хранится без учёта часового пояса.
|
||||||
|
|
||||||
## Примеры {#examples}
|
**Пример**
|
||||||
|
|
||||||
**1.** Создание таблицы и добавление в неё данных:
|
Создание таблицы и добавление в неё данных:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE TABLE dt
|
CREATE TABLE dt
|
||||||
@ -24,9 +24,6 @@ ENGINE = TinyLog;
|
|||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
INSERT INTO dt Values (1546300800, 1), ('2019-01-01', 2);
|
INSERT INTO dt Values (1546300800, 1), ('2019-01-01', 2);
|
||||||
```
|
|
||||||
|
|
||||||
``` sql
|
|
||||||
SELECT * FROM dt;
|
SELECT * FROM dt;
|
||||||
```
|
```
|
||||||
|
|
||||||
@ -37,7 +34,7 @@ SELECT * FROM dt;
|
|||||||
└────────────┴──────────┘
|
└────────────┴──────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
## Смотрите также {#see-also}
|
**См. также**
|
||||||
|
|
||||||
- [Функции для работы с датой и временем](../../sql-reference/functions/date-time-functions.md)
|
- [Функции для работы с датой и временем](../../sql-reference/functions/date-time-functions.md)
|
||||||
- [Операторы для работы с датой и временем](../../sql-reference/operators/index.md#operators-datetime)
|
- [Операторы для работы с датой и временем](../../sql-reference/operators/index.md#operators-datetime)
|
||||||
|
40
docs/ru/sql-reference/data-types/date32.md
Normal file
40
docs/ru/sql-reference/data-types/date32.md
Normal file
@ -0,0 +1,40 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 48
|
||||||
|
toc_title: Date32
|
||||||
|
---
|
||||||
|
|
||||||
|
# Date32 {#data_type-datetime32}
|
||||||
|
|
||||||
|
Дата. Поддерживается такой же диапазон дат, как для типа [Datetime64](../../sql-reference/data-types/datetime64.md). Значение хранится в четырех байтах и соответствует числу дней с 1925-01-01 по 2283-11-11.
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
Создание таблицы со столбцом типа `Date32`и добавление в нее данных:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE new
|
||||||
|
(
|
||||||
|
`timestamp` Date32,
|
||||||
|
`event_id` UInt8
|
||||||
|
)
|
||||||
|
ENGINE = TinyLog;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
INSERT INTO new VALUES (4102444800, 1), ('2100-01-01', 2);
|
||||||
|
SELECT * FROM new;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──timestamp─┬─event_id─┐
|
||||||
|
│ 2100-01-01 │ 1 │
|
||||||
|
│ 2100-01-01 │ 2 │
|
||||||
|
└────────────┴──────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
**См. также**
|
||||||
|
|
||||||
|
- [toDate32](../../sql-reference/functions/type-conversion-functions.md#todate32)
|
||||||
|
- [toDate32OrZero](../../sql-reference/functions/type-conversion-functions.md#todate32-or-zero)
|
||||||
|
- [toDate32OrNull](../../sql-reference/functions/type-conversion-functions.md#todate32-or-null)
|
||||||
|
|
@ -17,7 +17,7 @@ DateTime64(precision, [timezone])
|
|||||||
|
|
||||||
Данные хранятся в виде количества ‘тиков’, прошедших с момента начала эпохи (1970-01-01 00:00:00 UTC), в Int64. Размер тика определяется параметром precision. Дополнительно, тип `DateTime64` позволяет хранить часовой пояс, единый для всей колонки, который влияет на то, как будут отображаться значения типа `DateTime64` в текстовом виде и как будут парситься значения заданные в виде строк (‘2020-01-01 05:00:01.000’). Часовой пояс не хранится в строках таблицы (выборки), а хранится в метаданных колонки. Подробнее см. [DateTime](datetime.md).
|
Данные хранятся в виде количества ‘тиков’, прошедших с момента начала эпохи (1970-01-01 00:00:00 UTC), в Int64. Размер тика определяется параметром precision. Дополнительно, тип `DateTime64` позволяет хранить часовой пояс, единый для всей колонки, который влияет на то, как будут отображаться значения типа `DateTime64` в текстовом виде и как будут парситься значения заданные в виде строк (‘2020-01-01 05:00:01.000’). Часовой пояс не хранится в строках таблицы (выборки), а хранится в метаданных колонки. Подробнее см. [DateTime](datetime.md).
|
||||||
|
|
||||||
Поддерживаются значения от 1 января 1925 г. и до 31 декабря 2283 г.
|
Поддерживаются значения от 1 января 1925 г. и до 11 ноября 2283 г.
|
||||||
|
|
||||||
## Примеры {#examples}
|
## Примеры {#examples}
|
||||||
|
|
||||||
|
@ -59,6 +59,7 @@ LAYOUT(LAYOUT_TYPE(param value)) -- layout settings
|
|||||||
- [direct](#direct)
|
- [direct](#direct)
|
||||||
- [range_hashed](#range-hashed)
|
- [range_hashed](#range-hashed)
|
||||||
- [complex_key_hashed](#complex-key-hashed)
|
- [complex_key_hashed](#complex-key-hashed)
|
||||||
|
- [complex_key_range_hashed](#complex-key-range-hashed)
|
||||||
- [complex_key_cache](#complex-key-cache)
|
- [complex_key_cache](#complex-key-cache)
|
||||||
- [complex_key_direct](#complex-key-direct)
|
- [complex_key_direct](#complex-key-direct)
|
||||||
- [ip_trie](#ip-trie)
|
- [ip_trie](#ip-trie)
|
||||||
@ -268,6 +269,28 @@ PRIMARY KEY Abcdef
|
|||||||
RANGE(MIN StartTimeStamp MAX EndTimeStamp)
|
RANGE(MIN StartTimeStamp MAX EndTimeStamp)
|
||||||
```
|
```
|
||||||
|
|
||||||
|
### complex_key_range_hashed {#complex-key-range-hashed}
|
||||||
|
|
||||||
|
Словарь хранится в оперативной памяти в виде хэш-таблицы с упорядоченным массивом диапазонов и соответствующих им значений (см. [range_hashed](#range-hashed)). Данный тип размещения предназначен для использования с составными [ключами](../../../sql-reference/dictionaries/external-dictionaries/external-dicts-dict-structure.md).
|
||||||
|
|
||||||
|
Пример конфигурации:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DICTIONARY range_dictionary
|
||||||
|
(
|
||||||
|
CountryID UInt64,
|
||||||
|
CountryKey String,
|
||||||
|
StartDate Date,
|
||||||
|
EndDate Date,
|
||||||
|
Tax Float64 DEFAULT 0.2
|
||||||
|
)
|
||||||
|
PRIMARY KEY CountryID, CountryKey
|
||||||
|
SOURCE(CLICKHOUSE(TABLE 'date_table'))
|
||||||
|
LIFETIME(MIN 1 MAX 1000)
|
||||||
|
LAYOUT(COMPLEX_KEY_RANGE_HASHED())
|
||||||
|
RANGE(MIN StartDate MAX EndDate);
|
||||||
|
```
|
||||||
|
|
||||||
### cache {#cache}
|
### cache {#cache}
|
||||||
|
|
||||||
Словарь хранится в кэше, состоящем из фиксированного количества ячеек. Ячейки содержат часто используемые элементы.
|
Словарь хранится в кэше, состоящем из фиксированного количества ячеек. Ячейки содержат часто используемые элементы.
|
||||||
|
@ -2185,3 +2185,122 @@ defaultRoles()
|
|||||||
- Список ролей по умолчанию.
|
- Список ролей по умолчанию.
|
||||||
|
|
||||||
Тип: [Array](../../sql-reference/data-types/array.md)([String](../../sql-reference/data-types/string.md)).
|
Тип: [Array](../../sql-reference/data-types/array.md)([String](../../sql-reference/data-types/string.md)).
|
||||||
|
|
||||||
|
## getServerPort {#getserverport}
|
||||||
|
|
||||||
|
Возвращает номер порта сервера. Если порт не используется сервером, генерируется исключение.
|
||||||
|
|
||||||
|
**Синтаксис**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
getServerPort(port_name)
|
||||||
|
```
|
||||||
|
|
||||||
|
**Аргументы**
|
||||||
|
|
||||||
|
- `port_name` — имя порта сервера. [String](../../sql-reference/data-types/string.md#string). Возможные значения:
|
||||||
|
|
||||||
|
- 'tcp_port'
|
||||||
|
- 'tcp_port_secure'
|
||||||
|
- 'http_port'
|
||||||
|
- 'https_port'
|
||||||
|
- 'interserver_http_port'
|
||||||
|
- 'interserver_https_port'
|
||||||
|
- 'mysql_port'
|
||||||
|
- 'postgresql_port'
|
||||||
|
- 'grpc_port'
|
||||||
|
- 'prometheus.port'
|
||||||
|
|
||||||
|
**Возвращаемое значение**
|
||||||
|
|
||||||
|
- Номер порта сервера.
|
||||||
|
|
||||||
|
Тип: [UInt16](../../sql-reference/data-types/int-uint.md).
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
Запрос:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT getServerPort('tcp_port');
|
||||||
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─getServerPort('tcp_port')─┐
|
||||||
|
│ 9000 │
|
||||||
|
└───────────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
## queryID {#query-id}
|
||||||
|
|
||||||
|
Возвращает идентификатор текущего запроса. Другие параметры запроса могут быть извлечены из системной таблицы [system.query_log](../../operations/system-tables/query_log.md) через `query_id`.
|
||||||
|
|
||||||
|
В отличие от [initialQueryID](#initial-query-id), функция `queryID` может возвращать различные значения для разных шардов (см. пример).
|
||||||
|
|
||||||
|
**Синтаксис**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
queryID()
|
||||||
|
```
|
||||||
|
|
||||||
|
**Возвращаемое значение**
|
||||||
|
|
||||||
|
- Идентификатор текущего запроса.
|
||||||
|
|
||||||
|
Тип: [String](../../sql-reference/data-types/string.md)
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
Запрос:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE tmp (str String) ENGINE = Log;
|
||||||
|
INSERT INTO tmp (*) VALUES ('a');
|
||||||
|
SELECT count(DISTINCT t) FROM (SELECT queryID() AS t FROM remote('127.0.0.{1..3}', currentDatabase(), 'tmp') GROUP BY queryID());
|
||||||
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─count()─┐
|
||||||
|
│ 3 │
|
||||||
|
└─────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
## initialQueryID {#initial-query-id}
|
||||||
|
|
||||||
|
Возвращает идентификатор родительского запроса. Другие параметры запроса могут быть извлечены из системной таблицы [system.query_log](../../operations/system-tables/query_log.md) через `initial_query_id`.
|
||||||
|
|
||||||
|
В отличие от [queryID](#query-id), функция `initialQueryID` возвращает одинаковые значения для разных шардов (см. пример).
|
||||||
|
|
||||||
|
**Синтаксис**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
initialQueryID()
|
||||||
|
```
|
||||||
|
|
||||||
|
**Возвращаемое значение**
|
||||||
|
|
||||||
|
- Идентификатор родительского запроса.
|
||||||
|
|
||||||
|
Тип: [String](../../sql-reference/data-types/string.md)
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
Запрос:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE tmp (str String) ENGINE = Log;
|
||||||
|
INSERT INTO tmp (*) VALUES ('a');
|
||||||
|
SELECT count(DISTINCT t) FROM (SELECT initialQueryID() AS t FROM remote('127.0.0.{1..3}', currentDatabase(), 'tmp') GROUP BY queryID());
|
||||||
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─count()─┐
|
||||||
|
│ 1 │
|
||||||
|
└─────────┘
|
||||||
|
```
|
||||||
|
@ -152,6 +152,104 @@ Cиноним: `DATE`.
|
|||||||
|
|
||||||
## toDateTimeOrNull {#todatetimeornull}
|
## toDateTimeOrNull {#todatetimeornull}
|
||||||
|
|
||||||
|
## toDate32 {#todate32}
|
||||||
|
|
||||||
|
Конвертирует аргумент в значение типа [Date32](../../sql-reference/data-types/date32.md). Если значение выходит за границы диапазона, возвращается пограничное значение `Date32`. Если аргумент имеет тип [Date](../../sql-reference/data-types/date.md), учитываются границы типа `Date`.
|
||||||
|
|
||||||
|
**Синтаксис**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
toDate32(value)
|
||||||
|
```
|
||||||
|
|
||||||
|
**Аргументы**
|
||||||
|
|
||||||
|
- `value` — Значение даты. [String](../../sql-reference/data-types/string.md), [UInt32](../../sql-reference/data-types/int-uint.md) или [Date](../../sql-reference/data-types/date.md).
|
||||||
|
|
||||||
|
**Возвращаемое значение**
|
||||||
|
|
||||||
|
- Календарная дата.
|
||||||
|
|
||||||
|
Тип: [Date32](../../sql-reference/data-types/date32.md).
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
1. Значение находится в границах диапазона:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32('1955-01-01') AS value, toTypeName(value);
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──────value─┬─toTypeName(toDate32('1925-01-01'))─┐
|
||||||
|
│ 1955-01-01 │ Date32 │
|
||||||
|
└────────────┴────────────────────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
2. Значение выходит за границы диапазона:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32('1924-01-01') AS value, toTypeName(value);
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──────value─┬─toTypeName(toDate32('1925-01-01'))─┐
|
||||||
|
│ 1925-01-01 │ Date32 │
|
||||||
|
└────────────┴────────────────────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
3. С аргументом типа `Date`:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32(toDate('1924-01-01')) AS value, toTypeName(value);
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌──────value─┬─toTypeName(toDate32(toDate('1924-01-01')))─┐
|
||||||
|
│ 1970-01-01 │ Date32 │
|
||||||
|
└────────────┴────────────────────────────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
## toDate32OrZero {#todate32-or-zero}
|
||||||
|
|
||||||
|
То же самое, что и [toDate32](#todate32), но возвращает минимальное значение типа [Date32](../../sql-reference/data-types/date32.md), если получен недопустимый аргумент.
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
Запрос:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32OrZero('1924-01-01'), toDate32OrZero('');
|
||||||
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─toDate32OrZero('1924-01-01')─┬─toDate32OrZero('')─┐
|
||||||
|
│ 1925-01-01 │ 1925-01-01 │
|
||||||
|
└──────────────────────────────┴────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
## toDate32OrNull {#todate32-or-null}
|
||||||
|
|
||||||
|
То же самое, что и [toDate32](#todate32), но возвращает `NULL`, если получен недопустимый аргумент.
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
Запрос:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT toDate32OrNull('1955-01-01'), toDate32OrNull('');
|
||||||
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─toDate32OrNull('1955-01-01')─┬─toDate32OrNull('')─┐
|
||||||
|
│ 1955-01-01 │ ᴺᵁᴸᴸ │
|
||||||
|
└──────────────────────────────┴────────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
## toDecimal(32\|64\|128\|256) {#todecimal3264128}
|
## toDecimal(32\|64\|128\|256) {#todecimal3264128}
|
||||||
|
|
||||||
Преобразует `value` к типу данных [Decimal](../../sql-reference/functions/type-conversion-functions.md) с точностью `S`. `value` может быть числом или строкой. Параметр `S` (scale) задаёт число десятичных знаков.
|
Преобразует `value` к типу данных [Decimal](../../sql-reference/functions/type-conversion-functions.md) с точностью `S`. `value` может быть числом или строкой. Параметр `S` (scale) задаёт число десятичных знаков.
|
||||||
|
@ -243,9 +243,23 @@ SELECT
|
|||||||
└──────────────────┴──────────────────────────────────────┘
|
└──────────────────┴──────────────────────────────────────┘
|
||||||
```
|
```
|
||||||
|
|
||||||
|
## serverUUID() {#server-uuid}
|
||||||
|
|
||||||
|
Возвращает случайный и уникальный UUID, который генерируется при первом запуске сервера и сохраняется навсегда. Результат записывается в файл `uuid`, расположенный в каталоге сервера ClickHouse `/var/lib/clickhouse/`.
|
||||||
|
|
||||||
|
**Синтаксис**
|
||||||
|
|
||||||
|
```sql
|
||||||
|
serverUUID()
|
||||||
|
```
|
||||||
|
|
||||||
|
**Возвращаемое значение**
|
||||||
|
|
||||||
|
- UUID сервера.
|
||||||
|
|
||||||
|
Тип: [UUID](../data-types/uuid.md).
|
||||||
|
|
||||||
## См. также: {#sm-takzhe}
|
## См. также: {#sm-takzhe}
|
||||||
|
|
||||||
- [dictGetUUID](ext-dict-functions.md)
|
- [dictGetUUID](ext-dict-functions.md)
|
||||||
- [dictGetUUIDOrDefault](ext-dict-functions.md)
|
- [dictGetUUIDOrDefault](ext-dict-functions.md)
|
||||||
|
|
||||||
[Original article](https://clickhouse.tech/docs/en/query_language/functions/uuid_function/) <!--hide-->
|
|
||||||
|
@ -5,7 +5,7 @@ toc_title: PROJECTION
|
|||||||
|
|
||||||
# Манипуляции с проекциями {#manipulations-with-projections}
|
# Манипуляции с проекциями {#manipulations-with-projections}
|
||||||
|
|
||||||
Доступны следующие операции:
|
Доступны следующие операции с [проекциями](../../../engines/table-engines/mergetree-family/mergetree.md#projections):
|
||||||
|
|
||||||
- `ALTER TABLE [db].name ADD PROJECTION name AS SELECT <COLUMN LIST EXPR> [GROUP BY] [ORDER BY]` — добавляет описание проекции в метаданные.
|
- `ALTER TABLE [db].name ADD PROJECTION name AS SELECT <COLUMN LIST EXPR> [GROUP BY] [ORDER BY]` — добавляет описание проекции в метаданные.
|
||||||
|
|
||||||
@ -15,7 +15,7 @@ toc_title: PROJECTION
|
|||||||
|
|
||||||
- `ALTER TABLE [db.]table CLEAR PROJECTION name IN PARTITION partition_name` — удаляет файлы проекции с диска без удаления описания.
|
- `ALTER TABLE [db.]table CLEAR PROJECTION name IN PARTITION partition_name` — удаляет файлы проекции с диска без удаления описания.
|
||||||
|
|
||||||
Комманды ADD, DROP и CLEAR — легковесны, поскольку они только меняют метаданные или удаляют файлы.
|
Команды `ADD`, `DROP` и `CLEAR` — легковесны, поскольку они только меняют метаданные или удаляют файлы.
|
||||||
|
|
||||||
Также команды реплицируются, синхронизируя описания проекций в метаданных с помощью ZooKeeper.
|
Также команды реплицируются, синхронизируя описания проекций в метаданных с помощью ZooKeeper.
|
||||||
|
|
||||||
|
@ -6,7 +6,7 @@ toc_title: JOIN
|
|||||||
|
|
||||||
`JOIN` создаёт новую таблицу путем объединения столбцов из одной или нескольких таблиц с использованием общих для каждой из них значений. Это обычная операция в базах данных с поддержкой SQL, которая соответствует join из [реляционной алгебры](https://en.wikipedia.org/wiki/Relational_algebra#Joins_and_join-like_operators). Частный случай соединения одной таблицы часто называют self-join.
|
`JOIN` создаёт новую таблицу путем объединения столбцов из одной или нескольких таблиц с использованием общих для каждой из них значений. Это обычная операция в базах данных с поддержкой SQL, которая соответствует join из [реляционной алгебры](https://en.wikipedia.org/wiki/Relational_algebra#Joins_and_join-like_operators). Частный случай соединения одной таблицы часто называют self-join.
|
||||||
|
|
||||||
Синтаксис:
|
**Синтаксис**
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
SELECT <expr_list>
|
SELECT <expr_list>
|
||||||
@ -19,7 +19,7 @@ FROM <left_table>
|
|||||||
|
|
||||||
## Поддерживаемые типы соединения {#select-join-types}
|
## Поддерживаемые типы соединения {#select-join-types}
|
||||||
|
|
||||||
Все типы из стандартого [SQL JOIN](https://en.wikipedia.org/wiki/Join_(SQL)) поддерживаются:
|
Все типы из стандартного [SQL JOIN](https://en.wikipedia.org/wiki/Join_(SQL)) поддерживаются:
|
||||||
|
|
||||||
- `INNER JOIN`, возвращаются только совпадающие строки.
|
- `INNER JOIN`, возвращаются только совпадающие строки.
|
||||||
- `LEFT OUTER JOIN`, не совпадающие строки из левой таблицы возвращаются в дополнение к совпадающим строкам.
|
- `LEFT OUTER JOIN`, не совпадающие строки из левой таблицы возвращаются в дополнение к совпадающим строкам.
|
||||||
@ -33,9 +33,12 @@ FROM <left_table>
|
|||||||
|
|
||||||
- `LEFT SEMI JOIN` и `RIGHT SEMI JOIN`, белый список по ключам соединения, не производит декартово произведение.
|
- `LEFT SEMI JOIN` и `RIGHT SEMI JOIN`, белый список по ключам соединения, не производит декартово произведение.
|
||||||
- `LEFT ANTI JOIN` и `RIGHT ANTI JOIN`, черный список по ключам соединения, не производит декартово произведение.
|
- `LEFT ANTI JOIN` и `RIGHT ANTI JOIN`, черный список по ключам соединения, не производит декартово произведение.
|
||||||
- `LEFT ANY JOIN`, `RIGHT ANY JOIN` и `INNER ANY JOIN`, Частично (для противоположных сторон `LEFT` и `RIGHT`) или полностью (для `INNER` и `FULL`) отключает декартово произведение для стандартых видов `JOIN`.
|
- `LEFT ANY JOIN`, `RIGHT ANY JOIN` и `INNER ANY JOIN`, Частично (для противоположных сторон `LEFT` и `RIGHT`) или полностью (для `INNER` и `FULL`) отключает декартово произведение для стандартных видов `JOIN`.
|
||||||
- `ASOF JOIN` и `LEFT ASOF JOIN`, Для соединения последовательностей по нечеткому совпадению. Использование `ASOF JOIN` описано ниже.
|
- `ASOF JOIN` и `LEFT ASOF JOIN`, Для соединения последовательностей по нечеткому совпадению. Использование `ASOF JOIN` описано ниже.
|
||||||
|
|
||||||
|
!!! note "Примечание"
|
||||||
|
Если настройка [join_algorithm](../../../operations/settings/settings.md#settings-join_algorithm) установлена в значение `partial_merge`, то для `RIGHT JOIN` и `FULL JOIN` поддерживается только уровень строгости `ALL` (`SEMI`, `ANTI`, `ANY` и `ASOF` не поддерживаются).
|
||||||
|
|
||||||
## Настройки {#join-settings}
|
## Настройки {#join-settings}
|
||||||
|
|
||||||
Значение строгости по умолчанию может быть переопределено с помощью настройки [join_default_strictness](../../../operations/settings/settings.md#settings-join_default_strictness).
|
Значение строгости по умолчанию может быть переопределено с помощью настройки [join_default_strictness](../../../operations/settings/settings.md#settings-join_default_strictness).
|
||||||
@ -52,6 +55,61 @@ FROM <left_table>
|
|||||||
- [join_on_disk_max_files_to_merge](../../../operations/settings/settings.md#join_on_disk_max_files_to_merge)
|
- [join_on_disk_max_files_to_merge](../../../operations/settings/settings.md#join_on_disk_max_files_to_merge)
|
||||||
- [any_join_distinct_right_table_keys](../../../operations/settings/settings.md#any_join_distinct_right_table_keys)
|
- [any_join_distinct_right_table_keys](../../../operations/settings/settings.md#any_join_distinct_right_table_keys)
|
||||||
|
|
||||||
|
## Условия в секции ON {on-section-conditions}
|
||||||
|
|
||||||
|
Секция `ON` может содержать несколько условий, связанных оператором `AND`. Условия, задающие ключи соединения, должны содержать столбцы левой и правой таблицы и должны использовать оператор равенства. Прочие условия могут использовать другие логические операторы, но в отдельном условии могут использоваться столбцы либо только левой, либо только правой таблицы.
|
||||||
|
Строки объединяются только тогда, когда всё составное условие выполнено. Если оно не выполнено, то строки могут попасть в результат в зависимости от типа `JOIN`. Обратите внимание, что если то же самое условие поместить в секцию `WHERE`, то строки, для которых оно не выполняется, никогда не попаду в результат.
|
||||||
|
|
||||||
|
!!! note "Примечание"
|
||||||
|
Оператор `OR` внутри секции `ON` пока не поддерживается.
|
||||||
|
|
||||||
|
!!! note "Примечание"
|
||||||
|
Если в условии использованы столбцы из разных таблиц, то пока поддерживается только оператор равенства (`=`).
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
Рассмотрим `table_1` и `table_2`:
|
||||||
|
|
||||||
|
```
|
||||||
|
┌─Id─┬─name─┐ ┌─Id─┬─text───────────┬─scores─┐
|
||||||
|
│ 1 │ A │ │ 1 │ Text A │ 10 │
|
||||||
|
│ 2 │ B │ │ 1 │ Another text A │ 12 │
|
||||||
|
│ 3 │ C │ │ 2 │ Text B │ 15 │
|
||||||
|
└────┴──────┘ └────┴────────────────┴────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
Запрос с одним условием, задающим ключ соединения, и дополнительным условием для `table_2`:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT name, text FROM table_1 LEFT OUTER JOIN table_2
|
||||||
|
ON table_1.Id = table_2.Id AND startsWith(table_2.text, 'Text');
|
||||||
|
```
|
||||||
|
|
||||||
|
Обратите внимание, что результат содержит строку с именем `C` и пустым текстом. Строка включена в результат, потому что использован тип соединения `OUTER`.
|
||||||
|
|
||||||
|
```
|
||||||
|
┌─name─┬─text───┐
|
||||||
|
│ A │ Text A │
|
||||||
|
│ B │ Text B │
|
||||||
|
│ C │ │
|
||||||
|
└──────┴────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
Запрос с типом соединения `INNER` и несколькими условиями:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT name, text, scores FROM table_1 INNER JOIN table_2
|
||||||
|
ON table_1.Id = table_2.Id AND table_2.scores > 10 AND startsWith(table_2.text, 'Text');
|
||||||
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
|
```
|
||||||
|
┌─name─┬─text───┬─scores─┐
|
||||||
|
│ B │ Text B │ 15 │
|
||||||
|
└──────┴────────┴────────┘
|
||||||
|
```
|
||||||
|
|
||||||
## Использование ASOF JOIN {#asof-join-usage}
|
## Использование ASOF JOIN {#asof-join-usage}
|
||||||
|
|
||||||
`ASOF JOIN` применим в том случае, когда необходимо объединять записи, которые не имеют точного совпадения.
|
`ASOF JOIN` применим в том случае, когда необходимо объединять записи, которые не имеют точного совпадения.
|
||||||
@ -59,7 +117,7 @@ FROM <left_table>
|
|||||||
Для работы алгоритма необходим специальный столбец в таблицах. Этот столбец:
|
Для работы алгоритма необходим специальный столбец в таблицах. Этот столбец:
|
||||||
|
|
||||||
- Должен содержать упорядоченную последовательность.
|
- Должен содержать упорядоченную последовательность.
|
||||||
- Может быть одного из следующих типов: [Int*, UInt*](../../data-types/int-uint.md), [Float*](../../data-types/float.md), [Date](../../data-types/date.md), [DateTime](../../data-types/datetime.md), [Decimal*](../../data-types/decimal.md).
|
- Может быть одного из следующих типов: [Int, UInt](../../data-types/int-uint.md), [Float](../../data-types/float.md), [Date](../../data-types/date.md), [DateTime](../../data-types/datetime.md), [Decimal](../../data-types/decimal.md).
|
||||||
- Не может быть единственным столбцом в секции `JOIN`.
|
- Не может быть единственным столбцом в секции `JOIN`.
|
||||||
|
|
||||||
Синтаксис `ASOF JOIN ... ON`:
|
Синтаксис `ASOF JOIN ... ON`:
|
||||||
|
45
docs/ru/sql-reference/table-functions/sqlite.md
Normal file
45
docs/ru/sql-reference/table-functions/sqlite.md
Normal file
@ -0,0 +1,45 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 55
|
||||||
|
toc_title: sqlite
|
||||||
|
---
|
||||||
|
|
||||||
|
## sqlite {#sqlite}
|
||||||
|
|
||||||
|
Позволяет выполнять запросы к данным, хранящимся в базе данных [SQLite](../../engines/database-engines/sqlite.md).
|
||||||
|
|
||||||
|
**Синтаксис**
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
sqlite('db_path', 'table_name')
|
||||||
|
```
|
||||||
|
|
||||||
|
**Аргументы**
|
||||||
|
|
||||||
|
- `db_path` — путь к файлу с базой данных SQLite. [String](../../sql-reference/data-types/string.md).
|
||||||
|
- `table_name` — имя таблицы в базе данных SQLite. [String](../../sql-reference/data-types/string.md).
|
||||||
|
|
||||||
|
**Возвращаемое значение**
|
||||||
|
|
||||||
|
- Объект таблицы с теми же столбцами, что и в исходной таблице `SQLite`.
|
||||||
|
|
||||||
|
**Пример**
|
||||||
|
|
||||||
|
Запрос:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM sqlite('sqlite.db', 'table1') ORDER BY col2;
|
||||||
|
```
|
||||||
|
|
||||||
|
Результат:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─col1──┬─col2─┐
|
||||||
|
│ line1 │ 1 │
|
||||||
|
│ line2 │ 2 │
|
||||||
|
│ line3 │ 3 │
|
||||||
|
└───────┴──────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
**См. также**
|
||||||
|
|
||||||
|
- [SQLite](../../engines/table-engines/integrations/sqlite.md) движок таблиц
|
@ -3,15 +3,55 @@ toc_priority: 32
|
|||||||
toc_title: Atomic
|
toc_title: Atomic
|
||||||
---
|
---
|
||||||
|
|
||||||
|
|
||||||
# Atomic {#atomic}
|
# Atomic {#atomic}
|
||||||
|
|
||||||
它支持非阻塞 DROP 和 RENAME TABLE 查询以及原子 EXCHANGE TABLES t1 AND t2 查询。默认情况下使用Atomic数据库引擎。
|
它支持非阻塞的[DROP TABLE](#drop-detach-table)和[RENAME TABLE](#rename-table)查询和原子的[EXCHANGE TABLES t1 AND t2](#exchange-tables)查询。默认情况下使用`Atomic`数据库引擎。
|
||||||
|
|
||||||
## 创建数据库 {#creating-a-database}
|
## 创建数据库 {#creating-a-database}
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE DATABASE test ENGINE = Atomic;
|
CREATE DATABASE test[ ENGINE = Atomic];
|
||||||
```
|
```
|
||||||
|
|
||||||
[原文](https://clickhouse.tech/docs/en/engines/database_engines/atomic/) <!--hide-->
|
## 使用方式 {#specifics-and-recommendations}
|
||||||
|
|
||||||
|
### Table UUID {#table-uuid}
|
||||||
|
|
||||||
|
数据库`Atomic`中的所有表都有唯一的[UUID](../../sql-reference/data-types/uuid.md),并将数据存储在目录`/clickhouse_path/store/xxx/xxxyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy/`,其中`xxxyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy`是该表的UUID。
|
||||||
|
|
||||||
|
通常,UUID是自动生成的,但用户也可以在创建表时以相同的方式显式指定UUID(不建议这样做)。可以使用 [show_table_uuid_in_table_create_query_if_not_nil](../../operations/settings/settings.md#show_table_uuid_in_table_create_query_if_not_nil)设置。显示UUID的使用`SHOW CREATE`查询。例如:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
CREATE TABLE name UUID '28f1c61c-2970-457a-bffe-454156ddcfef' (n UInt64) ENGINE = ...;
|
||||||
|
```
|
||||||
|
|
||||||
|
### RENAME TABLES {#rename-table}
|
||||||
|
|
||||||
|
`RENAME`查询是在不更改UUID和移动表数据的情况下执行的。这些查询不会等待使用表的查询完成,而是会立即执行。
|
||||||
|
|
||||||
|
### DROP/DETACH TABLES {#drop-detach-table}
|
||||||
|
|
||||||
|
在`DROP TABLE`上,不删除任何数据,数据库`Atomic`只是通过将元数据移动到`/clickhouse_path/metadata_dropped/`将表标记为已删除,并通知后台线程。最终表数据删除前的延迟由[database_atomic_delay_before_drop_table_sec](../../operations/server-configuration-parameters/settings.md#database_atomic_delay_before_drop_table_sec)设置指定。
|
||||||
|
|
||||||
|
可以使用`SYNC`修饰符指定同步模式。使用[database_atomic_wait_for_drop_and_detach_synchronously](../../operations/settings/settings.md#database_atomic_wait_for_drop_and_detach_synchronously)设置执行此操作。在本例中,`DROP`等待运行 `SELECT`, `INSERT`和其他使用表完成的查询。表在不使用时将被实际删除。
|
||||||
|
|
||||||
|
### EXCHANGE TABLES {#exchange-tables}
|
||||||
|
|
||||||
|
`EXCHANGE`以原子方式交换表。因此,不是这种非原子操作:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
RENAME TABLE new_table TO tmp, old_table TO new_table, tmp TO old_table;
|
||||||
|
```
|
||||||
|
可以使用一个原子查询:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
EXCHANGE TABLES new_table AND old_table;
|
||||||
|
```
|
||||||
|
|
||||||
|
### ReplicatedMergeTree in Atomic Database {#replicatedmergetree-in-atomic-database}
|
||||||
|
|
||||||
|
对于[ReplicatedMergeTree](../table-engines/mergetree-family/replication.md#table_engines-replication)表,建议不要在ZooKeeper和副本名称中指定engine-path的参数。在这种情况下,将使用配置的参数[default_replica_path](../../operations/server-configuration-parameters/settings.md#default_replica_path)和[default_replica_name](../../operations/server-configuration-parameters/settings.md#default_replica_name)。如果要显式指定引擎的参数,建议使用{uuid}宏。这是非常有用的,以便为ZooKeeper中的每个表自动生成唯一的路径。
|
||||||
|
|
||||||
|
## 另请参考
|
||||||
|
|
||||||
|
- [system.databases](../../operations/system-tables/databases.md) 系统表
|
||||||
|
@ -1,11 +1,29 @@
|
|||||||
# 数据库引擎 {#shu-ju-ku-yin-qing}
|
---
|
||||||
|
toc_folder_title: 数据库引擎
|
||||||
|
toc_priority: 27
|
||||||
|
toc_title: Introduction
|
||||||
|
---
|
||||||
|
|
||||||
您使用的所有表都是由数据库引擎所提供的
|
# 数据库引擎 {#database-engines}
|
||||||
|
|
||||||
默认情况下,ClickHouse使用自己的数据库引擎,该引擎提供可配置的[表引擎](../../engines/database-engines/index.md)和[所有支持的SQL语法](../../engines/database-engines/index.md).
|
数据库引擎允许您处理数据表。
|
||||||
|
|
||||||
除此之外,您还可以选择使用以下的数据库引擎:
|
默认情况下,ClickHouse使用[Atomic](../../engines/database-engines/atomic.md)数据库引擎。它提供了可配置的[table engines](../../engines/table-engines/index.md)和[SQL dialect](../../sql-reference/syntax.md)。
|
||||||
|
|
||||||
- [MySQL](mysql.md)
|
您还可以使用以下数据库引擎:
|
||||||
|
|
||||||
|
- [MySQL](../../engines/database-engines/mysql.md)
|
||||||
|
|
||||||
|
- [MaterializeMySQL](../../engines/database-engines/materialize-mysql.md)
|
||||||
|
|
||||||
|
- [Lazy](../../engines/database-engines/lazy.md)
|
||||||
|
|
||||||
|
- [Atomic](../../engines/database-engines/atomic.md)
|
||||||
|
|
||||||
|
- [PostgreSQL](../../engines/database-engines/postgresql.md)
|
||||||
|
|
||||||
|
- [MaterializedPostgreSQL](../../engines/database-engines/materialized-postgresql.md)
|
||||||
|
|
||||||
|
- [Replicated](../../engines/database-engines/replicated.md)
|
||||||
|
|
||||||
[来源文章](https://clickhouse.tech/docs/en/database_engines/) <!--hide-->
|
[来源文章](https://clickhouse.tech/docs/en/database_engines/) <!--hide-->
|
||||||
|
@ -1,16 +1,18 @@
|
|||||||
---
|
---
|
||||||
toc_priority: 31
|
toc_priority: 31
|
||||||
toc_title: "延时引擎"
|
toc_title: Lazy
|
||||||
---
|
---
|
||||||
|
|
||||||
# 延时引擎Lazy {#lazy}
|
# Lazy {#lazy}
|
||||||
|
|
||||||
在距最近一次访问间隔`expiration_time_in_seconds`时间段内,将表保存在内存中,仅适用于 \*Log引擎表
|
在最后一次访问之后,只在RAM中保存`expiration_time_in_seconds`秒。只能用于\*Log表。
|
||||||
|
|
||||||
由于针对这类表的访问间隔较长,对保存大量小的 \*Log引擎表进行了优化,
|
它是为存储许多小的\*Log表而优化的,对于这些表,访问之间有很长的时间间隔。
|
||||||
|
|
||||||
## 创建数据库 {#creating-a-database}
|
## 创建数据库 {#creating-a-database}
|
||||||
|
|
||||||
|
``` sql
|
||||||
CREATE DATABASE testlazy ENGINE = Lazy(expiration_time_in_seconds);
|
CREATE DATABASE testlazy ENGINE = Lazy(expiration_time_in_seconds);
|
||||||
|
```
|
||||||
|
|
||||||
[原始文章](https://clickhouse.tech/docs/en/database_engines/lazy/) <!--hide-->
|
[来源文章](https://clickhouse.tech/docs/en/database_engines/lazy/) <!--hide-->
|
||||||
|
197
docs/zh/engines/database-engines/materialize-mysql.md
Normal file
197
docs/zh/engines/database-engines/materialize-mysql.md
Normal file
@ -0,0 +1,197 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 29
|
||||||
|
toc_title: "[experimental] MaterializedMySQL"
|
||||||
|
---
|
||||||
|
|
||||||
|
# [experimental] MaterializedMySQL {#materialized-mysql}
|
||||||
|
|
||||||
|
**这是一个实验性的特性,不应该在生产中使用。**
|
||||||
|
|
||||||
|
创建ClickHouse数据库,包含MySQL中所有的表,以及这些表中的所有数据。
|
||||||
|
|
||||||
|
ClickHouse服务器作为MySQL副本工作。它读取binlog并执行DDL和DML查询。
|
||||||
|
|
||||||
|
这个功能是实验性的。
|
||||||
|
|
||||||
|
## 创建数据库 {#creating-a-database}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE [IF NOT EXISTS] db_name [ON CLUSTER cluster]
|
||||||
|
ENGINE = MaterializeMySQL('host:port', ['database' | database], 'user', 'password') [SETTINGS ...]
|
||||||
|
```
|
||||||
|
|
||||||
|
**引擎参数**
|
||||||
|
|
||||||
|
- `host:port` — MySQL服务地址
|
||||||
|
- `database` — MySQL数据库名称
|
||||||
|
- `user` — MySQL用户名
|
||||||
|
- `password` — MySQL用户密码
|
||||||
|
|
||||||
|
**引擎配置**
|
||||||
|
|
||||||
|
- `max_rows_in_buffer` — 允许数据缓存到内存中的最大行数(对于单个表和无法查询的缓存数据)。当超过行数时,数据将被物化。默认值: `65505`。
|
||||||
|
- `max_bytes_in_buffer` — 允许在内存中缓存数据的最大字节数(对于单个表和无法查询的缓存数据)。当超过行数时,数据将被物化。默认值: `1048576`.
|
||||||
|
- `max_rows_in_buffers` — 允许数据缓存到内存中的最大行数(对于数据库和无法查询的缓存数据)。当超过行数时,数据将被物化。默认值: `65505`.
|
||||||
|
- `max_bytes_in_buffers` — 允许在内存中缓存数据的最大字节数(对于数据库和无法查询的缓存数据)。当超过行数时,数据将被物化。默认值: `1048576`.
|
||||||
|
- `max_flush_data_time` — 允许数据在内存中缓存的最大毫秒数(对于数据库和无法查询的缓存数据)。当超过这个时间时,数据将被物化。默认值: `1000`.
|
||||||
|
- `max_wait_time_when_mysql_unavailable` — 当MySQL不可用时重试间隔(毫秒)。负值禁止重试。默认值: `1000`.
|
||||||
|
- `allows_query_when_mysql_lost` — 当mysql丢失时,允许查询物化表。默认值: `0` (`false`).
|
||||||
|
```
|
||||||
|
CREATE DATABASE mysql ENGINE = MaterializeMySQL('localhost:3306', 'db', 'user', '***')
|
||||||
|
SETTINGS
|
||||||
|
allows_query_when_mysql_lost=true,
|
||||||
|
max_wait_time_when_mysql_unavailable=10000;
|
||||||
|
```
|
||||||
|
|
||||||
|
**MySQL服务器端配置**
|
||||||
|
|
||||||
|
为了`MaterializeMySQL`正确的工作,有一些强制性的`MySQL`侧配置设置应该设置:
|
||||||
|
|
||||||
|
- `default_authentication_plugin = mysql_native_password`,因为`MaterializeMySQL`只能使用此方法授权。
|
||||||
|
- `gtid_mode = on`,因为要提供正确的`MaterializeMySQL`复制,基于GTID的日志记录是必须的。注意,在打开这个模式`On`时,你还应该指定`enforce_gtid_consistency = on`。
|
||||||
|
|
||||||
|
## 虚拟列 {#virtual-columns}
|
||||||
|
|
||||||
|
当使用`MaterializeMySQL`数据库引擎时,[ReplacingMergeTree](../../engines/table-engines/mergetree-family/replacingmergetree.md)表与虚拟的`_sign`和`_version`列一起使用。
|
||||||
|
|
||||||
|
- `_version` — 同步版本。 类型[UInt64](../../sql-reference/data-types/int-uint.md).
|
||||||
|
- `_sign` — 删除标记。类型 [Int8](../../sql-reference/data-types/int-uint.md). Possible values:
|
||||||
|
- `1` — 行不会删除,
|
||||||
|
- `-1` — 行被删除。
|
||||||
|
|
||||||
|
## 支持的数据类型 {#data_types-support}
|
||||||
|
|
||||||
|
| MySQL | ClickHouse |
|
||||||
|
|-------------------------|--------------------------------------------------------------|
|
||||||
|
| TINY | [Int8](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| SHORT | [Int16](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| INT24 | [Int32](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| LONG | [UInt32](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| LONGLONG | [UInt64](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| FLOAT | [Float32](../../sql-reference/data-types/float.md) |
|
||||||
|
| DOUBLE | [Float64](../../sql-reference/data-types/float.md) |
|
||||||
|
| DECIMAL, NEWDECIMAL | [Decimal](../../sql-reference/data-types/decimal.md) |
|
||||||
|
| DATE, NEWDATE | [Date](../../sql-reference/data-types/date.md) |
|
||||||
|
| DATETIME, TIMESTAMP | [DateTime](../../sql-reference/data-types/datetime.md) |
|
||||||
|
| DATETIME2, TIMESTAMP2 | [DateTime64](../../sql-reference/data-types/datetime64.md) |
|
||||||
|
| ENUM | [Enum](../../sql-reference/data-types/enum.md) |
|
||||||
|
| STRING | [String](../../sql-reference/data-types/string.md) |
|
||||||
|
| VARCHAR, VAR_STRING | [String](../../sql-reference/data-types/string.md) |
|
||||||
|
| BLOB | [String](../../sql-reference/data-types/string.md) |
|
||||||
|
| BINARY | [FixedString](../../sql-reference/data-types/fixedstring.md) |
|
||||||
|
|
||||||
|
不支持其他类型。如果MySQL表包含此类类型的列,ClickHouse抛出异常"Unhandled data type"并停止复制。
|
||||||
|
|
||||||
|
[Nullable](../../sql-reference/data-types/nullable.md)已经支持
|
||||||
|
|
||||||
|
## 使用方式 {#specifics-and-recommendations}
|
||||||
|
|
||||||
|
### 兼容性限制
|
||||||
|
|
||||||
|
除了数据类型的限制外,与`MySQL`数据库相比,还存在一些限制,在实现复制之前应先解决这些限制:
|
||||||
|
|
||||||
|
- `MySQL`中的每个表都应该包含`PRIMARY KEY`
|
||||||
|
|
||||||
|
- 对于包含`ENUM`字段值超出范围(在`ENUM`签名中指定)的行的表,复制将不起作用。
|
||||||
|
|
||||||
|
### DDL查询 {#ddl-queries}
|
||||||
|
|
||||||
|
MySQL DDL查询转换为相应的ClickHouse DDL查询([ALTER](../../sql-reference/statements/alter/index.md), [CREATE](../../sql-reference/statements/create/index.md), [DROP](../../sql-reference/statements/drop.md), [RENAME](../../sql-reference/statements/rename.md))。如果ClickHouse无法解析某个DDL查询,则该查询将被忽略。
|
||||||
|
|
||||||
|
### Data Replication {#data-replication}
|
||||||
|
|
||||||
|
`MaterializeMySQL`不支持直接`INSERT`, `DELETE`和`UPDATE`查询. 但是,它们是在数据复制方面支持的:
|
||||||
|
|
||||||
|
- MySQL的`INSERT`查询转换为`INSERT`并携带`_sign=1`.
|
||||||
|
|
||||||
|
- MySQL的`DELETE`查询转换为`INSERT`并携带`_sign=-1`.
|
||||||
|
|
||||||
|
- MySQL的`UPDATE`查询转换为`INSERT`并携带`_sign=-1`, `INSERT`和`_sign=1`.
|
||||||
|
|
||||||
|
### 查询MaterializeMySQL表 {#select}
|
||||||
|
|
||||||
|
`SELECT`查询`MaterializeMySQL`表有一些细节:
|
||||||
|
|
||||||
|
- 如果`_version`在`SELECT`中没有指定,则使用[FINAL](../../sql-reference/statements/select/from.md#select-from-final)修饰符。所以只有带有`MAX(_version)`的行才会被选中。
|
||||||
|
|
||||||
|
- 如果`_sign`在`SELECT`中没有指定,则默认使用`WHERE _sign=1`。因此,删除的行不会包含在结果集中。
|
||||||
|
|
||||||
|
- 结果包括列中的列注释,因为它们存在于SQL数据库表中。
|
||||||
|
|
||||||
|
### Index Conversion {#index-conversion}
|
||||||
|
|
||||||
|
MySQL的`PRIMARY KEY`和`INDEX`子句在ClickHouse表中转换为`ORDER BY`元组。
|
||||||
|
|
||||||
|
ClickHouse只有一个物理顺序,由`ORDER BY`子句决定。要创建一个新的物理顺序,使用[materialized views](../../sql-reference/statements/create/view.md#materialized)。
|
||||||
|
|
||||||
|
**Notes**
|
||||||
|
|
||||||
|
- 带有`_sign=-1`的行不会从表中物理删除。
|
||||||
|
- `MaterializeMySQL`引擎不支持级联`UPDATE/DELETE`查询。
|
||||||
|
- 复制很容易被破坏。
|
||||||
|
- 禁止对数据库和表进行手工操作。
|
||||||
|
- `MaterializeMySQL`受[optimize_on_insert](../../operations/settings/settings.md#optimize-on-insert)设置的影响。当MySQL服务器中的表发生变化时,数据会合并到`MaterializeMySQL`数据库中相应的表中。
|
||||||
|
|
||||||
|
## 使用示例 {#examples-of-use}
|
||||||
|
|
||||||
|
MySQL操作:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
mysql> CREATE DATABASE db;
|
||||||
|
mysql> CREATE TABLE db.test (a INT PRIMARY KEY, b INT);
|
||||||
|
mysql> INSERT INTO db.test VALUES (1, 11), (2, 22);
|
||||||
|
mysql> DELETE FROM db.test WHERE a=1;
|
||||||
|
mysql> ALTER TABLE db.test ADD COLUMN c VARCHAR(16);
|
||||||
|
mysql> UPDATE db.test SET c='Wow!', b=222;
|
||||||
|
mysql> SELECT * FROM test;
|
||||||
|
```
|
||||||
|
|
||||||
|
```text
|
||||||
|
+---+------+------+
|
||||||
|
| a | b | c |
|
||||||
|
+---+------+------+
|
||||||
|
| 2 | 222 | Wow! |
|
||||||
|
+---+------+------+
|
||||||
|
```
|
||||||
|
|
||||||
|
ClickHouse中的数据库,与MySQL服务器交换数据:
|
||||||
|
|
||||||
|
创建的数据库和表:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE mysql ENGINE = MaterializeMySQL('localhost:3306', 'db', 'user', '***');
|
||||||
|
SHOW TABLES FROM mysql;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─name─┐
|
||||||
|
│ test │
|
||||||
|
└──────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
然后插入数据:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM mysql.test;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─a─┬──b─┐
|
||||||
|
│ 1 │ 11 │
|
||||||
|
│ 2 │ 22 │
|
||||||
|
└───┴────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
删除数据后,添加列并更新:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM mysql.test;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─a─┬───b─┬─c────┐
|
||||||
|
│ 2 │ 222 │ Wow! │
|
||||||
|
└───┴─────┴──────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
[来源文章](https://clickhouse.tech/docs/en/engines/database-engines/materialize-mysql/) <!--hide-->
|
85
docs/zh/engines/database-engines/materialized-postgresql.md
Normal file
85
docs/zh/engines/database-engines/materialized-postgresql.md
Normal file
@ -0,0 +1,85 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 30
|
||||||
|
toc_title: MaterializedPostgreSQL
|
||||||
|
---
|
||||||
|
|
||||||
|
# [experimental] MaterializedPostgreSQL {#materialize-postgresql}
|
||||||
|
|
||||||
|
使用PostgreSQL数据库表的初始数据转储创建ClickHouse数据库,并启动复制过程,即执行后台作业,以便在远程PostgreSQL数据库中的PostgreSQL数据库表上发生新更改时应用这些更改。
|
||||||
|
|
||||||
|
ClickHouse服务器作为PostgreSQL副本工作。它读取WAL并执行DML查询。DDL不是复制的,但可以处理(如下所述)。
|
||||||
|
|
||||||
|
## 创建数据库 {#creating-a-database}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE [IF NOT EXISTS] db_name [ON CLUSTER cluster]
|
||||||
|
ENGINE = MaterializedPostgreSQL('host:port', ['database' | database], 'user', 'password') [SETTINGS ...]
|
||||||
|
```
|
||||||
|
|
||||||
|
**Engine参数**
|
||||||
|
|
||||||
|
- `host:port` — PostgreSQL服务地址
|
||||||
|
- `database` — PostgreSQL数据库名
|
||||||
|
- `user` — PostgreSQL用户名
|
||||||
|
- `password` — 用户密码
|
||||||
|
|
||||||
|
## 设置 {#settings}
|
||||||
|
|
||||||
|
- [materialized_postgresql_max_block_size](../../operations/settings/settings.md#materialized-postgresql-max-block-size)
|
||||||
|
|
||||||
|
- [materialized_postgresql_tables_list](../../operations/settings/settings.md#materialized-postgresql-tables-list)
|
||||||
|
|
||||||
|
- [materialized_postgresql_allow_automatic_update](../../operations/settings/settings.md#materialized-postgresql-allow-automatic-update)
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE database1
|
||||||
|
ENGINE = MaterializedPostgreSQL('postgres1:5432', 'postgres_database', 'postgres_user', 'postgres_password')
|
||||||
|
SETTINGS materialized_postgresql_max_block_size = 65536,
|
||||||
|
materialized_postgresql_tables_list = 'table1,table2,table3';
|
||||||
|
|
||||||
|
SELECT * FROM database1.table1;
|
||||||
|
```
|
||||||
|
|
||||||
|
## 必备条件 {#requirements}
|
||||||
|
|
||||||
|
- 在postgresql配置文件中将[wal_level](https://www.postgresql.org/docs/current/runtime-config-wal.html)设置为`logical`,将`max_replication_slots`设置为`2`。
|
||||||
|
|
||||||
|
- 每个复制表必须具有以下一个[replica identity](https://www.postgresql.org/docs/10/sql-altertable.html#SQL-CREATETABLE-REPLICA-IDENTITY):
|
||||||
|
|
||||||
|
1. **default** (主键)
|
||||||
|
|
||||||
|
2. **index**
|
||||||
|
|
||||||
|
``` bash
|
||||||
|
postgres# CREATE TABLE postgres_table (a Integer NOT NULL, b Integer, c Integer NOT NULL, d Integer, e Integer NOT NULL);
|
||||||
|
postgres# CREATE unique INDEX postgres_table_index on postgres_table(a, c, e);
|
||||||
|
postgres# ALTER TABLE postgres_table REPLICA IDENTITY USING INDEX postgres_table_index;
|
||||||
|
```
|
||||||
|
|
||||||
|
总是先检查主键。如果不存在,则检查索引(定义为副本标识索引)。
|
||||||
|
如果使用index作为副本标识,则表中必须只有一个这样的索引。
|
||||||
|
你可以用下面的命令来检查一个特定的表使用了什么类型:
|
||||||
|
|
||||||
|
``` bash
|
||||||
|
postgres# SELECT CASE relreplident
|
||||||
|
WHEN 'd' THEN 'default'
|
||||||
|
WHEN 'n' THEN 'nothing'
|
||||||
|
WHEN 'f' THEN 'full'
|
||||||
|
WHEN 'i' THEN 'index'
|
||||||
|
END AS replica_identity
|
||||||
|
FROM pg_class
|
||||||
|
WHERE oid = 'postgres_table'::regclass;
|
||||||
|
```
|
||||||
|
|
||||||
|
## 注意 {#warning}
|
||||||
|
|
||||||
|
1. [**TOAST**](https://www.postgresql.org/docs/9.5/storage-toast.html)不支持值转换。将使用数据类型的默认值。
|
||||||
|
|
||||||
|
## 使用示例 {#example-of-use}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE postgresql_db
|
||||||
|
ENGINE = MaterializedPostgreSQL('postgres1:5432', 'postgres_database', 'postgres_user', 'postgres_password');
|
||||||
|
|
||||||
|
SELECT * FROM postgresql_db.postgres_table;
|
||||||
|
```
|
@ -1,6 +1,11 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 30
|
||||||
|
toc_title: MySQL
|
||||||
|
---
|
||||||
|
|
||||||
# MySQL {#mysql}
|
# MySQL {#mysql}
|
||||||
|
|
||||||
MySQL引擎用于将远程的MySQL服务器中的表映射到ClickHouse中,并允许您对表进行`INSERT`和`SELECT`查询,以方便您在ClickHouse与MySQL之间进行数据交换。
|
MySQL引擎用于将远程的MySQL服务器中的表映射到ClickHouse中,并允许您对表进行`INSERT`和`SELECT`查询,以方便您在ClickHouse与MySQL之间进行数据交换
|
||||||
|
|
||||||
`MySQL`数据库引擎会将对其的查询转换为MySQL语法并发送到MySQL服务器中,因此您可以执行诸如`SHOW TABLES`或`SHOW CREATE TABLE`之类的操作。
|
`MySQL`数据库引擎会将对其的查询转换为MySQL语法并发送到MySQL服务器中,因此您可以执行诸如`SHOW TABLES`或`SHOW CREATE TABLE`之类的操作。
|
||||||
|
|
||||||
@ -10,24 +15,24 @@ MySQL引擎用于将远程的MySQL服务器中的表映射到ClickHouse中,并
|
|||||||
- `CREATE TABLE`
|
- `CREATE TABLE`
|
||||||
- `ALTER`
|
- `ALTER`
|
||||||
|
|
||||||
## CREATE DATABASE {#create-database}
|
## 创建数据库 {#creating-a-database}
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE DATABASE [IF NOT EXISTS] db_name [ON CLUSTER cluster]
|
CREATE DATABASE [IF NOT EXISTS] db_name [ON CLUSTER cluster]
|
||||||
ENGINE = MySQL('host:port', ['database' | database], 'user', 'password')
|
ENGINE = MySQL('host:port', ['database' | database], 'user', 'password')
|
||||||
```
|
```
|
||||||
|
|
||||||
**MySQL数据库引擎参数**
|
**引擎参数**
|
||||||
|
|
||||||
- `host:port` — 链接的MySQL地址。
|
- `host:port` — MySQL服务地址
|
||||||
- `database` — 链接的MySQL数据库。
|
- `database` — MySQL数据库名称
|
||||||
- `user` — 链接的MySQL用户。
|
- `user` — MySQL用户名
|
||||||
- `password` — 链接的MySQL用户密码。
|
- `password` — MySQL用户密码
|
||||||
|
|
||||||
## 支持的类型对应 {#zhi-chi-de-lei-xing-dui-ying}
|
## 支持的数据类型 {#data_types-support}
|
||||||
|
|
||||||
| MySQL | ClickHouse |
|
| MySQL | ClickHouse |
|
||||||
|----------------------------------|-------------------------------------------------------------|
|
|----------------------------------|--------------------------------------------------------------|
|
||||||
| UNSIGNED TINYINT | [UInt8](../../sql-reference/data-types/int-uint.md) |
|
| UNSIGNED TINYINT | [UInt8](../../sql-reference/data-types/int-uint.md) |
|
||||||
| TINYINT | [Int8](../../sql-reference/data-types/int-uint.md) |
|
| TINYINT | [Int8](../../sql-reference/data-types/int-uint.md) |
|
||||||
| UNSIGNED SMALLINT | [UInt16](../../sql-reference/data-types/int-uint.md) |
|
| UNSIGNED SMALLINT | [UInt16](../../sql-reference/data-types/int-uint.md) |
|
||||||
@ -42,14 +47,32 @@ ENGINE = MySQL('host:port', ['database' | database], 'user', 'password')
|
|||||||
| DATETIME, TIMESTAMP | [DateTime](../../sql-reference/data-types/datetime.md) |
|
| DATETIME, TIMESTAMP | [DateTime](../../sql-reference/data-types/datetime.md) |
|
||||||
| BINARY | [FixedString](../../sql-reference/data-types/fixedstring.md) |
|
| BINARY | [FixedString](../../sql-reference/data-types/fixedstring.md) |
|
||||||
|
|
||||||
其他的MySQL数据类型将全部都转换为[String](../../sql-reference/data-types/string.md)。
|
其他的MySQL数据类型将全部都转换为[String](../../sql-reference/data-types/string.md).
|
||||||
|
|
||||||
同时以上的所有类型都支持[Nullable](../../sql-reference/data-types/nullable.md)。
|
[Nullable](../../sql-reference/data-types/nullable.md)已经支持
|
||||||
|
|
||||||
## 使用示例 {#shi-yong-shi-li}
|
## 全局变量支持 {#global-variables-support}
|
||||||
|
|
||||||
在MySQL中创建表:
|
为了更好地兼容,您可以在SQL样式中设置全局变量,如`@@identifier`.
|
||||||
|
|
||||||
|
支持这些变量:
|
||||||
|
- `version`
|
||||||
|
- `max_allowed_packet`
|
||||||
|
|
||||||
|
!!! warning "警告"
|
||||||
|
到目前为止,这些变量是存根,并且不对应任何内容。
|
||||||
|
|
||||||
|
示例:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT @@version;
|
||||||
|
```
|
||||||
|
|
||||||
|
## 使用示例 {#examples-of-use}
|
||||||
|
|
||||||
|
MySQL操作:
|
||||||
|
|
||||||
|
``` text
|
||||||
mysql> USE test;
|
mysql> USE test;
|
||||||
Database changed
|
Database changed
|
||||||
|
|
||||||
@ -63,14 +86,15 @@ ENGINE = MySQL('host:port', ['database' | database], 'user', 'password')
|
|||||||
Query OK, 1 row affected (0,00 sec)
|
Query OK, 1 row affected (0,00 sec)
|
||||||
|
|
||||||
mysql> select * from mysql_table;
|
mysql> select * from mysql_table;
|
||||||
+--------+-------+
|
+------+-----+
|
||||||
| int_id | value |
|
| int_id | value |
|
||||||
+--------+-------+
|
+------+-----+
|
||||||
| 1 | 2 |
|
| 1 | 2 |
|
||||||
+--------+-------+
|
+------+-----+
|
||||||
1 row in set (0,00 sec)
|
1 row in set (0,00 sec)
|
||||||
|
```
|
||||||
|
|
||||||
在ClickHouse中创建MySQL类型的数据库,同时与MySQL服务器交换数据:
|
ClickHouse中的数据库,与MySQL服务器交换数据:
|
||||||
|
|
||||||
``` sql
|
``` sql
|
||||||
CREATE DATABASE mysql_db ENGINE = MySQL('localhost:3306', 'test', 'my_user', 'user_password')
|
CREATE DATABASE mysql_db ENGINE = MySQL('localhost:3306', 'test', 'my_user', 'user_password')
|
||||||
|
138
docs/zh/engines/database-engines/postgresql.md
Normal file
138
docs/zh/engines/database-engines/postgresql.md
Normal file
@ -0,0 +1,138 @@
|
|||||||
|
---
|
||||||
|
toc_priority: 35
|
||||||
|
toc_title: PostgreSQL
|
||||||
|
---
|
||||||
|
|
||||||
|
# PostgreSQL {#postgresql}
|
||||||
|
|
||||||
|
允许连接到远程[PostgreSQL](https://www.postgresql.org)服务。支持读写操作(`SELECT`和`INSERT`查询),以在ClickHouse和PostgreSQL之间交换数据。
|
||||||
|
|
||||||
|
在`SHOW TABLES`和`DESCRIBE TABLE`查询的帮助下,从远程PostgreSQL实时访问表列表和表结构。
|
||||||
|
|
||||||
|
支持表结构修改(`ALTER TABLE ... ADD|DROP COLUMN`)。如果`use_table_cache`参数(参见下面的引擎参数)设置为`1`,则会缓存表结构,不会检查是否被修改,但可以用`DETACH`和`ATTACH`查询进行更新。
|
||||||
|
|
||||||
|
## 创建数据库 {#creating-a-database}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE test_database
|
||||||
|
ENGINE = PostgreSQL('host:port', 'database', 'user', 'password'[, `use_table_cache`]);
|
||||||
|
```
|
||||||
|
|
||||||
|
**引擎参数**
|
||||||
|
|
||||||
|
- `host:port` — PostgreSQL服务地址
|
||||||
|
- `database` — 远程数据库名次
|
||||||
|
- `user` — PostgreSQL用户名称
|
||||||
|
- `password` — PostgreSQL用户密码
|
||||||
|
- `use_table_cache` — 定义数据库表结构是否已缓存或不进行。可选的。默认值: `0`.
|
||||||
|
|
||||||
|
## 支持的数据类型 {#data_types-support}
|
||||||
|
|
||||||
|
| PostgerSQL | ClickHouse |
|
||||||
|
|------------------|--------------------------------------------------------------|
|
||||||
|
| DATE | [Date](../../sql-reference/data-types/date.md) |
|
||||||
|
| TIMESTAMP | [DateTime](../../sql-reference/data-types/datetime.md) |
|
||||||
|
| REAL | [Float32](../../sql-reference/data-types/float.md) |
|
||||||
|
| DOUBLE | [Float64](../../sql-reference/data-types/float.md) |
|
||||||
|
| DECIMAL, NUMERIC | [Decimal](../../sql-reference/data-types/decimal.md) |
|
||||||
|
| SMALLINT | [Int16](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| INTEGER | [Int32](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| BIGINT | [Int64](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| SERIAL | [UInt32](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| BIGSERIAL | [UInt64](../../sql-reference/data-types/int-uint.md) |
|
||||||
|
| TEXT, CHAR | [String](../../sql-reference/data-types/string.md) |
|
||||||
|
| INTEGER | Nullable([Int32](../../sql-reference/data-types/int-uint.md))|
|
||||||
|
| ARRAY | [Array](../../sql-reference/data-types/array.md) |
|
||||||
|
|
||||||
|
|
||||||
|
## 使用示例 {#examples-of-use}
|
||||||
|
|
||||||
|
ClickHouse中的数据库,与PostgreSQL服务器交换数据:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE test_database
|
||||||
|
ENGINE = PostgreSQL('postgres1:5432', 'test_database', 'postgres', 'mysecretpassword', 1);
|
||||||
|
```
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SHOW DATABASES;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─name──────────┐
|
||||||
|
│ default │
|
||||||
|
│ test_database │
|
||||||
|
│ system │
|
||||||
|
└───────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SHOW TABLES FROM test_database;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─name───────┐
|
||||||
|
│ test_table │
|
||||||
|
└────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
从PostgreSQL表中读取数据:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT * FROM test_database.test_table;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─id─┬─value─┐
|
||||||
|
│ 1 │ 2 │
|
||||||
|
└────┴───────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
将数据写入PostgreSQL表:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
INSERT INTO test_database.test_table VALUES (3,4);
|
||||||
|
SELECT * FROM test_database.test_table;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─int_id─┬─value─┐
|
||||||
|
│ 1 │ 2 │
|
||||||
|
│ 3 │ 4 │
|
||||||
|
└────────┴───────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
在PostgreSQL中修改了表结构:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
postgre> ALTER TABLE test_table ADD COLUMN data Text
|
||||||
|
```
|
||||||
|
|
||||||
|
当创建数据库时,参数`use_table_cache`被设置为`1`,ClickHouse中的表结构被缓存,因此没有被修改:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
DESCRIBE TABLE test_database.test_table;
|
||||||
|
```
|
||||||
|
``` text
|
||||||
|
┌─name───┬─type──────────────┐
|
||||||
|
│ id │ Nullable(Integer) │
|
||||||
|
│ value │ Nullable(Integer) │
|
||||||
|
└────────┴───────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
分离表并再次附加它之后,结构被更新了:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
DETACH TABLE test_database.test_table;
|
||||||
|
ATTACH TABLE test_database.test_table;
|
||||||
|
DESCRIBE TABLE test_database.test_table;
|
||||||
|
```
|
||||||
|
``` text
|
||||||
|
┌─name───┬─type──────────────┐
|
||||||
|
│ id │ Nullable(Integer) │
|
||||||
|
│ value │ Nullable(Integer) │
|
||||||
|
│ data │ Nullable(String) │
|
||||||
|
└────────┴───────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
[来源文章](https://clickhouse.tech/docs/en/database-engines/postgresql/) <!--hide-->
|
116
docs/zh/engines/database-engines/replicated.md
Normal file
116
docs/zh/engines/database-engines/replicated.md
Normal file
@ -0,0 +1,116 @@
|
|||||||
|
# [experimental] Replicated {#replicated}
|
||||||
|
|
||||||
|
该引擎基于[Atomic](../../engines/database-engines/atomic.md)引擎。它支持通过将DDL日志写入ZooKeeper并在给定数据库的所有副本上执行的元数据复制。
|
||||||
|
|
||||||
|
一个ClickHouse服务器可以同时运行和更新多个复制的数据库。但是同一个复制的数据库不能有多个副本。
|
||||||
|
|
||||||
|
## 创建数据库 {#creating-a-database}
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE DATABASE testdb ENGINE = Replicated('zoo_path', 'shard_name', 'replica_name') [SETTINGS ...]
|
||||||
|
```
|
||||||
|
|
||||||
|
**引擎参数**
|
||||||
|
|
||||||
|
- `zoo_path` — ZooKeeper地址,同一个ZooKeeper路径对应同一个数据库。
|
||||||
|
- `shard_name` — 分片的名字。数据库副本按`shard_name`分组到分片中。
|
||||||
|
- `replica_name` — 副本的名字。同一分片的所有副本的副本名称必须不同。
|
||||||
|
|
||||||
|
!!! note "警告"
|
||||||
|
对于[ReplicatedMergeTree](../table-engines/mergetree-family/replication.md#table_engines-replication)表,如果没有提供参数,则使用默认参数:`/clickhouse/tables/{uuid}/{shard}`和`{replica}`。这些可以在服务器设置[default_replica_path](../../operations/server-configuration-parameters/settings.md#default_replica_path)和[default_replica_name](../../operations/server-configuration-parameters/settings.md#default_replica_name)中更改。宏`{uuid}`被展开到表的uuid, `{shard}`和`{replica}`被展开到服务器配置的值,而不是数据库引擎参数。但是在将来,可以使用Replicated数据库的`shard_name`和`replica_name`。
|
||||||
|
|
||||||
|
## 使用方式 {#specifics-and-recommendations}
|
||||||
|
|
||||||
|
使用`Replicated`数据库的DDL查询的工作方式类似于[ON CLUSTER](../../sql-reference/distributed-ddl.md)查询,但有细微差异。
|
||||||
|
|
||||||
|
首先,DDL请求尝试在启动器(最初从用户接收请求的主机)上执行。如果请求没有完成,那么用户立即收到一个错误,其他主机不会尝试完成它。如果在启动器上成功地完成了请求,那么所有其他主机将自动重试,直到完成请求。启动器将尝试在其他主机上等待查询完成(不超过[distributed_ddl_task_timeout](../../operations/settings/settings.md#distributed_ddl_task_timeout)),并返回一个包含每个主机上查询执行状态的表。
|
||||||
|
|
||||||
|
错误情况下的行为是由[distributed_ddl_output_mode](../../operations/settings/settings.md#distributed_ddl_output_mode)设置调节的,对于`Replicated`数据库,最好将其设置为`null_status_on_timeout` - 例如,如果一些主机没有时间执行[distributed_ddl_task_timeout](../../operations/settings/settings.md#distributed_ddl_task_timeout)的请求,那么不要抛出异常,但在表中显示它们的`NULL`状态。
|
||||||
|
|
||||||
|
[system.clusters](../../operations/system-tables/clusters.md)系统表包含一个名为复制数据库的集群,它包含数据库的所有副本。当创建/删除副本时,这个集群会自动更新,它可以用于[Distributed](../../engines/table-engines/special/distributed.md#distributed)表。
|
||||||
|
|
||||||
|
当创建数据库的新副本时,该副本会自己创建表。如果副本已经不可用很长一段时间,并且已经滞后于复制日志-它用ZooKeeper中的当前元数据检查它的本地元数据,将带有数据的额外表移动到一个单独的非复制数据库(以免意外地删除任何多余的东西),创建缺失的表,如果表名已经被重命名,则更新表名。数据在`ReplicatedMergeTree`级别被复制,也就是说,如果表没有被复制,数据将不会被复制(数据库只负责元数据)。
|
||||||
|
|
||||||
|
## 使用示例 {#usage-example}
|
||||||
|
|
||||||
|
创建三台主机的集群:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
node1 :) CREATE DATABASE r ENGINE=Replicated('some/path/r','shard1','replica1');
|
||||||
|
node2 :) CREATE DATABASE r ENGINE=Replicated('some/path/r','shard1','other_replica');
|
||||||
|
node3 :) CREATE DATABASE r ENGINE=Replicated('some/path/r','other_shard','{replica}');
|
||||||
|
```
|
||||||
|
|
||||||
|
运行DDL:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
CREATE TABLE r.rmt (n UInt64) ENGINE=ReplicatedMergeTree ORDER BY n;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─────hosts────────────┬──status─┬─error─┬─num_hosts_remaining─┬─num_hosts_active─┐
|
||||||
|
│ shard1|replica1 │ 0 │ │ 2 │ 0 │
|
||||||
|
│ shard1|other_replica │ 0 │ │ 1 │ 0 │
|
||||||
|
│ other_shard|r1 │ 0 │ │ 0 │ 0 │
|
||||||
|
└──────────────────────┴─────────┴───────┴─────────────────────┴──────────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
显示系统表:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
SELECT cluster, shard_num, replica_num, host_name, host_address, port, is_local
|
||||||
|
FROM system.clusters WHERE cluster='r';
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─cluster─┬─shard_num─┬─replica_num─┬─host_name─┬─host_address─┬─port─┬─is_local─┐
|
||||||
|
│ r │ 1 │ 1 │ node3 │ 127.0.0.1 │ 9002 │ 0 │
|
||||||
|
│ r │ 2 │ 1 │ node2 │ 127.0.0.1 │ 9001 │ 0 │
|
||||||
|
│ r │ 2 │ 2 │ node1 │ 127.0.0.1 │ 9000 │ 1 │
|
||||||
|
└─────────┴───────────┴─────────────┴───────────┴──────────────┴──────┴──────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
创建分布式表并插入数据:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
node2 :) CREATE TABLE r.d (n UInt64) ENGINE=Distributed('r','r','rmt', n % 2);
|
||||||
|
node3 :) INSERT INTO r SELECT * FROM numbers(10);
|
||||||
|
node1 :) SELECT materialize(hostName()) AS host, groupArray(n) FROM r.d GROUP BY host;
|
||||||
|
```
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─hosts─┬─groupArray(n)─┐
|
||||||
|
│ node1 │ [1,3,5,7,9] │
|
||||||
|
│ node2 │ [0,2,4,6,8] │
|
||||||
|
└───────┴───────────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
向一台主机添加副本:
|
||||||
|
|
||||||
|
``` sql
|
||||||
|
node4 :) CREATE DATABASE r ENGINE=Replicated('some/path/r','other_shard','r2');
|
||||||
|
```
|
||||||
|
|
||||||
|
集群配置如下所示:
|
||||||
|
|
||||||
|
``` text
|
||||||
|
┌─cluster─┬─shard_num─┬─replica_num─┬─host_name─┬─host_address─┬─port─┬─is_local─┐
|
||||||
|
│ r │ 1 │ 1 │ node3 │ 127.0.0.1 │ 9002 │ 0 │
|
||||||
|
│ r │ 1 │ 2 │ node4 │ 127.0.0.1 │ 9003 │ 0 │
|
||||||
|
│ r │ 2 │ 1 │ node2 │ 127.0.0.1 │ 9001 │ 0 │
|
||||||
|
│ r │ 2 │ 2 │ node1 │ 127.0.0.1 │ 9000 │ 1 │
|
||||||
|
└─────────┴───────────┴─────────────┴───────────┴──────────────┴──────┴──────────┘
|
||||||
|
```
|
||||||
|
|
||||||
|
分布式表也将从新主机获取数据:
|
||||||
|
|
||||||
|
```sql
|
||||||
|
node2 :) SELECT materialize(hostName()) AS host, groupArray(n) FROM r.d GROUP BY host;
|
||||||
|
```
|
||||||
|
|
||||||
|
```text
|
||||||
|
┌─hosts─┬─groupArray(n)─┐
|
||||||
|
│ node2 │ [1,3,5,7,9] │
|
||||||
|
│ node4 │ [0,2,4,6,8] │
|
||||||
|
└───────┴───────────────┘
|
||||||
|
```
|
@ -103,19 +103,55 @@ $ clickhouse-client --query "INSERT INTO lineorder FORMAT CSV" < lineorder.tbl
|
|||||||
将`star schema`转换为`flat schema`:
|
将`star schema`转换为`flat schema`:
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SET max_memory_usage = 20000000000, allow_experimental_multiple_joins_emulation = 1;
|
SET max_memory_usage = 20000000000;
|
||||||
|
|
||||||
CREATE TABLE lineorder_flat
|
CREATE TABLE lineorder_flat
|
||||||
ENGINE = MergeTree
|
ENGINE = MergeTree
|
||||||
PARTITION BY toYear(LO_ORDERDATE)
|
PARTITION BY toYear(LO_ORDERDATE)
|
||||||
ORDER BY (LO_ORDERDATE, LO_ORDERKEY) AS
|
ORDER BY (LO_ORDERDATE, LO_ORDERKEY) AS
|
||||||
SELECT l.*, c.*, s.*, p.*
|
SELECT
|
||||||
FROM lineorder l
|
l.LO_ORDERKEY AS LO_ORDERKEY,
|
||||||
ANY INNER JOIN customer c ON (c.C_CUSTKEY = l.LO_CUSTKEY)
|
l.LO_LINENUMBER AS LO_LINENUMBER,
|
||||||
ANY INNER JOIN supplier s ON (s.S_SUPPKEY = l.LO_SUPPKEY)
|
l.LO_CUSTKEY AS LO_CUSTKEY,
|
||||||
ANY INNER JOIN part p ON (p.P_PARTKEY = l.LO_PARTKEY);
|
l.LO_PARTKEY AS LO_PARTKEY,
|
||||||
|
l.LO_SUPPKEY AS LO_SUPPKEY,
|
||||||
ALTER TABLE lineorder_flat DROP COLUMN C_CUSTKEY, DROP COLUMN S_SUPPKEY, DROP COLUMN P_PARTKEY;
|
l.LO_ORDERDATE AS LO_ORDERDATE,
|
||||||
|
l.LO_ORDERPRIORITY AS LO_ORDERPRIORITY,
|
||||||
|
l.LO_SHIPPRIORITY AS LO_SHIPPRIORITY,
|
||||||
|
l.LO_QUANTITY AS LO_QUANTITY,
|
||||||
|
l.LO_EXTENDEDPRICE AS LO_EXTENDEDPRICE,
|
||||||
|
l.LO_ORDTOTALPRICE AS LO_ORDTOTALPRICE,
|
||||||
|
l.LO_DISCOUNT AS LO_DISCOUNT,
|
||||||
|
l.LO_REVENUE AS LO_REVENUE,
|
||||||
|
l.LO_SUPPLYCOST AS LO_SUPPLYCOST,
|
||||||
|
l.LO_TAX AS LO_TAX,
|
||||||
|
l.LO_COMMITDATE AS LO_COMMITDATE,
|
||||||
|
l.LO_SHIPMODE AS LO_SHIPMODE,
|
||||||
|
c.C_NAME AS C_NAME,
|
||||||
|
c.C_ADDRESS AS C_ADDRESS,
|
||||||
|
c.C_CITY AS C_CITY,
|
||||||
|
c.C_NATION AS C_NATION,
|
||||||
|
c.C_REGION AS C_REGION,
|
||||||
|
c.C_PHONE AS C_PHONE,
|
||||||
|
c.C_MKTSEGMENT AS C_MKTSEGMENT,
|
||||||
|
s.S_NAME AS S_NAME,
|
||||||
|
s.S_ADDRESS AS S_ADDRESS,
|
||||||
|
s.S_CITY AS S_CITY,
|
||||||
|
s.S_NATION AS S_NATION,
|
||||||
|
s.S_REGION AS S_REGION,
|
||||||
|
s.S_PHONE AS S_PHONE,
|
||||||
|
p.P_NAME AS P_NAME,
|
||||||
|
p.P_MFGR AS P_MFGR,
|
||||||
|
p.P_CATEGORY AS P_CATEGORY,
|
||||||
|
p.P_BRAND AS P_BRAND,
|
||||||
|
p.P_COLOR AS P_COLOR,
|
||||||
|
p.P_TYPE AS P_TYPE,
|
||||||
|
p.P_SIZE AS P_SIZE,
|
||||||
|
p.P_CONTAINER AS P_CONTAINER
|
||||||
|
FROM lineorder AS l
|
||||||
|
INNER JOIN customer AS c ON c.C_CUSTKEY = l.LO_CUSTKEY
|
||||||
|
INNER JOIN supplier AS s ON s.S_SUPPKEY = l.LO_SUPPKEY
|
||||||
|
INNER JOIN part AS p ON p.P_PARTKEY = l.LO_PARTKEY;
|
||||||
```
|
```
|
||||||
|
|
||||||
运行查询:
|
运行查询:
|
||||||
@ -123,79 +159,210 @@ ALTER TABLE lineorder_flat DROP COLUMN C_CUSTKEY, DROP COLUMN S_SUPPKEY, DROP CO
|
|||||||
Q1.1
|
Q1.1
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT sum(LO_EXTENDEDPRICE * LO_DISCOUNT) AS revenue FROM lineorder_flat WHERE toYear(LO_ORDERDATE) = 1993 AND LO_DISCOUNT BETWEEN 1 AND 3 AND LO_QUANTITY < 25;
|
SELECT sum(LO_EXTENDEDPRICE * LO_DISCOUNT) AS revenue
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE toYear(LO_ORDERDATE) = 1993 AND LO_DISCOUNT BETWEEN 1 AND 3 AND LO_QUANTITY < 25;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q1.2
|
Q1.2
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT sum(LO_EXTENDEDPRICE * LO_DISCOUNT) AS revenue FROM lineorder_flat WHERE toYYYYMM(LO_ORDERDATE) = 199401 AND LO_DISCOUNT BETWEEN 4 AND 6 AND LO_QUANTITY BETWEEN 26 AND 35;
|
SELECT sum(LO_EXTENDEDPRICE * LO_DISCOUNT) AS revenue
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE toYYYYMM(LO_ORDERDATE) = 199401 AND LO_DISCOUNT BETWEEN 4 AND 6 AND LO_QUANTITY BETWEEN 26 AND 35;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q1.3
|
Q1.3
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT sum(LO_EXTENDEDPRICE * LO_DISCOUNT) AS revenue FROM lineorder_flat WHERE toISOWeek(LO_ORDERDATE) = 6 AND toYear(LO_ORDERDATE) = 1994 AND LO_DISCOUNT BETWEEN 5 AND 7 AND LO_QUANTITY BETWEEN 26 AND 35;
|
SELECT sum(LO_EXTENDEDPRICE * LO_DISCOUNT) AS revenue
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE toISOWeek(LO_ORDERDATE) = 6 AND toYear(LO_ORDERDATE) = 1994
|
||||||
|
AND LO_DISCOUNT BETWEEN 5 AND 7 AND LO_QUANTITY BETWEEN 26 AND 35;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q2.1
|
Q2.1
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT sum(LO_REVENUE), toYear(LO_ORDERDATE) AS year, P_BRAND FROM lineorder_flat WHERE P_CATEGORY = 'MFGR#12' AND S_REGION = 'AMERICA' GROUP BY year, P_BRAND ORDER BY year, P_BRAND;
|
SELECT
|
||||||
|
sum(LO_REVENUE),
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
P_BRAND
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE P_CATEGORY = 'MFGR#12' AND S_REGION = 'AMERICA'
|
||||||
|
GROUP BY
|
||||||
|
year,
|
||||||
|
P_BRAND
|
||||||
|
ORDER BY
|
||||||
|
year,
|
||||||
|
P_BRAND;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q2.2
|
Q2.2
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT sum(LO_REVENUE), toYear(LO_ORDERDATE) AS year, P_BRAND FROM lineorder_flat WHERE P_BRAND BETWEEN 'MFGR#2221' AND 'MFGR#2228' AND S_REGION = 'ASIA' GROUP BY year, P_BRAND ORDER BY year, P_BRAND;
|
SELECT
|
||||||
|
sum(LO_REVENUE),
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
P_BRAND
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE P_BRAND >= 'MFGR#2221' AND P_BRAND <= 'MFGR#2228' AND S_REGION = 'ASIA'
|
||||||
|
GROUP BY
|
||||||
|
year,
|
||||||
|
P_BRAND
|
||||||
|
ORDER BY
|
||||||
|
year,
|
||||||
|
P_BRAND;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q2.3
|
Q2.3
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT sum(LO_REVENUE), toYear(LO_ORDERDATE) AS year, P_BRAND FROM lineorder_flat WHERE P_BRAND = 'MFGR#2239' AND S_REGION = 'EUROPE' GROUP BY year, P_BRAND ORDER BY year, P_BRAND;
|
SELECT
|
||||||
|
sum(LO_REVENUE),
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
P_BRAND
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE P_BRAND = 'MFGR#2239' AND S_REGION = 'EUROPE'
|
||||||
|
GROUP BY
|
||||||
|
year,
|
||||||
|
P_BRAND
|
||||||
|
ORDER BY
|
||||||
|
year,
|
||||||
|
P_BRAND;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q3.1
|
Q3.1
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT C_NATION, S_NATION, toYear(LO_ORDERDATE) AS year, sum(LO_REVENUE) AS revenue FROM lineorder_flat WHERE C_REGION = 'ASIA' AND S_REGION = 'ASIA' AND year >= 1992 AND year <= 1997 GROUP BY C_NATION, S_NATION, year ORDER BY year asc, revenue desc;
|
SELECT
|
||||||
|
C_NATION,
|
||||||
|
S_NATION,
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
sum(LO_REVENUE) AS revenue
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE C_REGION = 'ASIA' AND S_REGION = 'ASIA' AND year >= 1992 AND year <= 1997
|
||||||
|
GROUP BY
|
||||||
|
C_NATION,
|
||||||
|
S_NATION,
|
||||||
|
year
|
||||||
|
ORDER BY
|
||||||
|
year ASC,
|
||||||
|
revenue DESC;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q3.2
|
Q3.2
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT C_CITY, S_CITY, toYear(LO_ORDERDATE) AS year, sum(LO_REVENUE) AS revenue FROM lineorder_flat WHERE C_NATION = 'UNITED STATES' AND S_NATION = 'UNITED STATES' AND year >= 1992 AND year <= 1997 GROUP BY C_CITY, S_CITY, year ORDER BY year asc, revenue desc;
|
SELECT
|
||||||
|
C_CITY,
|
||||||
|
S_CITY,
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
sum(LO_REVENUE) AS revenue
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE C_NATION = 'UNITED STATES' AND S_NATION = 'UNITED STATES' AND year >= 1992 AND year <= 1997
|
||||||
|
GROUP BY
|
||||||
|
C_CITY,
|
||||||
|
S_CITY,
|
||||||
|
year
|
||||||
|
ORDER BY
|
||||||
|
year ASC,
|
||||||
|
revenue DESC;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q3.3
|
Q3.3
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT C_CITY, S_CITY, toYear(LO_ORDERDATE) AS year, sum(LO_REVENUE) AS revenue FROM lineorder_flat WHERE (C_CITY = 'UNITED KI1' OR C_CITY = 'UNITED KI5') AND (S_CITY = 'UNITED KI1' OR S_CITY = 'UNITED KI5') AND year >= 1992 AND year <= 1997 GROUP BY C_CITY, S_CITY, year ORDER BY year asc, revenue desc;
|
SELECT
|
||||||
|
C_CITY,
|
||||||
|
S_CITY,
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
sum(LO_REVENUE) AS revenue
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE (C_CITY = 'UNITED KI1' OR C_CITY = 'UNITED KI5') AND (S_CITY = 'UNITED KI1' OR S_CITY = 'UNITED KI5') AND year >= 1992 AND year <= 1997
|
||||||
|
GROUP BY
|
||||||
|
C_CITY,
|
||||||
|
S_CITY,
|
||||||
|
year
|
||||||
|
ORDER BY
|
||||||
|
year ASC,
|
||||||
|
revenue DESC;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q3.4
|
Q3.4
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT C_CITY, S_CITY, toYear(LO_ORDERDATE) AS year, sum(LO_REVENUE) AS revenue FROM lineorder_flat WHERE (C_CITY = 'UNITED KI1' OR C_CITY = 'UNITED KI5') AND (S_CITY = 'UNITED KI1' OR S_CITY = 'UNITED KI5') AND toYYYYMM(LO_ORDERDATE) = '199712' GROUP BY C_CITY, S_CITY, year ORDER BY year asc, revenue desc;
|
SELECT
|
||||||
|
C_CITY,
|
||||||
|
S_CITY,
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
sum(LO_REVENUE) AS revenue
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE (C_CITY = 'UNITED KI1' OR C_CITY = 'UNITED KI5') AND (S_CITY = 'UNITED KI1' OR S_CITY = 'UNITED KI5') AND toYYYYMM(LO_ORDERDATE) = 199712
|
||||||
|
GROUP BY
|
||||||
|
C_CITY,
|
||||||
|
S_CITY,
|
||||||
|
year
|
||||||
|
ORDER BY
|
||||||
|
year ASC,
|
||||||
|
revenue DESC;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q4.1
|
Q4.1
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT toYear(LO_ORDERDATE) AS year, C_NATION, sum(LO_REVENUE - LO_SUPPLYCOST) AS profit FROM lineorder_flat WHERE C_REGION = 'AMERICA' AND S_REGION = 'AMERICA' AND (P_MFGR = 'MFGR#1' OR P_MFGR = 'MFGR#2') GROUP BY year, C_NATION ORDER BY year, C_NATION;
|
SELECT
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
C_NATION,
|
||||||
|
sum(LO_REVENUE - LO_SUPPLYCOST) AS profit
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE C_REGION = 'AMERICA' AND S_REGION = 'AMERICA' AND (P_MFGR = 'MFGR#1' OR P_MFGR = 'MFGR#2')
|
||||||
|
GROUP BY
|
||||||
|
year,
|
||||||
|
C_NATION
|
||||||
|
ORDER BY
|
||||||
|
year ASC,
|
||||||
|
C_NATION ASC;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q4.2
|
Q4.2
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT toYear(LO_ORDERDATE) AS year, S_NATION, P_CATEGORY, sum(LO_REVENUE - LO_SUPPLYCOST) AS profit FROM lineorder_flat WHERE C_REGION = 'AMERICA' AND S_REGION = 'AMERICA' AND (year = 1997 OR year = 1998) AND (P_MFGR = 'MFGR#1' OR P_MFGR = 'MFGR#2') GROUP BY year, S_NATION, P_CATEGORY ORDER BY year, S_NATION, P_CATEGORY;
|
SELECT
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
S_NATION,
|
||||||
|
P_CATEGORY,
|
||||||
|
sum(LO_REVENUE - LO_SUPPLYCOST) AS profit
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE C_REGION = 'AMERICA' AND S_REGION = 'AMERICA' AND (year = 1997 OR year = 1998) AND (P_MFGR = 'MFGR#1' OR P_MFGR = 'MFGR#2')
|
||||||
|
GROUP BY
|
||||||
|
year,
|
||||||
|
S_NATION,
|
||||||
|
P_CATEGORY
|
||||||
|
ORDER BY
|
||||||
|
year ASC,
|
||||||
|
S_NATION ASC,
|
||||||
|
P_CATEGORY ASC;
|
||||||
```
|
```
|
||||||
|
|
||||||
Q4.3
|
Q4.3
|
||||||
|
|
||||||
```sql
|
```sql
|
||||||
SELECT toYear(LO_ORDERDATE) AS year, S_CITY, P_BRAND, sum(LO_REVENUE - LO_SUPPLYCOST) AS profit FROM lineorder_flat WHERE S_NATION = 'UNITED STATES' AND (year = 1997 OR year = 1998) AND P_CATEGORY = 'MFGR#14' GROUP BY year, S_CITY, P_BRAND ORDER BY year, S_CITY, P_BRAND;
|
SELECT
|
||||||
|
toYear(LO_ORDERDATE) AS year,
|
||||||
|
S_CITY,
|
||||||
|
P_BRAND,
|
||||||
|
sum(LO_REVENUE - LO_SUPPLYCOST) AS profit
|
||||||
|
FROM lineorder_flat
|
||||||
|
WHERE S_NATION = 'UNITED STATES' AND (year = 1997 OR year = 1998) AND P_CATEGORY = 'MFGR#14'
|
||||||
|
GROUP BY
|
||||||
|
year,
|
||||||
|
S_CITY,
|
||||||
|
P_BRAND
|
||||||
|
ORDER BY
|
||||||
|
year ASC,
|
||||||
|
S_CITY ASC,
|
||||||
|
P_BRAND ASC;
|
||||||
```
|
```
|
||||||
|
|
||||||
[原始文章](https://clickhouse.tech/docs/en/getting_started/example_datasets/star_schema/) <!--hide-->
|
[原始文章](https://clickhouse.tech/docs/en/getting_started/example_datasets/star_schema/) <!--hide-->
|
||||||
|
@ -520,7 +520,7 @@ WHERE (CounterID = 912887) AND (toYYYYMM(StartDate) = 201403) AND (domain(StartU
|
|||||||
ClickHouse集群是一个同质集群。 设置步骤:
|
ClickHouse集群是一个同质集群。 设置步骤:
|
||||||
|
|
||||||
1. 在群集的所有机器上安装ClickHouse服务端
|
1. 在群集的所有机器上安装ClickHouse服务端
|
||||||
2. 在配置文件中设置群集配置
|
2. 在配置文件中设置集群配置
|
||||||
3. 在每个实例上创建本地表
|
3. 在每个实例上创建本地表
|
||||||
4. 创建一个[分布式表](../engines/table-engines/special/distributed.md)
|
4. 创建一个[分布式表](../engines/table-engines/special/distributed.md)
|
||||||
|
|
||||||
|
Some files were not shown because too many files have changed in this diff Show More
Loading…
Reference in New Issue
Block a user