В Postgres вы можете указать предложение IN, например:
SELECT * FROM user WHERE id IN (1000, 1001, 1002)
Кто-нибудь знает, какое максимальное количество параметров вы можете передать в IN?
В Postgres вы можете указать предложение IN, например:
SELECT * FROM user WHERE id IN (1000, 1001, 1002)
Кто-нибудь знает, какое максимальное количество параметров вы можете передать в IN?
Ответы:
Согласно исходному коду, расположенному здесь, начиная со строки 850, PostgreSQL явно не ограничивает количество аргументов.
Ниже приведен кодовый комментарий из строки 870:
/*
* We try to generate a ScalarArrayOpExpr from IN/NOT IN, but this is only
* possible if the inputs are all scalars (no RowExprs) and there is a
* suitable array type available. If not, we fall back to a boolean
* condition tree with multiple copies of the lefthand expression.
* Also, any IN-list items that contain Vars are handled as separate
* boolean conditions, because that gives the planner more scope for
* optimization on such clauses.
*
* First step: transform all the inputs, and detect whether any are
* RowExprs or contain Vars.
*/
Это не совсем ответ на настоящий вопрос, однако он может помочь и другим.
По крайней мере, я могу сказать, что существует технический предел в 32767 значений (= Short.MAX_VALUE), передаваемых в бэкэнд PostgreSQL с использованием драйвера JDBC 9g от Posgresql.
Это тест "delete from x, где id in (... 100k values ...)" с драйвером jdbc postgresql:
Caused by: java.io.IOException: Tried to send an out-of-range integer as a 2-byte value: 100000
at org.postgresql.core.PGStream.SendInteger2(PGStream.java:201)
explain select * from test where id in (values (1), (2));
Seq Scan on test (cost=0.00..1.38 rows=2 width=208)
Filter: (id = ANY ('{1,2}'::bigint[]))
Но если попробовать второй запрос:
explain select * from test where id = any (values (1), (2));
Hash Semi Join (cost=0.05..1.45 rows=2 width=208)
Hash Cond: (test.id = "*VALUES*".column1)
-> Seq Scan on test (cost=0.00..1.30 rows=30 width=208)
-> Hash (cost=0.03..0.03 rows=2 width=4)
-> Values Scan on "*VALUES*" (cost=0.00..0.03 rows=2 width=4)
Мы видим, что postgres создает временную таблицу и присоединяется к ней
Количество элементов, передаваемых в предложение IN, не ограничено. Если имеется больше элементов, он будет рассматривать его как массив, а затем для каждого сканирования в базе данных будет проверять, содержится ли он в массиве или нет. Этот подход не так масштабируем. Вместо использования предложения IN попробуйте использовать INNER JOIN с временной таблицей. Для получения дополнительной информации см. Http://www.xaprb.com/blog/2006/06/28/why-large-in-clauses-are-problematic/ . Использование весов INNER JOIN также позволяет оптимизатору запросов использовать хеш-соединение и другие способы оптимизации. В то время как с предложением IN оптимизатор не может оптимизировать запрос. Я заметил ускорение по крайней мере в 2 раза с этим изменением.
OR
и IN
предложений из-за больших накладных расходов при разборе и планировании таких запросов, я не смог подтвердить проблему с Postgres 9.5, см. Этот ответ .
Как человек с большим опытом работы с БД Oracle, я тоже был обеспокоен этим ограничением. Я выполнил тест производительности для запроса с ~ 10 000 параметров в IN
-листе, выбирая простые числа до 100 000 из таблицы с первыми 100 000 целыми числами , фактически перечисляя все простые числа в качестве параметров запроса .
Мои результаты показывают, что вам не нужно беспокоиться о перегрузке оптимизатора планов запросов или получении планов без использования индексов , поскольку он преобразует запрос для использования = ANY({...}::integer[])
там, где он может использовать индексы, как и ожидалось:
-- prepare statement, runs instantaneous:
PREPARE hugeplan (integer, integer, integer, ...) AS
SELECT *
FROM primes
WHERE n IN ($1, $2, $3, ..., $9592);
-- fetch the prime numbers:
EXECUTE hugeplan(2, 3, 5, ..., 99991);
-- EXPLAIN ANALYZE output for the EXECUTE:
"Index Scan using n_idx on primes (cost=0.42..9750.77 rows=9592 width=5) (actual time=0.024..15.268 rows=9592 loops=1)"
" Index Cond: (n = ANY ('{2,3,5,7, (...)"
"Execution time: 16.063 ms"
-- setup, should you care:
CREATE TABLE public.primes
(
n integer NOT NULL,
prime boolean,
CONSTRAINT n_idx PRIMARY KEY (n)
)
WITH (
OIDS=FALSE
);
ALTER TABLE public.primes
OWNER TO postgres;
INSERT INTO public.primes
SELECT generate_series(1,100000);
Однако этот (довольно старый) поток в списке рассылки pgsql-hackers указывает на то, что при планировании таких запросов все еще есть немалая цена, так что поверьте мне на слово.
Если у вас есть запрос, как:
SELECT * FROM user WHERE id IN (1, 2, 3, 4 -- and thousands of another keys)
Вы можете повысить производительность, если переписать свой запрос, например:
SELECT * FROM user WHERE id = ANY(VALUES (1), (2), (3), (4) -- and thousands of another keys)
EXPLAIN
говорит, что внутренне переписывает мой IN (...)
as ANY ('{...}'::integer[])
.
Вы можете рассмотреть возможность рефакторинга этого запроса вместо добавления произвольно длинного списка идентификаторов ... Вы можете использовать диапазон, если идентификаторы действительно следуют шаблону в вашем примере:
SELECT * FROM user WHERE id >= minValue AND id <= maxValue;
Другой вариант - добавить внутренний выбор:
SELECT *
FROM user
WHERE id IN (
SELECT userId
FROM ForumThreads ft
WHERE ft.id = X
);