2021-04-14 10:30:01
Оптимизация LIMIT / OFFSET
Также рассмотрим тему в рамках синхронизации (т.к. проблема стара и бояниста как этот мир) и в преддверии статейки про Cursor API.
Что плохого в LIMIT и OFFSET?
На малых объёмах данных никто и ничего не почувствует. Но долгоживущие проекты, в которые постоянно складываются данные рано или поздно сталкиваются с тем, что всё больше запросов появляется в slow.log, а запрос обычной постраничной пагинации отрабатывает 3-5 секунд(!).
Всё дело в том, что выполняя запрос типа
mysql> SELECT * FROM table_name ORDER BY id LIMIT 10 OFFSET 8000001;
Mysql сначала пройдется по первым 8000001 записям (которые нам не нужны) и только потом выберет нужные 10. И это еще не всё! Если между чтением двух страниц данных с диска другая операция вставит новую запись, что произойдет в этом случае?
Рисунок наглядно изображает такую ситуацию. База читает первые 10 записей, после этого вставляется новая запись, которая смещает все прочитанные записи на 1. Затем база берет новую страницу из 10 следующих записей и начинает не с 11-й, как должна, а с 10-й, дублируя эту запись. Есть и другие аномалии, связанные с использованием этого выражения, но эта — самая распространенная.
О Боже, что же делать?!
Вместо комбинации OFFSET и LIMIT стоит использовать конструкцию
mysql> SELECT * FROM table_name WHERE id > 8000000 LIMIT 10;
Вот что мы можем выиграть по времени.
Конечно, у этого подхода могут есть свои ограничения: проблемно сортировать, нет нормальной возможности читать страницы непоследовательно и т.д. Однако он отлично подойдет для бесконечного скроллинга, или если вам нужно отдать большие объемы данных по API.
#mysql #junior #source
408 viewsКирилл Сулимовский, 07:30