2021-06-03 10:43:13
#вакансия #backend #python #middle
Ищем backend developer (data engineer) в компанию Tutu.ru, который будет участвовать в развитии инфраструктур и инструментов для работы с данными.
Условия:
- белая зп (~150.000 рублей net), по ТК РФ, индексация зп от 8,2% в год, премии;
- частичная удаленка;
- удобный офис на с м. Нагатинская, с библиотекой, кухней и едой;
- ДМС (включая стоматологию и полис ВЗР);
- помогаем с переездом кандидатам из других городов («релокационный» бонус).
В команду платформы аналитики и инструментов для работы с big data (инструменты для ETL). Используя эти данные, продуктовые аналитики и менеджмент выбирают направления развития нашего сервиса путешествий, а также мониторинг критичных бизнес-показателей.
Вы будете участвовать в развитии таких систем, как:
- Система сбора данных со всех сервисов и проектов на основе event driven подходов;
- Механизм проведения АБ-тестов;
- Системы отчетности, инструмент построения витрин данных и инфраструктура для BI-инструментов.
Системы, которые мы разрабатываем, должны справляться с высокими нагрузками, работать с большими объемами данных и гибко масштабироваться.
О наших системах в цифрах:
- Обрабатываем потоки данных объемом ~1ТБ в сутки;
- 400RPS в среднем;
- 40+ серверов;
- DAU сервиса, с которого собираем данные 1.3 млн.;
- Делаем инструменты для 16 команд (12+ аналитиков и data scientist, 70+ разработчиков).
Про наш стек технологий:
- пишем микросервисы и SDK, в зависимости от задач и требований используем языки: Python, GoLang, PHP 7, Node.JS (вам не надо знать все, достаточно одного);
- используем разнообразные базы данных и хранилища данных под задачи: ClickHouse, Exasol, MariaDb, ElasticSearch, Redis, MongoDb, и S3;
- активно используем очереди сообщений Kafka и RabbitMQ;
- упаковываем приложения в docker-контейнеры и запускаем в OpenShift или на docker-хостах;
- реализуем мониторинг приложений с помощью prometheus и grafana.
Кроме основных проектов, над которыми предстоит работать, будет возможность поработать с такими инструментами как:
- инструменты шедулинга (Airflow);
- инструменты batch/streaming обработки данных (Spark, Kafka Connect, benthos);
- MetaBase, SuperSet, Kibana и пр. инструменты визуализации;
- в этот список регулярно добавляются новые, прогрессивные технологии и программные решения, которые позволяют решать наши задачи продуктивнее.
Tech radar с технологиями используемыми во всей компании.
Требования:
- опыт разработки крупных систем от 2-х лет;
- уверенное владение ООП и другими подходами к проектированию;
- умение работать с SQL и NoSQL хранилищами;
- опыт программирования на python.
Писать сюда: @Yakimkina
462 views07:43