Компания специализируется на цифровом маркетинге и занимается производством платформы, работающей на их запатентованной технологии, которая проводит высокоэффективные интеллектуальные, целевые рекламные кампании. На рынке уже более 10 лет.
Всего работает 80 человек, основной офис находится в Лондоне, где работает 35 человек. В Петербурге офис разработки, сейчас там работает 30 человек. Также есть офисы продаж в Японии, Австралии и Сингапуре.
Компания сотрудничает с английскими крупными компаниями, в разных отраслях: туризм, торговля, образование и финансы.
Сейчас компания в поиске DWH Engineer, который присоединился бы к команде разработчиков, ответственной за проектирование, внедрение и обслуживание нескольких ключевых модулей хранилища данных.
Обязанности:
• Разработка и внедрение конвейер данных для экосистемы DWH Hadoop / массовой параллельной обработки.
• Сравнительный анализ и обратное проектирование текущих конвейеров для повышения производительности.
• Работа с локальной и облачной средой для достижения высокой доступности и пропускной способности.
• Работа с опытными пользователями, для облегчения специальных запросов к данным, хранящимся в DWH.
• Тесная работа с командой аналитиков данных над внедрением передовых алгоритмов интеллектуального анализа данных.
Требования:
• Опыт создания и оптимизации конвейеров, архитектур и наборов данных для «больших данных».
• Продвинутые рабочие знания SQL и опыт работы с реляционными базами данных, создание запросов (SQL), а также рабочее знакомство с различными базами данных.
• Опыт проведения анализа первопричин внутренних и внешних данных и определение возможностей для улучшения.
• Создание процессов, поддерживающих преобразование данных, структуры данных, метаданные, зависимости и управление рабочей нагрузкой.
• Знание организации очередей сообщений, потоковой обработки и масштабируемых хранилищ «больших данных».
• Опыт поддержки и работы с кросс-функциональными командами в динамичной среде.
• Знание английского языка (B1-B2). Вся документация на английском языке
Необходимый стек:
• Опыт работы с инструментами больших данных: Hadoop 3, Hive, Spark, Kafka и т. д.
• Опыт работы с реляционными базами данных SQL и MPP, включая Postgres и Greenplum.
• Опыт работы с конвейером данных и инструментами управления рабочим процессом: Airflow и т. д.
• Опыт работы с облачными сервисами GCP: Storage, BigQuery, Cloud Composer и т. д.
• Опыт работы с Kafka Streams является плюсом.
• Опыт работы с объекто-ориентированными/скриптовыми языками: Python, Java, Perl.
Условия работы:
• Гибридный формат работы, после испытательного срока 3 месяца.
• Офис находится в 3-х минутах от ст. Метро Комендантский проспект.
• Гибкий график работы, желательно быть с 11 до 17, но всегда можно сдвинуть вперед/назад.
• Официальное трудоустройство.
• Запускается ДМС, пока что частичная компенсация медицинских услуг.
• Частичная компенсация фитнес-клуба.