Data Engineer

Уровень дохода не указан

Опыт работы: 1–3 года

Полная занятость

График: 5/2

Рабочие часы: 8

Формат работы: гибрид

Напишите телефон, чтобы работодатель мог связаться с вами

Чтобы подтвердить, что вы не робот, введите текст с картинки:
captcha

The_covert - международная компания, мы входим в группу IT-компаний, занимающихся разработкой собственных продуктов и сервисов более 10 лет. Нашими продуктами для реализации и упрощения бизнес процессов пользуются тысячи людей по всему миру. Мы предоставляем сервисы крупным финансовым B2B и B2C платформам, кроме того у нас есть линейка продуктов, связанных с финансовой аналитикой, и запущено несколько глобальных медиа-проектов.

Продукты специализируются на fintech и соединяют в себе большие данные, огромные вычислительные мощности, экспертизу в области разработки, Data Science, ML и финансов для создания сложных и уникальных торговых моделей.

Задачи и обязанности:

  • Создание ETL/ELT пайплайнов: обеспечение чистоты, консистентности и актуальности данных через автоматизацию процессов сбора, обработки и трансформации данных;
  • Дизайн и разработка систем дашбордов для мониторинга производительности торговых стратегий ключевых бизнес-метрик (P&L и др.), построение аналитики;
  • Извлечение данных из внутренних и внешних источников (работа с Clickhouse);
  • Работа с системами управления данными;
  • Разработка систем оповещений для контроля рисков, работа с логами;
  • Определение ключевых показателей эффективности для всестороннего мониторинга системы;
  • Участие в построении пайплайнов обработки данных (ETL/ELT, DWH) и умение решать архитектурные вопросы в области обработки данных;
  • Оптимизация алгоритмов и бизнес-метрик: Анализ поведения финансовых систем, поиск аномалий, генерация идей по улучшению их работы;
  • Поддержка хранилища данных (DWH);
  • Research торговых стратегий;
  • Подготовка технической документации.

Стек:

  • Базы данных: Clickhouse, Google Cloud Platform;
  • ETL/ELT: Apache Airflow, Python, OpenSearch;
  • Дашборды: Redash, Grafana, Superset;
  • Языки и технологии: SQL, Python.

Требования:

  • 3+ лет работы Data-инженером;
  • Глубокие знания SQL и Python для работы с данными;
  • Опыт разработки DAG для Airflow;
  • Навыки работы с инструментами визуализации данных (Grafana, Superset, Redash или аналогами);
  • Опыт мониторинга производительности высоконагруженных систем, анализа логов и выявления багов;
  • Способность анализировать данные и формировать четкие, релевантные бизнес-выводы.

Условия:

  • Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка;
  • Уютный офис в центре Тбилиси;
  • Гибкий график (начало рабочего дня с 9 до 12);
  • Компенсация спорта и медицинских расходов;
  • Предоставляем необходимую для работы технику;
  • Возможность получения зарплаты в у.е.

Ключевые навыки

  • Python
  • SQL
  • Clickhouse
  • Apache Airflow
  • Grafana

Задайте вопрос работодателю

Он получит его с откликом на вакансию

Вакансия опубликована 17 марта 2025 в Тбилиси

Похожие вакансии