Обязанности:
–
Поддержка и развитие CI/CD пайплайнов в GitLab CI;
– Управление конфигурациями и оркестрацией серверов с помощью Ansible;
– Настройка и поддержка систем мониторинга и алертинга (Prometheus, Grafana);
– Централизованный сбор и анализ логов (ELK Stack, Graylog);
– Управление артефактами и образами через Sonatype Nexus;
– Работа с системами хранения данных: PostgreSQL, MinIO (S3-совместимое хранилище);
– Обеспечение безопасности инфраструктуры: работа с Vault (секреты, ключи шифрования);
– Оптимизация нагрузки, устранение инцидентов;
– Взаимодействие с командами разработки, аналитики данных и ML-инженерами — помощь в настройке окружений, оптимизация ресурсов, консультации по best practices;
– Написание скриптов на Bash и Python для автоматизации процессов резервного копирования, ротации логов, мониторинга состояния сервисов;
– Разработка скриптов для интеграции между компонентами платформы (например, автоматическая регистрация сервисов в Vault, синхронизация данных между MinIO и HDFS, автоматическое масштабирование ресурсов);
– Создание кастомных утилит для упрощения работы команды разработки и дата-инженеров (CLI-инструменты для деплоя, проверки конфигураций, сбора диагностики).
Требования:
–
Linux (Ubuntu): уверенное администрирование, написание скриптов (Bash/Python), понимание работы сетей и файловой системы;
– CI/CD: глубокое знание GitLab CI (написание сложных пайплайнов, использование артефактов, кэшей, динамических окружений);
– Оркестрация: Опыт работы с Kubernetes (развертывание приложений, Helm-чарты, ingress, network policies, troubleshooting). Опыт работы с Docker Swarm (понимание отличий от K8s, режимы работы);
– Управление конфигурациями: продвинутый уровень Ansible (роли, jinja2, vault, динамические инвентори);
– Мониторинг: настройка Prometheus (экспортеры, правила алертинга, recording rules) и Grafana (дашборды, настройка алертов);
– Логирование: Опыт работы с ELK Stack (Elasticsearch, Logstash, Kibana) — настройка pipeline, индексов. Опыт работы с Graylog (sidecar, extractors, streams);
– Базы данных: опыт поддержки PostgreSQL (бэкапы/восстановление, репликация, мониторинг производительности);
– Безопасность: практический опыт работы с HashiCorp Vault (авторизация, динамические секреты, интеграция с приложениями и CI/CD);
– Будет плюсом:
– Опыт написания экспортеров для Prometheus;
– Навыки оптимизации PostgreSQL (DBA skills);
Big Data: опыт администрирования Hadoop (HDFS, YARN), Apache Ranger, Trino, Apache Hive;
– MLOps: работа с TensorFlow в продакшене, DVC, Dagster, Airflow, MLflow;
– Data Governance: настройка OpenMetadata для каталогизации данных и управления метаданными.
Условия:
– Оформление в соответствии с ТК РФ;
– Удаленный график работы или офис в современном Бизнес-центре в Москве;
– Режим работы: с 9.30 до 18.30, в пятницу с 9.30 до 17.30;
– Финансовые условия обсуждаются индивидуально, в зависимости от профессионального опыта и стажа работы;
– ДМС после испытательного срока.