À propos
KLANIK est une société de conseil en Ingénierie IT qui accompagne ses clients dans leurs projets digitaux et technologiques.
Le groupe KLANIK compte désormais plus de 750 talents, évoluant dans 16 agences en Europe, Amérique du Nord, Afrique et Moyen-Orient. Des experts engagés, atypiques et passionnés, impliqués dans des projets stratégiques grâce à leur haut niveau de compétences en Software, DevOps, Cloud, Agilité, Cybersécurité, Big Data & IA.
En parallèle de leurs métiers, les collaborateurs du groupe KLANIK sont accompagnés au quotidien dans leur développement personnel et professionnel, via différentes initiatives engageantes et innovantes :
KONSCIOUS : communauté interne engagée dans les enjeux écologiques, sociaux et environnementaux
KAMPUS : institut de formation technique certifié
KORNER : incubateur de start-ups technologiques
KLANIK ESPORT : club professionnel e-sport ouvert aux collaborateurs
Le poste
Dans le cadre d'un renforcement de l'expertise Data Pipelines de la plateforme interne, nous recherchons pour notre client grand compte un Développeur Airflow / Devops (H/F).
Mission principale :
Participer activement au développement, à l'évolution et à la fiabilisation de la plateforme Data Pipelines basée sur Apache Airflow, en collaboration étroite avec l'architecte de la solution et les deux DevOps de l'équipe.
Le rôle est majoritairement orienté développement Python / Airflow (80%), avec une dimension DevOps / plateforme (20%) pour contribuer aux bonnes pratiques, au maintien en condition opérationnelle et à la transition progressive vers Kubernetes.
Responsabilités principales :
- Développement et maintenance (80%)
- Concevoir, développer et maintenir des data pipelines Airflow (EL : Extract–Load).
- Développer et optimiser les DAGs Airflow d'administration, de monitoring et d'automatisation interne.
- Contribuer à l'évolution du framework interne Airflow (outils on-top, conventions, librairies, orchestrations custom).
- Participer à l'industrialisation de l'offre Airflow + dbt-core (templates, intégration, bonnes pratiques).
- Assurer la qualité du code et l'adoption des normes internes (tests, CI/CD Git, revue de code).
- Participer à l'évolution de l'infra Airflow sur AWS (ECS/EKS si existant, MWAA si concerné…).
- Contribuer à l'observabilité (logs, métriques, alerting via CloudWatch / Grafana).
Compétences techniques attendues :
- Airflow
- Python
- Git
- Snowflake
- AWS
Profil recherché
- 3 à 6 ans d'expérience en Data Engineering, développement backend Python ou orchestration de pipelines.
- Très bonne compréhension des problématiques Data pipelines, EL, orchestration, industrialisation.
- À l'aise dans un environnement cloud AWS et motivé par la montée en compétences Kubernetes.
- Sens du travail en équipe, autonomie, rigueur, et appétence pour les problématiques plateformes.
- Capacité à collaborer avec un architecte et une équipe DevOps tout en travaillant près des projets métiers.