À propos
Qui sommes nous ?
Nous c'est Lutessa, ESN hyper-spécialisée dans 3 domaines d'activité : la Connectivité, le Cloud et la Cybersécurité.
Grâce à une centaine de spécialistes technophiles, Lutessa accompagne ses clients, à savoir, constructeurs, opérateurs, intégrateurs et grands donneurs d'ordres dans l'étude, l'intégration et la gestion de leurs infrastructures critiques.
A ce jour, Lutessa couvre aujourd'hui 2 territoires : la France & Monaco, et a l'ambition d'en ouvrir d'autres !
Pourquoi nous rejoindre ?
Ingénieurs en Cybersécurité, Réseau et Cloud avant tout passionnés par les infrastructures informatiques et également curieux, et animés par l'envie d'un perfectionnement continu ?
Rejoignez la Lutessa Family !
Au delà de vos compétences intrinsèquement techniques, Lutessa vous accueille comme vous êtes et sa promesse est de bâtir ensemble votre carrière avec sincérité et transparence.
Lutessa se veut être un catalyseur et un bâtisseur de carrière, en vous stimulant et vous exposant sur des projets pertinents et enrichissants pour vous.
Vos RingLeaders (référents techniques) s'engagent à vous accompagner dans votre développement en veillant à incarner et transmettre leurs valeurs en toute simplicité.
Venez développer votre potentiel au sein d'une société à taille humaine qui se définit comme une entreprise Joyeuse !
Pour en savoir plus sur notre état d'esprit :
https://www.lutessa.com
Le poste
🚀 Data Engineer GCP – Spark, Airflow, dbt/Kedro | Industrialisation & qualité des données
Contexte
Tu veux rejoindre une équipe Data qui construit des pipelines cloud à grande échelle, avec des enjeux de performance, de qualité et d'industrialisation ?
Nous recherchons un Data Engineer confirmé GCP, passionné par la scalabilité, la modélisation et la fiabilité de la donnée, pour intervenir sur un environnement cloud de référence.
Tes missions :
- Concevoir, développer et maintenir des pipelines Data sur GCP (BigQuery, Dataflow, Composer).
- Industrialiser les flux via Airflow, dbt ou Kedro, selon les use cases.
- Mettre en place les bonnes pratiques CI/CD (GitLab) et Infrastructure as Code (Terraform/Terragrunt).
- Garantir la qualité, la documentation et la traçabilité des datasets.
- Collaborer avec les équipes Data Science / Produit / Métier pour fiabiliser et exploiter la donnée.
- Participer à la structuration des environnements DataOps et à la montée en maturité des process.
Profil recherché
Stack technique
Python – SQL – Spark – Airflow – BigQuery – dbt – Kedro – Terraform/Terragrunt – GitLab CI/CD – Dataplex (un plus)
Profil recherché :
🔴 Attention : ce poste ne s'adresse pas aux alternants, stagiaires ni profils sortis d'école.
Minimum 3 ans d'expérience professionnelle post-études en Data Engineering cloud.
Expérience confirmée sur GCP et les outils du pipeline (Airflow, Spark, dbt/Kedro).
Maîtrise des concepts d'industrialisation, d'orchestration et de gouvernance de données.
Capacité à travailler en autonomie dans un environnement exigeant.
Français courant obligatoire, documentation et échanges internes en français.
Présentiel ≥ 50 % (Paris intra-muros).
Ce que nous offrons
Un environnement Cloud & IA moderne, outillé et exigeant.
Une culture technique forte : qualité, code review, mentoring.
Un accompagnement vers les certifications GCP / Snowflake / Dataiku.
Des projets à impact au cœur d'écosystèmes cloud complexes.
📍 Localisation : Paris – hybride
🕓 Disponibilité : dès que possible