À propos
STEP UP est une société d'ingénierie experte en pilotage de projets industriels et informatiques (+ 250 collaborateurs sur 11 agences en France), plaçant le potentiel humain comme 1er vecteur d'excellence et de performance en entreprise.
Oubliez les sociétés d'ingénierie qui ne valorisent que vos seules compétences, chez STEP UP, nous visons également l'adéquation entre votre personnalité et la culture d'entreprise de nos clients. Cela se traduit pour vous par une différence fondamentale en termes de bien être, d'épanouissement au travail et de succès dans vos missions.
Ce que nous vous proposons :
- Un cadre de travail épanouissant, stimulant et collaboratif, nous sommes certifiés entreprise où il fait bon vivre !
- Des projets innovants et variés.
- La possibilité de se perfectionner continuellement avec des formations internes.
- Des perspectives d'évolution de carrière.
- Un accompagnement individualisé avec un programme de développement du potentiel humain.
- Un programme de cooptation.
Et bien sûr, nous prenons en charge 70% de votre mutuelle santé et encourageons financièrement la mobilité douce.
Le poste
Au sein de la Data Factory du client, la mission s'inscrit dans un environnement cloud AWS, avec Databricks au cœur de la stratégie Data, et implique des interactions régulières avec les équipes infra et data ops pour assurer la fiabilité des pipelines et des modules de production.
🛠️ Missions
En tant que Senior Data Ops Engineer, vos responsabilités principales seront :
- Garantir la robustesse et la sécurité des déploiements Databricks, incluant la gestion des permissions et du metastore
- Assurer le support N3 pour les incidents liés à Databricks et AWS
- Accompagner la migration d'AWS Glue vers Unity Catalog, et standardiser les processus associés
- Collaborer avec les équipes Data Ops et Infrastructure pour harmoniser les pratiques et outils
- Participer à la conception et au maintien de l'architecture Databricks, et à la delivery de nouveaux modules
- Être force de proposition pour développer et optimiser les futures solutions Data Ops
- Synchroniser avec l'équipe Data Lake pour respecter les bonnes pratiques et assurer la qualité du metastore
L'objectif global est de sécuriser les environnements Data et améliorer l'efficience des opérations, tout en soutenant la montée en puissance de la plateforme.
Profil recherché
🧩 Compétences attendues
- Expertise sur Databricks : architecture, permissions, déploiements
- Solide expérience AWS (Glue, Data Lake, Unity Catalog)
- Compétences en DataOps / CI/CD / automatisation
- Gestion de support N3, résolution et coordination des incidents
- Conception et maintenance d'architectures data cloud
- Bonnes aptitudes à la communication et à la collaboration
- Anglais opérationnel pour échanges internationaux
Avantages
À partir de 50k€ brut annuel