À propos
act digital est un groupe international de conseil et d'ingénierie qui accompagne ses clients dans leurs projets de transformation numérique.
Présent dans 12 pays et fort de plus de 5 600 collaborateurs, nous mettons nos expertises au service de leurs enjeux en développement logiciel, cybersécurité, data, cloud et IA.
Notre ambition : devenir le partenaire technologique de confiance des entreprises les plus innovantes, en concevant et sécurisant des systèmes qui renforcent leur performance et leur résilience.
Rejoindre act digital France, c'est intégrer une organisation agile et engagée, qui fait avancer les projets avec ses clients pour transformer les idées en résultats concrets, avec pragmatisme et exigence.
Le poste
Vos missions seront les suivantes :
- Développer des traitements massifs en Spark (Java / Python) en batch et en streaming.
- Réaliser des analyses de données avancées via Spark SQL, Elasticsearch/Kibana et Python.
- Concevoir, développer et optimiser les pipelines de données :
ingestion (Kafka, MQ, CFT), transformation, exposition et supervision.
- Participer à la définition et à l'évolution de l'architecture des flux.
- Challenger les besoins, anticiper les problématiques techniques et proposer des améliorations.
- Renforcer la robustesse, la sécurité, les performances et l'industrialisation des traitements.
- Contribuer aux déploiements automatisés via GitLab CI/CD, Docker, Artifactory, Ansible.
- Participer aux déploiements sur Kubernetes (IBM Cloud).
- Assurer la qualité logicielle : revues de code, tests unitaires, normes de sécurité, SonarQube.
- Rédiger la documentation technique.
- Assurer le support des solutions mises en production et le suivi opérationnel.
Profil recherché
Quel profil pour ce poste :
- Vous êtes issu(e) d'une formation Bac+5 (École d'ingénieur, Université ou équivalent …) en informatique
- Vous justifiez d'une expérience minimale de 2 ans dans un environnement similaire.
- Vous accordez de l'importance (et du temps) à la veille
Quelles compétences pour le poste :
- Solide expérience en Data Engineering dans un environnement Big Data exigeant.
- Maîtrise de Spark, Kafka, MongoDB, Python/Java, Kubernetes, CI/CD.
- Capacité à analyser, proposer, challenger et optimiser.
- Aisance dans les environnements réglementaires, data governance et sécurité.
- Bon relationnel, autonomie, rigueur et sens de la collaboration transverse.