À propos
DGTL / Signe + est le facilitateur pour tous les acteurs qui recherchent des ressources ou des missions DATA.
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com
Le poste
Tâches :
Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad)
Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers
Mettre en œuvre les tests unitaires et automatisés
Déployer le produit dans les différents environnements
Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents
Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code
Contexte : Intervention pour le compte du Chapitre Data à Paris:
Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents.
Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants.
Vous serez également amené à échanger avec les autres membres du Chapitre du site de Paris mais aussi ceux des autres sites France.
Attendu :
Activité Big Data de Data Engineer (collecte, stockage et manipulation de données)
1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera (stack technique) - en utilisant un framework interne entreprise
2 - Etre force de proposition et expertise sur l'exploitation de la données, et sur les techno manipulées/solutions utilisées
Apprécié : Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Teradata (sur des activités BI).
Profil recherché
Compétences techniques :
Framework Big Data & Langage :
Spark - spark streaming et batch (requis),
SQL (requis)
Kafka (apprécié)
java (apprécié)
scala (apprécié)
shell (apprécié)
Ecosystème Big Data :
Stack Hadoop Cloudera (fortement apprécié)
Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB)
DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana
Scrum (cadre agile entreprise)
Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau)
Compétences humaines :
Requis :
Autonomie,
Adaptabilité,
Bonne communication / Pédagogue / Vulgarisation Data pour des équipes métiers
Force de proposition,
Sait challenger les besoins et comprend le sens métier des travaux menés
5 à 10 ans d'exp.
Paris 12ème
3 jours sur site
Avantages
Selon Profil