À propos
DGTL / Signe + est le facilitateur pour tous les acteurs qui recherchent des ressources ou des missions DATA.
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com
Le poste
Tâches :
- Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad)
- Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers
- Mettre en œuvre les tests unitaires et automatisés
- Déployer le produit dans les différents environnements
- Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents
- Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code
Contexte :
Intervention pour le compte du Chapitre Data à Paris :
Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents.
Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants.
Vous serez également amené à échanger avec les autres membres du Chapitre du site de Paris mais aussi ceux des autres sites France.
Attendu :
1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data)
2 - Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées
Apprécié :
Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Teradata (sur des activités BI)
Profil recherché
Compétences humaines :
Autonomie,
Adaptabilité,
Bonne communication / Pédagogue
Force de proposition,
Sait challenger les besoins
Compétences techniques :
Langage :
Spark - spark streaming et batch (requis),
Kafka (requis)
SQL (requis)
java (apprécié)
shell (apprécié)
Stack Hadoop Cloudera
Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB)
DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana
Scrum (cadre agile entreprise)
Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau)
Expérimenté (4 à 7 ans)
PARIS 12 - ON SITE 3J/SEM
Avantages
Selon profil