À propos
Devenez le moteur "Data" d'un acteur majeur de l'économie circulaire qui transforme le déstockage en une science de précision. Nous ne sommes plus seulement une marketplace B2B leader sur son segment ; nous devenons le partenaire technologique et financier des plus grands retailers européens (Carrefour, Boulanger, etc.). En rejoignant notre équipe technique de haut niveau (moyenne d'expérience de 8 ans), vous participerez à un pivot stratégique où la donnée devient le produit lui-même.
- Secteur & Envergure : Scale-up leader dans le "Re-commerce" B2B et l'optimisation des stocks.
- Mission & Valeurs : Donner une seconde vie à des millions de produits (high-tech, maison, loisirs) grâce à une technologie de pricing prédictif unique.
- Environnement de travail : Équipe à taille humaine (6-8 personnes), culture de l'excellence technique sans l'arrogance, autonomie réelle et flexibilité totale.
- Le "Pourquoi nous rejoindre" : Un projet "GreenTech" à fort impact où vous construisez l'infrastructure de A à Z (Greenfield) avec un accès direct au CTO.
Le poste
En tant que premier Data Engineer, votre mission est de transformer un gisement de données brutes (Marketplace, CRM, Analytics) en une plateforme intelligente et centralisée. Vous serez l'architecte du passage de notre modèle actuel vers une plateforme de "Data Sharing" capable de prédire la valeur résiduelle d'un produit à 3 ans. C'est un poste à 100% de création, mêlant vision architecturale et exécution technique.
Intitulé du poste : Data Engineer (H/F) - Création de poste.
Missions principales :
Architecture & Centralisation : Créer et maintenir les pipelines (ETL/ELT) pour agréger les sources (PostgreSQL, HubSpot, GA4, Zendesk) vers notre Data Warehouse Snowflake.
Modélisation de la donnée : Organiser les couches Bronze (raw), Silver (reconciliation) et Gold (refined) pour alimenter une CDP (Imagino) et nos outils de BI.
Projets R&D : Collaborer sur l'algorithme "Argus" pour l'estimation et la prédiction de prix (pricing prédictif).
Optimisation Ops : Configurer et dimensionner les instances Snowflake et assurer la fluidité des flux AI (Cortex AI).
Responsabilités & Autonomie : Rattaché directement au CTO, vous êtes le référent sur la Stack Data avec une forte autonomie sur le choix des patterns d'implémentation.
Indicateurs de succès (KPIs) : Centralisation effective des flux prioritaires sous 6 mois et mise en production de la première version de la couche "Gold".
Profil recherché
Nous ne cherchons pas un expert absolu de chaque outil, mais un ingénieur doté d'une "tête bien faite" et d'une curiosité insatiable. Vous avez déjà une expérience réussie dans la construction de pipelines de données et vous comprenez les enjeux business derrière chaque ligne de code. Vous aimez challenger les solutions existantes pour construire quelque chose de robuste, scalable et simple à maintenir.
Expérience & Formation : 3 à 6 ans d'expérience (Profil Mid) en Data Engineering ou Backend avec une forte composante Data.
Compétences Techniques (Hard Skills) :
- Maîtrise de l'écosystème Cloud (AWS idéalement, ou GCP/Azure).
- Excellente maîtrise du SQL et de la manipulation de bases de données relationnelles.
- Expérience sur un Data Warehouse (Snowflake est un gros plus, ou BigQuery/Redshift).
- Capacité à scripter (Python ou PHP) pour l'automatisation.
- Qualités Humaines (Soft Skills) : Esprit pragmatique (focus "ROI"), capacité à vulgariser vos choix techniques auprès du métier, et une forte culture de la maintenance simplifiée.
- Le "Petit plus" : Une sensibilité pour l'IA/Machine Learning ou une première approche des outils de CDP.