Roles
Remote Data Engineer Jobs
Overview
Looking for remote Data Engineer jobs? Haystack offers the best fully remote opportunities for skilled data engineers seeking flexible work-from-home roles. Discover top remote data engineering positions where you can design, build, and optimize data pipelines from anywhere. Start your remote data engineer career today with Haystack!
Consultant Big Data / PySpark
WHIZE
Neuilly-sur-Seine
Remote or hybrid
Mid - Senior
Private salary
+3

Welcome To The World Of Whizdom !

Whize est une filiale du groupe Neurones (7000 collaborateurs en France), spécialisée dans le domaine de la Data Intelligence et du développement de solutions sur mesure en architecture Serverless (Azure, AWS). Notre positionnement se décline en 3 offres :

  • Modern BI : expertise dans toute la chaine décisionnelle pour la création de tableaux de bord interactifs, l’extraction et transformation (ETL) des données de différentes sources en utilisant des outils de Business Intelligence (BI) modernes, tels que Power BI et Tableau et AZURE Data Factory.
  • Data Engineering : Solides compétences en gestion des données pour collecter, stocker et traiter de grandes quantités de données de manière fiable et évolutive en utilisation Python pour la gestion efficace des flux de données.
  • Développement en Cloud Native: : expertise dans la conception des applications en utilisant des langages de développement modernes (.Net, Java, Node.js, Python) et des services cloud natifs, tels que AWS, Azure, ou Google Cloud ainsi que l’intégration des bonnes pratiques DevOps.

Vos missions:

  • Mettre à disposition automatiquement des données dans la plateforme Big Data en exploitant PySpark pour le traitement distribué
  • Automatiser les process data (batch et/ou streaming) afin d’optimiser les flux d’ingestion, de transformation et de restitution
  • Maintenir et optimiser les traitements existants pour garantir performance, fiabilité et scalabilité
  • Faire évoluer le modèle de données afin de répondre aux besoins métiers et aux bonnes pratiques d’architecture Big Data
  • Monitorer l’ensemble des services de la plateforme : disponibilité, intégration, qualité des données, consommation des ressources
  • Participer aux travaux de migration ou d’évolution de la plateforme vers de nouvelles versions ou technologies associées
  • Tester et proposer de nouveaux outils ou frameworks permettant d’améliorer la performance, la sécurité et la gouvernance des données

Profil recherché :

  • Expérience sur des projets Big Data
  • Maîtrise de PySpark pour le développement de traitements distribués
  • Solides compétences en Python et SQL
  • Connaissance des concepts et architectures Big Data (Hadoop, Spark)
  • Capacité à optimiser les performances des traitements et à assurer la qualité des données
  • Bon esprit d’équipe et aisance dans la communication avec des interlocuteurs techniques et métiers

Qu’attendez-vous pour nous rejoindre ?

  • Vous ferez partie d’une société à taille humaine et qui bénéficie des avantages d’un grand groupe. Nous adressons une centaine de clients en direct dont la moitié sont des grands comptes.
  • Vous serez accompagné(e) et managé(e) par le CEO de WHIZE (THE WHIZE MAN).
  • Vous allez compléter notre équipe dynamique et travailler avec nous dans une ambiance Start-up et conviviale.
  • Vous occuperez des postes intéressants et évolutifs.
  • Vous bénéficierez des évènements internes organisés pour parler tech, business et projets.
  • Vous réaliserez des projets à forte valeur ajoutée.

📍 : Neuilly-Sur-Seine+ Télétravail.

Data Scientist Senior IA gen
StarClay
Puteaux
Remote or hybrid
Senior
Private salary

L’approche de Starclay au sein du Groupe Partenor se caractérise par une double compétence Métier et SI ; mettre les utilisateurs au centre de tous les projets depuis la formalisation des besoins jusqu’à la formation de ces derniers.

Nous nous positionnons en tant qu’ acteur clé dans les dispositifs d’amélioration continue notamment à travers l’IA générative.

Dans le cadre du renforcement de nos équipes, nous recherchons des data scientist confirmés et ayant des connaissances en IA gen pour intervenir chez nos clients grands comptes.

Vos missions :

  • Concevoir, entraîner et déployer des modèles d’IA Générative (LLMs, RAG, transformers, etc.)
  • Développer des cas d’usage métiers (banque, assurance, retail, santé…)
  • Mettre en place des solutions MLOps et collaborer avec les équipes IT / métiers
  • Réaliser une veille active sur les innovations IA

Environnement technique :

  • Langages : Python, SQL
  • Frameworks IA / ML : Scikit-Learn, Transformers, Computer Vision, LangChain, LangGraph
  • IA Générative / NLP : LLM, RAG, MCP, Spacy, Finetuning (LoRa, Axolotl)
  • API & Déploiement : FastAPI
  • CI/CD & MLOps : Git, MLFlow, Langfuse
  • Cloud : GCP, AWS, Azure (au moins un requis)
  • Bonus : DataIKU, Spark, Docker

Issu(e) d’une formation Bac +5 (école d’ingénieur ou université), vous avez au moins 5 ans d’expérience en tant que data scientist et une expérience confirmé en IA Générative et NLP/computer vision.

  • Une expérience confirmée dans le déploiement d’applications et d’APIs en production (FastAPI)
  • Vous avez des connaissances solides en MLOps, CI/CD et gouvernance data
  • Une expérience dans le secteur bancaire ou assurantiel sont fortement appréciée
  • Vous avez un niveau d’ anglais professionnel pour évoluer dans des environnements internationaux
  • Esprit d’équipe, méthode agile et excellente communication avec les différentes parties prenantes est nécessaire pour réussir vos missions
Ingénieure / Ingénieur Data Analytics Expérimenté
Sogeti
Toulouse
Remote or hybrid
Mid - Senior
Private salary
+2

Chez Sogeti, la technologie coule dans nos veines. C’est cet intérêt pour la technologie qui nous guide au quotidien et qui est reflété dans notre slogan « Made In Tech ». Grâce à notre passion commune pour la technologie, à notre culture entrepreneuriale et à l’importance que nous accordons à la formation continue, nous mettrons tout en œuvre pour vous accompagner à libérer votre plein potentiel.

Votre mission:

Au sein d’une communauté Data dynamique, passionnée et innovante, vous aurez l’opportunité de travailler sur des projets avec une composante fonctionnelle forte couplée à des challenges techniques comme du développement de traitements SQL, ETL, ELT, Spark et la préparation des Semantic Layers. Nos consultants traitent la donnée de bout en bout, c’est-à-dire de la collecte des données sources jusqu’à la mise à disposition des données aux utilisateurs finaux.

Vous serez en charge de :

  • Collecter les données sources au travers de scripts, APIs et/ou outils dédiés (Informatica, Fabric Data Factory, Talend, Qlik Replicate,…)
  • Historiser, anonymiser, enrichir les données par traitements ETL ou ELT (DBT, Spark, Databricks, Glue Fabric,…)
  • Concevoir et modéliser le datawarehouse afin d’optimiser les analyses de données
  • Spécifier les flux de données et engager les campagnes de tests
  • Migrer les flux existants vers des technologies Cloud (Snowflake, GCP, AWS, Fabric)
  • Modéliser les Semantic layers (Power BI Datasets & dashboards, DBT Semantic Layer, Qlik Sense, Spotfire, Palantir Foundry) et former les utilisateurs à leur usage

Votre profil:

  • Bac+5 en informatique ou équivalent avec une expérience avérée (minimum 3 ans) en tant que Data Engineer, avec une solide connaissance des architectures de données et des processus ETL/ELT.
  • Maîtrise du SQL, des fonctions OLAP, expérience en création de base de données
  • Connaissances ou pratique Snowflake appréciée
  • Curiosité technologique et envie de monter en compétences sur de nouvelles technologies et méthodologies.
  • Esprit d’initiative et capacité à travailler dans un environnement agile et évolutif.

Quelques raisons de nous rejoindre:

Communauté d’experts : faites partie d’une communauté d’experts en ingénierie logicielle et développez votre réseau auprès de clients et dirigeants.

Projets variés et impactants : développez votre expertise grâce à une diversité de missions, d’outils et de secteurs, avec une forte autonomie et une réelle liberté d’initiative.

Management de proximité : profitez d’un accompagnement personnalisé par un pair expérimenté, à la fois coach, guide et facilitateur.

Développement de carrière : construisez votre parcours grâce à de nombreux leviers pensés pour vous (parcours de formations, certifications, mobilité, masterclasses, etc…)

100 % certifié : vous bénéficiez d’un parcours de certification adapté à votre rôle et à votre niveau. Vous êtes accompagné par des experts et progressez à votre rythme grâce à un self-training structuré et une dynamique collective qui accélère votre évolution.

Bien-être : accédez accès à des ressources variées, alliant contenus spécialisés et initiatives sportives, pour favoriser votre qualité de vie au travail.

Flexibilité : profitez de la possibilité de télétravailler jusqu’à 70 %, d’un droit à la déconnexion et d’une communauté dédiée aux parents pour favoriser l’équilibre de vie.

À PROPOS DE SOGETI :

Sogeti fait partie du groupe Capgemini et accompagne les organisations dans leur mise en œuvre de l’innovation, en tant que partenaire local à l’échelle mondiale. En combinant son agilité et sa rapidité Sogeti propose des solutions innovantes en testing, cloud et développement d’applications, toutes pilotées par l’IA, les données et l’automatisation. Plus d’informations sur

Software-ontwikkelaar
Redslim
Paris
Remote or hybrid
Mid - Senior
Private salary

Are you passionate about solving real-world problems through high-quality software solutions? Redslim is looking for a Software Engineer to design, engineer, and maintain cutting-edge applications that enable scalable and transparent data usage. In this role, you will be creating software modules, developing productivity tools, and helping deploy data applications that empower both technical and non-technical users. Design, engineer, and maintain Python and PySpark libraries and applications for deployment in Databricks. Create and update modules that transform and enrich data. Develop solutions to deploy, create, edit, inspect, and monitor data applications. Build productivity tools to enhance the scalability and accessibility of data applications. Contribute to software architecture design and code reviews, ensuring clean code practices. Apply debugging and performance optimization techniques to ensure system quality and speed. Strong proficiency (4+ years) in Python and PySpark, with hands-on experience building and maintaining data-oriented applications. Experience with Databricks environments and modern software architecture workflows. Solid technical writing and documentation abilities. Commitment to continuous learning and professional development. We can accept only CVs submitted in English. Please note that all applications must be submitted via the LinkedIn Applicant Tracking System (ATS) . Redslim streamlines data management for teams faced with the request to leverage fragmented datasets for critical decision making. Specialized in data engineering, harmonization and BI, their teams manage data from over 50 agencies and covering more than 55 countries. Their technology-enabled services optimize data consumption for more than 30 global organizations. Active for more than 10 years, Redslim is constantly innovating their solutions to always meet the evolving needs of their clients and data partners. Learn more at and follow Redslim on LinkedIn. We prohibit discrimination and harassment based on race, color, sex, religion, sexual orientation, national origin, disability, genetic information, pregnancy, or other personal characteristics.

Consultant Data Engineer Databricks
Pulsover
Paris
Remote or hybrid
Mid - Senior
Private salary

Chez Pulsover , cabinet de conseil spécialisé dans la data, le cloud, le delivery de projets, partenaire d’AWS et de Databricks , nous accompagnons nos clients à atteindre leurs objectifs de transformations digitales.

Notre approche : conjuguer expertise projet, rigueur et valeurs humaines 🤝.

Rejoindre Pulsover, c’est intégrer une équipe bienveillante qui mise sur votre développement autant que sur votre expertise 🌱.

Vous cherchez des défis professionnels stimulants et une émulation d’équipe💡?

Rejoignez-nous 🙌.

Nous renforçons notre équipe pour accompagner notre Client sur l’évolution de sa Data Platform vers un modèle centralisé , multi-pays, avec des enjeux forts de migration Unity Catalog , d ’industrialisation , et d ’optimisation des environnements Databricks (AWS).

Vos missions principales : concevoir et optimiser des pipelines de données sur Databricks, contibuer à la migration Unity Catalog, garantir la performance et la fiabilité des traitements data dans un environnement cloud AWS.

🎯 Votre rôle :

  • Développement & maintenance des pipelines : développer des jobs Spark/Databricks (ingestion, transformation, synchronisation) et gérer des dataflows complexes multi-collections avec validation et documentation rigoureuses.

  • Migration Unity Catalog & gouvernance : contibuer à l’inventaire et la migration des tables vers Unity Catalog, mettre en place le modèle de gouvernance (permissions, ownership, lineage) et standardiser les environnements.

  • Optimisation Databricks & performance : optimiser clusters, init scripts, policies et CI/CD. Réduire les coûts compute et améliorer la stabilité en investigant les problèmes de permissions, ACL et networking.

  • Intégration cloud AWS : gérer les workloads Databricks sur AWS (compute, IAM, monitoring), participer aux déploiements multi-pays et exploiter les données AWS pour analyser l’impact des optimisations.

  • Support & collaboration : challenger le besoin client, assurer le support technique auprès des équipes internes/clients, présenter les choix techniques en réunion et collaborer avec les équipes data, cloud, sécurité et BI.

🛠 Compétences techniques recherchées :

Stack : Databricks (Spark, Jobs, Clusters), AWS (IAM, compute, monitoring), Unity Catalog, PySpark, SQL avancé, CI/CD

🚀 Profil recherché :

  • 3+ ans d’expérience en data engineering avec maîtrise Databricks/Spark et expérience AWS.
  • Solide expérience sur des pipelines volumétriques
  • Capacité à intervenir sur des environnements complexes (gouvernance, performance, réseau).
  • Capacité à challenger et reformuler les besoins
  • Autonomie et ownership
  • Communication claire et structurée
  • Travail efficace en équipe multi-compétences

🌟 Pourquoi rejoindre Pulsover ?

✅ Des missions à forte valeur ajoutée auprès de grands comptes et d’acteurs innovants

✅ Un environnement bienveillant , collaboratif et stimulant

✅ Un accompagnement personnalisé dans votre montée en compétences et votre évolution de carrière

✅ Des formations pour rester à la pointe des pratiques en gestion de projet

✅ Un package compétitif assorti de nombreux avantages sociaux.

Rejoignez l’aventure Pulsover et participez à des projets qui font la différence !

Remote engineer
Opus Recruitment Solutions
Paris
Fully remote
Mid - Senior
Private salary
  • CDI - Client final
  • Paris
  • Télétravail 2 jours

Notre partenaire, acteur majeur dans le domaine de la finance, recherche un(e) Analytics Engineer pour accompagner la croissance de ses activités et soutenir les équipes métiers dans la prise de décision basée sur la donnée.

En tant qu’Analytics Engineer, vous contribuez à fournir des données fiables, structurées et exploitables pour optimiser le pilotage de l’activité. Vous travaillerez au cœur des sujets Data : modélisation, extraction, analyse, visualisation et dataviz.

Missions :

📊 Data Engineering & Modélisation :

  • Déployer et maintenir des modèles de données.
  • Gérer et optimiser les data pipelines.

🧩 Extraction & Analyse :

  • Répondre aux besoins des équipes métiers via SQL et/ou Python.
  • Garantir des données fiables, précises et livrées dans les délais.

📈 Reporting & Data Visualisation

  • Concevoir ou enrichir les modèles nécessaires aux dashboards.
  • Développer des mesures avancées
  • Créer des tableaux de bord et visualisations percutantes.

Profil recherché :

  • Minimum 3 ans d’expérience dans une fonction data (Data Analyst, Data Engineer ou Data Scientist)
  • Maitrise de SQL, Python, et des outils de data visualisation comme Power BI ou Tableau
  • La connaissance des produits Microsoft et du cloud Azure est appréciée
  • Diplôme de niveau Master en statistiques, data analyse/science, modélisation des données ou équivalent
Ingénieur de données/Ingénieure de données
Objectware
Ile-de-France
Remote or hybrid
Junior - Mid
Private salary
+3

Missions :

En tant que Data Engineer, vos principales missions seront :

  • Concevoir, développer et maintenir des pipelines de données (ETL/ELT)
  • Mettre en place et optimiser des architectures Data (Data Lake, Data Warehouse)
  • Assurer l’intégration et la transformation des données provenant de différentes sources
  • Garantir la qualité, la fiabilité et la disponibilité des données
  • Collaborer avec les équipes Data (Data Analyst, Data Scientist)
  • Participer à l’amélioration continue des performances des systèmes

Profil recherché :

  • Bonne maîtrise de SQL
  • Expérience en Python ou Scala
  • Connaissance des outils ETL et des technologies Big Data (Spark, Hadoop)
  • Bonne compréhension des bases de données relationnelles et NoSQL

Atouts :

  • Expérience en environnement Cloud (AWS, Azure ou GCP)
  • Connaissance des outils d’orchestration (Airflow)
  • Expérience en conteneurisation (Docker, Kubernetes)
  • Notions en CI/CD et DevOps
Data Engineer - praca zdalna
Néosoft
Paris
Remote or hybrid
Junior - Mid
Private salary

Tous nos postes sont ouverts au télétravail Groupe indépendant de conseil en transformation digitale de près de 1800 collaborateurs, Néosoft s’est construit, depuis 2005, sur un modèle qui place l’excellence, le dépassement de soi et la RSE au cœur de sa stratégie. En nous rejoignant, vous intégrez des communautés d’experts et de talents qui vous permettent de développer vos compétences et d’offrir à nos clients le meilleur accompagnement possible. Conseil & Agilité, Cybersécurité, Data, DevOps, Infrastructures & Cloud, Software Engineering Nous recherchons pour intégrer notre agence Parisienne un(e) Data Engineer GCP (H/F). Analyser et adapter le legacy pour une migration vers le cloud Produire la documentation fonctionnelle et technique de référence (SI cible, implémentation projet) Garantir la bonne application des pré-requis techniques et métiers du projet Collaborer étroitement avec les SI Source, la Data Fabrik et les métiers pour assurer une relation de confiance Contribuer à la migration de la plateforme OnPrem vers DataProc pour les projets TAI Stack technique Modélisation : 3NF, dénormalisée, étoile, flocon, Data Vault Environnements data : migration OnPrem → Cloud Méthodologies : bonnes pratiques Data Engineering, documentation technique et fonctionnelle &##Formation : Bac +5 (école de commerce, université, école d’ingénieur) Vos avantages Formations et développement de l’expertise : Vous disposez de temps alloué et rémunéré en contribuant au développement de votre expertise technique et de celle du groupe (Participations à des Tech days, animation d’une conférence à l’interne ou à l’externe, rédaction d’articles, rencontres avec nos candidats en processus de recrutement…) Un abonnement illimité LinkedIn Learning offert Bien-être au travail : Un accord de télétravail flexible et personnalisable Des initiatives locales (afterworks, défis sportifs, team buildings, …) &##

DATA ANALYST POWER BI (F/H)
NOVENCIA Group
Paris
Remote or hybrid
Mid - Senior
Private salary

Novencia accompagne ses clients dans leurs projets de transformation digitale, technologique et data.

Expert en Data et Intelligence Artificielle nous aidons nos clients à exploiter et valoriser leurs données sous toutes ses formes en les accompagnant sur des projets de Data Gourvernance, Data Architecture, Data Science, et Data Engineering.

Vos principales missions sont les suivantes :

  • Collecter, structurer et analyser des données issues de diverses sources
  • Concevoir et optimiser des tableaux de bord interactifs sur Power BI
  • Assurer la qualité, la fiabilité et la cohérence des données utilisées
  • Collaborer étroitement avec les équipes métiers, les Data Engineers et les Data Scientists pour comprendre les différents besoins et proposer des solutions adaptées
  • Contribuer à l’amélioration des processus de data management
  • Participer à l’optimisation et à l’automatisation des flux de données, notamment via des processus ETL

Profil recherché :

Vous disposez d’un diplôme de Master ou d’école d’ingénieur et avez 5 à 8 ans d’expérience en tant que consultant confirmé ou senior sur :

  • Analyse de données
  • Power BI pour la visualisation et l’exploration des données (Maîtrise avancée)
  • SSAS, SSRS et SSIS (si possible sur MS Azure)
  • Une bonne connaissance de Python
  • Des problématiques liées à la DataViz
  • SQL et bases de données relationnelles
  • Une expérience en environnement Cloud est un +

Soft skills :

  • Excellent sens de la communication
  • Capacité à collaborer avec des équipes pluridisciplinaires, interface métiers

Autonomie, curiosité, esprit d’équipe

Remote Data Scientist (Python)
MP DATA
Paris
Fully remote
Mid - Senior
Private salary

MP DATA est une entreprise spécialisée dans l’acquisition, le traitement et la valorisation des données. Depuis 2015, elle accompagne principalement des industriels dans l’optimisation de leur performance et l’exploitation de leurs données. Ses collaborateurs, issus de grandes écoles, incarnent les valeurs d’ Excellence, de Partage et d’Engagement . Leur expertise technique et méthodologique leur permet d’intervenir sur des projets d’envergure. MP DATA structure son offre autour de trois pôles : Data Science Rejoindre MP DATA, c’est s’engager sur des projets passionnants dans un cadre technique exigeant. &##Vous souhaitez les appliquer à des problématiques métier concrètes chez des clients industriels ? Nous recherchons un(e) Data Scientist expérimenté(e ) pour intervenir, dans le cadre d’une mission longue, chez l’un de nos clients grands comptes , sur un projet structurant autour de l’IA générative : Collaborer avec les Data Engineers pour assurer l’industrialisation des solutions. Mener une veille active sur les évolutions des transformers, diffusion models et approches hybrides. &##Diplômé(e) d’une grande école d’ingénieur (2ans), avec une solide expérience en IA générative et Machine Learning . Maîtrise de Python, TensorFlow, PyTorch, Hugging Face Transformers, LangChain, LlamaIndex. Bonne connaissance des architectures RAG, fine-tuning de modèles de langage et bases de données vectorielles (FAISS, Pinecone…). Pourquoi rejoindre MP DATA ? &##Des projets passionnants et à fort impact : Travaillez sur des sujets concrets au sein de notre DataLab , avec des clients industriels prestigieux. &##Un accompagnement personnalisé : Profitez d’un cadre propice à l’évolution grâce à notre pôle académie , qui soutient vos ambitions et développe vos compétences techniques. &##Rejoignez une équipe qui valorise l’entraide, la créativité et la performance technique. &##Télétravail possible, horaires flexibles et un package de rémunération compétitif (primes, avantages sociaux, etc.). &##Si vous souhaitez transformer votre passion pour les données en solutions impactantes, MP DATA est l’endroit parfait pour donner un nouvel élan à votre carrière. Postulez dès aujourd’hui et venez écrire l’avenir des données avec nous !

Analytics Engineer
Mirakl
Bordeaux
Remote or hybrid
Mid - Senior
Private salary

About Mirakl:

Founded in 2012, Mirakl has been at the forefront of marketplace innovation, empowering every business to compete in the platform economy.Today, Mirakl’s operating system combines an enterprise marketplace solution (Mirakl Platform) that enables retailers and B2B organizations to launch, scale, and operate marketplaces and dropship, AI-powered multichannel selling (Mirakl Connect), retail media (Mirakl Ads) and an agentic commerce infrastructure (Mirakl Nexus).With dual headquarters in Boston and Paris, Mirakl helps a global ecosystem of 450+ marketplaces (B2C and B2B) and a network of over 100k third-party marketplace sellers. Brands like Macy’s, Decathlon, Carrefour, Asos, and Airbus Helicopters use Mirakl to grow their businesses in new and remarkable ways.

For more information: .

Mirakl in Numbers:

  • 🗓️ Founded in 2012 | Member of French Tech Next40
  • 👥 750+ employees in 9 offices worldwide: Paris, Barcelona, Bordeaux, Boston, London, Munich, New York, Sydney, Tokyo
  • 🇫🇷 350+ Mirakl Tech teams members mainly based in France
  • ⚙️ 5 Saas Solutions

Our Values:

Working at Mirakl means accelerating your career alongside ambitious, passionate, and supportive colleagues. We’re proud of the diversity of backgrounds, perspectives, and experiences that make our teams unique.

Our 5 values guide how we collaborate:

  • 💡 Work Hard Together: Teamwork and collaboration are the foundation of our success
  • 🏆 Get Things Done: We prioritize action and efficiency for impactful results
  • 🚀 Go Above & Beyond: We tackle challenges proactively and always aim for excellence
  • 🎓 Succeed Through Expertise: Knowledge sharing and continuous learning are core to our culture
  • 🤝 Satisfy & Empower Clients: We’re committed to our clients’ success

Your Role

We’re looking for an Analytics Engineer to join our data team at a pivotal moment. As Mirakl scales, data isn’t just supporting decisions, it’s powering them. From product strategy to AI-driven workflows, everything we build needs a rock-solid data foundation.

You’ll be at the intersection of engineering and analytics, transforming raw data into the insights and intelligence that fuel our next phase of growth. This isn’t a “maintain the status quo” role, it’s a chance to shape how data flows through the entire organization.

What You’ll Do

Build Data Products That Move the Business Forward

  • Partner with product and business stakeholders to understand needs and constructively challenge requirements, and ensure data products deliver actionable value
  • Develop and maintain scalable data models, comprehensive semantic layer (documentation) and robust transformation pipelines to convert raw data into analytics-ready datasets
  • Build and maintain dashboards guaranteeing reliable access to critical performance indicators

Shape the Future of Analytics at Mirakl

  • Enable self-service analytics and emerging agentic solutions empowering users to independently discover insights and optimize workflows
  • Drive adoption of analytics solutions through user training, responsive support and incident resolution
  • Continuously refine data solutions and workflows by monitoring usage metrics and gathering user feedback to improve quality, reliability, and usability

Your stack

  • Data Platform: Databricks
  • ELT & Transformation: dbt core, Airbyte
  • Languages: SQL, Python
  • BI & Visualization: Metabase

What We’re Looking For

Must-haves

  • 3+ years as an Analytics Engineer or similar data & analytics role
  • Proficiency in SQL for data manipulation and automation
  • dbt experience and deep understanding of modern analytics engineering (version control, automated testing, CI/CD)
  • Ability to implement advanced analytics methods (cohort analysis, time series forecasting, etc.)
  • Data visualization expertise with tools like Metabase, Superset, Tableau, or similar
  • Strong problem-solving skills, attention to detail, and the ability to work in a fast-paced environment
  • Excellent communication skills to work with technical and non-technical stakeholders
  • Proficient in professional English, both written and spoken

Nice to have

  • Hands-on experience with AI-powered or agentic tools
  • Experience in the ecommerce or marketplace ecosystem
  • Python for analytics and automation

Why Join Now?

This is a rare opportunity to join a scale-up that’s already proven its model and is now accelerating. You’ll have:

  • Real impact : Your work directly influences business decisions, go-to-market strategy, and company direction
  • Growth trajectory : As we scale, so do the challenges and your opportunities
  • Modern stack : We invest in best-in-class tools and emerging AI/agentic technologies

Collaborative culture : Work with smart, driven people across product, engineering, and business teams

Recruitment Process

  1. An initial call with the recruiter
  2. Case study + debrief with your future Manager and a team member
  3. Values interviews with colleagues from other teams to ensure mutual fit

The STAR method and structured interviews will hold no secrets for you.

We welcome collaborators with their diverse perspectives and experiences to power us forward. These often far exceed conventional job requirements and help us create a culture of continuous learning. If you’re ready to join a global leader powering digital transformation for 450+ of the world’s most innovative retailers and B2B organizations…

We may use Artificial Intelligence (AI) solutions to help streamline our hiring process, including screening applications, analyzing resumes, and assessing responses. While AI helps us work efficiently, all final hiring decisions are made by humans. For more information, visit our AI Guidelines for Candidates and Interviews .

Data Scientist - AI Marketplace Platform
Mirakl
Paris
Remote or hybrid
Mid - Senior
Private salary
+3

Mirakl est le leader des solutions logicielles pour le e-commerce. Nous proposons aux entreprises une suite unique de solutions leur permettant de transformer significativement leur activité digitale afin d’accélérer de façon durable et rentable leur croissance.

Depuis 2012, Mirakl accompagne les entreprises B2C et B2B avec la technologie la plus avancée, sécurisée et évolutive leur permettant de digitaliser leur activité et d’élargir leur offre via la marketplace ou le dropship, faciliter la gestion des catalogues et des paiements de leurs fournisseurs pour plus d’efficacité, offrir une expérience d’achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media.

Mirakl est le partenaire de choix de plus de 450 entreprises leaders dans le monde, dont Airbus, Maisons du Monde, Decathlon, H&M, Sonepar et Toyota Material Handling. Pour plus d’informations :

A propos de Mirakl Labs

Nos équipes techniques et produits, nommées Mirakl Labs, sont principalement réparties entre nos 2 hubs situés à Paris et à Bordeaux. Elles collaborent au quotidien afin d’adresser les problématiques de nos clients et utilisateurs en répondant à différents challenges liés aux nouvelles fonctionnalités, à la scalabilité, la sécurité et l’ergonomie…

Elles opèrent en mode agile et s’organisent en Squads composées d’un Squad Lead, de 5 développeurs, d’un Product Manager et d’un QA. Chaque Squad est spécialisée sur un scope fonctionnel afin de concevoir et réaliser de nouvelles features, leurs évolutions et des APIs (avec un découpage en micro-services). Nos équipes Infrastructure, Architecture, Sécurité, Documentation, Product Design, Data et Support opèrent en transverse en apportant leur expertise et de la cohérence sur l’ensemble des produits.

Toutes les équipes sont responsables de leur périmètre et chacun des collaborateurs apporte son expérience et ses idées. Innovation, feedback et implication dans les prises de décision sont au cœur de notre philosophie.

Et pour favoriser ce partage avec d’autres passionnés, nous sommes sponsors, speakers, et hôtes de différents événements, meetups, et associations de la scène Tech en France. Au cours des dernières années, nous avons participé à des événements tels que Devoxx, ReactEurope, ProductConf et Flupa UX Days.

A propos du job

Intégré.e dans notre équipe Data Science, votre principale mission sera de prototyper, itérer, et mettre en production des algorithmes en collaboration avec les équipes Produit, les Data Engineers et les équipes de développement.

Vos projets seront centrés sur les enjeux du catalogue Marketplace, comprenant le NLP, la Computer Vision et l’utilisation de Generative AI (LLMs customs) à grande échelle. Les sujets que vous traiterez auront un impact significatif sur nos clients : notre ambition est d’exploiter au mieux nos données riches et variées pour augmenter leur chiffre d’affaires, optimiser la gestion de leur marketplace et garantir la sécurité des utilisateurs et des transactions. Nous sommes ouverts en profils en CDI sur Paris, Bordeaux ou en télétravail dans l’Hexagone.

Voici quelques sujets actuels & futurs traités par l’équipe :

  • Détection d’anomalies sur les prix des produits
  • Analyse de sentiment sur les échanges vendeur/consommateur pour prioriser les messages critiques
  • Estimation des délais de livraison des colis
  • Prédiction et anticipation des ruptures de stock
  • Détection d’anomalies sur les comportements vendeurs
  • Développement d’agents IA aidant à la prise d’action sur leur commerce

Ce qu’il y a pour vous dans ce job :

  • Implémenter des algorithmes qui auront un impact visible sur plus de 500 sites e-commerce/marketplaces dans 40 pays dont certains une volumétrie très importantes (millions de produits, de clients, de commandes par an)
  • Des techniques diverses et variées (Time Series, Heuristiques, Deep Learning, NLP, LLM, etc.)
  • Une vraie autonomie et responsabilité dans les projets dont vous avez l’ownership

Notre stack et nos outils :

Python, Tensorflow, Keras, Pytorch, Databricks, Spark, Aws (Amazon Redshift, s3, etc.), SQL, Airflow, Delta Lake

Au quotidien , vous allez :

  • Analyser, préparer les données, prototyper des algorithmes
  • Les mettre en production en collaboration avec les Data Engineers et les équipes de développement
  • Faire des dashboards afin d’illustrer la pertinence des algorithmes et de monitorer la production
  • Présenter les résultats au weekly data science et participer aux sessions de brainstorming de l’équipe
  • Échanger avec les autres équipes pour affiner les cas d’utilisation, l’expérience utilisateur et les modes d’intégration

Vous aimerez ce job si :

  • Vous êtes issu.e d’une formation en machine learning, mathématique, informatique (ou autre domaine lié)
  • Vous avez déjà 3 ans d’expérience sur un poste similaire
  • Vous avez une expérience significative en ML appliqué en entreprise
  • Vous avez une bonne connaissance des algorithmes de Machine Learning et Deep Learning (notamment des architectures State-Of-the-Art - par exemple les Transformers)
  • Vous maîtrisez Python, Tensorflow ou/et PyTorch
  • Vous êtes pragmatique, data-driven et orienté métier avec un bon esprit d’équipe
  • Vous aimez avoir l’ownership de vos sujets et vous êtes curieux
  • Vous avez un esprit positif : respect et bienveillance font partie de vos valeurs

Envie de nous rejoindre? ⭐

  • Un échange téléphonique de 30 minutes avec un de nos recruteurs Tech. Ce sera l’occasion de discuter de votre parcours, de vos attentes et de découvrir ce que Mirakl peut vous offrir en retour
  • Un premier échange technique par zoom de 30 minutes avec une personne de l’équipe Data Science, qui permettra de plonger dans des aspects plus concrets de votre expertise et de découvrir comment vos compétences peuvent s’intégrer à nos projets
  • Un cas pratique à réaliser à la maison
  • Une restitution et échange technique avec un manager de l’équipe Data Science de 75 minutes
  • Un dernier échange de 1H par zoom avec des futurs collègues Mirakl autour de nos valeurs et de notre culture d’entreprise.

Mirakl est engagée en faveur de la diversité, de l’égalité des chances et de l’inclusion. Nous célébrons nos différences car nous sommes convaincus que les qualités visibles et invisibles de chaque Mirakl Worker sont une source de force et d’innovation. Dans le cadre de cet engagement, nous étudions toutes les candidatures sans distinction de : genre, ethnicité, religion, orientation sexuelle, handicap, âge ou toute autre caractéristique protégée par la loi.

Consultant(e) Senior Power BI (H/F)
MeltOne Advisory
Paris
Remote or hybrid
Senior
Private salary

Qui sommes nous?

MeltOne Advisory, c’est 200 consultants passionnés , 10 ans d’aventure, et une mission claire : accélérer la transformation digitale de nos clients avec excellence opérationnelle, agilité et proximité.

MeltOne est un cabinet de conseil indépendant en forte croissance, né à Paris et présent à l’international.

Avec 5 bureaux dans le monde (Paris, New-York, Montréal, Singapour & Bogota), on accompagne nos clients au plus près de leurs enjeux de digitalisation des processus.

Notre modèle ? Le meilleur des deux mondes :

👉 L’esprit French Tech : innovation, agilité, esprit d’équipe, partenariat avec les éditeurs à la pointe de la technologie

👉 La solidité d’un grand cabinet : méthodo, engagement sur le résultat, variété des expertises.

Nous accompagnons des grands comptes (luxe, retail, banque, industrie, énergie…) mais aussi les acteurs de la FrenchTech sur des projets complexes mêlant systèmes d’information, pilotage de la performance, et data .

Ce qui nous anime ? Le goût du travail bien fait, l’esprit d’équipe, et l’envie de faire grandir nos clients comme nos collaborateurs.

🌈 Pourquoi nous rejoindre ?

Chez MeltOne, vous trouverez :

  • 💰 Une rémunération attractive et plein d’avantages (subventions CE, congés supplémentaires, cours de sport toutes les semaines…)
  • 🏡 Une politique de télétravail 100% libre afin de vous offrir un cadre de travail respectueux de votre équilibre vie professionnelle et personnelle
  • 📚 Un accompagnement personnalisé & des formations tout au long de votre vie de Meltoner afin que vous puissiez évoluer sur les plans pro et perso
  • 🎉 Une ambiance propice à la créativité et à l’esprit d’équipe (ateliers internes, petit-déj innovation, projets transverses…)
  • La possibilité de vous impliquer dans les projets RSE de votre choix : collecte de vêtements et de livres, don du sang, courses solidaires et même faire du mécénat pour l’association de votre choix…

Vos missions:

Votre mission si vous l’acceptez : accompagner nos clients sur des projets de transformation digitale variés et dans tous types de secteurs d’activité (Luxe, retail, services, industrie, banque / assurance, énergie…).

Nos consultants possèdent une double expertise : technique et fonctionnelle (Finance, Supply, S&OP…). Vous interviendrez donc sur des projets alliant cette double casquette et vous pourrez évoluer dans des environnements variés au fil des missions client.

Vous travaillerez en étroite collaboration avec nos managers et sur différents types de projet :

Vos missions chez MeltOne :

  • Conseil & delivery sont au programme : Accompagner nos clients dans la mise en œuvre de process autour de la gestion et la transformation de leurs données.
  • Gagner ensemble : Participer aux réponses aux appels d’offres et avant-ventes.
  • Rester à la pointe : Veille technologique, développement de nos bonnes pratiques.
  • Grandir ensemble : Former et mentorer chez MeltOne.

Vos missions chez nos clients :

  • Concevoir des solutions pertinentes et innovantes en tenant compte de tous les enjeux du contexte client
  • Implémenter et optimiser ces solutions dans les règles de l’art
  • Conseiller les clients dans leurs choix
  • Transmettre votre savoir-faire et participer à la capitalisation de connaissance des utilisateurs.

Sur vos différentes missions vous aurez l’opportunité d’intervenir à la fois sur les différentes phases des projets : cadrage / conception et mise en œuvre / paramétrage / tests / formation du client mais également sur des activités internes : RSE, recrutement, formation des juniors, intrapreneuriat…

Profil recherché

Vous avez une expérience d’au moins 5 ans dans le domaine de la DATA.

Vous avez une base technique solide :

  • Expert de la solution PowerBI
  • Artiste du dashboarding de l’UX à l’UI
  • Bilingue en langage de manipulation de données (SQL, Python…)
  • Champion en modélisation de données
  • Connaissance d’outils de manipulation de bases de données (BigQuery, Snowflake, PostgreSQL, Redshift…)

Vous avez des compétences de gestion de projets évidentes :

  • Méthodologies agiles
  • Cadrage des besoins
  • Mise en place des phases projets
  • Gestion au day to day
  • Communication

Un soupçon de soft skills :

  • Vous avez un esprit d’analyse, de synthèse, et excellente organisation
  • Vous avez un goût prononcé pour l’innovation
  • Grâce à votre esprit d’équipe, vous aimez partager des moments conviviaux avec vos collègues
  • Vous maîtrisez l’anglais

Si en lisant cela, vous vous dites que c’est tout vous, c’est que vous avez l’étoffe d’un futur MeltOner et que vous devez postuler à cette offre!

Déroulement des entretiens

  • Entretien RH (30 min en visio) avec Amina ou Sarah : Découverte mutuelle : on vous présente MeltOne et on vous laisse nous présenter votre parcours et vos ambitions.
  1. Entretien opérationnel (1h) avec un consultant senior ou manager : retour d’expérience, technique et projection dans notre contexte.
  2. Entretien final (1h en présentiel) avec un manager : cultural fit, réponses à vos questions

✅ Si tout match des deux côtés : on vous prépare un parcours d’intégration sur-mesure pour vous accompagner dans votre prise de poste.

Analytics Engineer (H/F) - Expert GCP & DBT
LINCOLN
Ile-de-France
Remote or hybrid
Mid - Senior
Private salary

Lincoln Pure Player Data 💡: Réinventant l’analyse depuis 30 ans . Experts en Modern BI, Big Data et Science des données 📊. Nous transformons vos données en solutions pour les grands comptes, des secteurs bancaire, retail, télécoms, industriel, santé, et plus encore 💼.

Description du poste :

Aujourd’hui, nous renforçons nos équipes dans le domaine de la finance avec un(e) Analytics Engineer expérimenté(e), spécialisé(e) en Google Cloud Platform (GCP) et DBT , afin de relever les défis liés à la gestion et à l’analyse de grandes volumétries de données financières.

🎯 Votre mission : Contribuez à transformer la donnée en valeur métier

1️⃣ Compréhension des besoins métier

  • Échanger avec les équipes métiers pour recueillir leurs besoins en data.
  • Présenter les livrables et accompagner la validation des données (recette).
  • Réaliser des audits de données et analyser les impacts pour les projets clés.

2️⃣ Architecture et pipelines de données sur GCP

  • Mettre en place des pipelines robustes et optimisés sur Google Cloud Platform .
  • Intégrer et gérer des données avec Google Cloud Storage (GCS) comme base pour les traitements analytiques.
  • Construire des tables BigQuery prêtes pour l’analyse et l’alimentation de tableaux Power BI.
  • Assurer la scalabilité et la performance des solutions proposées.

3️⃣ Préparation et qualité des données

  • Contrôler la disponibilité, la fiabilité et la qualité des données.
  • Collaborer étroitement avec l’équipe pour orchestrer l’ingestion des données et les processus de refresh.

4️⃣ Modélisation avancée avec DBT

  • Développer, tester et optimiser des modèles SQL via DBT .
  • Maintenir des modèles clairs, performants et réutilisables pour divers cas d’usage.

🔍Ce que vous apportez :

  • 🎓 Expérience : Minimum 4 ans en tant qu’Analytics Engineer, avec une expertise avérée dans le domaine de la finance .
  • Compétences techniques : SQL, PowerBI, GCP, BigQuery, DBT, Git.
  • Langues : Niveau professionnel en anglais.
  • Qualités personnelles : Sensibilité aux performances, esprit critique, capacité à gérer des incidents, aisance dans la navigation des data sets Power BI et/ou BigQuery.

🌟 Avantages :

  • Environnement collaboratif et innovant
  • Formations certifiantes et accompagnement individualisé
  • Télétravail et horaires flexibles
  • Rémunération compétitive avec avantages sociaux attrayants
  • Possibilité de mobilité à Lille, Lyon ou Aix-en-Provence

✨ Processus de recrutement : 2 entretiens (RH et technique)

Si vous êtes passionné par les défis de la Data et que vous souhaitez rejoindre une équipe dynamique et innovante, postulez dès maintenant et contribuez à redéfinir l’avenir de l’analyse de données chez Lincoln! 😉

Data Analyst GCP (senior) -H/F
LINCOLN
Ile-de-France
Remote or hybrid
Senior
Private salary
+3

Lincoln Pure Player Data 💡: Réinventant l’analyse depuis 30 ans . Experts en Modern BI, Big Data et Science des données 📊. Nous transformons vos données en solutions pour les grands comptes, des secteurs bancaire, retail, télécoms, industriel, santé, et plus encore 💼.

Description du poste :

🚀 Rejoignez notre équipe en tant que Data Analyst (H/F), intervenant auprès de clients Grands Comptes.

Ce que l’on attend de vous :

1️⃣ Collaboration avec les équipes métiers

  • Échanges avec le métier : Recueillir et comprendre les besoins.
  • Présentation des livrables : Restituer les résultats de manière claire et impactante.
  • Recette de la donnée : Assurer la qualité des données collectées.
  • Audit et analyse : Réaliser des audits et analyser les impacts.

2️⃣ Mise en place d’architectures et de pipelines

  • Architecture de performance : Mettre en place des architectures pour calculer les mesures de performance.
  • Pipeline de données : Créer et gérer des pipelines de données.
  • BigQuery et PowerBI : Créer des tables BigQuery pour exploitation dans PowerBI.

3️⃣ Préparation et exploitation des données

  • Qualité de la donnée : Vérifier la disponibilité et la qualité des données.
  • Collaboration : Travailler avec les membres de l’équipe pour l’ingestion et le refresh des données.
  • Modélisation : Développer, optimiser et tester des modèles SQL.

4️⃣ Conception et mise en œuvre sur GCP

  • Solution GCP : Concevoir et implémenter des solutions sur Google Cloud Platform.
  • Documentation technique : Rédiger la conception technique des projets.
  • Tests : Réaliser des tests d’intégration, de non-régression et de certification.
  • Mesure des effets : Exploiter les données pour mesurer les effets de report de ventes.

Vos atouts pour réussir sur ce poste :

  • 🎓 Formation : Diplôme en ingénierie, informatique ou équivalent avec spécialisation IT.
  • 👩‍💻 Expérience : Minimum 2 ans post-diplôme en tant que Data Analyst.

🔧 Compétences techniques :

  • GCP : Maîtrise avancée de Google Cloud Platform.
  • Tableau/Looker : Maîtrise d’un outil de visualisation (idéalement Tableau ou Looker).
  • SQL : Maîtrise des requêtes SQL.
  • Bonus : Connaissance de Terraform, Jenkins, Airflow, Docker, Kubernetes.

🌟 Avantages :

  • Environnement collaboratif et innovant
  • Formations certifiantes et accompagnement individualisé
  • Télétravail et horaires flexibles
  • Rémunération compétitive avec avantages sociaux attrayants
  • Possibilité de mobilité à Lille, Lyon ou Aix-en-Provence

✨ Processus de recrutement : 2 entretiens (RH et technique)

Si vous êtes passionné par les défis de la Data et que vous souhaitez rejoindre une équipe dynamique et innovante, postulez dès maintenant et contribuez à redéfinir l’avenir de l’analyse de données chez Lincoln! 😉

Consultant Data Microsoft H/F
Klint
Ile-de-France
Remote or hybrid
Junior - Mid
€45,000/hour - €55,000/hour

Rejoignez notre équipe passionnée en tant que Consultant Data spécialisé sur Microsoft Fabric !

Nous sommes une ESN engagée dans l’univers de la DATA et nous recherchons un expert motivé pour contribuer à des projets innovants autour des solutions Cloud et Fabric de Microsoft.

Si vous aimez relever des défis techniques et souhaitez évoluer dans un environnement stimulant, cette opportunité est faite pour vous !

Participer à des projets Data Cloud : Concevez et mettez en œuvre des solutions basées sur Microsoft Fabric et l’écosystème Azure.

Modélisation et optimisation : Créez des modèles de stockage et de traitement des données performants et fiables.

Développement et industrialisation : Implémentez des pipelines de collecte, d’ingestion et de transformation des données, en veillant à leur automatisation et robustesse.

Qualité et performance : Contrôlez la qualité des données et optimisez les traitements pour garantir des résultats précis.

Veille technologique : Restez informé des évolutions autour de Fabric, Azure et des solutions Data Cloud pour proposer des améliorations continues.

Expérience confirmée en Data Engineering ou Data Analytics , idéalement sur des projets Cloud.

~2 ans d’expérience sur des outils Microsoft Fabric et des services Azure (Data Lake, Synapse, Power BI, etc.).

~ Connaissance des concepts de modélisation de données , ETL , pipelines , et des bonnes pratiques de performance.

~ Entretien avec le Responsable de pôle Data

KLINT ne porte aucune importance au genre, à l’âge, à l’origine ethnique, à la religion, au physique ni à l’orientation sexuelle des candidats lors de la sélection des candidatures.

Database Administrator
Innova Solutions
Paris
Remote or hybrid
Senior - Leader
Private salary

💼 Intitulé du poste : DBA SQL Server

📍 Lieu : Alpes-Maritimes ou Full remote

Démarrage : ASAP

À propos de la mission :

  • Gestion des environnements SQL Server : installation, configuration, mises à jour et résolution d’incidents.
  • Tuning des requêtes, optimisation des index, analyse des plans d’exécution et mise en place de solutions de monitoring.
  • Supervision et automatisation des tâches récurrentes, gestion des droits, audit, chiffrement et durcissement des bases de données.
  • Conception et optimisation des procédures stockées, triggers et fonctions, participation aux revues de code et promotion des bonnes pratiques.
  • Déploiement et optimisation des solutions de haute disponibilité, sauvegardes/PRA, rédaction de documentation technique et propositions d’amélioration de la performance et de la robustesse du SI

Compétences requises :

  • Minimum 10 ans d’expérience en tant que DBA SQL Server
  • Gestion complète des instances, maintenance préventive, sauvegardes, restauration et fiabilité opérationnelle.
  • Gestion fine des rôles et permissions, durcissement des environnements, audits et bonnes pratiques de sécurité.
  • Maîtrise des technologies AlwaysOn, mirroring, log shipping et autres solutions de résilience.
  • Expertise en procédures stockées, triggers, fonctions, diagnostic (DMV, Profiler, XE) et travail étroit avec les équipes devs.
Data Engineer - Machine Learning / Python / SQL
INFOTEL CONSEIL
Aix-en-Provence
Remote or hybrid
Mid - Senior
Private salary

Infotel Conseil accompagne les directions Informatiques et Métiers des grandes entreprises depuis plus de 40 ans (Airbus, BNP Paribas, Banque de France, BPCE, Air France, Arkéa, Stellantis, etc.). et à l’étranger (UK, Monaco, Allemagne, US, Canada, Inde, Maroc). Infotel Conseil, spécialiste des projets IT, intervient pour ses clients sur la gestion et l’évolution de leur patrimoine informatique. Retrouvez nos informations sur . Objectif : Mettre en place les jobs d'ingestion et de préparation des données dans le cadre de la création du socle DATA. Concevoir, développer et industrialiser des cas d'usage Data Science (IA & IA Gen) sur des environnements GCP (Google Cloud Platform) ou en local. Collaborer étroitement avec les Data Scientists pour transformer les prototypes en solutions scalables et fiables. Mettre en place et gérer les pipelines de données, assurer leur qualité et leur intégration. Optimiser les performances des infrastructures de données. Garantir la sécurité, la confidentialité et la conformité des données manipulées. De formation BAC +5, vous justifiez de minimum 5 ans d’expérience sur un poste similaire. Maîtrise avancée de Python et expérience significative en développement et industrialisation de solutions data. Connaissances en gestion de bases de données, ETL, pipelines data. Capacité à travailler en équipe agile et à collaborer avec différents interlocuteurs (data scientists, chefs de projet, clients internes). Selon votre potentiel et vos souhaits de carrière, plusieurs possibilités s’offriront à vous : pilotage de projet, management d’équipe, ou encore expertise métier. Infotel Conseil déploie, depuis début 2022, une charte télétravail. Égalité entre les femmes et les hommes (existence d’une communauté interne « Infot’Elles »), Charte Handicap « Nous sommes tous différents », Engagement pour le Numérique Responsable et l’environnement,

Back End Developer
Coleo
Barcelona
Remote or hybrid
Graduate - Junior
Private salary

Sobre Coleo & Wastex

En Coleo , nos comprometemos a transformar la industria textil para crear un cambio positivo y duradero tanto para las personas como para el planeta. Con un enfoque impulsado por la tecnología, ponemos en valor las prendas post-consumo y desarrollamos soluciones circulares y escalables.

Wastex es el corazón tecnológico de Coleo. Diseñamos la maquinaria y el software que impulsan tanto nuestras operaciones como las de nuestros clientes. En Wastex, no solo “escribimos código”; resolvemos problemas industriales del mundo real. Nuestra tecnología garantiza la trazabilidad y la eficiencia en un sector en plena transformación.

El Rol

Buscamos un Backend Developer Intern con ganas de aprender a diseñar y evolucionar servicios críticos de negocio. Trabajarás en un producto real con impacto directo en operaciones, logística y procesos industriales. Es una oportunidad ideal para entender cómo las decisiones técnicas tienen consecuencias tangibles en el mundo físico.

Responsabilidades

  • Apoyar en el desarrollo de APIs y servicios backend robustos.
  • Aprender a modelar lógica de negocio compleja para flujos de circularidad industrial.
  • Ayudar en la gestión y optimización de bases de datos relacionales (MySQL/PostgreSQL).
  • Participar en discusiones de diseño arquitectónico y revisiones de código.
  • Escribir código limpio y participar en un entorno de aprendizaje colaborativo.

Requisitos (Perfil Junior/Intern)

  • Estudiante de Ingeniería Informática o similar.
  • Conocimientos sólidos de Node.js y TypeScript .
  • Curiosidad técnica y proactividad: buscamos a alguien que no tenga miedo a preguntar y quiera entender el “porqué” de las cosas.
  • Nociones de diseño de APIs REST .
  • Conocimiento básico de bases de datos SQL .
  • Manejo de control de versiones con Git .

Valoramos positivamente

  • Familiaridad con Clean Architecture o patrones de diseño.
  • Proyectos personales o académicos utilizando Docker o servicios Cloud (AWS).
  • Interés por la sostenibilidad y la economía circular.
Chef/Cheffe de projet Data (F/H)
Argain Consulting Innovation
Niort
Remote or hybrid
Mid - Senior
€40,000/hour - €50,000/hour

✨ Notre entreprise :

Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l’écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort.

Nous mettons un point d’honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d’appartenance.

Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.

Nous recherchons un(e) chef de projet Data (F/H)

En tant que Chef de projet Data (F/H) , vous interviendrez :

Chez les clients, selon le cadre et les objectifs définis :

  • Piloter l’activité DATA
  • Manager les équipes opérationnellement
  • Contribuer aux estimations fournies par les équipes en vue du s’assurer de la faisabilité dans le budget accordé ou demandé,
  • Construire le planning prévisionnel,
  • accompagner les équipes dans la conception
  • Etre garant des livrables et s’assurer que la solution proposée corresponde aux contraintes de l’organisation (technologiques, sécurité, …),
  • Accompagner les PO dans l’aide à la relation métier
  • Coordonner les équipes projet ainsi que les acteurs externes en vue d’atteindre les engagements (vérification de l’allocation des tâches en fonction des ressources),
  • Construire ses indicateurs et tableaux de bords afin d’assurer le pilotage efficace de son projet,
  • Assurer la visibilité au travers des comitologies projet (animation des comités projets COPIL, COPROJ, Steering Committee, etc …).
  • Mener des TASK FORCE en cas d’incidents

Au sein du cabinet :

  • Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat),
  • Participer à des projets internes relatifs à nos activités évènements, QVT, RSE,
  • Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)

🕵️ Qui êtes-vous ?

De formation Universitaire, ou Ecole d’Ingénieurs, vous disposez d’au moins 7 ans d’expériences en gestion de projets DATA.

Vous avez :

🖋️ D’excellentes compétences en analyse, rédaction et communication ,

🤝 Une capacité à travailler en équipe et à challenger les équipes et les solutions

🦾 Une connaissance approfondie des outils de type ETL/ELT

🖋️Expertise du langage SQL ( ex DATAIKU)

💡Connaitre l’intégration et l’optimisation des données pour Tableau

📢 Une très bonne connaissance du domaine de l ‘Assurance VIE,

💡Expérience sur BO et SAS serait appréciée

📢 Une forte aptitude à communiquer

👍 Un esprit d’ initiative et sens de l’ organisation.

🚀 L’aventure Argain Consulting, c’est :

  • Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH),
  • Un processus d’intégration personnalisé (individuel puis collectif),
  • Des formations certifiantes (au minimum 1 formation tous les deux ans),
  • De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké),
  • La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager),
  • Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaires),
  • Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant).

💰 Rémunération : 40k à 50K selon le niveau d’expérience

🚀 Le processus de recrutement :

Notre processus comprend 3 entretiens :

🤝 Un entretien de découverte avec un(e) référent(e) RH, pour apprendre à se connaître et s’assurer de notre intérêt mutuel. (45-60 minutes )

💼 Un entretien de projection avec un business manager, pour évoquer les typologies de missions sur lesquelles vous pourriez intervenir. (30-45 minutes )

💡 Un entretien technique avec un référent métier, pour challenger vos savoirs, savoir-faire et savoir-être. (60 minutes )

À compétences égales, ce poste est ouvert aux personnes en situation de handicap.

Cette offre vous intéresse ? Postulez ! 🏆🙏🚀🎉

AI Forward Deploy Engineer
Arango
Paris
Remote or hybrid
Mid - Senior
Private salary
+1

About Arango:

At Arango we’re on a mission to make working with complex data simple, powerful, and AI-ready. Based in California and in Cologne (with a global team), we’re building a cutting-edge data platform that helps organizations bring all their data together — graph, document, key/value, full-text, and vector search — in one engine.

Why does that matter? Because it means developers and data teams can build next-gen AI applications like RAG , knowledge graphs, and smart agents — without gluing together a bunch of tools that were never meant to work together.

Our platform makes it easy to work with any kind of data-structured, semi-structured, or unstructured, and it gives teams everything they need to build faster, smarter, and with way more context. From our easy-to-learn AQL query language to modern integration tools, we’re here to help teams grow and scale with AI .

About the role:

Arango is looking for an AI Forward Deploy Engineer to embed with our customers and deliver real, production‑grade AI solutions—fast. You’ll run discovery, design and prototype systems, ship secure and reliable services, and ensure adoption and measurable business impact. Think full‑stack AI + MLOps + product sense, delivered side‑by‑side with users.

This is a hands-on, customer-facing role for engineers who are as comfortable whiteboarding with executives as they are profiling latency in a retrieval pipeline.

Location: *France - only applicants living in France will be considered (Must be fluent in French and English)

Key Responsibilities:

  • Partner with customer sponsors, SMEs, and operators to identify high‑value AI use cases.
  • Define success metrics, SLAs/SLOs, data access needs, and a delivery plan (PoV → pilot → production)
  • Build end‑to‑end prototypes (data connectors, RAG pipelines, prompts/tools, UIs/APIs).
  • Productionize into secure, observable services with CI/CD, infrastructure‑as‑code, and proper testing
  • Implement retrieval‑augmented generation (chunking, embeddings, ranking, caching) and tool/call orchestration.
  • Evaluate and iterate prompts, models, and retrieval strategies using offline/online metrics and A/B tests.
  • Where needed, fine‑tune or adapt models (LoRA/PEFT, preference optimization/DPO, distillation) and optimize inference (quantization, batching, vLLM/TGI/TensorRT‑LLM)
  • Build robust data pipelines (ETL/ELT), vector indices, and metadata governance.
  • Monitor quality, drift, hallucination/guardrail events, latency, and cost; set up alerting and dashboards
  • Implement role‑based access, secrets management, audit logging, PII redaction, and content safety filters.
  • Align solutions to customer requirements (e.g., SOC2/ISO 27001, GDPR/CCPA, HIPAA as applicable)
  • Document architectures and playbooks; train customer engineers and end users.
  • Capture product feedback and influence [Company]’s roadmap with field learnings.

Required Qualifications:

  • 4+ years of software engineering experience building and operating production systems (or equivalent).
  • Strong AI, Python skills; solid understanding of data structures, networking, concurrency, and systems design.
  • Hands‑on experience with modern LLMs and tooling (e.g., OpenAI/Anthropic/Llama, Hugging Face, LangChain/LlamaIndex, function/tool calling).
  • Retrieval and vector databases (FAISS, pgvector, Pinecone, Weaviate, or similar).
  • Cloud & containers (AWS/GCP/Azure), Docker/Kubernetes, IaC (Terraform/CloudFormation), and CI/CD.
  • Observability (metrics, logs, traces) and performance tuning for latency‑sensitive services.
  • Excellent communication; experience working directly with customers or cross‑functional stakeholders.

Nice to have:

  • Front‑end or full‑stack experience (TypeScript/React, Next.js) for light UI prototyping.
  • Search/IR fundamentals (BM25, hybrid retrieval, re‑ranking).
  • MLOps platforms (MLflow, Weights & Biases), evaluation frameworks (Ragas, promptfoo, DeepEval).
  • Inference optimization (vLLM, Text Generation Inference, Triton, TensorRT‑LLM, quantization).
  • Domain experience in [finance/healthcare/public sector/manufacturing/retail] .
  • Security/compliance familiarity; prior work with data residency, KMS/HSM, or private networking.
  • Government/industry clearances where relevant.

What Success Looks Like (6–12 months):

  • 2–4 customer use cases deployed to production with agreed‑upon uptime, latency, and cost targets.
  • Demonstrable quality lifts (e.g., task accuracy, deflection rate, cycle time) backed by evals and telemetry.
  • Reusable building blocks (templates/operators/connectors) adopted by the broader delivery team.
  • Customer enablement completed (runbooks, docs, training) with strong satisfaction/NPS.

Our Toolset:

  • Models & SDKs: OpenAI, Anthropic, Meta Llama, Hugging Face
  • Retrieval: FAISS, pgvector, Pinecone, Weaviate; rerankers (ColBERT, cross‑encoders)
  • Pipelines & Orchestration: LangChain, LlamaIndex, Ray, Airflow
  • MLOps & Evals: MLflow, Weights & Biases, Ragas, promptfoo, Great Expectations
  • Serving & Infra: vLLM, TGI, FastAPI/gRPC, Docker/K8s, Terraform, GitHub Actions
  • Observability & Guardrails: OpenTelemetry, Prometheus/Grafana, Llama Guard/Content Safety, custom filters
  • Data: Postgres/BigQuery/Snowflake; Kafka; object storage

Sample Projects You Might Tackle:

  • Secure RAG assistant over millions of documents with hybrid search, guardrails, and cost‑aware caching.
  • High‑volume customer support copilot that integrates with CRM/ITSM and meets a strict response‑time SLO.
  • Document intake pipeline with PII detection/redaction and structured extraction (LLM + regex + heuristics).
  • Fine‑tuned classification/routing model that reduces human triage by 40%+.

Why Join Arango:

Our headquarters is in San Francisco (US) and we have an office in Cologne (Germany), but most of our diverse team works remotely worldwide. So, do you prefer your desk at home or do you want to join us at one of our locations? Your choice.

The global minds of Arango team comes from 5 different continents and more than 20 countries. Diverse backgrounds enable us to see new solutions. We invite people from every culture, national origin, religion, sexual orientation, gender identity or expression, and of every age to apply to our positions. All employment decisions are based on business needs, job requirements, and individual qualifications. Arango is committed to a workplace free of discrimination and harassment based on any of these characteristics. We love this diversity and encourage everyone curious and visionary to join the multi-model movement.

Frequently asked questions
Haystack features a variety of remote Data Engineer positions, including roles in data pipeline development, database management, ETL processes, and cloud data engineering across industries like tech, finance, healthcare, and more.
Many remote Data Engineer jobs require experience with tools such as SQL, Python, Apache Spark, Hadoop, and cloud platforms like AWS, Azure, or Google Cloud. Specific requirements vary by role, so be sure to check individual job descriptions.
Simply browse our remote Data Engineer job listings, select the role you're interested in, and click the apply button. You'll be prompted to submit your resume and any additional required information directly to the employer.
While many remote Data Engineer positions require some professional experience, Haystack also lists entry-level roles and internships. Use our filters to find opportunities that match your skill level.
Yes! You can create personalized job alerts on Haystack to receive notifications via email about new remote Data Engineer jobs that match your criteria, helping you stay up-to-date with the latest opportunities.