Roles
Remote Data Engineer Jobs
Overview
Looking for remote Data Engineer jobs? Haystack offers the best fully remote opportunities for skilled data engineers seeking flexible work-from-home roles. Discover top remote data engineering positions where you can design, build, and optimize data pipelines from anywhere. Start your remote data engineer career today with Haystack!
Data Engineer - Machine Learning / Python / SQL
INFOTEL CONSEIL
Aix-en-Provence
Remote or hybrid
Mid - Senior
Private salary

Infotel Conseil accompagne les directions Informatiques et Métiers des grandes entreprises depuis plus de 40 ans (Airbus, BNP Paribas, Banque de France, BPCE, Air France, Arkéa, Stellantis, etc.). et à l’étranger (UK, Monaco, Allemagne, US, Canada, Inde, Maroc). Infotel Conseil, spécialiste des projets IT, intervient pour ses clients sur la gestion et l’évolution de leur patrimoine informatique. Retrouvez nos informations sur . Objectif : Mettre en place les jobs d'ingestion et de préparation des données dans le cadre de la création du socle DATA. Concevoir, développer et industrialiser des cas d'usage Data Science (IA & IA Gen) sur des environnements GCP (Google Cloud Platform) ou en local. Collaborer étroitement avec les Data Scientists pour transformer les prototypes en solutions scalables et fiables. Mettre en place et gérer les pipelines de données, assurer leur qualité et leur intégration. Optimiser les performances des infrastructures de données. Garantir la sécurité, la confidentialité et la conformité des données manipulées. De formation BAC +5, vous justifiez de minimum 5 ans d’expérience sur un poste similaire. Maîtrise avancée de Python et expérience significative en développement et industrialisation de solutions data. Connaissances en gestion de bases de données, ETL, pipelines data. Capacité à travailler en équipe agile et à collaborer avec différents interlocuteurs (data scientists, chefs de projet, clients internes). Selon votre potentiel et vos souhaits de carrière, plusieurs possibilités s’offriront à vous : pilotage de projet, management d’équipe, ou encore expertise métier. Infotel Conseil déploie, depuis début 2022, une charte télétravail. Égalité entre les femmes et les hommes (existence d’une communauté interne « Infot’Elles »), Charte Handicap « Nous sommes tous différents », Engagement pour le Numérique Responsable et l’environnement,

Senior Database Engineer
HCLTech
Lille
Remote or hybrid
Senior
Private salary

HCLTech is a global technology company, spread across 60 countries, delivering industry-leading capabilities centered around digital, engineering, cloud and AI, powered by a broad portfolio of technology services and products. We work with clients across all major verticals, providing industry solutions for Financial Services, Manufacturing, Life Sciences and Healthcare, Technology and Services, Telecom and Media, Retail and CPG, and Public Services. We re powered by our people a global, diverse, multi-generational talent - representing 161 nationalities whose unique spark, perspective and boundless passion drive our culture of proactive value creation and problem-solving.

Our purpose is to bring together the best of technology and our people to supercharge progress for everyone, everywhere our clients, partners, their stakeholders, communities, and the planet. As a company, we are deeply focused on accelerating our ESG agenda. We are also creating technology-enabled sustainable solutions with and for our clients and partners. We embed ESG imperatives into every aspect of our business and ensure that the progress we supercharge is responsible, inclusive and beneficial to all our stakeholders in the long term. We have committed to achieving net zero by 2040.

To learn more about how we can supercharge progress for you, visit

Job Summary

We are looking for an expert DBA, recognized for their rigor, responsiveness, and ability to manage critical environments autonomously within multidisciplinary teams.

The criticality of the role requires a high level of expertise; an “operator” profile will not be considered.

The candidate must enjoy working in production and be motivated by solving complex and non-standard issues.

Responsibilities

  • Conduct technical studies and recommend IT system improvements
  • Design and document architecture and production processes
  • Develop and implement operating procedures for supported technologies
  • Report and debrief on incidents and changes
  • Address security recommendations and drive continuous improvement
  • Provide Level 3 technical support; manage complex incidents (JIRA, postmortem)
  • Oversee DBMS obsolescence (patches, migrations)
  • Proactively solve technical and security issues
  • Lead evolution projects and database migrations to the cloud
  • Ensure daily production operations and critical environment performance
  • Draft detailed architecture documentation
  • Ensure compliance with security standards (NIST)
  • Prepare and deliver technical presentations, address security and architecture challenges

Deliverables

  • Technical studies
  • Architecture files (if applicable)
  • Operating/production processes
  • Operating/production procedures for supported technologies
  • Reporting and debriefing of interventions (incidents, changes)
  • Responses to security recommendations

Mandatory Skills

  • Expertise in Oracle, PostgreSQL, SQL Server, and MongoDB
  • Advanced troubleshooting, expert support, rapid analysis and resolution of complex incidents
  • Level 3 technical support and management of complex technical incidents
  • Drafting of architecture files and postmortem reports
  • Management of obsolescence (patches, migrations, evolutions)
  • Confirmed experience in tracking evolution projects and migrating to the cloud
  • Ability to autonomously manage critical environments, define and document operating processes

Appreciated Skills

  • Experience with Elastic Search and MySQL
  • Technical assistance for new projects
  • Handling JIRA requests within the scope
  • Leadership on technical and security issues, strong proposals for continuous improvement
  • Openness to other vendors for cloud migration or support, as needed

Benefits

  • A supportive, diverse, and global team with a brilliant culture.
  • Competitive compensation and benefits that includes up to 20 days’ vacation per year, various insurances like Term life and Business Travel insurance. These are apart from the statutory benefits applicable in the country. Employee benefits are regulated by an internal policy that contains full details regarding the entitlement and conditions for the benefits as per the law of the land.
  • Great opportunities to make the role your own, upskill yourself and get involved with exciting projects.
  • Total Wellbeing is our focus. Alongside your professional excellence, you join the likeminded colleagues to create a larger impact within the company and society at large in your chosen area of passion - CSR Council, Diversity Council, Women Connect, Sparks – Engagement Champion to name a few.
  • To know more about us visit –

Contexte

Ce poste est destiné à un(e) DBA expert(e), reconnu pour sa rigueur, sa réactivité, et sa capacité à gérer des environnements critiques de manière autonome au sein d’équipes pluridisciplinaires.

La criticité du rôle nécessite un haut niveau d’expertise, un profil « opérateur » ne sera pas pris en compte.

Le candidat doit aimer travailler en production et être motivé par la résolution de problèmes complexes et non standard.

Responsabilités

  • Réaliser des études techniques et recommander des améliorations au système informatique
  • Conception et documentation de l’architecture et des processus de production
  • Élaborer et mettre en œuvre des procédures d’exploitation pour les technologies prises en charge
  • Rapports et débriefing sur les incidents et les changements
  • Appliquer les recommandations de sécurité et favoriser l’amélioration continue
  • Fournir un soutien technique de niveau 3 ; gérer des incidents complexes (JIRA, post-mortem)
  • Superviser l’obsolescence des SGBD (correctifs, migrations)
  • Résoudre de manière proactive les problèmes techniques et de sécurité
  • Piloter des projets d’évolution et des migrations de bases de données vers le cloud
  • Assurer les opérations de production quotidiennes et les performances des environnements critiques
  • Rédiger la documentation détaillée de l’architecture
  • Assurer le respect des normes de sécurité (NIST)
  • Préparer et réaliser des présentations techniques, relever les défis de sécurité et d’architecture

Livrables

  • Etudes techniques
  • Fichiers d’architecture (le cas échéant)
  • Processus d’exploitation/production
  • Procédures d’exploitation/production des technologies prises en charge
  • Reporting et débriefing des interventions (incidents, changements)
  • Réponses aux recommandations de sécurité

Compétences obligatoires

  • Expertise dans Oracle, PostgreSQL, SQL Server et MongoDB
  • Dépannage avancé, assistance d’experts, analyse et résolution rapides d’incidents complexes
  • Support technique de niveau 3 et gestion d’incidents techniques complexes
  • Rédaction de dossiers d’architecture et de rapports post-mortem
  • Gestion de l’obsolescence (patchs, migrations, évolutions)
  • Expérience confirmée dans le suivi de projets d’évolution et la migration vers le cloud
  • Capacité à gérer de manière autonome des environnements critiques, à définir et à documenter les processus d’exploitation

Compétences appréciées

  • Expérience avec Elastic Search et MySQL
  • Assistance technique pour de nouveaux projets
  • Gestion des requêtes JIRA dans le périmètre
  • Leadership sur les questions techniques et de sécurité, propositions fortes d’amélioration continue
  • Ouverture à d’autres fournisseurs pour la migration vers le cloud ou le support, au besoin
Ingénieur data expertise et qualité des données
GIE SESAM-Vitale
Le Mans
Remote or hybrid
Mid - Senior
Private salary

Le GIE SESAM-Vitale recherche son futur Ingénieur data expertise et qualité des données H/F pour un CDD d’une durée de 12 mois.

Vous souhaitez contribuer à la transformation numérique de notre système de santé ? Vous aimez relever des défis dans un environnement innovant et bienveillant ? Alors ce poste est fait pour vous !

Rejoignez le GIE SESAM-Vitale et donnez du sens à votre carrière !

Qui sommes-nous ?

Le GIE SESAM-Vitale, créateur de la carte Vitale, est un acteur majeur de l’e-santé en France. Nous facilitons le quotidien des patients et des professionnels de santé en déployant des services essentiels comme la facturation SESAM-Vitale, le Dossier Médical Partagé (DMP) et l’appli carte Vitale sur smartphone.

  • Plus de 220 collaborateurs passionnés
  • 80% d’ingénieurs et spécialistes
  • Des projets nationaux à fort impact
  • Une localisation idéale : Le Mans, à deux pas de la gare TGV (1h de Paris, moins d’une heure de Rennes, 45 min d’Angers)

Missions

Vous renforcez l’équipe « Domaine décisionnel » dont la mission consiste à mettre en œuvre des systèmes d’information décisionnels (SID) répondant aux besoins d’analyse et de partage de données et aux enjeux stratégique de pilotage pour le GIE SESAM-Vitale et ses membres.

Vous agissez en tant que référent transverse de la donnée et de sa fiabilité en réalisant des expertises sur l’ensemble des chaînes de traitements décisionnelles afin de répondre aux interrogations des métiers concernant la compréhension, la qualité, la cohérence et la fiabilité des données utilisées dans les tableaux de bord et outils de pilotage. Vos actions contribuent directement à la fiabilisation continue du système décisionnel et à la préservation de la confiance des métiers dans les données produites et à la valorisation des données pour son utilisation dans l’entreprise.

Vos missions principales :

Expertise et analyse des données :

  • Vous réalisez des expertises techniques et fonctionnelles sur les données décisionnelles (datawarehouse, datamarts, flux d’alimentation) et accompagnez les métiers dans le cadre d’études comportementales.
  • Vous analysez les comportements atypiques, écarts, absences ou anomalies constatés dans les restitutions et en identifiez les causes racines.
  • Vous menez des investigations de bout en bout, de la source à la restitution, incluant fouille de données, croisements sur de gros volumes.
  • Vous apportez une expertise sur la faisabilité des indicateurs demandés par les métiers.

Qualité des données et restitution

  • Vous contribuez à la rédaction des exigences de Data Quality (complétude, fraîcheur, exactitude, cohérence…).
  • Vous participez à la recette métier des données issues de la propagation des données entre les sources et les outils de restitution ainsi qu’à la conformité des tableaux de bord au besoin exprimé (indicateurs, visuels, réalité terrain).

Rapports d’expertise et préconisations

  • Vous rédigez des rapports d’expertise formalisant les investigations menées, les constats réalisés, les données impactées et les causes identifiées.
  • Vous formulez des recommandations d’usage des données et des préconisations d’évolutions ou de correctifs des chaînes décisionnelles.
  • Pour conclure vous présentez les résultats de vos expertises aux métiers afin de leur permettre de lancer les actions nécessaires (actions auprès des partenaires, projets de déploiement ou de réalisation logicielle, correctifs).

Et vous ?

  • Ingénieur Data et/ou Décisionnel avec au moins quatre années d’expériences sur des activités similaires.
  • Solide maîtrise des systèmes décisionnels et de la manipulation des données.
  • Forte capacité d’analyse, d’investigation et de diagnostic sur des données complexes.
  • Bonne compréhension des règles de gestion métiers et des enjeux de qualité des données.
  • Compétences techniques : SQL Developer, Talend, JIRA, Git, Windows, etc.

Qualités humaines :

  • Rigueur, curiosité, autonomie, capacité d’analyse et esprit de synthèse.
  • Aisance rédactionnelle, pédagogue dans la communication avec les métiers, posture de conseil.
  • Capacité à vulgariser des sujets techniques complexes.
  • Sens du service et de la qualité.

Ce que nous vous offrons

  • Un équilibre vie professionnelle/vie personnelle : 24 jours de RTT, télétravail flexible
  • Une rémunération attractive et de nombreux avantages (mutuelle, titres-restaurant, CESU, épargne salariale, conciergerie d’entreprise, CSE dynamique, etc.)
  • Un environnement de travail agréable avec des transports en commun, des pistes cyclables, des parcs et les bords de la Sarthe à proximité, tout en étant à deux pas du centre-ville
  • Une équipe bienveillante et collaborative
  • Une entreprise engagée en faveur de la Qualité de Vie et des Conditions de Travail
  • Une entreprise qui met en œuvre des actions concrètes en faveur de la RSE

Prêt(e) à relever le défi ? Envoyez-nous votre candidature et rejoignez l’aventure SESAM-Vitale !

Le poste est à pourvoir dès que possible. Rémunération selon expérience.

Data Analyst - Data Management H/F (CDI)
Extia
Strasbourg
Remote or hybrid
Junior - Mid
Private salary
TECH-AGNOSTIC ROLE

Vous souhaitez rejoindre une entreprise qui place l’humain au cœur de ses préoccupations ? Société de conseil spécialisée dans les métiers de l’IT et du digital, Extia privilégie depuis sa création en 2007 une approche qui allie performance et bien-être au travail . Une vision de l’entreprise partagée aujourd’hui par plus de 2 500 Extiens en France et à l’international et récompensée par le label Great Place to Work® depuis 13 ans ! rattaché au responsable d’équipe, vous interviendrez sur des projets orientés DATA : Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) Analyse des données existantes pour définir les modalités de production de ce reporting Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données Suivi et pilotage du projet jusqu’à la livraison au client

Selon votre profil, des tests ou entretiens techniques pourront vous être demandés. Tout au long du processus, vous pourrez échanger avec nos consultants pour en savoir + sur leur quotidien chez nous !

Télétravail possible

&##100% des frais de transports en communs pris en charge, des tickets restaurant et une mutuelle haut de gamme &##Des primes à hauteur des performances de l’année et de l’implication &##Des formations, conférences et une plateforme d’e-learning avec LinkedIn pour monter en compétences #greatplacetolearn &##

Data engineer (H/F)
Extia
Ile-de-France
Remote or hybrid
Mid - Senior
Private salary
TECH-AGNOSTIC ROLE

Vous souhaitez rejoindre une entreprise qui place l’humain au cœur de ses préoccupations ?

On vous attend chez Extia !

Société de conseil spécialisée dans les métiers de l’IT et du digital, Extia privilégie depuis sa création en 2007 une approche qui allie performance et bien-être au travail. Une vision de l’entreprise partagée aujourd’hui par plus de 3 200 Extiens en France et à l’international et récompensée par le label Great Place to Work® depuis 13 ans !

Nous croyons en l’égalité des chances et nous offrons à chaque candidat la possibilité de révéler son potentiel, sans distinction et de quelque nature qu’elle soit. Chez Extia, c’est « D’abord qui, ensuite quoi » alors, allons-y ! 🚀

D’abord qui ?

  • Rigoureux(se), vous ne laissez rien au hasard,
  • Efficace, vous ne remettez pas à demain ce qui peut être fait dès aujourd’hui,
  • Autonome, vous savez mener vos missions à bien sans aide.

Par ailleurs, vous êtes diplômé d’une Ecole d’Ingénieur, ou équivalent BAC+5.

Vous avez au moins 3 ans d’expériences en Data Engineering.

Ensuite quoi ?

Vous aurez le rôle de support technique aux équipes d’analyse : structurer les données, réaliser des analyses « statistiques » ou « techniques » sur les données, développer des outils d’analyse…

Vous mènerez des études afin d’évaluer les nouvelles technologies dans le domaine du Big Data, Data Mining ou Machine Learning afin d’identifier les solutions les plus pertinentes.

Au quotidien, vous pourrez être amené(e) à :

  • Participer à la définition des besoins et à la rédaction des User Stories,
  • Collaborer avec les Data Scientists au développement des modules d’analyse de donnée,
  • Concevoir et construire des architectures de données,
  • Intégrer des sources de données,
  • Vous assurez que les données sont facilement accessibles et que leur exploitation fonctionne comme demandé, même dans des circonstances hautement évolutives,
  • Exécuter des processus ETL (extraire / transformer / charger) à partir d’ensembles de données complexes et / ou volumineux.

Processus de recrutement

  • Échangez avec un ou une chargée de recrutement pour un premier contact téléphonique
  • Rencontrez un ou une Ingénieure d’Affaires (Business Manager) sur vos souhaits d’évolution
  • Approfondissez avec nos responsables et directeurs d’agence pour connaître la vision de l’agence

Selon votre profil, des tests ou entretiens techniques pourront vous être demandés. Tout au long du processus, vous pourrez échanger avec nos consultants pour en savoir + sur leur quotidien chez nous !

Les petits plus

🏠 Télétravail possible

👛 100% des frais de transports en communs pris en charge, des tickets restaurant et une mutuelle haut de gamme

❤️ 🩹Une politique inclusive et une référente handicap à disposition pour vous accompagner #greatplacetobe

🎁 Un CSE avantageux et des challenges tout au long de l’année !

📈 Des primes à hauteur des performances de l’année et de l’implication

🎉 250 événements par an pour rencontrer tes collègues et des locaux feel good

📢 Des formations, conférences et une plateforme d’e-learning avec LinkedIn pour monter en compétences

👩 Des Communautés Métiers et du Mentorat pour partager son expertise et en apprendre sur de nombreux sujets

🕹️ Une communauté de e-sport : Extia Gaming !

🌏 Envie d’évoluer ? Grâce à notre politique de mobilité interne, explorez de nouvelles opportunités en France ou dans l’un de nos 7 autres pays !

Data Engineer (H/F)
Extia
Strasbourg
Remote or hybrid
Junior - Mid
Private salary
TECH-AGNOSTIC ROLE

Vous souhaitez rejoindre une entreprise qui place l’humain au cœur de ses préoccupations ? On vous attend chez Extia !

Société de conseil spécialisée dans les métiers de l’IT et du digital, Extia privilégie depuis sa création en 2007 une approche qui allie performance et bien-être au travail . Une vision de l’entreprise partagée aujourd’hui par plus de 2 500 Extiens en France et à l’international et récompensée par le label Great Place to Work® depuis 13 ans !

Nous croyons en l’égalité des chances et nous offrons à chaque candidat la possibilité de révéler son potentiel, sans distinction et de quelque nature qu’elle soit. Chez Extia, c’est « D’abord qui, ensuite quoi » alors, allons-y !

D’abord qui

Analytique , vous avez une âme d’enquêteurtrice) et les énigmes n’ont aucun secret pour vous

Synthétique , vous êtes capable de résumer le synopsis de Game of Thrones en quelques lignes (et on ne parle pas de la dernière saison !)

Méthodique , les plans d’action sont dans votre ADN

Tenace , vous persistez dans l’atteinte de vos objectifs et résistez à toutes les épreuves sans baisser les bras

Ensuite quoi

Directement intégré(e) dans l’équipe opérationnelle de l’un de nos clients en régie, vous serez entouré(e) d’une équipe de passionnés, comme vous, et vous aurez la charge de :

  • Analyser les besoins utilisateurs en matière de reporting et d’exploration de la donnée
  • Concevoir et développer les solutions sur la plateforme Data
  • Assurer la qualité du code et réaliser la documentation associée,
  • Contribuer à la maintenance corrective et évolutive de la plateforme Data
  • Réaliser les tests (unitaire et exploratoire),
  • Représenter la DSI au sein de la gouvernance Data
  • Être force de proposition sur l’évolution de l’architecture de la plateforme Data
  • Gérer le backlog Data et coordonner les développements autour de la plateforme Data

Processus de recrutement

  1. Échangez avec un ou une chargée de recrutement pour un premier contact téléphonique
  1. Rencontrez un ou une Ingénieure d’Affaires (Business Manager) sur vos souhaits d’évolution
  1. Approfondissez avec nos responsables et directeurs d’agence pour connaître la vision de l’agence

Selon votre profil, des tests ou entretiens techniques pourront vous être demandés. Tout au long du processus, vous pourrez échanger avec nos consultants pour en savoir + sur leur quotidien chez nous !

Les petits plus

🏠 Télétravail possible

🚌 100% des frais de transports en communs pris en charge, des tickets restaurant et une mutuelle haut de gamme

🎁 Un CSE avantageux et des challenges tout au long de l’année ! #greatplacetolive

📈 Des primes à hauteur des performances de l’année et de l’implication

🎉 250 événements par an pour rencontrer tes collègues et des locaux feel good #lifeatextia

📢 Des formations, conférences et une plateforme d’e-learning avec LinkedIn pour monter en compétences #greatplacetolearn

👩🏻 Des Communautés Métiers et du Mentorat pour partager son expertise et en apprendre sur de nombreux sujets #greatplacetoshare

🕹️Une communauté de e-sport : Extia Gaming ! #greatplacetoplay

🌍 Envie d’évoluer ? Grâce à notre politique de mobilité interne, explorez de nouvelles opportunités en France ou dans l’un de nos 7 autres pays !

Data Engineer SQL - Remote (m/w/d)
Extia
Lille
Fully remote
Junior - Mid
Private salary

Vous souhaitez rejoindre une entreprise qui place l’humain au cœur de ses préoccupations ? Société de conseil spécialisée dans les métiers de l’IT et du digital, Extia privilégie depuis sa création en 2007 une approche qui allie performance et bien-être au travail. Une vision de l’entreprise partagée aujourd’hui par plus de 2 500 Extiens en France et à l'international et récompensée par le label Great Place to Work® depuis 13 ans ! Autonome, vous savez mener vos missions à bien sans aide. Vous aurez le rôle de support technique aux équipes d’analyse : structurer les données, réaliser des analyses « statistiques » ou « techniques » sur les données, développer des outils d’analyse… Vous mènerez des études afin d’évaluer les nouvelles technologies dans le domaine du Big Data, Data Mining ou Machine Learning afin d’identifier les solutions les plus pertinentes. Collaborer avec les Data Scientists au développement des modules d’analyse de donnée, Concevoir et construire des architectures de données, Intégrer des sources de données, Vous assurez que les données sont facilement accessibles et que leur exploitation fonctionne comme demandé, même dans des circonstances hautement évolutives, Exécuter des processus ETL (extraire / transformer / charger) à partir d'ensembles de données complexes et / ou volumineux. Vous êtes habitué à travailler aussi bien avec des méta-données qu’avec des données non-structurées. A cet effet vous maitrisez un ou plusieurs des concepts comme l’ETL, le Data mining le Machine learning, les Big data ou encore la Théorie des graphes par exemple, Vous êtes apte à rédiger des scripts en Python et/ou R, et une connaissance d'autres langages de programmation comme Java, Scala ou SAS est un plus, Une expérience avec les outils de Stockage de fichiers volumineux (HDFS, Data Lake, S3, stockage Blob), la connaissance des infrastructures cloud AWS ou GCP et des bases en streaming temps réel seront aussi de réels atouts. Selon votre profil, des tests ou entretiens techniques pourront vous être demandés. Tout au long du processus, vous pourrez échanger avec nos consultants pour en savoir + sur leur quotidien chez nous ! Télétravail possible 👛 100% des frais de transports en communs pris en charge, des tickets restaurant et une mutuelle haut de gamme &##Des primes à hauteur des performances de l'année et de l'implication 🎉 Des formations, conférences et une plateforme d'e-learning avec LinkedIn pour monter en compétences &##

Data Engineer (Collecte & Centralisation des données)
Felps Group
Ile-de-France
Remote or hybrid
Mid - Senior
Private salary

Bienvenue chez Felps Group 👋 Une communauté d’experts passionnés, alliant leurs compétences pour propulser votre entreprise vers de nouveaux sommets. 🚀

🔒 Notre Expertise : Felps Group est une alliance de “Pure Players” composée de quatre Squads distinctes : Telecom, IT, Cybersécurité et Conduite du changement. Chacune de ces Squads est dirigée par un capitaine, expert dans un domaine spécifique. Ces Capitaines accompagnent les consultants tout au long de leur parcours chez Felps, les guidant dans le choix de leurs missions et de leurs formations. Notre objectif est de stimuler la croissance et le développement de nos consultants, les préparant ainsi à faire évoluer leurs carrières.

🌐 Notre Approche : Le consultant occupe une place centrale dans notre modèle. Il est par conséquent au centre de toutes nos préoccupations. Le tandem qui est formé par le Capitaine de Squad et le Directeur associé permet un suivi optimal des consultants. Grâce à notre expertise, nous sommes en mesure de leur fournir un accompagnement personnalisé, approfondi et impactant.

👉🏼Chez Felps Group, nous croyons en la force de la diversité et de l’inclusion. Nous nous engageons à créer un environnement de travail inclusif où chaque employé se sent respecté, soutenu et encouragé à apporter sa contribution à l’entreprise.

En tant que membre de notre équipe, vous ferez partie d’une culture qui célèbre la diversité sous toutes ses formes, qu’il s’agisse de l’âge, du sexe, de l’origine ethnique, de la religion, de l’orientation sexuelle, de l’identité de genre, des compétences, des antécédents socio-économiques ou de toute autre caractéristique personnelle. Nous sommes fiers de notre engagement en faveur de l’égalité des chances et de l’équité.

Nous encourageons tous les candidats qualifiés, y compris les personnes en situation de handicap reconnues RQTH, à postuler. Nous sommes engagés à fournir un environnement de travail inclusif et à offrir des aménagements raisonnables pour favoriser l’intégration de tous nos employés. Si vous avez des besoins spécifiques en matière d’accessibilité lors du processus de recrutement, veuillez nous en informer, et nous ferons de notre mieux pour vous accompagner.

Dans le cadre du renforcement du pôle IT/Data nous recherchons un Data Engineer - Collecte & Centralisation des données

Mission :

  • Identifier et cartographier les sources de données liées aux périmètres de sauvegarde
  • Concevoir et mettre en place des flux de collecte et d’ingestion de données
  • Extraire des données depuis des environnements mainframe et bases DB2, ainsi que des systèmes open
  • Centraliser l’ensemble des données dans un Datawarehouse
  • Structurer, normaliser et fiabiliser les données collectées
  • Documenter les flux, schémas et règles de transformation

profil recherché :

  • Forte expérience en collecte, ingestion et intégration de données
  • Habitué aux environnements techniques complexes et hétérogènes
  • Capable de travailler avec des données issues de mainframe / DB2 (compréhension requise, expertise non indispensable)
  • Autonome, rigoureux, orienté architecture et fiabilité des données

Compétences requises :

Data engineering

  • Conception de pipelines de données
  • Ingestion batch / flux
  • Structuration et modélisation des données
  • Mise en place de zones de stockage (brut, structuré, consolidé)

Environnements & bases

  • Bases de données relationnelles (dont DB2)
  • Compréhension des environnements mainframe
  • Systèmes open / natifs
  • Notions d’ETL / ELT

Qualité & gouvernance

  • Fiabilisation des données
  • Traçabilité et documentation des flux
  • Gestion des dépendances et des volumes

Atouts

  • Expérience sur des projets de centralisation ou de socle data
  • Connaissance des problématiques de sauvegarde / infrastructure
  • Contexte grande entreprise / SI legacy
Data Scientist LLM / AI H/F
Expleo Group
Montigny-le-Bretonneux
Remote or hybrid
Mid - Senior
€40,000/hour

Au sein de l’équipe Embedded & Application Software, rattaché à l’agence de Saint-Quentin-en-Yvelines, vous occuperez le rôle de Data Scientist LLM H/F. Vous interviendrez sur toutes les phases du cycle de vie d’un projet Data afin de répondre à des problématiques industrielles. Missions

  • Être à l’écoute et comprendre les besoins et les problématiques en échangeant avec les métiers
  • Appliquer des techniques d’extraction et d’analyse d’informations, obtenues à partir de sources de données variées
  • Analyser les données pour traduire la problématique métier en problème mathématique/statistique
  • Développer et entraîner des modèles de langage en utilisant des techniques de ML et de DL
  • Elaborer, comparer, évaluer et monitorer les différents modèles ou méthodes de calcul
  • Anticiper les avantages et inconvénients dans un environnement métier
  • Accompagner l’industrialisation et la mise en production des modèles
  • Rédiger des rapports et des présentations pour communiquer les solutions retenues et les recommandations

Profil

  • De formation Bac+5 minimum en informatique ou mathématiques
  • Vous avez une expérience minimum de 5 ans en data science ou en intelligence artificielle
  • Maîtrise des langages de programmation : Python, R, et SQL
  • Vous avez une connaissance approfondie des algorithmes de Machine Learning, Deep Learning ou Reinforcement Learning
  • Maîtrise des bases de données SQL et NoSQL
  • Maîtrise des outils de BI
  • Maîtrise des infrastructures Cloud, Git et CI/CD
  • Connaissance des outils de Big Data
  • Vous disposez d’un niveau d’anglais opérationnel
  • Vous avez des c apacités de synthèse et de vulgarisation

Rémunération Et Avantages

  • Politique interne sur le télétravail
  • CSE (chèque vacances, culture, subvention pratique sportive.etc)
  • 13 RTT + un compte épargne temps
  • Carte de tickets restaurant
  • Prévoyance Santé
  • Prime de vacances
  • Prime de cooptation
  • Contribution au remboursement de vos titres de transport en commun ou forfait à la mobilité durable
  • Salaire annuel brut à partir de 40 000 € suivant votre expertise

Notre Process De Recrutement

  • Vous candidatez
  • Premier échange téléphonique avec notre équipe recrutement
  • Un entretien avec votre futur manager et votre chargé de recrutement en agence ou en visio
  • Si validation, envoi de la proposition de collaboration
  • Début de votre parcours d’intégration chez Expleo !

A bientôt dans nos équipes ! La localisation des postes n’est qu’indicative, une mobilité géographique sur le territoire national peut être requise.A compétences égales, une attention particulière sera accordée aux candidatures des travailleurs handicapés et autres bénéficiaires de l’obligation d’emploi de l’article L. 5212-2 du code du travail. »

🚀✨ Data Engineer GCP Senior (H/F)
Devoteam | Google Cloud Partner
Ile-de-France
Remote or hybrid
Senior
Private salary

🚀✨ Data Engineer GCP (H/F) – Le héros des données chez Devoteam G Cloud !

Introduction :

🌟 Tu rêves de jouer un rôle clé dans la révolution des données ?

💻 Tu jongles avec BigQuery, Dataflow et Terraform comme un(e) pro ?

🎉 Et si, en plus, tu cherches une équipe fun, innovante et aussi passionnée que toi… Bingo ! Devoteam G Cloud t’attend.

Nous sommes une bande de passionnés qui 🚀 propulsent les entreprises dans l’ère du cloud grâce à Google Cloud Platform . Si, toi aussi, tu es prêt(e) à construire des pipelines solides comme du rock 🎸 et à transformer des montagnes de données en or 💰, continue à lire, c’est par ici que ça se passe.

Ce qu’on attend de toi 🧠 :

✅ Un(e) data geek chevronné(e) : 5 ans d’expérience ou plus dans l’ingénierie des données.

☁️ Un(e) expert(e) GCP : BigQuery, Dataflow, Cloud Storage, Pub/Sub, et les services GCP n’ont aucun secret pour toi. Terraform te parle aussi (et c’est encore mieux si vous êtes en bons termes).

📐 Un(e) architecte dans l’âme : Tu sais construire des architectures data modernes, scalables et efficaces, et tu adores optimiser les performances.

🗣️ Un(e) communicant(e) : Transformer du jargon technique en langage humain pour nos clients, c’est ton superpouvoir.

🤝 Un(e) coéquipier(ère) sympa : On aime les gens fun et engagés. Si tu as un bon sens de l’humour (et un goût douteux pour les gifs dans Slack 🦄), tu es des nôtres.

Tes missions, si tu l’acceptes 🚀 :

  • 🔨 Construire : Concevoir, développer et maintenir des pipelines de données hyper-performants.
  • 🤝 Collaborer : Travailler main dans la main avec nos équipes et nos clients pour transformer leurs besoins en solutions cloud.
  • 🌟 Innover : Tester de nouvelles approches, proposer des idées, et explorer tout ce que GCP a à offrir.
  • 🎓 Accompagner : Former nos clients à la magie du cloud et leur donner envie de jouer avec les données.
  • 🤓 Optimiser : Veiller à ce que tout tourne comme une horloge suisse 🕒, avec style et efficacité.

Ce qu’on t’offre 🎁 :

  • 🌍 Une mission qui a du sens : Aider nos clients à révolutionner leur gestion des données.
  • 🥳 Une équipe au top : Des collègues passionnés, bienveillants et toujours prêts à rigoler.
  • 📚 Une formation continue : Certifications GCP, workshops, et partage de connaissances pour rester à la pointe.
  • 🏡 Un cadre de travail flexible : Télétravail, horaires aménagés, et une vraie écoute.
  • 🍕 Des moments fun : Événements d’équipe, apéros (virtuels ou pas) et anecdotes mémorables.

Et si tu te demandes pourquoi nous choisir 🤔 :

Devoteam G Cloud, c’est plus qu’une entreprise, c’est une aventure ! 🌈

On travaille avec des clients variés et passionnants 🌟 dans des secteurs qui bougent (et qui bougent vite 🚀). On aime les défis, on adore apprendre 📘, et on fait tout ça avec le sourire 😊 (et une tasse de café ☕).

Comment postuler ?

📩 C’est simple : clique sur le bouton magique ✨ et envoie-nous ton CV (et pourquoi pas une blague, on aime ça aussi 😜).

Alors, prêt(e) à devenir notre prochain héros du cloud ? 🌟

Ingénieur de données/Ingénieure de données
Devoteam | Google Cloud Partner
Ile-de-France
Remote or hybrid
Mid - Senior
Private salary

🌟 Tu rêves de jouer un rôle clé dans la révolution des données ?

💻 Tu jongles avec BigQuery, Dataflow et Terraform comme un(e) pro ?

🎉 Et si, en plus, tu cherches une équipe fun, innovante et aussi passionnée que toi… Bingo ! Devoteam G Cloud t’attend.

Nous sommes une bande de passionnés qui 🚀 propulsent les entreprises dans l’ère du cloud grâce à Google Cloud Platform . Si, toi aussi, tu es prêt(e) à construire des pipelines solides comme du rock 🎸 et à transformer des montagnes de données en or 💰, continue à lire, c’est par ici que ça se passe.

Ce qu’on attend de toi 🧠 :

✅ Un(e) data geek chevronné(e) : 4 ans d’expérience ou plus dans l’ingénierie des données.

☁️ Un(e) expert(e) GCP : BigQuery, Dataflow, Cloud Storage, Pub/Sub, et les services GCP n’ont aucun secret pour toi. Terraform te parle aussi (et c’est encore mieux si vous êtes en bons termes).

📐 Un(e) architecte dans l’âme : Tu sais construire des architectures data modernes, scalables et efficaces, et tu adores optimiser les performances.

🗣 Un(e) communicant(e) : Transformer du jargon technique en langage humain pour nos clients, c’est ton superpouvoir.

🤝 Un(e) coéquipier(ère) sympa : On aime les gens fun et engagés. Si tu as un bon sens de l’humour (et un goût douteux pour les gifs dans Slack 🦄), tu es des nôtres.

Tes missions, si tu l’acceptes 🚀 :

  • 🔨 Construire : Concevoir, développer et maintenir des pipelines de données hyper-performants.
  • 🤝 Collaborer : Travailler main dans la main avec nos équipes et nos clients pour transformer leurs besoins en solutions cloud.
  • 🌟 Innover : Tester de nouvelles approches, proposer des idées, et explorer tout ce que GCP a à offrir.
  • 🎓 Accompagner : Former nos clients à la magie du cloud et leur donner envie de jouer avec les données.
  • 🤓 Optimiser : Veiller à ce que tout tourne comme une horloge suisse 🕒, avec style et efficacité.

Ce qu’on t’offre 🎁 :

  • 🌍 Une mission qui a du sens : Aider nos clients à révolutionner leur gestion des données.
  • 🥳 Une équipe au top : Des collègues passionnés, bienveillants et toujours prêts à rigoler.
  • 📚 Une formation continue : Certifications GCP, workshops, et partage de connaissances pour rester à la pointe.
  • 🏡 Un cadre de travail flexible : Télétravail, et une vraie écoute.
  • 🍕 Des moments fun : Événements d’équipe, apéros et anecdotes mémorables.

Et si tu te demandes pourquoi nous choisir 🤔 :

Devoteam G Cloud, c’est plus qu’une entreprise, c’est une aventure ! 🌈

On travaille avec des clients variés et passionnants 🌟 dans des secteurs qui bougent (et qui bougent vite 🚀). On aime les défis, on adore apprendre 📘, et on fait tout ça avec le sourire 😊 (et une tasse de café ☕).

Comment postuler ?

📩 C’est simple envoie-nous ton CV (et pourquoi pas une blague, on aime ça aussi 😜).

Alors, prêt(e) à devenir notre prochain héros du cloud ? 🌟

Data Engineer
Daveo
Paris
Remote or hybrid
Mid - Senior
Private salary

Description de l’entreprise

Daveo est un cabinet de conseil innovant spécialiste du product management , de la technologie et des solutions cloud AWS/GCP, fondé en 2008 . Fort d’une culture d’entreprise axée sur la réussite collective , Daveo se positionne comme un acteur dynamique combinant expertise technique et esprit collaboratif.

Présent à Paris , Lille , Nantes , Bordeaux et Lyon , nous offrons un accompagnement à 360° à nos clients en mettant l’accent sur l’innovation.

En tant que membre du groupe Magellan Partners, nous plaçons la transformation augmentée au cœur de notre démarche. Rejoindre notre équipe, c’est accéder à des projets variés, à des formations continues et à une vie d’agence enrichissante.

Ensemble, nous façonnons l’avenir du numérique tout en développant vos compétences et votre carrière. Vivez une aventure professionnelle unique avec Daveo !

Description du poste

En tant que Data Engineer, vous serez chargé(e) de :

  • Concevoir et mettre en œuvre des architectures de données robustes et évolutives
  • Optimiser les performances, la sécurité et les coûts des infrastructures de données.
  • Définir les pratiques et standards pour les déploiements de solutions de données.
  • Collaborer avec les équipes de développement pour faciliter l’adoption des services Cloud
  • Effectuer une veille technologique sur les innovations Cloud (AWS,GCP…) et le traitement des données en cloud.

Qualifications

Profil recherché :

  • Compétences Techniques : Maîtrise de Python, SQL, et outils ETL.
  • Cloud : Expérience avec GCP et/ou AWS.
  • Architecture : Conception d’architectures de données scalables.
  • Communication : Collaboration efficace avec les équipes.
  • Innovation : Amélioration des processus et adoption de nouvelles technologies.
  • Expérience : Plusieurs années dans un rôle similaire.

Informations complémentaires

Chez Daveo notre process a pour vocation à valider la cohérence de vos attentes professionnelles avec notre projet d’entreprise, pour cela vous aurez :

  • Un échange téléphonique avec notre équipe RH
  • Un entretien d’évaluation technique réalisé en visio avec l’un de nos consultants
  • Un dernier entretien avec notre directeur d’agence pour finaliser le processus
Data Engineer - Azure cloud
Dataworks
Paris
Remote or hybrid
Mid - Senior
€45,000/hour - €60,000/hour

Data Engineer (Azure + Databricks)

Paris, France

45€k-60€k

TECH STACK : Azure, Fabric, Python, Spark, Databricks, SQL

LA SOCIÉTÉ :

Reconnue comme une des agences data Microsoft de référence, la société développe une expertise R&D sur les outils Microsoft (BI, Cloud, Data) et Databricks.

Actuellement composée d’une 60aine de profils, l’agence a développé une culture d’entreprise dynamique en mode startup, centrée autour du partage de connaissance et de la bienveillance.

En les rejoignant, vous pourrez développer vos qualités techniques grâce à un budget et du temps imparti pour vous former et vous participerez à des projets internes et chez les clients. Selon les clients et les missions, vous pourrez travailler en télétravail, sur site, ou en régie dans les locaux de l’agence.

LE RÔLE :

Vous rejoindrez un environnement de consultants spécialistes sur des sujets techniques sur Databricks et Azure. Vous jouerez un rôle de consultant sur des missions Data Engineering / BI Self Service.

Vous aurez comme responsabilités principales :

  • Gestion de projets technique (du cadrage et la prise des spécifications, jusqu’au delivery)
  • Choix des technologies et des outils à déployer selon les projets et conception d’offre Data Engineering
  • ETL
  • Industrialiser les projets data avec une logique CI/CD et DevOps
  • Encadrement de collègues plus juniors en interne et évangélisation technique des équipes techniques client

PROFIL RECHERCHÉ :

Le profil devra réunir un maximum des points listés ci-dessous :

  • Background académique pertinent (Master’s, Ingénieur ou école de commerce)
  • Au moins une première expérience pro sur Databricks
  • Niveau avancé sur Python et Spark et l’écosysteme cloud Azure
  • Technophile, prêt à former vos collègues, et apprendre de nouveaux langages et outils vous passionne
  • Débrouillard et prêt à surmonter divers défis techniques passionnants
GTM Engineer
Bulldozer
Paris
Fully remote
Mid - Senior
Private salary

About Bulldozer

Bulldozer helps B2B scale-ups and SMBs grow revenue through AI-native marketing systems.

We work with CMOs, Heads of Marketing and founders who expect speed, precision and operational excellence. Our ambition: build one of Europe’s most respected growth firms.

This role sits at the crossroads of engineering, AI systems and revenue strategy. You won’t just execute — you’ll design systems, challenge briefs and contribute directly to the technical foundation of our GTM delivery. It supports both client delivery and Bulldozer’s internal product roadmap .

Why this role matters

The next generation of GTM systems is AI-native. But tools alone don’t create results — the thinking behind the system does. We need someone who can look at a messy business problem, design the right system architecture, then build and ship it. Fast.

You will contribute to two missions:

  • Client delivery: ABM infrastructure, scraping, enrichment, scoring models, intent systems, automation workflows, content engines and custom apps.
  • Internal product: agents, tools, frameworks and micro-products that become Bulldozer’s long-term IP.

You will work directly with founders and senior operators every day.

Role overview

  1. Systems architecture and engineering
  • Design and build ABM systems end-to-end: scraping, enrichment, classification, signal detection, scoring.
  • Architect data flows between CRMs, warehouses, enrichment tools, AI agents and automation layers.
  • Ship production-grade scrapers, ETL scripts, API integrations and backend services.
  • Build internal tools and client-facing mini-apps (Lovable, Claude Code, Cursor).
  • Make build-vs-buy decisions. Default to custom when SaaS is overpriced or too rigid.
  1. AI and automation
  • Design and operate AI agents for research, enrichment, outbound and content generation.
  • Build and maintain automation workflows (n8n, Make or equivalent).
  • Define routing logic, segmentation rules and prioritization frameworks.
  • Implement automated QA and monitoring for data reliability.
  • Evaluate and integrate LLMs, APIs and AI tooling cost-effectively.
  1. GTM strategy and activation
  • Design scoring models that combine context signals, engagement data and intent.
  • Set up and maintain intent frameworks (product usage, website behavior, external signals).
  • Build content-at-scale systems (emails, LinkedIn, creatives, landing pages, SEO/SGO).
  • Create dynamic targeting powered by real-time data.
  • Challenge the brief. Push back when a client’s request doesn’t match the actual business problem.
  1. Internal product
  • Contribute to Bulldozer’s internal suite: agents, templates, automations, dashboards.
  • Improve processes to increase team speed and reduce errors.
  • Work on new productized service lines with the founders.
  • Document what you build. Clean handoffs and clear docs are non-negotiable.

What success looks like

After 6 months

  • 3–5 client systems shipped and running in production (ABM, scraping, intent, workflows).
  • Several internal agents live and maintained.
  • You’re comfortable pushing back on clients’ briefs if necessary to propose a better approach.
  • Strong autonomy with AI coding tools — you don’t wait for specs.

After 12 months

  • You’re a key technical contributor to GTM delivery — your systems are relied on daily.
  • You directly impact client revenue with systems you designed.
  • You own part of our internal IP (systems, templates, Automations, scoring frameworks).
  • The team trusts you to own problems end-to-end. You deliver without being managed.

Required skills

Technical

  • You get your hands dirty with code. Vibe-coding counts — it means you’re curious, you build things on your own time and you’re not afraid of a terminal.
  • You don’t need to be a senior engineer. But you need to be the kind of person who can figure things out. Give you a week with a new tool and you’ll know how it works.
  • Familiar with AI and automation tools (Clay, Make/n8n, Claude Code, Cursor) — or ready to learn them fast.
  • Comfortable working with APIs, webhooks and data pipelines — or willing to get comfortable.
  • Interest in scraping, enrichment and structured data processing.
  • Ability to prototype apps and interfaces quickly (Lovable or similar).

GTM and strategic

  • Understanding of B2B funnels, ABM, intent signals and outbound logic — or strong willingness to learn.
  • Interest in how scoring models and signal-based systems drive revenue decisions.
  • Familiarity with CRM architecture (HubSpot preferred) and structured databases.
  • Ability to translate a vague business need into a system design — then build it.

Execution and mindset

  • Grinder. You don’t know something today? Give you a week. You’ll figure it out.
  • Get shit done. You’re measured on output, not hours or process.
  • Builder mentality. You see a gap, you fill it.
  • Fully autonomous. Give you a problem, you come back with a solution.
  • Comfortable with ambiguity, partial specs and shifting priorities.
  • Curious by nature. You dig into things because you want to, not because someone told you to.
  • Passionate. You share the fire. You care about the craft and it shows.
  • If you don’t have a skill we need, you’re willing to put in the work to get it. That matters more than your resume.

Client-facing

  • We’re an agency. Clients pay for excellence. You represent Bulldozer’s standards in every interaction.
  • Clear communicator. You can explain technical systems to non-technical stakeholders.
  • You go the extra mile. Not because someone asked — because that’s how you operate.
  • Personable and professional. You make clients feel like they’re in good hands.

Nice to have

  • Backend or data engineering background (Python, Node, SQL).
  • LLM-SEO / SGO experience.
  • Growth engineering or RevOps exposure.
  • Design sensitivity (you care how things look, not just how they work).
  • French fluency (reading/writing).

What we offer

  • Full remote work.
  • Competitive salary (based on seniority + geography).
  • Full autonomy and output-driven culture.
  • Direct access to founders and high-level clients.
  • Best-in-class AI tools — budget is not the bottleneck.
  • Real investment in your growth. We’ll give you the tools, the support and the environment to learn fast. You won’t be thrown in blind — you’ll have a team that actively helps you level up.
  • High pace, high expectations, high upside.

Fair warning

Bulldozer is early-stage with strong growth and high standards.

The environment is demanding, fast, sometimes chaotic and deeply merit-based.

If you want a quiet, predictable structure — this isn’t it.

If you want to design systems that generate revenue, ship fast with sharp people and own what you build — you’ll thrive here.

Hiring process

  1. Intro call (30 min)
  2. Technical interview + business case
  3. Conversation with a team member

If successful: welcome to Bulldozer.

Data Analyst - Dataiku (H/F)
Beelix
Paris
Remote or hybrid
Mid - Senior
Private salary
+3

Qui Sommes-Nous ?

Depuis 2016, Beelix accompagne ses clients sur des problématiques de Product Management, Data et Design Thinking. Nous contribuons à bâtir le monde de demain à travers des projets innovants dans des secteurs variés :

🚗 Automobile

⚡ Énergie ·

📡 Médias & Télécoms ·

👗 Luxe & Retail ·

💶 Banque, Finance & Assurance ·

✈️ Défense

Beelix, c’est aujourd’hui plus de 200 collaborateurs passionnés, et une entreprise certifiée Great Place To Work en 2024. Une structure à taille humaine où l’humain, l’innovation et l’excellence cohabitent au quotidien.

Contexte & Mission

Dans le cadre de l’accélération des initiatives data de nos clients, nous recherchons un(e) Data Analyst maîtrisant Dataiku et Power BI. Vous interviendrez au cœur des projets d’analyse de données, de construction de pipelines et de valorisation de la donnée à travers des reportings et tableaux de bord à fort impact métier.

Vos Missions au Quotidien

  • Analyse de données : Collecter, nettoyer, transformer et analyser des données issues de sources variées pour répondre aux besoins métier.
  • Pipelines Dataiku : Concevoir et maintenir des flux de données robustes et scalables sur la plateforme Dataiku (DSS).
  • Reporting & Dataviz : Concevoir et faire évoluer des tableaux de bord Power BI clairs, interactifs et orientés décision.
  • Modélisation : Participer à la construction de modèles analytiques et prédictifs en lien avec les équipes Data Science.
  • Collaboration métier : Traduire les besoins des parties prenantes en analyses exploitables et vulgariser les résultats auprès d’interlocuteurs non-techniques.
  • Qualité de la donnée : Contribuer à la gouvernance, la documentation et la fiabilité des données exploitées.

À Propos de Vous — Compétences & Qualifications

  • 3 à 6 ans d’expérience en tant que Data Analyst ou dans un rôle similaire.
  • Maîtrise de Dataiku DSS : recettes, pipelines, projets collaboratifs, déploiement de modèles.
  • Maîtrise de Power BI : modélisation DAX, création de rapports et dashboards, gestion des sources de données.
  • Bonne maîtrise du SQL et d’au moins un langage de scripting (Python ou R).
  • Capacité à travailler en mode Agile au sein d’équipes pluridisciplinaires.
  • Sens de la communication et aptitude à présenter des résultats à des profils non-techniques.

Atouts Supplémentaires

  • Certification Dataiku (Core ou Advanced Designer).
  • Connaissance d’autres outils BI : Tableau, Qlik, Looker.
  • Expérience en data warehousing (Snowflake, BigQuery, Redshift…).
  • Appétence pour les sujets Machine Learning et IA appliquée.
Ingénieur DATA
Axess
Lyon
Remote or hybrid
Mid - Senior
€38,000/hour - €44,000/hour

Description de l’entreprise

Depuis plus de 20 ans, Axess accompagne ses clients dans la digitalisation des process métiers et leur propose une offre numérique globale performante et sécurisée pour le succès de leurs projets digitaux. Axess c’est une famille de plus de 300 collaborateurs, des agences en France (Lyon, Valence, Paris, Montbrison), et 3 pôles d’expertises (Software, Cloud Computing, Digital Services).

Rejoindre Axess, c’est rejoindre une entreprise à taille humaine qui favorise l’agilité, l’esprit d’équipe et l’excellence.

Un groupe en pleine croissance avec des nouveaux produits et des ambitions challengées chaque année.

POURQUOI RECRUTE-T-ON ?

Afin de poursuivre sa stratégie ambitieuse de développement et de croissance sur un marché en plein essor, Axess Solutions Santé, centre d’expertise Software du groupe Axess, est à la recherche d’un Ingénieur DATA afin de renforcer ses équipes de traitements, consolidations et de modélisations de données en santé au travail.

RESPONSABILITES ET ACTIVITES ASSOCIEES

A. Sous la responsabilité du manager du service, et au sein d’une équipe de 4 personnes, vous organisez et réalisez la migration de données de logiciels concurrents vers notre solution Medtra 5. Cela se traduit notamment par :

  • La définition avec le client de l’attendu
  • L’utilisation, le paramétrage et l’adaptation de nos pipelines de données pour répondre au besoin
  • La réalisation des séquences de tests et de validation de la migration
  • La finalisation de la migration lors du passage en production

B. Vous contribuez à la planification/organisation des actions à mener pour l’ensemble de l’équipe intégration en étant le contact principal des équipes projets amenés à déployer la solution Medtra 5 chez nos clients :

  • Mise en place de l’organisation de traitements des données de santé et de leur sécurisation pendant toute la phase de transformation.
  • Planification/optimisation des actions des membres de l’équipe.

C. Vous contribuez à la qualité des données de nos clients en intervenant en mises à jour/complétion de données lorsque c’est nécessaire.

D. Vous menez des actions de recherche et développement pour mettre en oeuvre les meilleures techniques de modélisation et de récupération des données notamment au travers l’implémentation de solutions de pipeline de données

E. Régulièrement, vous participez aux réflexions de structuration des données dans le cadre du développement de la solution Medtra 5.

PROFIL RECHERCHE

Formation : Bac+5 – École d’ingénieur

Expérience : Minimum 5 ans sur un poste équivalent

Compétences techniques indispensables :

  • MS SQL
  • PostgreSQL
  • Oracle
  • Python

Développement orienté objet

Atouts supplémentaires :

  • Apache Airflow
  • ETL du marché

PARTICULARITES ET DIFFICULTES DU POSTE

  1. Poste sédentaire.
  2. Manipulation de données sensibles à forte valeur potentielle.
  3. Contacts clients ponctuels
  4. Travail en équipe, dans un contexte multi-projets

Les avantages :

  • Rémunération entre 38-44k€/an
  • Mutuelle haut de gamme et familiale
  • 10 jours de RTT/an
  • Prime de participation, prime vacances
  • Un accès à un réseau social interne
  • Un accès à une plateforme web pour des réductions auprès de nombreuses enseignes (loisirs, séjours, sport…)
  • Possibilité de télétravail, flexibilité
  • Indemnité de télétravail
  • Des équipes multi-disciplinaires et expertes dans leur domaine
  • Des évènements team-building et After work
  • Prise en charge à 50% des transports en commun & Indemnités kms vélo
  • Onboarding avec un référent attitré…
  • Des opportunités de carrière stimulantes
  • Proposition de formation tout au long de la carrière

Notre process de recrutement :

  • Entretien téléphonique de découverte (RH)
  • Visio ou sur site (Lyon) pour un entretien plus complet sur votre parcours (RH)
  • Dernier entretien avec le directeur projets Axess Software
Data Engineer - Machine Learning Python F/H
Astek
Lille
Remote or hybrid
Mid - Senior
Private salary

Vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions data innovantes au sein du périmètre marketing client. Développer des algorithmes et produits data intégrant des technologies d’IA et de machine learning.

En tant qu’Ingénieur Data, votre rôle sera essentiel pour transformer la donnée brute en véritables leviers de performance. Concevoir et implémenter des algorithmes de machine learning et des solutions d’intelligence artificielle adaptés au périmètre marketing client.

Automatiser des processus data complexes pour optimiser les performances et la prise de décision.

Structurer, nettoyer et cartographier les données afin de garantir leur qualité et leur fiabilité.

Déployer un datamesh performant, intégrant des sondes de contrôle pour assurer une utilisation optimale des données au sein des équipes.

Collaborer étroitement avec des équipes multidisciplinaires dans un environnement Agile pour répondre aux besoins métiers.

Votre quotidien sera rythmé par :

Collecter, structurer et nettoyer les données pour garantir leur qualité et leur fiabilité.

Collaborer avec des équipes Agile pour répondre aux besoins métiers et partager les meilleures pratiques.

Environnement technique :

Langages et développement : Python, Shell, FastAPI

Bases de données et visualisation : BigQuery, Power BI, Looker

Versioning et CI/CD : Git, GitHub, pipelines CI/CD

Vous justifiez d’au moins 3 années d’expérience dans un poste similaire, avec une expertise avérée en gestion et exploitation de données.

Vous maîtrisez les outils et langages suivants : Python, Shell, FastAPI, ainsi que les solutions de visualisation comme Power BI ou Looker.

Vous êtes à l’aise avec les pipelines de données et des outils comme Airflow, Dataflow et BigQuery.

Vous êtes familier des environnements Agile (Scrum, Kanban) et savez travailler en équipe pour atteindre les objectifs.

Vous êtes reconnu pour votre rigueur, votre autonomie et votre capacité à traduire des données complexes en solutions exploitables.

Un bon niveau d’anglais technique est un atout pour évoluer dans ce poste.

un accès à une multitude de projets techniquement passionnants pour nos clients comme en interne

un accompagnement de proximité individualisé pour un parcours professionnel sur mesure

un apprentissage continu, grâce à notre Académie de formation interne

Data Solutions Architect (F/H)
Aubay
Paris
Remote or hybrid
Senior - Leader
Private salary

Passionné par la Data avec une carrière notable dans la mise en œuvre de solutions de données, vous souhaitez rejoindre une communauté d’experts dans le domaine afin de participer à des projets d’envergure et continuer à développer votre expertise. Aubay Data & AI, cabinet spécialisé Data de Aubay, renforce son équipe Data Architecture & Platform et recherche des architectes Data pour concevoir et mettre en œuvre des architectures Data modernes et performantes avec une approche conseil de haut niveau.

Votre quotidien en tant que Data Solutions Architect au sein de Aubay Data & AI :

  • Travailler avec les équipes métier pour comprendre les besoins en termes d’usages et de données requises et identifier les solutions techniques appropriées pour répondre à ces besoins tout en proposant des architectures à la fois innovantes et évolutives
  • Définir et concevoir des architectures Data en tenant compte des exigences de performance, de sécurité, de disponibilité et de conformité
  • Proposer de manière argumentée les différentes solutions techniques pertinentes en produisant et restituant un dossier de recommandations
  • Mettre en œuvre des architectures Data (technique et solutions) et conseiller les équipes de développement et d’ingénierie dans la mise en œuvre des socles et des pipelines de données
  • Produire la documentation technique des architectures Data et des solutions mises en œuvre en fournissant des schémas et des diagrammes d’architecture ainsi que des guides d’exploitation et d’utilisation
  • Accompagner les ingénieurs spécialisés en Data (Data Engineers, Data Analysts, Data Scientists, …) dans la réalisation des différents chantiers et s’assurer du respect des bonnes pratiques et de la qualité des livrables techniques et documentaires
  • Collaborer avec les entités en charge des architectures techniques pour intégrer les solutions de données au sein de l’architecture IT globale en s’assurant de l’alignement avec les principes d’architecture d’entreprise
  • Assurer une veille technologique permanente pour rester à jour sur les dernières tendances technologiques et les meilleures pratiques en termes de stockage, de traitement et de valorisation des données

Votre profil :

  • Vous disposez d’une formation niveau BAC+5 (Master 2 ou école d’ingénieur) spécialisée en informatique et vous avez au moins 8 ans d’expérience dans la conception et la mise en œuvre de solutions de données ainsi qu’une expérience préalable en tant qu’architecte solutions
  • Vous disposez d’une solide compréhension des principaux concepts du domaine de la Data (architecture, gouvernance, modélisation, intégration, valorisation, …)
  • Vous maitrisez parfaitement les concepts des principaux patterns d’architecture de données (Data Warehouse, Data Lake, Data Hub, Data Lakehouse, Data Mesh, …) ainsi que les tenants et les aboutissants de la gouvernance des données et de la gestion de la qualité des données
  • Vous possédez une expertise approfondie sur au moins une plateforme Data moderne (Databricks, Microsoft Fabric ou Snowflake) et dans l’utilisation des services Data des principaux fournisseurs Cloud (Amazon Web Services, Google Cloud et Microsoft Azure)
  • Vous disposez d’une excellente vision des solutions majeures du marché de la Data, qu’elles soient modernes ou aujourd’hui considérées comme « legacy »
  • Vous maîtrisez parfaitement les tenants et aboutissants de la philosophie DevOps ainsi que les outils orientés CI/CD
  • Vos qualités de communication orale et écrite vous permettent d’échanger et collaborer de manière efficace aussi bien avec des profils métiers qu’avec des profils techniques
  • Vous faites preuve d’une grande assertivité et vous êtes donc capable de fournir des conseils de haut niveau argumentés afin de guider de manière optimale les initiatives Data des clients
  • Bien que vous soyez spécialisé sur une solution technologique en particulier, vous conservez un esprit ouvert et vous savez être neutre et objectif afin de conseiller au mieux les clients
  • Vous êtes fluent en anglais à l’oral comme à l’écrit

Les plus de votre profil qui vous feront sortir du lot :

  • Vous disposez d’une connaissance avancée (idéalement certifiée) des standards méthodologiques autour de l’architecture d’entreprise (TOGAF) et de la Data (DAMA)
  • Vous avez validé vos acquis technologiques en ayant obtenu une certification orientée architecture auprès d’un éditeur majeur du marché de la Data (Databricks, Microsoft, Snowflake, …)

Ce qui nous caractérise :

  • Des missions et projets dans le domaine du Data Engineering en nombre et dans des secteurs variés (Banque, Assurance, Telecom, Industrie,…) qui permettent à nos collaborateurs de monter en compétences et de devenir des experts Data reconnus
  • De l’apprentissage en continu avec des formations et des certifications sur les technologies Data d’aujourd’hui et de demain
  • Des experts Data mobilisables pour accompagner et soutenir techniquement les collaborateurs sur leurs projets
  • Des communautés de savoir-faire Data proposant de manière régulière aux collaborateurs de Aubay du contenu et des évènements de partage (webinar, meetup/afterwork, BBL,…) sur les thématiques suivantes : Data Architecture & Platform, Data Engineering, Modern BI & Analytics, Data Science & AI, …

Votre carrière au sein de Aubay Data & AI :

  • Vous rejoindrez la BU d’excellence Data et vous évoluerez au sein d’un environnement humain et professionnel de haut niveau. Vous profiterez d’un management sur-mesure pour vous accompagner dans votre trajectoire de carrière
  • Vous aurez la possibilité de développer et certifier vos compétences sur les dernières technologies Data avec un focus fort sur les plateformes Data Cloud telles que Microsoft Azure et Fabric (Microsoft Solutions Partner Data & AI), Google Cloud Platform, Snowflake (partenaire SELECT) et Databricks (partenaire SELECT)
  • Au sein de la BU d’excellence Data, plusieurs opportunités s’offriront à vous :
  • Rôle de « Career Manager » : Vous aurez la possibilité de vous essayer au management en suivant des consultants et les accompagner dans leur rôle, leur évolution de carrière et leur intégration au sein de Aubay Data & AI
  • Rôle de « Champion » : Vous représenterez Aubay Data & AI auprès d’un ou plusieurs de nos partenaires éditeurs stratégiques et vous participerez activement à l’animation de la relation sur le plan technologique
  • Rôle de « Head » : Vous pourrez prendre la responsabilité du savoir-faire Data Architecture & Platform et de ses offres et en assurer le développement au sens large (développement business, recrutement, management de collaborateurs, définition de la stratégie et animation de la communauté au sein du groupe Aubay,…)

Notre processus de recrutement :

  • 1er échange RH pour se présenter, vous parler de Aubay Data & AI et voir si nos attentes respectives sont compatibles (durée : 30mn, Teams ou présentiel)
  • 2ème échange avec un(e) expert(e) technique (durée : minimum 1H, Teams ou présentiel)
  • 3ème et dernier échange avec le directeur de Aubay Data & AI pour bien comprendre vos ambitions et vos motivations mais aussi pour vous projeter sur votre rôle au sein de Aubay Data & AI (durée : 45mn à 1h, Teams ou présentiel)
Digital engineer
Aubay
Paris
Remote or hybrid
Mid - Senior
Private salary
+1

Passionné par la Data avec une double compétence en Data Engineering et Data Analysis, vous souhaitez rejoindre une communauté d’experts pour travailler sur des projets variés et à forte valeur ajoutée. Aubay Data & AI, cabinet spécialisé en Data de Aubay Solutec, renforce sa communauté d’experts Data et recherche des Analytics Engineering pour concevoir et optimiser des solutions analytiques modernes.

Votre quotidien en tant qu’Analytics Engineer au sein de Aubay Data & AI:

  • Collaboration avec les Data Analysts et les équipes métiers pour comprendre les besoins en reporting et proposer des solutions adaptées
  • Conception et maintenance de modèles de données analytiques pour fournir des jeux de données prêts à l’emploi : modélisation, documentation, optimisation des performances, …
  • Implémentation de transformations de données via des outils modernes (SQL, dbt, …) pour standardiser, enrichir et structurer les données destinées à la BI et aux équipes métiers
  • Optimisation des workflows de données analytiques, garantissant leur robustesse, scalabilité et maintenabilité
  • Mise en œuvre de bonnes pratiques en termes de gouvernance des données : qualité, versioning, documentation, tests automatisés, …
  • Contribution à l’adoption de solutions Cloud modernes (Snowflake, Google BigQuery, Databricks, …) et participation à la modernisation des environnements analytiques
  • Animation d’ateliers métiers et techniques pour aligner les exigences métiers avec les solutions techniques

Votre profil :

  • Vous disposez d’une formation niveau BAC+5 (Master 2 ou école d’ingénieur) spécialisée en informatique
  • Vous justifiez d’une expérience significative (au moins 4 ans) dans le domaine de l’ingénierie analytique et sur des environnements BI modernes
  • Vous maîtrisez les technologies de transformation de données analytiques sur le bout des doigt (en particulier dbt Labs) et vous êtes familier avec des plateformes Data Cloud (Snowflake, Google BigQuery, Databricks, …)
  • Vous êtes à l’aise avec des outils BI comme Power BI, Tableau ou Qlik Sense et vous comprenez leurs interactions avec les couches de données analytiques
  • Vous avez une approche rigoureuse de la qualité des données, de leur documentation et du contrôle des versions
  • Vous maîtrisez les tenants et aboutissants de la philosophie DevOps et des outils orientés CI/CD
  • Vous appréciez travailler dans un environnement collaboratif et agile et vous communiquez efficacement avec des interlocuteurs techniques et métiers
  • Vous êtes curieux, force de proposition et motivé par les défis techniques et analytiques

Les plus de votre profil qui vous feront sortir du lot :

  • Vous disposez d’une expérience de mise en œuvre de modèles de données avec dbt Core/Cloud et Snowflake ou Google BigQuery
  • Vous avez validé vos acquis en ayant obtenu au moins une des certifications suivantes : dbt Analytics Engineering, Power BI Data Analyst Associate (PL-300), Tableau Certified Data Analyst, …

Ce qui nous caractérise :

  • Des missions et projets dans le domaine du Data Engineering en nombre et dans des secteurs variés (Banque, Assurance, Telecom, Industrie, Luxe, …) qui permettent à nos collaborateurs de monter en compétences et de devenir des experts Data reconnus
  • De l’apprentissage en continu avec des formations et des certifications sur les technologies Data d’aujourd’hui et de demain
  • Des experts Data mobilisables pour accompagner et soutenir techniquement les collaborateurs sur leurs projets
  • Des communautés de savoir-faire Data proposant de manière régulière aux collaborateurs de Aubay du contenu et des évènements de partage (webinar, meetup/afterwork, BBL, …) sur les thématiques suivantes : Data Architecture & Platform, Data Engineering, Modern BI & Analytics, Data Science & AI, …

Votre carrière au sein de Aubay Data & AI :

  • Vous pourrez rejoindre la BU d’excellence Data et évoluer au sein d’un environnement humain et professionnel de haut niveau. Vous profiterez d’un management sur-mesure pour vous accompagner dans votre trajectoire de carrière
  • Vous aurez la possibilité de développer et certifier vos compétences sur les dernières technologies Data avec un focus fort sur les plateformes Data Cloud telles que Microsoft Fabric (Microsoft Solutions Partner Data & AI), Google Cloud Platform, Snowflake (partenaire SELECT) et Databricks (partenaire SELECT)
  • Vous aurez l’opportunité de gagner en responsabilité sur le plan technologique et devenir un Lead (référent technique) auprès de nos clients et des collaborateurs des communautés Data Engineering et Modern BI & Analytics

Notre processus de recrutement :

  • 1er échange RH pour se présenter, vous parler de Aubay Data & AI et voir si nos attentes respectives sont compatibles (durée : 30mn, Teams ou présentiel)
  • 2ème échange avec un(e) expert(e) technique (durée : minimum 1H, Teams ou présentiel)
  • 3ème et dernier échange avec un membre de la direction de la BU Data & AI pour bien comprendre vos ambitions et vos motivations mais aussi pour vous projeter sur votre rôle au sein de Aubay Data & AI (durée : 45mn à 1h, Teams ou présentiel)
Consultant Data Integration - Informatica / Talend (F/H)
Aubay
Paris
Remote or hybrid
Mid - Senior
Private salary

Passionné par la Data et adepte de l’innovation et de la transformation par le Cloud, vous souhaitez rejoindre une communauté d’experts dans le domaine afin de développer votre expertise en intégration et échange de données (ETL/ELT, ESB, EAI et API Management). Aubay Data & AI, cabinet spécialisé Data de Aubay Solutec, renforce ses équipes Data et recherche des consultants Data Integration pour intervenir sur des projets innovants (« ex nihilo » ou de modernisation) mettant en œuvre des outils et des plateformes Cloud-Native.

Votre quotidien en tant que consultant Data Integration au sein de Aubay Data & AI :

  • Participation aux ateliers de cadrage et d’expression de besoins avec les métiers
  • Rédaction des spécifications fonctionnelles et techniques
  • Participation à la conception et mise en œuvre de modèles de données
  • Conception des flux de données (batch et/ou streaming) avec identification de la solution la plus adaptée à mettre en œuvre au sein de la plateforme d’intégration et d’échange de données (ETL, ESB, API Management,…)
  • Mise en œuvre des flux de données au sein de la plateforme (solution iPaaS et/ou autres solutions du socle technologique) en respectant les bonnes pratiques de mise en œuvre, les exigences de performance et de gouvernance des données
  • Réalisation des développements nécessaires à la gestion et la mise en œuvre des flux de données : contrôle, nettoyage et mise en qualité des données, transcodification et transformation des données, gestion des référentiels, mise en œuvre de services Web ou d’API,…
  • Définition et mise en œuvre des processus d’exploitation des flux de données : ordonnancement, orchestration, supervision, gestion des rejets et des journaux,…
  • Définition de la stratégie de tests et de recette fonctionnelle des flux de données
  • Réalisation des tests techniques et des tests d’intégration et assistance à la recette fonctionnelle des données en collaboration avec les référents métiers

Votre profil :

  • Vous disposez d’une formation niveau BAC+5 (Master 2 ou école d’ingénieur) spécialisée en informatique et vous avez déjà une première expérience significative (a minima 3 ans d’expérience) en intégration et ingestion de données en mode Cloud
  • Vous maîtrisez parfaitement les fonctionnalités d’intégration de données d’Informatica Intelligent Data Management Cloud (IDMC) ou de Talend Cloud
  • Vous êtes un pro du langage SQL et la modélisation relationnelle de données n’a plus aucun secret pour vous
  • Vous êtes a minima familier avec les concepts et principes d’échanges de données (ESB, API Management) et inter-applicatifs (EAI) et vous maitrisez idéalement au moins une des solutions suivantes : Talend ESB, MuleSoft, webMethods, TIBCO BusinessWorks, WSO2, Kong,…
  • Vous êtes un expert technique dans votre domaine sans pour autant oublier l’importance d’une communication orale et écrite de qualité et adaptée à chacun de vos interlocuteurs
  • Vous travaillez au quotidien en mode agile et vous en maitrisez les fondements
  • Les plus de votre profil qui vous feront sortir du lot :
  • Vous possédez des compétences avancées en développement logiciel et vous excellez dans la conception et la mise en œuvre de services Web et d’API d’échange ou d’exposition de données
  • Vous connaissez une ou plusieurs solutions Cloud-Native ETL/ELT ou d’ingestion de données telles que Matillion, Fivetran, Stitch,…

Ce qui nous caractérise :

  • Des missions et projets en intégration et échange de données en nombre et dans des secteurs variés (Banque, Assurance, Telecom, Industrie,…) qui permettent à nos collaborateurs de monter en compétences et de devenir des experts Data reconnus
  • De l’apprentissage en continu avec des formations et des certifications sur les technologies Data d’aujourd’hui et de demain
  • Des experts Data mobilisables pour accompagner et soutenir techniquement les collaborateurs sur leurs projets
  • Des communautés de savoir-faire Data proposant de manière régulière aux collaborateurs de Aubay du contenu et des évènements de partage (webinar, meetup/afterwork, BBL,…) sur les thématiques suivantes : Data Architecture & Platform, Data Engineering, Modern BI & Analytics, Data Science & AI, …

Votre carrière au sein de Aubay Data & AI :

  • Vous rejoindrez la BU d’excellence Data et évoluerez au sein d’un environnement humain et professionnel de haut niveau. Vous profiterez d’un management sur-mesure pour vous accompagner dans votre trajectoire de carrière
  • Vous aurez la possibilité de certifier vos compétences et de diversifier vos connaissances en montant en compétences sur différentes plateformes d’intégration et d’échange de données : Informatica (partenariat Platinium en France et en Italie), Talend, Boomi, MuleSoft,…
  • Vous aurez l’opportunité de gagner en responsabilité sur le plan technologique et devenir un Lead (référent technique) auprès de nos clients et des collaborateurs de la communauté Data Engineering

Notre processus de recrutement :

  • 1er échange RH pour se présenter, vous parler de Aubay Data & AI et voir si nos attentes respectives sont compatibles (durée : 30mn, Teams ou présentiel)
  • 2ème échange avec un(e) expert(e) technique (durée : minimum 1H, Teams ou présentiel)
  • 3ème et dernier échange avec un membre de la direction de la BU Data & AI pour bien comprendre vos ambitions et vos motivations mais aussi pour vous projeter sur votre rôle au sein de Aubay Data & AI (durée : 45mn à 1h, Teams ou prése
Ingénieur Intelligence Artificielle Innovation F/H
Aubay
Ile-de-France
Remote or hybrid
Mid - Senior
Private salary

Passionné par la Data et l’innovation à base d’Intelligence Artificielle, vous souhaitez rejoindre une communauté d’experts dans le domaine afin de développer vos compétences en Architecture, Data Engineering et Data Science/IA. Aubay Data & AI, cabinet spécialisé Data de Aubay Solutec, renforce ses équipes et recherche des ML Engineers (H/F) pour accompagner nos clients dans l’industrialisation de leurs travaux Data Science/IA afin de leur permettre de concrétiser leur stratégie Data.

Votre quotidien en tant que ML Engineer au sein de Aubay Data & AI :

  • Identification et préconisation de la plateforme et/ou des outils les plus adaptés au contexte de nos clients pour répondre aux besoins de fonctionnalités MLOps (feature store, code repository, model registry, ML pipeline, metadata store, model serving, model monitoring)
  • Participation à la définition et à la mise en œuvre de l’architecture des solutions ML en collaboration avec les équipes techniques (architectes, Data Engineers) et métiers (Data Scientists, Business/Data Analysts)
  • Mise en place de la plateforme ou des outils de gestion du cycle de vie des modèles et des données (MLflow, Kubeflow, Optuna, LakeFS,…)
  • Définition et mise en place des bonnes pratiques pour l’automatisation, le testing, le versioning, la reproductibilité et le monitoring des modèles déployés
  • Accompagnement de bout-en-bout des Data Scientists dans le cadre du processus de développement ML (conception, mise en œuvre et gestion) afin de s’assurer que les solutions soient reproductibles, testables et évolutives
  • Optimisation (voire Refactoring), mise en production et surveillance des modèles déployés sur des environnements « on-premise » ou Cloud
  • Mise en œuvre d’API pour exposer les modèles sous la forme de services d’entreprise

Votre profil :

  • Vous disposez d’une formation niveau BAC+5 (Master 2 ou école d’ingénieur) spécialisée en informatique et/ou Data Science
  • Vous avez déjà une première expérience significative (a minima 3 ans) en ML Engineering (à défaut, en Data Engineering ou en Data Science/IA)
  • Le Data Engineering est une de vos compétences majeures et les technologies telles que Hadoop, Spark ou Kafka font parties de votre palette de compétences techniques
  • Vous disposez des fondamentaux en Machine Learning et vous êtes capable d’expliquer les concepts et le fonctionnement des principaux types de modèles
  • La programmation n’a plus de secret pour vous et vous maitrisez parfaitement Python
  • Vous avez déjà participé de près ou de loin à un projet DS/IA et vous maîtrisez le mise en œuvre d’au moins un framework de Machine Learning (Tensorflow, Keras, XGBoost, scikit-learn,…)
  • Vous maîtrisez les tenants et aboutissants de la philosophie DevOps et des outils orientés CI/CD
  • Vous êtes soucieux de la qualité, de la performance et l’automatisation de vos développements et vous vous intéressez à l’innovation frugale
  • Vous êtes un expert technique dans votre domaine sans pour autant oublier l’importance d’une communication orale et écrite de qualité et adaptée à chacun de vos interlocuteurs
  • Vous travaillez au quotidien en mode agile et vous en maitrisez les fondements

Ce qui nous caractérise :

  • Des missions et projets dans le domaine du Data Engineering en nombre et dans des secteurs variés (Banque, Assurance, Telecom, Industrie,…) qui permettent à nos collaborateurs de monter en compétences et de devenir des experts Data reconnus
  • De l’apprentissage en continu avec des formations et des certifications sur les technologies Data d’aujourd’hui et de demain
  • Des experts Data mobilisables pour accompagner et soutenir techniquement les collaborateurs sur leurs projets
  • Des communautés de savoir-faire Data proposant de manière régulière aux collaborateurs de Aubay du contenu et des évènements de partage (webinar, meetup/afterwork, BBL,…) sur les thématiques suivantes : Data Architecture & Platform, Data Engineering, Modern BI & Analytics, Data Science & AI, …

Votre carrière au sein de Aubay Data & AI :

  • Vous pourrez rejoindre la BU d’excellence Data et évoluer au sein d’un environnement humain et professionnel de haut niveau. Vous profiterez d’un management sur-mesure pour vous accompagner dans votre trajectoire de carrière
  • Vous aurez la possibilité de développer et certifier vos compétences sur les dernières technologies Data avec un focus fort sur les plateformes et services Cloud tels qu’Azure Machine Learning, Databricks, Dataiku et Google Cloud Vertex AI
  • Vous aurez l’opportunité de gagner en responsabilité sur le plan technologique et devenir un Lead (référent technique) auprès de nos clients et des collaborateurs de la communauté Data Science & AI

Notre processus de recrutement :

  • 1er échange RH pour se présenter, vous parler de Aubay Data & AI et voir si nos attentes respectives sont compatibles (durée : 30mn, Teams ou présentiel)
  • 2ème échange avec un(e) expert(e) technique (durée : minimum 1H, Teams ou présentiel)
  • 3ème et dernier échange avec un membre de la direction de la BU Data & AI pour bien comprendre vos ambitions et vos motivations mais aussi pour vous projeter projection sur votre rôle au sein de Aubay Data & AI (durée : 45mn à 1h, Teams ou présentiel)
Frequently asked questions
Haystack features a variety of remote Data Engineer positions, including roles in data pipeline development, database management, ETL processes, and cloud data engineering across industries like tech, finance, healthcare, and more.
Many remote Data Engineer jobs require experience with tools such as SQL, Python, Apache Spark, Hadoop, and cloud platforms like AWS, Azure, or Google Cloud. Specific requirements vary by role, so be sure to check individual job descriptions.
Simply browse our remote Data Engineer job listings, select the role you're interested in, and click the apply button. You'll be prompted to submit your resume and any additional required information directly to the employer.
While many remote Data Engineer positions require some professional experience, Haystack also lists entry-level roles and internships. Use our filters to find opportunities that match your skill level.
Yes! You can create personalized job alerts on Haystack to receive notifications via email about new remote Data Engineer jobs that match your criteria, helping you stay up-to-date with the latest opportunities.