Roles
Remote Data Engineer Jobs
Overview
Looking for remote Data Engineer jobs? Haystack offers the best fully remote opportunities for skilled data engineers seeking flexible work-from-home roles. Discover top remote data engineering positions where you can design, build, and optimize data pipelines from anywhere. Start your remote data engineer career today with Haystack!
Applikationsmanager (m/w/d) Klinische Informationssysteme - Vollzeit / Teilzeit
Krankenhaus Agatharied
Hausham
Remote or hybrid
Junior - Mid
Private salary
RECENTLY POSTED
TECH-AGNOSTIC ROLE

Applikationsmanager (m/w/d) Klinische Informationssysteme

Hausham

Berufserfahrung (Junior Level)

Berufserfahrung

Büro, Verwaltung, Sachbearbeitung

Kennziffer: 26/13

Wir sind Agatharied: Werden Sie Teil des Teams!

Das Krankenhaus Agatharied ist eine moderne Akutklinik vor den Toren Münchens zwischen Chiemsee und Tegernsee. Bei uns versorgen über 1.100 Mitarbeiter jährlich mehr als 20.000 stationäre und 30.000 ambulante Patienten. Unser medizinisches Leistungsspektrum umfasst 11 Fachabteilungen. Das Krankenhaus Agatharied ist Akademisches Lehrkrankenhaus der LMU München. Unser Personal zeichnet sich durch hervorragende Expertise und ein hohes Maß an Kollegialität aus. Das Wohl unserer Patienten steht für uns an erster Stelle. Dafür setzen wir uns täglich ein.
Die Persönlichkeiten, die bei uns arbeiten, machen uns besonders. Wir identifizieren uns mit unserem Krankenhaus und mit unserer Region: Hier leben und arbeiten wir gerne. Werden Sie Teil des Teams. Wir sind Agatharied!

Zur Verstärkung unseres Teams der IT im suchen wir zum 01.06.2026 einen Applikationsmanager (m/w/d) Klinische Informationssysteme in Voll- /Teilzeit!

Ihre Aufgaben

  • Sie planen, steuern und realisieren eigenverantwortlich IT-Projekte mit den Schwerpunkten Klinisches Informationssystem (KIS - CGM medico) sowie zugehörige Sub- und Schnittstellensysteme und passen diese kontinuierlich an neue fachliche und technische Anforderungen an
  • Sie übernehmen die Rolle des koordinierenden Ansprechpartners für den Second-Level-Support sowie für den Bereich Schulungen und Dokumentation unserer klinischen Informations- und Subsysteme
  • Sie fungieren als zentrale Schnittstelle zwischen externen IT-Partnern, internen Fachabteilungen und der IT und stellen eine reibungslose Zusammenarbeit sicher
  • Zudem unterstützen Sie die Weiterentwicklung der Systeme durch Programmierung, Anpassungen und Erweiterungen bestehender Funktionen
  • Die Bearbeitung, Analyse und Optimierung von SQL-Abfragen sowie die Arbeit mit Datenbanken gehören ebenfalls zu Ihrem Aufgabenbereich

Ihr Profil

  • Ein erfolgreich abgeschlossenes Studium (z.B. Medizin-Informatik)
  • Fachliche Expertise im Betrieb und der Weiterentwicklung vonklinischen Informationssystemen
  • Erfahrung in der Projektleitung und Durchführung im Bereich klinischer Applikationen gepaart mit analytisch vernetztem Denken und Prozessverständnis
  • Organisationstalent, Engagement und eine hohe Bereitschaft sich in breite Themenfelder einzuarbeiten
  • Soziale Kompetenz mit einem verbindlichen, gewinnenden Auftreten und lösungsorientiertes Handeln mit einem ausgeprägten Dienstleistungsverständnis
  • Grundkenntnisse in der Programmierung und im Umgang mit SQL-Datenbanken
  • Bereitschaft zur Einarbeitung in bestehende Systeme

Das bieten wir Ihnen

  • Arbeiten in einem motivierten Team mit dem “Wir - Gefühl” - dies stärken wir durch unsere Grundsätze der Zusammenarbeit sowie unser Leitbild
  • Leistungsgerechte Vergütung nach TVöD mit betrieblicher Altersversorgung
  • Unterstützung zur besseren Vereinbarkeit von Familie und Beruf
  • Flexible Arbeitszeiten
  • Mobiles Arbeiten / Homeoffice
  • Gezielte Fort- und Weiterbildungsmaßnahme
  • Abwechslungsreiches und preiswertes Mitarbeiterrestaurant
  • Kostengünstige Kinderferienbetreuung in den bayrischen Schulferien
  • Betriebliches Gesundheitsmanagement mit umfangreichem, kostenlosen Sport- und Fitnessangebot sowie zahlreichen Workshops zur mentalen Gesundheit
  • Kooperationspartner der Oberland Card
  • Zahlreiche Rabattpartnerschaften sowie Corporate Benefits, MiVo und Ticketsprinter
  • Bikeleasing
  • Arbeiten in einer attraktiven Region mit zahlreichen Sport- und Erholungsgebieten - Sie arbeiten dort wo andere Urlaub mache

Ihre Ansprechpartnerin

Mehr Informationen finden Sie auch auf

Franziska Niewoehner
Leitung IT

Mehr Informationen finden Sie auch auf Jetzt bewerben!

Datenbankentwickler (m/w/d) Oracle APEX
TRIOLOGY GmbH
Braunschweig
Remote or hybrid
Junior - Mid
Private salary
RECENTLY POSTED
Datenbankentwickler (m/w/d) Oracle APEX Agile Entwicklungsmethoden, exzellente Code-Qualität und aktuelle Technologien – dafür steht TRIOLOGY. Gestaltungskraft, Expertise und Leidenschaft zeichnen unsere ca. 100 Mitarbeiter*innen aus. Dich auch? Dann #machmIT und werde Teil unseres tollen Teams!
Deine Aufgaben
  • Entwicklung und Optimierung von Datenbanklösungen mit Oracle APEX und PL/SQL.
  • Konzeption und Umsetzung moderner datenzentrierter Webanwendungen.
  • Analyse, Beratung und Betreuung von Kundenprojekten – mit Eigenverantwortung, aber nie alleine.
  • Mitgestaltung von Best-Practice-Ansätzen für eine effiziente Entwicklung.
  • Arbeit in agilen und klassischen Projekten mit flexiblen Methoden.
  • Technologie- und Wissensaustausch im Team.
Das erwarten wir von Dir
  • Studium oder Ausbildung mit IT-Bezug oder vergleichbare Projekterfahrung.
  • Begeisterung für Datenbanken, Datenmodellierung und SQL.
  • Grundlegende Kenntnisse in Webtechnologien (HTML, CSS, JavaScript).
  • Erfahrung mit Oracle APEX & PL/SQL oder Motivation, Dich intensiv darin einzuarbeiten.
  • Lösungsorientierte, eigenverantwortliche Arbeitsweise mit Spaß an Kundenkontakt.
  • Sehr gute Deutschkenntnisse (erforderlich für die Kommunikation mit Kund*innen).
Das bieten wir Dir
  • Ein kleines, engagiertes Team mit Freude an Austausch und Zusammenarbeit.
  • Moderne Technologien & aktuelle Ausstattung.
  • Flexible Arbeitszeiten & mobiles Arbeiten – dein Arbeitsplatz, wie Du ihn brauchst.
  • Attraktive Gehaltskonditionen & Zusatzleistungen (z. B. Bikeleasing, Gesundheitsangebote).
  • Individuelle Weiterbildung – ob Fachbuch, Schulung, User Group oder Konferenz – Du entscheidest!
  • Offene Unternehmenskultur mit Raum für neue Ideen und Innovationen.

Sind noch Fragen offen geblieben, ob wir zueinander passen? Kein Problem! Lass es uns gemeinsam herausfinden.
Übrigens! Wir sind als attraktiver Arbeitgeber der Region38 mit dem Siegel Zukunftgeber ausgezeichnet. Was sich dahinter verbirgt kannst Du Dir unter folgendem Link ansehen: Zukunftgeber
Zudem wurden wir erfolgreich mit dem Umweltmanagement Siegel EMAS ausgezeichnet. Wenn Du mehr darüber erfahren möchtest, dann schau auf unserer Homepage vorbei: Umweltmanagement
Haben wir Dein Interesse geweckt? Sende uns Deine Bewerbung über das Online-Bewerbungsformular oder an jobs@triology.de. Für Fragen steht Dir das Team Human Resources auch gern telefonisch unter +49 531 23528-52 zur Verfügung. Besuche uns online unter

Diesen Job teilen

Azure Data Engineer
Capitole
Multiple locations
Fully remote
Mid - Senior
Private salary
+4

Capitole is one of the best IT consulting companies and the place you want to be. Why?

🤝 People in the center. We believe in a different model, more human, with the employee in the center of our company

👨 💻 Interesting projects. Cutting-edge technologies. Agile methologies

😁 Happiness and low turnover rate

🎓 €1200 per year training budget

⌚ Flexible working hours

🌏 More than 900 skilled professionals, from more than 27 nationalities

🎯 Tailored career path

📆 Monthly follow-ups. 360º continuous evaluation

🩺 Private health insurance

💰 Flexible retribution program

🦾 WellHub

📄 Processing of the work permit for you to come to Spain with your family

📢 Technological communities

🥳 Lots of amazing events

🌟 Capitole keeps growing…and we want to do it with you!

We are looking for a Azure Data Engineer (FULLREMOTE -📍Only Spanish Residents)

🔴 What You’ll Do :

  • We are seeking a Senior Data Engineer to design, build, and maintain scalable data processing pipelines.
  • The ideal candidate will have expertise in SQL, ETL processes, and cloud technologies. You will collaborate closely with Data Scientists to ensure data integration, quality and support advanced analytics.
  1. TECHNICAL KNOWLEDGE
  • Knowledge of Programming Languages: Proficiency in Python.
  • SQL Skills: Expertise in Joins, Group By, subqueries, and temporary tables.
  • Strong knowledge in Apache Spark.
  • Cloud Platform: experience with cloud platforms such as Azure. MUST: Azure, Data Factory and Databricks.
  • Data Orchestration Tools: Familiarity with data orchestration tools like Azure Data Factory, Airflow, Control-M, or similar.
  • DevOps Experience: Hands-on experience with DevOps tools such as Azure DevOps, Jenkins, etc.

Desirable:

  • Visualization Tools: Knowledge of visualization tools such as PowerBI, Grafana, etc.
  • Containerization Technologies: Proficiency with Docker and Kubernetes.
  • Agile Methodologies: Understanding of agile methodologies.
  • Certifications: Certifications in cloud technologies or big data are a plus.

Business skills:

  • Strong critical thinking and problem solving skills.
  • Ability to work individually without much direction while also working as part of a team towards a common goal.
  • Good written and oral communication skills.
  • Results-oriented, self-directed ability to drive change in an unstructured environment.
  • Time management skills.
  • International experience and multicultural skills are highly valued.

3 ROLE AND RESPONSABILITIES

  • Implement and manage cloud data storage systems.
  • Collaborate with data scientists and analysts to understand data requirements and provide suitable solutions.
  • Ensure data quality, integrity, and security.
  • Automate data ingestion, cleaning, and transformation processes.
  • Monitor the performance of data systems and troubleshoot issues as needed.
  • Optimizing performance and scalability of Big Data solutions.
  • Strong critical thinking and problem solving skills.

🔵 Conditions:

  • Modality: FULLREMOTE.
  • Schedule: Flexible, Intensive workday on Fridays.
  • Fluent English / Spanish (C1) 🗣️

Want to know more? Click and find out!

See what people say about us 🕵️ ♀️

Feel free to send us your profile, we are excited to meet you! 💙

The employee will adhere to information security policies:

-Will have access to confidential information related to Capitole and the project they are working on.

-Must comply with the security policies and internal policies of the company and the client.

-Must sign an NDA.

Data Engineer IA & Agentic
Tenth Revolution Group
Bordeaux
Remote or hybrid
Mid - Senior
Private salary

Tu rejoindras une équipe Data & AI en charge de :

  • Concevoir et maintenir des pipelines data robustes
  • Construire et automatiser des architectures Data sur AWS
  • Développer et orchestrer des agents IA basés sur des LLM
  • Participer à des projets d’industrialisation IA (RAG, LLMOps, orchestration)
  • Mettre en place des patterns agentiques (LangChain / LangGraph / CrewAI…)
  • Contribuer à l’évolution technique des plateformes Data & AI du client

Stack & environnement

  • Python avancé (structuration, orchestration, libs IA)
  • AWS : S3, Lambda, Glue, Step Functions, Bedrock (atout majeur)
  • Data Engineering : Airflow, dbt, Spark (bonus)
  • Agentic AI / LLM : LangChain, LangGraph, RAG, Vector DB
  • APIs de LLM (OpenAI, Bedrock, Azure OpenAI, etc.)

Profil recherché

  • 3 à 5 ans d’expérience en Data Engineering
  • Très bonnes compétences Python (indispensable)
  • Expérience AWS
  • Avoir déjà expérimenté ou travaillé sur :
  • LLM
  • RAG
  • agents IA / orchestrations multi-agents
  • Curiosité, autonomie, envie de monter sur l’agentique

👉 Un profil hybride Data + IA (sans être Data Scientist) est idéal.

Pourquoi c’est une opportunité rare ?

  • Travailler sur de l’IA agentique en environnement réel
  • Projets avec impact concret
  • Forte montée en compétences Data + IA
  • Environnement technique moderne et dynamique
CONSULTANT DATA ORACLE ANALYTICS H-F
SQORUS
Paris
Remote or hybrid
Mid
Private salary

Description

Travailler sur des missions variées, stratégiques, à dimension internationale, dans un cabinet conseil qui valorise l’humain et l’excellence au quotidien vous intéresse ? Vous souhaitez construire sur la durée votre nouvelle aventure professionnelle ?

SQORUS accompagne des clients grands comptes dans la mise en œuvre et le suivi de leurs projets décisionnels et Big Data, leur permettant ainsi de maximiser la valeur de leurs données et de prendre des décisions éclairées.

Dans un contexte de forte croissance, multi-projets, forfaits et face à des projets ambitieux pour 2026, à la fois techniquement complexes et stratégiques, nous sommes à la recherche d’un.e Consultant Data Oracle Analytics (H/F) pour renforcer nos équipes.

Missions

En tant que Consultant.e Data , vous interviendrez sur l’ensemble de la conception et de la définition d’architectures Data. Vous intégrerez notre équipe Data Analytics , et évoluerez dans des contextes internationaux pour la production de rapports de Data (RH, Finance…) dans nos environnements Oracle , tout en capitalisant sur notre expertise dans d’autres produits Oracle tels que Peoplesoft, Oracle Cloud Infrastructure, Oracle HCM Cloud, et EPM Cloud.

Dans des contextes techniques divers et variés, vous serez amené à accompagner nos clients sur l’ensemble de la chaîne Data. Dans le cadre de vos activités et des responsabilités confiées vous interviendrez sur les points suivants :

  • Compréhension de l’environnement technique : architecture, outils, flux de données, …
  • Participation au recueil des besoins
  • Mise en place d’architectures de plateformes de données, outils de data management et data intelligence en environnement Oracle
  • Collecte, intégration et gestion de données provenant de diverses sources, en utilisant des technologies d’intégration de données
  • Conception de modèles de données adaptés et développements de rapports et tableaux de bord dans BI Publisher ou outils BI Oracle
  • Formation d’utilisateurs finaux et équipes projets

Vous participerez également au développement du pôle Data de SQORUS :

  • Veille technologique et proposition d’innovation (Green Data, Data self-service…etc)
  • Construction et pilotage d’offres innovantes (IA)

Stack technique : Oracle Analytics Cloud & tous outils Oracle BI (BI Publisher, FDI, OBIEE…), BDD Oracle, SQL.

Profil

Vous avez développé une expertise concrète au sein de projets Data, idéalement internationaux. Vous souhaitez participer à la construction de nouvelles offres Data innovantes et construire les usages Data de demain. Vous avez des connaissances fonctionnelles en Data (métiers RH, Finance…) et autour d’outils comme Oracle HCM Cloud ou autre SI.

Vous avez un minimum de 3 ans d’expériences dans des projets Data.

Vous possédez les compétences suivantes :

  • Capacité à se saisir des sujets et à proposer des solutions adaptées
  • Capacité à accompagner et challenger les métiers
  • Capacité à proposer et développer des solutions ou POC autour de la data
  • Capacité à présenter son argumentation de manière bien structurée et en s’appuyant sur des données
  • Solides compétences en communication, permettant vulgariser un sujet hautement technique et de s’adresser à tous niveaux d’interlocuteurs (métiers, techniques, C-level)
  • Être acteur dans la veille technologique Data autour des outils, méthodologies et usages (Green Data, Data mesh, data self service…etc).
  • Impératif Français lu, écrit, parlé
  • Impératif Anglais lu, écrit, parlé

SQORUS en quelques mots :

SQORUS est un Cabinet Conseil spécialisé dans la transformation des fonctions RH, Finance et IT. Nos consultants interviennent depuis plus de 30 ans auprès d’ETI et de grandes entreprises sur des projets structurants, à dimension internationale : Conseil en stratégie, Aide au choix, Intégration, Assistance à Maîtrise d’Ouvrage Business Intelligence, Data Management, Accompagnement au changement, Pilotage de la Performance, mais également sur des enjeux autour du Cloud ou de l’Intelligence Artificielle.

Nous anticipons constamment les nouvelles pratiques numériques et les évolutions des modes de travail. Nous avons réussi à tisser des partenariats forts avec les principaux éditeurs du marché et à attirer des experts métiers et techniques.

Notre force : plus de 300 talents dédiés à la réussite des projets de nos clients et partageant des valeurs fortes : la bienveillance, l’exigence, la diversité, l’engagement et la solidarité. Elles constituent des piliers dans nos relations avec nos collaborateurs et nos clients.

Great Place to Work depuis 2014 , SQORUS est sensible à l’épanouissement de ses équipes, à leur évolution de carrière et à leur formation sur des solutions d’avenir.

Chez Sqorus, nous nous engageons en faveur de l’égalité homme-femme et croyons que la diversité est une source de richesse et d’innovation. Nous encourageons les candidatures de tout genre, expérience et origine. SQORUS est une entreprise handi-accueillante : tous nos postes sont ouverts aux personnes en situation de handicap.

Senior AI Engineer (Python)
Profile Software Services
Multiple locations
Fully remote
Senior
Private salary

¿Buscando nuevos retos? ¿Quieres formar parte de nuestro equipo? 🚀

Desde Profile nos encontramos en búsqueda de un/a Senior AI Engineer , con sólida experiencia en Python, para integrarse dentro del equipo de uno de nuestros clientes más importantes del sector consumo, en modalidad 100% remoto.

Con ilusión es como se cambian las cosas, y queremos contribuir a un futuro mejor gracias a la tecnología. Para conseguirlo no necesitamos héroes ni súper talentos, sino personas implicadas, motivadas, con muchas ganas de trabajar en equipo y de crecer dentro de este proyecto común que formamos todos/as.

🎯 Responsabilidades principales

  • Diseño e implementación de patrones multi-agente (skills, subagentes).
  • Prompt engineering avanzado.
  • Gestión de estado y memoria en sistemas basados en LLMs.
  • Implementación de arquitecturas RAG (Retrieval-Augmented Generation) .
  • Diseño de flujos de planificación y razonamiento (reasoning loops).
  • Desarrollo e integración de herramientas (tooling) para LLMs.
  • Manejo de errores y excepciones en herramientas y agentes.
  • Interoperabilidad entre sistemas y servicios.
  • Implementación de seguridad, guardrails y buenas prácticas de LLMOps .
  • Optimización de costes y latencia en entornos productivos.
  • Trabajo en arquitecturas de microservicios y sistemas event-driven.

🔎 Requisitos técnicos

  • +5 años de experiencia con Python
  • Experiencia en proyectos de Inteligencia Artificial .
  • Conocimientos en Java .
  • Conocimientos sólidos en Kafka y arquitecturas de microservicios.
  • Experiencia práctica con LLMs en producción.
  • Capacidad para diseñar soluciones escalables y mantenibles.
  • Perfil autónomo, proactivo y orientado a resultados.

Te damos buenas razones para unirte a nuestro equipo 🤼

  • Garantizamos el equilibrio trabajo/vida. Disponemos de flexibilidad horaria y mejoramos tus vacaciones por cada año que pases con nosotros/as.
  • Disponemos de retribución flexible: cheques gourmet, seguro médico privado, tarjeta transporte, cheques guardería, formación, etc.
  • Te daremos la mejor acogida con un proceso de onboarding en el que te sentirás como en casa desde el minuto uno y también recibirás tu welcome pack.
  • Reconocemos la aportación, implicación y compromiso de todos aquellos que ayudamos a crear un entorno de trabajo más agradable y profesional a través de nuestra plataforma de gamificación.
  • Fomentamos un ambiente de trabajo en el que todos/as seamos felices. Nuestro equipo multidisciplinar de People & Culture trabaja día a día para aumentar el bienestar y la motivación de todas las personas que componemos Profile.
  • Trabajamos para que todos/as tengamos las mismas oportunidades, combatir discriminaciones y fomentar la conciliación de la vida personal, familiar y laboral.
  • Todas nuestras vacantes están abiertas a personas con certificado de discapacidad. Fomentamos un entorno inclusivo y libre de discriminación.

¡Conócenos!💛

Si tienes ganas de crecer y trabajar en un buen ambiente de trabajo, de manera cómoda y productiva, y ¿por qué no?, divertida. Te ofrecemos un gran número de ventajas para facilitarte esta decisión. Contáctanos y ¡te lo contamos!

Conócenos más sobre Profile en nuestra web

Puedes consultar aquí nuestra política de Privacidad y Gestión de Datos:

Database Engineer (Oracle, SQL Server, PostgreSDL)
Next Ventures
Paris
Remote or hybrid
Mid - Senior
Private salary

We are seeking a skilled Database Engineer to collaborate closely with the Senior Database Engineer in supporting and enhancing Oracle DB, SQL Server, PostgreSQL. This role emphasizes hands-on operational excellence, performance troubleshooting, automation support, and active participation in modernization and cloud transformation initiatives . The ideal candidate will be capable of independently managing medium-complexity database tasks while providing strong technical contributions to critical and strategic initiatives led by the Senior Engineer . The ideal candidate will independently manage medium‑complexity tasks while providing strong technical contribution and support for critical and strategic initiatives driven by the senior engineer. Responsibilities • Support day‑to‑day Oracle DB, SQL Server and PostgreSQL operations, including routine maintenance and basic automation activities. • Assist with backup hygiene, validation checks, and post‑deployment verification across database environments. • Contribute to Oracle, SQL and Azure PostgreSQL workload reviews and assist with configuration updates. • Gather and organize data for Oracle and SQL Server license compliance assessments and reporting. • Assist in configuring and validating audit policies on critical SQL Server and PostgreSQL databases. • Execute database patching activities, performing structured pre‑checks and post‑checks as per established procedures. • Support L3 operational tasks by performing health assessments, reviewing logs, and preparing diagnostic summaries. • Assist in modernization efforts, including configuration reviews, environment readiness checks, and upgrade preparations. • Monitor PostgreSQL environments and assist in identifying performance trends or configuration issues. • Work with predefined runbooks to collect logs, metrics, and validation results that support senior DBA analysis and decisions. • Review and update technical documentation, operational procedures, and CMDB entries to maintain accurate environment records. • Assist in the development and enhancement of automation scripts to streamline recurring operational tasks. March 2026 Database Design | Digiteam Required Skills • Strong proficiency in SQL Server and PostgreSQL administration, and query development. • Good understanding of indexing principles, execution plan interpretation, and core performance tuning concepts. • Hands‑on experience with database backup/restore operations, patching cycles, and environment monitoring. • Working knowledge of Azure SQL and Azure Database for PostgreSQL services and configurations. • Familiarity with PostgreSQL parameters, monitoring patterns, and basic replication concepts. • Ability to analyze blocking, wait conditions, and general performance anomalies. • Experience supporting medium‑complexity migrations, deployments, and environment rollouts. • Strong capability in preparing technical documentation, operational procedures, and structured analysis reports. • Proven ability to collaborate effectively with senior/lead DBAs and contribute meaningful technical inputs. Preferred / Optional Skills • Azure DevOps pipelines for database automation. • PowerShell or similar scripting experience for operational automation. • Azure-related certifications (e.g., AZ‑104, DP‑300). • Exposure to cross‑platform database migrations (on‑prem ↔ cloud). Other Qualifications • Bachelor’s Degree or above in computer science / Information Technology related stream • 7+ years of experience in core Database related roles • Strong analytical and problem-solving skills, with keen attention to detail. • Excellent communication and interpersonal skills. • Ability & Flexibility to work collaboratively with cross-functional teams, across different time zones. Engagement Model • This contract shall be executed for 9 months, starting from mid-March to December 2026. • The Engineer will be part of the Database SME group under Database Design. • Invoicing shall be based on monthly Timesheets, approved by Technip Energies Database Design Team Manager.

Data Engineering Tech Lead (Teletrabajo 100%)
keapps
Multiple locations
Fully remote
Senior
€52,000/hour - €62,000/hour

¿Te imaginas liderar técnicamente plataformas de datos complejas donde el impacto está en cómo se usan los datos para tomar decisiones?

Si te interesa trabajar en un proyecto grande y ambicioso de Big Data e IA en el sector salud , sigue leyendo 👇

Es una oportunidad para un/a Data Engineering Tech Lead con experiencia sólida en integración de datos y construcción de plataformas de datos modernas , para liderar la evolución de procesos ETL/ELT dentro de un entorno técnico exigente y con gran volumen de datos.

🔹 ¿QUÉ OFRECEMOS?

  • Teletrabajo 100% 🏡
  • Proyecto grande y ambicioso de Big Data e IA en el sector salud.
  • Salario: Entre 52.000-62.000 euros/brutos (lo terminamos de concretar en la llamada telefónica en función de tu experiencia y expectativas)
  • Formación IT continua ( acceso a más de 1.000 cursos en OpenWebinars).
  • Seguro médico y dental bajo retribución flexible tanto para ti como los tuyos a través de la compañía DKV
  • Horario: L-V de 9:00 a 18:00.

🔹 ¿CUÁL ES TU MISION?

  • Liderar la definición, diseño y evolución de procesos ETL/ELT de la plataforma de datos.
  • Diseñar e implementar procesos de ingesta, transformación y persistencia de datos en arquitecturas Data Lake, Data Warehouse o Lakehouse .
  • Definir y asegurar controles de calidad del dato , validaciones, reglas de negocio y trazabilidad.
  • Establecer estándares técnicos, buenas prácticas y patrones de desarrollo para los pipelines de datos.
  • Actuar como referente técnico del equipo de Data Engineering , realizando revisión de código y mentoring.
  • Interlocución directa con cliente como experto técnico en decisiones de arquitectura y estrategia de datos.
  • Coordinarse con arquitectos, BI y Data Science para asegurar la coherencia del ecosistema de datos.
  • Optimizar rendimiento, escalabilidad y fiabilidad de los procesos de datos en producción.
  • Documentar arquitectura, flujos de datos y procesos críticos de la plataforma.

🔹 ¿QUÉ NECESITAS TENER PARA OPTAR A LA OPORTUNIDAD?

  • Experiencia de al menos 6 años en proyectos de Data.
  • Experiencia en proyectos de Data Engineering e integración de datos .
  • Experiencia sólida en definición e implementación de procesos ETL/ELT complejos .
  • Dominio avanzado de Python, SQL y procesamiento distribuido con Spark / PySpark (imprescindible).
  • Experiencia en arquitecturas de datos modernas : Data Lake, Data Warehouse o Lakehouse.
  • Experiencia aplicando CI/CD y control de versiones con Git en pipelines de datos.
  • Capacidad para liderar técnicamente equipos .
  • Buenas habilidades de comunicación e interlocución con perfiles técnicos y de negocio .
  • Experiencia trabajando con metodologías ágiles .

¿Te atreves a aceptar este reto?

En Keapps, promovemos un entorno diverso e inclusivo, ofreciendo igualdad de oportunidades a todas las personas candidatas cualificadas, independientemente de su género, edad, orientación sexual, identidad de género, religión, origen étnico o cualquier otra condición.

Se valorará condición acreditada de discapacidad.

Senior Data Scientist - Remoto (45-50K)
Hays
Multiple locations
Fully remote
Senior
€45,000 - €50,000

🚀 Senior Data Scientist | Optimización & Forecasting | 100% Remoto

¿Te apasiona resolver problemas complejos con modelos predictivos y optimización matemática?

¿Quieres trabajar en proyectos reales con impacto en uno de los sectores más estratégicos del país?

📌 Desde una compañía líder en el ámbito energético y de movilidad estamos buscando un Senior Data Scientist con una visión madura, sólida base técnica y experiencia demostrada llevando modelos a producción.

🔎 ¿Qué harás?

Formarás parte de un proyecto estratégico donde desarrollarás e industrializarás modelos de:

  • Optimización matemática (preferiblemente logística)
  • Forecasting y Machine Learning clásico
  • Procesamiento de datos a escala con PySpark
  • Modelos productivos en cloud (AWS)

Tu rol será clave para aportar criterio, buenas prácticas de MLOps y enfoque de negocio.

🧠 Lo que buscamos

✔ +4 años de experiencia como Data Scientist

✔ Experiencia demostrada en optimización matemática

✔ Background universitario en disciplinas STEM

✔ Dominio sólido de Python , PySpark y pipelines en AWS

✔ Haber llevado modelos a producción (sí o sí)

✔ Buen criterio técnico y capacidad para trabajar con stakeholders técnicos y de negocio

🛠 Tecnologías que utilizarás

  • Python (pandas, numpy, scikit‑learn, PySpark…)
  • AWS (S3, EC2, Lambda, SageMaker, EMR…)
  • Modelos de forecasting (Prophet, XGBoost, LightGBM…)
  • Buenas prácticas de MLOps (CI/CD, monitorización, retraining, control de drift…)

🌍 Modalidad & Condiciones

💻 100% remoto

📌 Contrato directo con cliente final

💶 Banda salarial: 45–50K

⏳ Incorporación ágil

📩 ¿Te encaja?

Aplica o escríbeme por privado y te cuento todos los detalles de la posición.

Técnico de Bases de Datos Junior
Fujitsu
Sevilla
Remote or hybrid
Junior
Private salary

TÉCNICO DE BASES DE DATOS JUNIOR

¡En Fujitsu buscamos personas con talento!

Fujitsu es la compañía líder japonesa en tecnología digital, de la información y comunicaciones, y uno de los cinco principales proveedores de estos servicios en el mundo. Contamos con más de 50 años de experiencia en la entrega de soluciones tecnológicas a clientes de todo el globo y somos más de 140.000 expertos con el propósito de crear un mundo más sostenible a través de la innovación.

Somos una somos una compañía que pone en valor la DIVERSIDAD y el TALENTO de TODOS; una empresa que reconoce los valores profesionales, la capacitación laboral y la pasión, independientemente de las diferentes capacidades de cada uno que, lejos de alejarnos, nos enriquecen.

Si quieres desarrollar tu carrera como Técnico de Bases de Datos Junior rodeado de un gran equipo, ¡te interesa esta oportunidad!

¿Qué buscamos en ti?

  • 3-5 años de experiencia.
  • Experiencia en Oracle 10, 11,12 o 19c, MongoDB y/o MariaDB.
  • Ciclo Formativo de Grado Superior en la rama de Tecnologías de la Información.

También valoramos…

  • Certificación ITIL 4 foundation.
  • Oracle Certified Associate (OCA), desde la versión 19c incluida.
  • Oracle Certified Professional (OCP), desde la versión 19c incluida.

¿Qué te ofrecemos?

  • Contratación indefinida.
  • Horario flexible.
  • Ayuda mensual por hijos menores de edad.
  • Plan de Compensación Flexible (seguro médico, guardería, transporte, formación).
  • Seguro de vida y accidentes.
  • Plan de pensiones.
  • Plan de formación, licencia LinkedIn Learning y otras plataformas formativas.
  • Tarjeta Restaurant.
  • Gym virtual.
  • Carrera profesional en una multinacional líder del sector.
  • Empresa con sólida cultura organizacional.
  • ¡Y mucho más!

¿Y por qué Fujitsu?

  • La consultora independiente Whitelane Research y la consultora estratégica Quint, en su estudio 2022 sobre externalización de servicios TI en España, han posicionado a Fujitsu como líder en el nuevo indicador de Ciberseguridad y como líder en el indicador de Entendimiento del Negocio
  • Fujitsu se encuentra entre los 10 primeros proveedores de servicios a nivel mundial.
  • Fujitsu posee alrededor de 97.000 patentes a nivel mundial.
  • Fujitsu figura en los índices de sostenibilidad Dow Jones (World), FTSE4Good Index Series, y en Oekom research.
  • La revista FORTUNE ha nombrado a Fujitsu una de las empresas más admiradas del mundo cuatro veces consecutivas desde 2012.
Business Intelligence Consultant
Enterprise Quality Management
Multiple locations
Remote or hybrid
Mid - Senior
Private salary

Estamos en la búsqueda de un Consultor de Business Intelligence (BI) altamente cualificado para unirse a nuestro equipo.

Responsabilidades Principales:

  • Análisis de Requerimientos
  • Diseño y Desarrollo de Soluciones BI
  • Integración y Gestión de Datos
  • Análisis y Reportes
  • Capacitación y Soporte
  • Cumplimiento y Gobernanza de Datos

Requisitos:

  • Título en Ingeniería, Ciencias de la Computación, Administración de Empresas, Estadística o un campo relacionado.
  • Experiencia demostrable en el desarrollo de soluciones de BI utilizando Power BI
  • Conocimientos sólidos de SQL y experiencia en modelado de datos y procesos ETL.
  • Experto en base de datos Azure.
  • Habilidad para analizar datos complejos y presentar resultados de manera clara y efectiva.
  • Excelentes habilidades de comunicación y capacidad para trabajar en un entorno dinámico.

Competencias Deseadas:

  • Experiencia en la integración de datos desde múltiples fuentes y en la optimización de soluciones de BI.
  • Capacidad para adaptarse a nuevas tecnologías y metodologías de trabajo.
Senior Data Engineer Cloud
BIOGROUP
Saint-Ouen-sur-Seine
Remote or hybrid
Senior
Private salary

Créé en 1998 en Alsace, Biogroup est aujourd’hui un acteur majeur de la biologie médicale en France et en Europe. Groupe indépendant fondé et dirigé par des biologistes, Biogroup rassemble plus de 900 sites en France et plus de 1 600 en Europe.

Avec plus de 10 000 collaborateurs engagés au quotidien, Biogroup poursuit une ambition forte : offrir un service de biologie médicale innovant, exigeant et au plus proche des patients et des professionnels de santé.

Dans le cadre du développement de sa plateforme data et de la montée en puissance des usages data et analytics au sein du Groupe, Biogroup recrute un Senior Data Engineer au sein du pôle Data Factory de la DSI Groupe.

Le siège déménage de Levallois à Saint-Ouen fin avril !

Au sein de la Data Factory, vous contribuez à la conception, à l’industrialisation et à la fiabilisation de la plateforme data du Groupe.

Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers.

Vos principales missions :

Développement et gestion des pipelines data

  • Concevoir et maintenir des pipelines d’ingestion et de transformation des données
  • Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse
  • Assurer la disponibilité et la fiabilité des flux de données

Industrialisation de la plateforme data

  • Participer à la mise en place de standards de développement et de déploiement
  • Contribuer à l’automatisation et à l’industrialisation des pipelines data
  • Garantir la robustesse et la performance des traitements

Qualité, sécurité et gouvernance des données

  • Mettre en place des contrôles de qualité et de traçabilité des données
  • Contribuer au monitoring et à l’observabilité de la plateforme
  • Veiller au respect des exigences de sécurité et de conformité (RGPD)

Collaboration transverse

  • Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT
  • Participer à la documentation et au partage de bonnes pratiques
  • Contribuer à la structuration et à l’amélioration continue de la Data Factory

Profil recherché

  • Bac +5 en informatique, data engineering ou systèmes d’information
  • 6 à 8 ans d’expérience en Data Engineering ou DataOps
  • Expertise en SQL et développement de pipelines data (Python, Scala ou équivalent)
  • Expérience des environnements cloud (AWS/GCP) et des plateformes data modernes
  • Bonne maîtrise des pratiques DevOps, CI/CD et des outils d’orchestration

Vous êtes reconnu(e) pour votre rigueur technique, votre autonomie et votre capacité à travailler dans des environnements data complexes et en forte évolution

Avantages du poste :

  • CDI à pourvoir, avec un statut cadre en forfait jours.
  • Poste à pourvoir ASAP
  • Prime sur objectifs / prime d’intéressement
  • CSE / transport en commun
  • Télétravail
Consultant(e) Data Steward/Analyst Qualité de Données (F/H)
Argain Consulting Innovation
Niort
Remote or hybrid
Junior - Mid
€36,000/hour - €40,000/hour

✨ Notre entreprise :

Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l’écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort.

Nous mettons un point d’honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d’appartenance.

Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.

Nous recherchons un(e) Data Steward/Analyst Qualité de Données (F/H)

En tant que Data Steward/Analyst Qualité de Données (F/H), vous interviendrez :

Chez les clients, selon le cadre et les objectifs définis :

Data Quality & Analyse

  • Mettre en place et suivre les indicateurs de qualité de données (complétude, cohérence, exactitude, fraîcheur).
  • Identifier, analyser et documenter les anomalies de données.
  • Réaliser des études approfondies sur les causes racines et proposer des actions correctrices.

Exploration & Exploitation de la donnée (SAS)

  • Manipuler, transformer et exploiter les données via SAS :
  • PROC SQL
  • PROC de reporting / statistiques
  • Construire et maintenir des tableaux de bord et reportings.
  • Extraire, consolider et fiabiliser des données critiques pour les métiers.

Gouvernance & Documentation

  • Contribuer à la définition des règles de gestion et des contrôles de qualité.
  • Mettre à jour les dictionnaires de données et la documentation métier/technique.
  • Participer à la structuration des processus de gouvernance data.

Coordination & Communication

  • Collaborer avec les équipes métiers, IT, Data Governance, Risk et Compliance.
  • Vulgariser et expliquer les enjeux de qualité de données.
  • Participer à des comités, présenter les KPI et alerter sur les risques.

Amélioration continue

  • Proposer et mettre en œuvre des plans d’amélioration.
  • Contribuer à la refonte ou optimisation des flux data.
  • Être force de proposition sur l’industrialisation des contrôles.

Au sein du cabinet :

  • Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat),
  • Participer à des projets internes relatifs à nos activités évènements, QVT, RSE,
  • Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)

🕵️ Qui êtes-vous ?

🎓 Issu(e) d’une formation en statistiques, data, informatique décisionnelle ou équivalent, vous justifiez d’une première expérience en qualité de données, data analysis ou data management.

🧠 Vous avez une forte capacité d’analyse, une excellente rigueur et un sens aigu du détail.

💻 Vous maîtrisez SAS (indispensable) et idéalement SQL, Excel avancé ou un outil de data quality.

🤝 Vous savez travailler en équipe et communiquer de manière claire avec les métiers comme avec l’IT.

📊 Vous comprenez les enjeux liés à la qualité, à la gouvernance et aux processus data.

🚀Connaissance des métiers de l’assurance souhaitée

👍 Organisé(e), autonome, curieux(se) et orienté(e) amélioration continue, vous savez évoluer dans des environnements complexes.

🚀 L’aventure Argain Consulting, c’est :

  • Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH),
  • Un processus d’intégration personnalisé (individuel puis collectif),
  • Des formations certifiantes (au minimum 1 formation tous les deux ans),
  • De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké),
  • La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager),
  • Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaires),
  • Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant).

💰 Rémunération : 36k à 40k selon le niveau d’expérience

🚀 Le processus de recrutement :

Notre processus comprend 3 entretiens :

🤝 Un entretien de découverte avec un(e) référent(e) RH, pour apprendre à se connaître et s’assurer de notre intérêt mutuel. (45-60 minutes )

💼 Un entretien de projection avec un business manager, pour évoquer les typologies de missions sur lesquelles vous pourriez intervenir. (30-45 minutes )

💡 Un entretien technique avec un référent métier, pour challenger vos savoirs, savoir-faire et savoir-être. (60 minutes )

À compétences égales, ce poste est ouvert aux personnes en situation de handicap.

Cette offre vous intéresse ? Postulez ! 🏆🙏🚀🎉

DevOps Senior - Data Platform / Kafka / GCP
ALTEN
Boulogne-Billancourt
Remote or hybrid
Senior
Private salary

Alten, la maison des ingénieurs, qui sommes-nous ?

Fort de plus de 35 ans d’expériences, le groupe Alten exerce dans plus de 30 pays. Cette couverture mondiale, nos 54 000 collaborateurs, composés à 88 % d’ingénieurs, nous permettent d’être un groupe international et leader de son marché.

Soucieux du bien-être de nos collaborateurs, cela nous a permis, cette année et pour la 12ème fois consécutive, d’être labélisé Top Employer. L’obtention de ce label s’appuie sur un audit du Top Employer Institute qui passe en revue un référentiel de 600 bonnes pratiques RH, garantissant le bien-être de chacun.

Pourquoi nous ?

Une démarche RSE forte : nos ingénieurs travaillent sur des projets qui contribuent à un avenir meilleur. ALTEN Group est signataire et membre de plusieurs programmes en faveur de l’environnement (Planet Tech’Care, La Charte de l’ingénierie, Climate Ambition Accelerator).

Les compétences de nos ingénieurs au cœur des préoccupations : la montée en compétences de chacun est optimisée tout au long de votre parcours carrière.

Culture d’entreprise élevée : Événements fédérateurs, actions solidaires, webinaires innovation, challenges variés… Faites l’expérience d’un environnement stimulant où vous pourrez partager vos talents et vos passions.

Nous recherchons un DevOps Senior spécialisé Data Platform pour rejoindre une équipe en charge d’une plateforme Data centralisée visant à casser les silos d’information et à permettre l’exploitation des données en temps réel via API dans l’ensemble du système d’information.

Cette plateforme permet de simplifier et accélérer les traitements analytiques , tout en faisant converger les usages opérationnels et décisionnels autour d’une architecture Data Centric moderne et scalable .

Vos missions

Plateforme Data & Streaming

  • Participer à la mise en place et l’évolution des pipelines de données
  • Garantir la fiabilité, la performance et la scalabilité de la plateforme
  • Assurer l’industrialisation des traitements data en environnement cloud

Kafka & Streaming

  • Administrer et optimiser Apache Kafka en production
  • Configurer :
  • partitionnement
  • réplication
  • compaction
  • gestion des topics et offsets
  • Assurer le tuning des performances
  • Mettre en œuvre la sécurisation Kafka (TLS, SASL, ACL)

Cloud & Containerisation

  • Déployer et exploiter les solutions sur Google Cloud Platform
  • Administrer et optimiser des clusters Kubernetes
  • Gérer le déploiement et la scalabilité des applications data

DevOps & Industrialisation

  • Automatiser les déploiements et pipelines CI/CD
  • Mettre en place les bonnes pratiques DevOps
  • Améliorer la résilience et la supervision des services

Monitoring & Observabilité

  • Mettre en place la supervision des pipelines data
  • Utiliser Prometheus et Grafana
  • Analyser les performances et résoudre les incidents

Collaboration technique

  • Travailler étroitement avec :
  • équipes Data
  • équipes Infrastructure
  • équipes Développement
  • Participer aux pratiques Agile / Scrum

Environnement technique

Cloud

  • GCP
  • Google Kubernetes Engine (GKE)
  • Cloud Storage
  • Cloud SQL
  • Cloud Monitoring

Streaming / Data

  • Apache Kafka

Containerisation / Orchestration

  • Kubernetes

Monitoring

  • Prometheus
  • Grafana

DevOps

  • CI/CD
  • Git

Scripting

  • Bash
  • Python

Méthodologie

  • Agile / Scrum

Profil recherché

  • Bac +5 en informatique ou équivalent
  • Plus de 7 ans d’expérience en environnement DevOps
  • Expertise solide sur Apache Kafka en production
  • Expérience confirmée sur Kubernetes
  • Bonne maîtrise de Google Cloud Platform

Serait un plus :

  • Expérience dans un environnement Data Platform / Big Data
  • Expérience dans le retail ou la grande distribution
Data Engineer
ADVANCED SCHEMA
Paris
Remote or hybrid
Junior - Mid
Private salary

En tant que Data Engineer, vous aurez les missions suivantes :

  • Concevoir des modélisations physiques
  • Construire des mappings techniques et rédaction de spécifications d’alimentation.
  • Développer des flux des données
  • Contribuer au pilotage de projets, de proof of concepts
  • Participer à des missions d’expertise

Compétences professionnelles & niveau d’études requis :

  • Vous êtes titulaire d’un diplôme Bac +3 minimum dans le domaine de la data
  • Vous possédez minimum 1 an d’expérience dans le métier
  • Être enthousiaste à l’idée d’apprendre de nouvelles technologies
  • Expérience de la méthodologie Agile / Scrum
  • Capacité à planifier et à prioriser les tâches et les activités confiées en autonomie
  • Maîtrise de l’anglais oral et technique obligatoire
  • Expérience avérée dans l’écriture de code propre avec 2 ou plusieurs des technologies suivantes :
  • BASH, SQL, Java, Python, NoSQL
Page 15 of 15
Frequently asked questions
Haystack features a variety of remote Data Engineer positions, including roles in data pipeline development, database management, ETL processes, and cloud data engineering across industries like tech, finance, healthcare, and more.
Many remote Data Engineer jobs require experience with tools such as SQL, Python, Apache Spark, Hadoop, and cloud platforms like AWS, Azure, or Google Cloud. Specific requirements vary by role, so be sure to check individual job descriptions.
Simply browse our remote Data Engineer job listings, select the role you're interested in, and click the apply button. You'll be prompted to submit your resume and any additional required information directly to the employer.
While many remote Data Engineer positions require some professional experience, Haystack also lists entry-level roles and internships. Use our filters to find opportunities that match your skill level.
Yes! You can create personalized job alerts on Haystack to receive notifications via email about new remote Data Engineer jobs that match your criteria, helping you stay up-to-date with the latest opportunities.