Roles
Remote Data Engineer Jobs
Overview
Looking for remote Data Engineer jobs? Haystack offers the best fully remote opportunities for skilled data engineers seeking flexible work-from-home roles. Discover top remote data engineering positions where you can design, build, and optimize data pipelines from anywhere. Start your remote data engineer career today with Haystack!
Ingeniero/a de Datos (Spark / Databricks / Snowflake)
Plexus Tech
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED

Somos Plexus Tech. Una compañía tecnológica especializada en servicios y productos IT, fundada en el talento y las capacidades de nuestra gente, más de 5.000 profesionales desarrollando tecnología con alma.

¡Ampliamos nuestros equipos de Data! ¡Buscamos talento !

¿Te animas a seguir formándote en tecnologías punteras y vanguardiastas en el Mercado? entonces, debes unirte a la familia Plexus. Si te gusta progresar y acometer nuevos retos esta es tu oportunidad.

En Plexus nos encontramos en búsqueda de perfiles de ingeniería de datos para participar en el desarrollo de plataformas de datos modernas basadas en Spark, Databricks y arquitecturas de Data Lake / Lakehouse.

Te integrarás en un equipo de arquitectura de datos, responsable de diseñar y mantener pipelines de datos que alimentan diferentes productos analíticos y sistemas de negocio.

Responsabilidades

  • Diseñar, desarrollar y mantener pipelines de datos escalables.
  • Procesar grandes volúmenes de información utilizando Apache Spark.
  • Trabajar con Databricks para la gestión de clusters y ejecución de jobs.
  • Diseñar y mantener estructuras de datos en Delta Lake dentro del data lake.
  • Integrar y transformar datos provenientes de diferentes fuentes y sistemas.
  • Preparar datasets para analítica avanzada, reporting y aplicaciones de datos.

Se requiere mínimo 3 años de experiencia profesional en:

  • Apache Spark (Scala o PySpark)
  • Databricks
  • PowerBI
  • Snowflake

Aspectos/Tecnologías valorables

  • SQL
  • GITHUB
  • Azure
  • Experiencia en el sector textil (muy valorable)

Si tienes inquietud en poder seguir progresando este es tu proyecto!!!

Ofrecemos:

Contratación indefinida + salario a convenir+ teletrabajo

Te unirás a un equipo de más de 5.000 profesionales

Progresión profesional avalado por planes de formación.

Acceso a formación continuada

Formar parte de un equipo dinámico, comprometido, apasionado por sus clientes y con ganas de dar lo mejor de sí mismo.

Formar parte de una compañía con muchos profesionales de referencia en el sector

Un ecosistema de trabajo con un ambiente colaborativo.

Nos apasiona la tecnología, pero sobre todo nos encantan las personas que la hacen posible. Porque con motivación, ilusión y trabajo en equipo estamos haciendo cosas maravillosas.

Plexus Tech mantiene un compromiso firme con las políticas de Igualdad de empresa. Todos nuestros procesos de selección tienen en cuenta la igualdad de oportunidades entre hombres y mujeres de forma transversal, quedando esto reflejado en nuestro Plan de Igualdad.

Fomentamos la igualdad de trato y de oportunidades para toda persona, de modo que ninguna razón de nacimiento, raza, sexo, religión, opinión o cualquier otra condición o circunstancia personal o social cause discriminación. En particular, la organización está comprometida con la creación de un contexto favorable a la diversidad y avance en la erradicación de la discriminación de las personas LGTBI, independientemente de su orientación e identidad sexual o su expresión de género.

Data Migration Lead - Remoto
ISPROX
Multiple locations
Fully remote
Senior
€55,000 - €65,000
RECENTLY POSTED
TECH-AGNOSTIC ROLE

¿Estás buscando un nuevo reto?

Te incorporarás a un proyecto internacional del sector bancario, liderando la migración de datos de Financial Crime dentro de un programa de gran escala con alto impacto regulatorio.

Formarás parte de un equipo estratégico orientado a FinCrime Data & Transaction Monitoring, trabajando en un entorno técnico, retador y con visibilidad directa en decisiones clave.

Formarás parte del departamento Laboral, gestionando de forma integral la nómina y la administración de personal de una cartera de clientes.

¿Qué harás en el día a día?

  • Liderar la migración e integración de datos de Financial Crime (TM, Screening, KYC, alertas y reporting regulatorio)
  • Supervisar el ciclo completo de source-to-target mapping, transformación, validación y certificación
  • Garantizar trazabilidad y auditabilidad end-to-end coordinando con arquitectura y data engineering
  • Gestionar capacidades de Transaction Monitoring (incl. ThetaRay) durante y tras el cut-over

¿Qué nos gustaría que aportaras?

  • Experiencia liderando delivery tecnológico y/o de datos en Financial Crime en entornos regulados
  • Conocimiento sólido de pipelines ETL/ELT en áreas como TM, Screening/Sanciones o KYC/CDD
  • Historial de entrega end-to-end en Agile y/o Waterfall
  • Inglés fluido para trabajar con equipos y stakeholders internacionales

¿Qué se ofrece?

Contrato indefinido y estabilidad laboral.

Formación continua y posibilidades reales de desarrollo.

100% remoto

Flexibilidad horaria.

️ 25 días de vacaciones.

Banda salarial: 55k-65k

Si te encaja y quieres seguir creciendo como profesional, apúntate y hablamos ☺️

Ingeniero/a de datos
Hays
Multiple locations
Fully remote
Junior - Mid
Private salary
RECENTLY POSTED

En Hays estamos colaborando con una institución educativa nacida como resultado de la fusión de dos centros de referencia en formación profesional. Su objetivo principal es liderar la transformación educativa en España, Portugal e Italia, enfocándose en la empleabilidad y la innovación educativa.

Actualmente buscamos un/a Data Engineer para que se incorpore a su equipo IT.

¿Cuáles son las funciones?

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT utilizando PySpark y Python.
  • Modelar y mantener arquitecturas de datos en Snowflake (Data Lakehouse).
  • Desarrollar y mantener modelos de datos con DBT.
  • Definir y mantener infraestructura de datos mediante Terraform.
  • Automatizar la creación de recursos (Snowflake, AWS, roles, permisos).
  • Preparar datasets optimizados para su consumo en Power BI u otras herramientas BI.

¿Cuáles son los requisitos?

  • Experiencia profesional mínima de 2 años en entornos de datos.
  • Experiencia trabajando con Snowflake como plataforma de Data Lakehouse.
  • Dominio de PySpark / Python , especialmente para procesos de ETL.
  • Experiencia práctica con DBT para el desarrollo y mantenimiento de pipelines de datos.
  • Conocimientos en visualización de datos mediante Power BI o herramientas similares.
  • Experiencia trabajando en entornos AWS (Amazon Web Services).
  • Experiencia en infraestructura como código utilizando Terraform.
  • Gestión y explotación de bases de datos mediante SQL.

¿Qué ofrecemos?

  • Contrato indefinido con Hays
  • Modalidad 100% remota
  • Oficinas: Madrid/Zaragoza
  • Flexibilidad horaria para conciliación: 8.30h/9.00h a 17.30h a 18h + viernes intensivo.
  • Proyecto estable y crecimiento profesional.

Estamos esperando perfiles como el tuyo, apasionados con la tecnología y que quiera enfrentarse a un nuevo reto. Si es tu caso, inscríbete en la oferta para que podamos contarte más!

Científico/a de Datos
Quest Global
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED

¿Nos ayudas a resolver los mayores desafíos de ingeniería?

En Quest Global creemos que la ingeniería tiene el poder único de resolver los problemas del presente que marcarán el camino hacia el futuro. Por eso, desde hace más de 25 años, desarrollamos soluciones de ingeniería y tecnología en todo el ciclo de vida del producto, que permiten a nuestros clientes resolver los grandes retos a los que se enfrentan en los sectores aeroespacial y de defensa, automoción, comunicaciones, energía, alta tecnología, ferrocarril y semiconductores.

Operamos a nivel local-global desde 18 países, donde contamos con 78 centros de entrega globales, y más de 20.000 profesionales que trabajan con el espíritu de hacer las cosas de forma diferente. En España, somos más de 800 profesionales trabajando desde distintas provincias y nuestras 8 oficinas de Madrid, Barcelona, Bilbao, Valladolid, Ferrol, Sevilla, Cádiz y Cartagena. Quest Global es un lugar donde nuestra gente puede realmente marcar la diferencia. Nos apasiona la innovación y nos comprometemos a hacer del mundo un lugar mejor, superando los límites cada día para hacer posible lo imposible.

Si estás buscando tu próximo reto, esta es tu oportunidad:

  • Realizar actividades de análisis, modelado y procesamiento avanzado de datos mediante técnicas estadísticas, aprendizaje automático y métodos computacionales, incluyendo la preparación, transformación e integración de información procedente de distintas fuentes. Diseñar y automatizar flujos y pipelines de tratamiento de datos, desarrollar herramientas y utilidades para la extracción de patrones, generación de predicciones y optimización de procesos orientados a la mejora continua y a distintos casos de uso.
  • Diseñar, administrar y mantener entornos colaborativos en SharePoint, garantizando la correcta estructuración y gobierno del contenido, la configuración de permisos y flujos de trabajo, así como la implementación de soluciones basadas en listas y formularios de Microsoft 365, incluyendo su automatización mediante herramientas del propio ecosistema para soportar procesos operativos y documentales.
  • Diseñar, crear y mantener cuadros de mando, informes interactivos y modelos analíticos en Power BI, integrando distintas fuentes de datos y aplicando criterios de calidad, eficiencia y usabilidad para facilitar el seguimiento, análisis y toma de decisiones.
  • Desarrollar e implantar automatizaciones y procesos digitales, incluyendo scripts, flujos y sistemas de integración que permitan reducir tareas manuales, mejorar la disponibilidad de la información y aumentar la eficiencia operativa.
  • Diseñar, programar y mantener utilidades, herramientas en Power Apps & Python, orientados a tareas de análisis de datos, tratamiento masivo de información, creación de APIs o servicios auxiliares, automatización de procesos, generación de informes y cualquier otra necesidad técnica vinculada a los distintos proyectos.
  • Automatizar de la extracción y análisis de textos de múltiples orígenes mediante técnicas de procesamiento del lenguaje natural (NLP), estructurando y preparando la información para su explotación.
Analista BI
NovaQuality Consulting
Multiple locations
Fully remote
Junior - Mid
Private salary
RECENTLY POSTED

Desde Novaquality seguimos creciendo

Buscamos incorporar a nuestro equipo un/a Analista BI para uno de nuestros principales proyectos internacionales:

Funciones:

  • Desarrollo de ETL Powercenter
  • Desarrollo con PL/SQL
  • Gestión y resolución de los soportes a las peticiones de Powercenter
  • Planificación y puesta en producción de las peticiones.
  • Manejo de herramientas de gestión de versiones

¿Qué buscamos?

  • Experiencia previa de al menos 2 años como Consultor PWC
  • Formación técnica relacionada con el puesto
  • Experiencia con PowerCenter, valorable otras tecnologías
  • Experiencia trabajando con BBDD Oracle
  • Buena comunicación y capacidad analítica

¿Qué ofrecemos?

  • Contratación indefinida en una empresa que está constantemente reinventando la manera de dar un mejor servicio a nuestros clientes
  • Trabajo 100% remoto
  • Jornada intensiva los viernes
  • Flexibilidad de media hora en el horario
  • Buen ambiente laboral donde lo importante son las personas como tú
  • Plan de Formación continua con multitud de cursos en herramientas y tecnologías punteras, y cursos para la obtención de certificaciones
  • Evaluación de desempeño para el crecimiento de tu carrera profesional
  • Disfruta de nuestros Beneficios Sociales y accede al Plan de Retribución Flexible: seguro médico, tarjeta de transporte público, ticket restaurant y cheque guardería

Si buscas incorporarte a un equipo dinámico, joven y altamente cualificado, donde se valore tu talento y experiencia, entonces… ERES de Novaquality. *(Nuestros Principios son Esfuerzo, Responsabilidad, Excelencia y Sinceridad).

Envíanos tu CV, atenderemos cuantas candidaturas sean recibidas.

Databricks Engineers / Architect - Long term project - Competitive market rate - Spain
Next Ventures
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED
+5

Freelance Data Engineering and Architect opportunities | Spain (Remote) - Portugal We’re currently partnering with a sector-leading global insurance company on a long-term freelance project, and we’re looking for an experienced Data Engineers and Architects to join their team. Location: Spain (open to candidates based in Portugal) Contract: Long-term freelance Rate: Competitive market rate Environment: International, multi-cultural team Key Requirements (5+ years experience): Strong experience in data integration (batch processing, Kafka events, etc.), ETL/ELT, and migration (on-premise to Azure cloud) Hands-on expertise with Azure stack: Synapse, Databricks, Data Lake Gen2, Azure APIs, Functions, Triggers, Events, SHIR Solid Python skills (core Python, PySpark) and experience with containerisation (Kubernetes) Advanced SQL knowledge (T-SQL, PL/SQL) with experience building complex queries and ETL pipelines Experience with RDBMS (Oracle, PostgreSQL, etc.) Strong understanding of Data Warehouse architecture & data modelling (3NF, Star Schema) Knowledge of Lakehouse concepts (Delta Lake) Familiarity with Agile methodologies and tools like Jira & Confluence Experience with data modelling tools (e.g., Erwin, FET) Proven ability to work in multi-cultural teams

Senior IT Data Analyst
Randstad Digital España
Multiple locations
Remote or hybrid
Senior
Private salary
RECENTLY POSTED

Our client is a global leader in laboratory automation and liquid handling solutions, dedicated to accelerating workflows in life sciences and clinical diagnostics. Do you want to join the Finance and Controlling team and bring your passion and talent to work?

Your contribution

  • Analyze and visualize business data to support decision-making
  • Develop, optimize, and maintain SAP HANA models and reporting solutions
  • Integrate data from ERP, CRM, finance, and other systems
  • Create dashboards and KPIs in SAP Analytics Cloud; explore new BI tools.
  • Lead or support BI and digital transformation projects
  • Ensure data quality, governance, and compliance (e.g., GDPR)
  • Provide 2nd/3rd level support and training to business users
  • Document data flows, models, and methodologies

Your background

We’re not just looking for hard skills: We’re looking for people who bring their passion and talent to work.

  • Extensive experience as a data analyst/BI specialist in SAP HANA
  • Strong knowledge of SAP Datasphere, SAP ERP (S/4), SAP Analytics Cloud, and ETL tools
  • Experience in data modeling, SQLScript, and performance optimization
  • Understanding of SAP S4 data structures (FI/CO, MM, SD, PP)
  • Excellent analytical, communication, and project management skills
  • Hands on experience in Project Management
  • Fluent in English; German is a plus.
  • Team player with a structured, independent work style.
  • Degree in business IT, data science, or similar is a nice to have
  • Experience with OneStream, Salesforce TableauNext, PowerBI would be a plus
Programador/a Python - Pyspark - ETL (Remoto 100%)
Plexus Tech
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED
+3

Somos Plexus Tech. Una compañía tecnológica especializada en servicios y productos IT, fundada en el talento y las capacidades de nuestra gente, más de 5000 profesionales desarrollando tecnología con alma.

¡Ampliamos nuestro equipo de Desarrollo! ¡Buscamos talento !

Desde Plexus seleccionamos perfiles Programador/a Python - Pyspark para unirse al equipo y formar parte de uno de nuestros proyectos más punteros.

Requisitos :

  • Más de 4 años de experiencia como desarrollador/a Python, idealmente en entornos ETL.
  • Experiencia con librerías de procesamiento de datos como PySpark
  • Experiencia en el diseño y gestión de pipelines ETL.
  • Experiencia con AWS (Glue, S3, CloudWatch Events).
  • Conocimiento en la gestión de grandes volúmenes de datos en entornos Big Data.
  • Experiencia con Docker y entornos contenerizados.
  • Familiaridad con herramientas CI/CD como Jenkins y SonarQube.
  • Experiencia con sistemas de control de versiones como Git.

Ofrecemos:

Contratación indefinida + modalidad teletrabajo100%

Te unirás a un equipo de más de 5000 profesionales

Podrás impulsar tu proyección profesional con nosotros/as.

Acceso a formación continuada

Formar parte de un equipo dinámico, comprometido, apasionado por sus clientes y con ganas de dar lo mejor de sí mismo.

Formar parte de una compañía con muchos profesionales de referencia en el sector

Paquete de retribución Flexible

  • Seguro médico
  • Ticket Restaurante
  • Ticket transporte
  • Ticket guardería

Nos apasiona la tecnología, pero sobre todo nos encantan las personas que la hacen posible.

Plexus Tech mantiene un compromiso firme con las políticas de Igualdad de empresa. Todos nuestros procesos de selección tienen en cuenta la igualdad de oportunidades entre hombres y mujeres de forma transversal, quedando esto reflejado en nuestro Plan de Igualdad.

Fomentamos la igualdad de trato y de oportunidades para toda persona, de modo que ninguna razón de nacimiento, raza, sexo, religión, opinión o cualquier otra condición o circunstancia personal o social cause discriminación. En particular, la organización está comprometida con la creación de un contexto favorable a la diversidad y avance en la erradicación de la discriminación de las personas LGTBI, independientemente de su orientación e identidad sexual o su expresión de género

Desarrollador/a PySpark Git
Malthus Darwin
Multiple locations
Fully remote
Mid - Senior
€26,000 - €31,000
RECENTLY POSTED

¡Te estamos buscando!

Malthus Darwin es una empresa de Consultoría, especializada en la búsqueda, selección y evaluación de perfiles IT. Nuestro principal objetivo es proporcionar los mejores recursos humanos a nuestros clientes con la mayor rapidez y la máxima eficacia ofreciendo siempre un servicio de calidad.

En estos momentos estamos buscando un perfil de Developer PySpark Git para prestar servicios a un cliente del sector.

FUNCIONES:

  • Diseño técnico, programación, pruebas, despliegues e integración en el sistema de la solución desarrollada.
  • Responsable de la documentación y de las evidencias de las pruebas ( ALM) .

REQUISITOS:

  • Python, Spark Streaming, GitHub
  • Experiencia de 5 a 7 años en puestos similares.
  • Estudios: Ingeniería

VALORABLES:

  • Balances y estados financieros
  • Artificial Intelligence/Machine Learning
  • Inglés

MODALIDAD DE TRABAJO: 100% Teletrabajo

LUGAR DE TRABAJO: Madrid

SALARIO : 26-31k

Si buscas nuevos retos profesionales y tu perfil encaja con la descripción, ¡anímate a saber más!

Data Engineer (Remoto)
Akkodis
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

Data Engineer – Proyectos de Energía Renovable (100% Remoto en España)

¿Te gustaría aplicar tu talento en datos a proyectos que impulsan la transición energética? Buscamos un/a Data Engineer con experiencia para unirse a un equipo internacional, trabajando en soluciones digitales de alto impacto dentro del sector eólico e industrial.

Formarás parte de un entorno innovador, colaborando con equipos en Alemania y desarrollando plataformas avanzadas de datos en la nube.

¿Qué harás?

  • Diseñar, desarrollar y desplegar soluciones digitales dentro de entornos ágiles.
  • Construir plataformas de datos en la nube para gestionar y analizar grandes volúmenes de información.
  • Desarrollar notebooks, pipelines y workflows en Scala y/o Python.
  • Traducir necesidades de negocio en soluciones técnicas eficientes.
  • Garantizar código limpio, escalable y de alta calidad.
  • Crear y mantener documentación técnica clara.
  • Liderar técnicamente a perfiles junior y colaboradores externos.
  • Participar activamente en la mejora continua de procesos y metodologías.

¿Qué buscamos?

xperiencia:

  • +3 años como Data Engineer, Software Engineer o similar en proyectos complejos.
  • Dominio de Scala y SQL .
  • Experiencia con Apache Spark, Python, APIs REST y bases de datos NoSQL .
  • Experiencia trabajando con Databricks .
  • Conocimiento de metodologías ágiles.
  • Valorable experiencia en sector eólico o industrial .

Formación:

  • Titulación técnica en informática, ingeniería de software, automatización o similar.
  • Certificación o experiencia en Databricks o Azure Data Engineer (valorable).

Idiomas:

  • Nivel alto de inglés (colaboración diaria con equipo internacional).

¿Qué ofrecemos?

  • Contrato indefinido.
  • Plan de carrera y crecimiento profesional.
  • Trabajo 100% remoto desde España.
  • Participación en proyectos innovadores dentro del sector de energías renovables .
  • Entorno internacional, dinámico y tecnológico.

¿Por qué unirte?

Porque no solo trabajarás con tecnologías punteras, sino que contribuirás directamente a un futuro más sostenible, desarrollando soluciones que impactan en la generación de energía limpia a nivel global.

Data Engineering Lead
IOON
Multiple locations
Fully remote
Senior
€40,000/hour - €46,000/hour
RECENTLY POSTED

En Ioon estamos convencidos de que la tecnología será el eje de la transformación de nuestras vidas, ¿te animas a ser parte de esta revolución?

Te proponemos esta posición por si te quieres sumar a un nuevo reto profesional en el que tendrás la oportunidad de desarrollar tus habilidades en administrar infra de Linux/Unix.

Data Engineering Lead – Alta Volumetría (Oracle OCI / Analítica)

– Medios de Pago

Se requiere un Data Engineering Lead con experiencia en entornos de alta volumetría , responsable de liderar equipos de ingeniería de datos en un contexto de medios de pago , con foco en rendimiento, estabilidad y explotación de datos en cloud ( Oracle OCI ).

  • Experiencia mínima de 3 años liderando equipos de Data Engineering (gestión técnica + delivery).

  • Experiencia en plataformas de alta volumetría : Batch Streaming Near real-time

  • Conocimiento sólido de Oracle OCI y operación en cloud.

  • Experiencia en analítica de datos : Modelado de datos, Diseño de datasets

  • Arquitecturas por capas (staging / silver / gold o equivalentes)

  • Consumo vía BI / APIs

  • Experiencia en PostgreSQL y/o entornos multicloud híbridos

  • Conocimiento negocio y transacciones de medios de pago (imprescindible) :

  • Conciliación, Liquidación, Procesamiento transaccional

  1. Requisitos valorables
  • Experiencia con Oracle GoldenGate o soluciones de replicación / CDC
  • Herramientas ETL/ELT y orquestación: ODI, Airflow, dbt
  • Observabilidad de pipelines
  • Seguridad y compliance del dato

100% teletrabajo

**proceso de selección on-line**

· contrato indefinido

· sueldo bruto / año €40.000 - €46.000 (12 pagas)

Ventajas Ioon:

formación continua:

Acceso gratuito a plataforma openwebinars y presupuesto anual de €350 para que elijas tu propia formación

✈️ 23 días laborables de vacaciones al año

Programa de Retribución Flexible (cheque restaurante, seguro médico, cheques guardería, tarjeta transporte).

Programa de descuentos on-line (diferentes marcas y tipos de productos de gran consumo como viajes, beauty, tecnología etc)

Posibilidad de hacer coaching a compañeros o participar en hackathons donde la marca tiene presencia

Estabilidad y carrera profesional.

➕ 1️⃣ plan de compensación de referencias internas.

Nota:

En Ioon Technologies, cumplimos con nuestro plan de igualdad, garantizando igualdad de trabajo y de oportunidades entre mujeres y hombres en el acceso al empleo y las condiciones laborales.

Senior Data Engineer Python, Azure (100% remoto desde España)
UST España & Latam
Multiple locations
Fully remote
Senior
Private salary
RECENTLY POSTED

¡Seguimos buscando talento…y nos encantaría que te unieras a nuestro equipo!

Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías.

¿Qué buscamos?

Buscamos un/a Senior Data Engineer especializado/a en Azure para liderar y ejecutar el proyecto de sincronización de datos entre distintas nubes, con el objetivo de poner dichos datos a disposición de los servicios desplegados en Microsoft Azure.

El/la profesional seleccionado/a tendrá un rol clave tanto en el análisis como en el diseño e implementación de la arquitectura de datos, siendo responsable de garantizar soluciones robustas, escalables y bien documentadas, en un entorno multicloud (Azure y AWS) de nuestro cliente, líder del sector bancario.

Colaboración 100% remota desde España.

⚙ Funciones y responsabilidades:

  • Analizar, diseñar e implementar arquitecturas de datos en Azure para la sincronización y disponibilidad de datos entre nubes.
  • Desarrollar procesos de ingesta, transformación y tratamiento de datos utilizando Python como lenguaje principal.
  • Garantizar la correcta integración y consumo de datos por parte de los servicios desplegados en Azure.
  • Participar activamente en la definición de la arquitectura de datos, asegurando buenas prácticas de rendimiento, seguridad y escalabilidad.
  • Adaptar las soluciones existentes y nuevas a la adopción de AWS como nube complementaria a Azure.
  • Documentar de forma clara y estructurada tanto la arquitectura como los desarrollos realizados.
  • Colaborar con otros equipos técnicos (arquitectura, cloud, desarrollo y negocio) para asegurar la alineación de las soluciones con los objetivos del proyecto.
  • Proponer mejoras continuas en los procesos y plataformas de datos.

Qué esperamos de ti:

  • Al menos 5 años de experiencia en desarrollo y tratamiento de datos utilizando Python.

  • Experiencia sólida como Data Engineer, con capacidad de análisis y toma de decisiones técnicas.

  • Conocimientos avanzados en Microsoft Azure, especialmente en servicios de datos ( Azure Synapse Analytics , Azure Data Factory y/o Azure Databricks)

  • Experiencia en arquitecturas de datos en entornos cloud.

  • Conocimiento y experiencia trabajando en entornos multicloud, con especial foco en Azure y AWS.

  • Capacidad para documentar correctamente arquitecturas, procesos y desarrollos.

  • Certificaciones

Microsoft Certified: Azure Data Engineer Associate.

Microsoft Certified: Azure Fundamentals.

  • Requisitos valorables:
  • Experiencia adicional en servicios de datos en AWS.
  • Conocimientos de arquitecturas orientadas a eventos y pipelines de datos.
  • Experiencia en proyectos de integración y sincronización de datos entre plataformas heterogéneas.
  • Conocimientos de buenas prácticas de Data Governance y Data Quality.
  • Inglés nivel B2

¿Qué te ofrecemos?

-✈️ 23 días laborables de vacaciones y el 24 y 31 de diciembre.

-❤️ Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes).

  • Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia…).

  • Acceso gratuito a varias plataformas de formación.

  • Estabilidad y carrera profesional.

  • Tenemos implantado un plan de compensación de referencias internas.

  • Posibilidad de elección de percibir tu salario en 12 o 14 pagas.

  • Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto).

  • Plataforma UST Club descuentos y descuentos en gimnasios.

Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando!

En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.

ML Engineer - Contract
Signify Technology
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

Signify has partnered with a key client who is currently hiring a Senior ML Engineer to drive the productionisation and scaling of ML systems.

Staff ML Engineer (Contract)

Remote | 3–6 months | ASAP Start

Location - Remote - (The team is based on the East Coast)

What you’ll do

  • Own end-to-end ML productionisation (deployment → serving → monitoring)
  • Build and scale batch & real-time model serving systems
  • Develop feature pipelines & feature serving infrastructure
  • Implement CI/CD pipelines for ML (build, test, deploy)
  • Manage model lifecycle (versioning, retraining, rollout/rollback)
  • Ensure performance, reliability & observability (SLAs, logging, alerting)
  • Troubleshoot production issues & optimise ML systems

What they need

  • 5+ years in ML Engineering / MLOps / Data Engineering
  • Strong experience deploying ML models into production at scale
  • Hands-on with Databricks, MLflow
  • Strong coding skills (Python essential, Scala/Java nice to have)
  • Experience with AWS/Azure, Docker, Kubernetes
  • Solid understanding of ML systems, pipelines & lifecycle management
  • Experience with Infrastructure as Code (Terraform/CDK)

If you are interested in this role, then please apply or send me a message.

Desarrollador/a RPA (Remoto)
Minsait
Multiple locations
Fully remote
Junior - Mid
Private salary
RECENTLY POSTED

Indra Group, Tech for the future.

Impulsamos la transformación digital con impacto, gracias a la tecnología avanzada, el conocimiento sectorial y el talento global.

¡Únete a nuestro equipo!

Forma parte de nuestro equipo de Proyectos y Aplicaciones , participando en iniciativas de robotización y automatización de procesos (RPA) que optimizan la eficiencia operativa y aportan valor real al negocio.

En Minsait , ayudamos a nuestros clientes a evolucionar hacia modelos más ágiles e inteligentes mediante soluciones de automatización robustas, escalables y seguras, integradas a lo largo de toda la cadena de valor.

¿Qué harás?

  • Desarrollarás y mantendrás procesos RPA de complejidad media.
  • Crearás soluciones utilizando Blue Prism , aplicando buenas prácticas de desarrollo.
  • Gestionarás excepciones , colas, objetos reutilizables y componentes modulares.
  • Trabajarás con lectura y escritura de ficheros (Excel, CSV, XML, JSON).
  • Realizarás integraciones mediante consumo de APIs y consultas SQL .
  • Colaborarás con equipos técnicos y funcionales en entornos de servicios financieros .

¿Qué buscamos en ti?

No te preocupes si no cumples el 100 % de lo que buscamos. ¡Anímate, conoce nuestra propuesta y cuéntanos lo que nos puedes aportar!

✅ Experiencia mínima de 2 años desarrollando procesos RPA con Blue Prism .

✅ Conocimientos en SQL y manejo de bases de datos.

✅ Experiencia en control de excepciones, colas y objetos reutilizables.

✅ Experiencia en lectura/escritura de ficheros (Excel, CSV, XML, JSON).

✅ Nivel básico de portugués .

Se valorarán conocimientos en Python y experiencia en .NET / Web API o Java.

Lo que te ofrecemos

  • Estabilidad y Futuro ✨ : Proyectos a largo plazo en una empresa líder en tecnología con más de 50.000 profesionales y solidez financiera.
  • Proyectos Innovadores y de Alto Alcance : Iniciativas de automatización con impacto real en entornos financieros y bancarios.
  • Ambiente Cercano y Transparente : Comunicación directa, trabajo colaborativo y equipos multidisciplinares.
  • Autonomía y Flexibilidad ⏳ : Conciliación real y organización del trabajo adaptada al proyecto.
  • Plan de carrera adaptado a ti : Diseñado para potenciar tu desarrollo y especialización en RPA.
  • Formación continua : Acceso a Open University y Udemy for Business (más de 6.000 cursos).
  • Descuentos exclusivos para tu bienestar : Ventajas en gimnasios, ocio, restauración y comercios por ser parte de Indra.
  • Retribución competitiva y planes de compensación flexible adaptados a tus necesidades.

¿Cómo es nuestro proceso de selección?

  • Revisión de tu perfil : Analizamos tu experiencia y encaje con la posición.
  • Primera toma de contacto (5–10 min) : Llamada breve para conocernos y resolver dudas.
  • Entrevista con el equipo de atracción de talento : Te contaremos más sobre Indra, valores, proyecto y modelo de carrera.
  • Entrevista técnica : Con el equipo del proyecto; profundizaremos en tus conocimientos de RPA y automatización.
  • Oferta y bienvenida : Si todo va bien, ¡te incorporas a nuestro equipo y comenzamos esta nueva etapa!

Nuestro compromiso es promover ambientes de trabajo en los que se trate con respeto y dignidad a las personas, procurando el desarrollo profesional de la plantilla y garantizando la igualdad de oportunidades en su selección, formación y promoción ofreciendo un entorno de trabajo libre de cualquier discriminación por motivo de género, edad, discapacidad, orientación sexual, identidad o expresión de género, religión, etnia, estado civil o cualquier otra circunstancia personal o social.

¡INDRA es empresa Top Employer 2025! Incorpórate a una empresa certificada como una de las mejores empresas empleadoras de España, gracias a nuestra gestión integral de RRHH y a las condiciones para nuestros profesionales.

AWS Data Engineer
Amaris Consulting
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED
+4

Take your career to the next level with Amaris Consulting as a Data Engineer. Become part of an international team, thrive in a global group with €800M turnover and 1,000+ clients worldwide, and an agile environment by planning the kickoff and follow up on projects. Join Amaris Consulting, where you can develop your potential and make a difference within the company.

WHAT WOULD YOU NEED? ✍️

  • 3–7 years of experience in Data Engineering with focus on data ingestion and transformation
  • Advanced Python and SQL skills
  • Strong expertise in AWS data stack (Glue, PySpark, Lambda, S3, SNS, Step Functions, Airflow)
  • Experience with data transformation and modeling using Snowflake and dbt
  • Infrastructure as Code knowledge (AWS CDK/CloudFormation)
  • CI/CD experience (Jenkins, AWS CodePipeline, AWS CodeBuild)
  • Knowledge of data integration tools (Snaplogic preferred)
  • Ability to work autonomously and take ownership of projects
  • Strong communication skills to engage with both technical teams and business stakeholders
  • English fluent
  • Remote work (preferred cities: Barcelona, Madrid, Valencia).

WHAT WILL YOU DO?

  • Design and develop reusable data pipelines as code blueprints for multiple environments
  • Build and maintain data transformation workflows using AWS Glue, PySpark, and Airflow
  • Create data models and transformations in Snowflake using dbt
  • Implement Infrastructure as Code for deploying data solutions across environments
  • Set up and maintain CI/CD pipelines for automated testing and deployment
  • Collaborate with analytics teams to prepare data for consumption by analysts and data scientists
  • Engage with business stakeholders to understand data requirements and translate them into technical solutions
  • Ensure data quality and reliability throughout the ingestion and transformation process

WHY US?

Join our dynamic team of talented individuals and experience a world of growth and opportunities. Here’s what we offer:

  • Grow rapidly with a tailored career path and salary evaluation. 70% of our senior leaders started at entry level.
  • Enhance your skills through our Tech Academy catalog, Udemy E-learning Platform, Languages Sessions, webinars, and workshops.
  • Take charge of your training with an annual personal budget and company-paid certifications.
  • Enjoy flexible policies, remote work options, and fantastic social benefits like transit and restaurant tickets, kindergarten support, and private health insurance.
  • Benefit from our WeCare program, supporting employees in critical situations.
  • Unleash your full potential, both professionally and personally.

Amaris Consulting is proud to be an equal-opportunity workplace. We are committed to promoting diversity within the workforce and creating an inclusive working environment. For this purpose, we welcome applications from all qualified candidates regardless of gender, sexual orientation, race, ethnicity, beliefs, age, marital status, disability, or other characteristics.

Data Engineer | Scala | 100% Remoto
UST España & Latam
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

¡Seguimos buscando talento…y nos encantaría que te unieras a nuestro equipo!

Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías.

¿Qué buscamos?

Estamos buscando un/a Data Engineer especializado/a en Scala para colaborar con uno de nuestros principales clientes del sector bancario, en un proyecto internacional.

Localización : Cualquier provincia de España

Modalidad : 100% Remoto

Horario: L-V de 09:00 a 18:00

Responsabilidades principales

  • Diseñar, desarrollar, probar y desplegar pipelines de datos y plataformas de datos utilizando servicios de AWS.
  • Implementar y mantener arquitecturas de data lake, lakehouse o data mesh.
  • Colaborar con data engineers, analistas y equipos de DevOps para ofrecer soluciones de negocio escalables.
  • Garantizar el cumplimiento de las políticas de gobierno del dato, seguridad y trazabilidad (logging).
  • Identificar y resolver incidencias relacionadas con los datos, dando soporte a los procesos de gestión del cambio.
  • Asumir la responsabilidad de los proyectos desde el diseño inicial hasta la entrega final, asegurando calidad y fiabilidad.

Habilidades Obligatorias:

  • Al menos 3 años de experiencia trabajando con Scala
  • Nivel de inglés C1

Otras requisitios:

  • Experiencia o conocimientos en: Spark – Python – SQL
  • Amplia experiencia práctica con AWS , incluyendo: S3, Glue, Athena, EMR, EC2, Lambda
  • Experiencia sólida en diseño de ETL y modelado de datos .

¿Qué te ofrecemos?

✈️23 días laborables de vacaciones y el 24 y 31 de diciembre.

❤️Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes).

Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia…).

Acceso gratuito a varias plataformas de formación.

Estabilidad y carrera profesional.

Tenemos implantado un plan de compensación de referencias internas.

Posibilidad de elección de percibir tu salario en 12 o 14 pagas.

Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto).

Plataforma UST Club descuentos y descuentos en gimnasios.

Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando!

En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.

Machine Learning Engineer
Shakers
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

MLOps Engineer | Retail & Fashion Tech

En Shakers colaboramos con una de las principales multinacionales del sector retail/moda para incorporar un/a MLOps Engineer que lidere la evolución y escalado de su plataforma de Machine Learning a nivel global. Un rol con impacto real, entorno enterprise y equipo técnico de primer nivel.

El reto

Serás pieza clave en la construcción y mantenimiento de una infraestructura de ML robusta y escalable. Tu día a día combinará el diseño de pipelines en Databricks, la gestión de despliegues en Kubernetes en entornos productivos y la implementación de buenas prácticas de MLOps que marquen el ritmo técnico del proyecto. Trabajarás en estrecha colaboración con equipos de Data Science y Producto, con visibilidad directa sobre la hoja de ruta tecnológica.

Requisitos

  • Experiencia: 4–7+ años en MLOps o ML Platform Engineering
  • Cloud: Experiencia sólida en AWS
  • Plataforma ML: Experiencia práctica con Databricks + MLflow (Model Serving incluido)
  • Orquestación: Conocimiento profundo de Kubernetes en producción
  • CI/CD: Experiencia con Jenkins y automatización de despliegues de modelos

Se valora

  • Experiencia en arquitecturas distribuidas
  • Exposición a proyectos de GenAI
  • Experiencia adicional en Azure o GCP

¿Por qué este proyecto?

  • Impacto global desde el primer día en una plataforma ML de escala enterprise
  • Entorno técnico senior con autonomía real
  • Proyecto a largo plazo 100% remoto desde España

Si esto encaja con tu perfil o con alguien de tu entorno, ¡aplica o comparte! Nos ponemos en contacto enseguida

#MLOps #MachineLearning #Databricks #Kubernetes #AWS #MLflow #FreelanceTech #RemoteWork #Shakers

Data Engineer (Datio, kirby, hammurabi)
METRICA
Multiple locations
Fully remote
Junior - Mid
€37,000/hour
RECENTLY POSTED

Métrica España, líder en soluciones tecnológicas y consultoría, busca incorporar a su equipo un/a Data Scientist con experiencia de al menos 2 años en la herramienta datio y desarrollo en kirby/hammurabi.

Modalidad: 100% remoto.

SBA : 37.000€

Responsabilidades principales:

  • Desarrollo y mantenimiento de procesos y componentes en entornos Kirby y Hammurabi, dentro del ecosistema de datos del cliente.
  • Trabajo con herramientas de la plataforma Datio como DataX, Argos, Dataproc, Helix y Control-M para el tratamiento, integración y explotación de datos.
  • Programación, evolución y soporte de procesos batch y flujos de datos.
  • Configuración, seguimiento y resolución de incidencias en cadenas y planificaciones mediante Control-M.
  • Participación en el análisis técnico y desarrollo de nuevas funcionalidades relacionadas con inteligencia y datos.
  • Monitorización y soporte de ejecuciones, asegurando el correcto funcionamiento de los procesos en producción.
  • Colaboración con equipos funcionales y técnicos para la toma de requisitos y resolución de incidencias.
  • Elaboración y actualización de documentación técnica y evidencias necesarias para despliegues.
  • Posible uso de plataforma ADA o servicios de Amazon Web Services, especialmente Amazon CloudWatch y Amazon Athena, para monitorización y consulta de datos.
  • Participación puntual en guardias y soporte operativo.
  • Aplicación de buenas prácticas de trabajo autónomo, organización y proactividad en un entorno 100% remoto.

¿Qué ofrecemos?

  • Contrato indefinido.
  • Salario competitivo acorde a la experiencia y el mercado.
  • Oportunidades de desarrollo profesional y formación continua.
  • Participación en proyectos retadores y de alto impacto.
  • Excelente ambiente de trabajo.
  • Flexibilidad horaria y trabajo remoto.

Si eres un profesional proactivo/a, con ganas de afrontar nuevos retos y crecer en un entorno tecnológico puntero, ¡esta es tu oportunidad! Únete a Métrica España y sé parte de nuestro éxito.

Golang Data & AI Platform Engineer
Lawrence Harvey
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED

We are looking for a Data & AI Platform Engineer to join a growing team building a next-generation sovereign cloud platform focused on data and AI services.

This role is ideal for someone who enjoys working at the intersection of software engineering, Kubernetes, cloud services, and data platforms , and wants to help shape a product from an early stage in a highly collaborative environment.

What you will do

  • Contribute to the development of a Data & AI platform delivered as a sovereign cloud service
  • Evolve and improve the overall system architecture, identifying relevant open-source technologies that can enhance the platform
  • Build and maintain REST APIs that allow customers to manage and control the lifecycle of the service
  • Develop Kubernetes Operators to automate provisioning, configuration, and lifecycle management of cloud services
  • Take full ownership within an agile product

What we are looking for

  • Strong interest in Data, BI, and AI technologies
  • Solid background in software engineering with a strong focus on Kubernetes and cloud-native environments
  • Strong programming skills in Golang
  • Experience or familiarity with technologies such as Kafka, Spark, Airflow, or Dremio
  • Curiosity for exploring new technologies and turning them into practical solutions
  • A collaborative mindset and willingness to share knowledge across the team
  • Comfort working in agile environments with ownership and accountability
Data Engineer con PySpark (Remoto desde España)
UST España & Latam
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

¡Seguimos buscando talento…y nos encantaría que te unieras a nuestro equipo!

Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías.

¿Qué buscamos?

Buscamos perfiles de Data Engineers con al menos 3 años de experiencia y que haya trabajado con Pyspark, Python, AWS y con conocimiento en arquitecturas Data Mesh, para importante proyecto con cliente del sector bancario.

⚙ Funciones:

  • Colaborar con los equipos de datos e ingeniería del cliente para diseñar y crear canalizaciones e infraestructuras de datos seguras, escalables y eficientes.
  • Aprovechar Python y PySpark para realizar tareas complejas de procesamiento y transformación de datos.
  • Desarrollar y gestionar soluciones basadas en la nube, centrándose en AWS.
  • Habilitar flujos de trabajo de aprendizaje automático proporcionando datos limpios, estructurados y de alta calidad para el entrenamiento y la inferencia.

Requisitos mínimos:

  • Más de 3 años de experiencia con Python e ingeniería de datos.
  • Gran dominio de PySpark y del procesamiento de datos distribuidos.
  • Experiencia práctica con AWS.
  • Conocimiento en arquitecturas Data Mesh.
  • Experiencia dilatada en Data Quality, linaje de datos y gobierno de datos.
  • Familiaridad con los retos del sector bancario, como el cumplimiento normativo, la seguridad y el big data.
  • Comprensión de los flujos de trabajo de aprendizaje automático y la preparación de datos.
  • Excelentes habilidades de comunicación y colaboración.

Requisitos deseables:

  • Conocimientos de IA (nivel usuario o experiencia previa en algún proyecto)

¿Qué te ofrecemos?

-✈️ 23 días laborables de vacaciones y el 24 y 31 de diciembre.

-❤️ Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes).

  • Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia…).

  • Acceso gratuito a varias plataformas de formación.

  • Estabilidad y carrera profesional.

  • Tenemos implantado un plan de compensación de referencias internas.

  • Posibilidad de elección de percibir tu salario en 12 o 14 pagas.

  • Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto).

  • Plataforma UST Club descuentos y descuentos en gimnasios.

Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando!

En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.

Azure Data Platform Engineer (m/w/d)
netgo group GmbH
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED

Werde auch du “part of netgo group” - einem der größten IT-Dienstleister Deutschlands. Über 1.500 Mitarbeiter innen an zahlreichen Standorten in ganz Deutschland erwarten dich als neues Teammitglied. Du legst Wert auf einen modernen Arbeitsplatz, ein familienfreundliches Umfeld und spannende Herausforderungen? Dann bist du bei uns genau richtig!
Dein neuer Job

Du sorgst dafür, dass Datenbanken stabil laufen, performant bleiben und sich zukunftsfähig weiterentwickeln. Dabei arbeitest Du sowohl im klassischen Betrieb als auch an der schrittweisen Modernisierung Richtung Cloud.

Deine Aufgaben

  • Beratung der richtigen Datenbankwahl für die jeweiligen Applikationen sowie das Aufsetzen und Konfigurieren dieser, bevorzugt auf Microsoft Azure.
  • Betrieb, Administration und Weiterentwicklung von Datenbanken (z. B. PostgreSQL, MS SQL, Oracle) - on-premises und in Azure
  • Installation, Konfiguration und Patch-Management von Datenbanksystemen
  • Monitoring, Performance-Analyse und -Optimierung bestehender Datenbanklandschaften
  • Sicherstellung von Hochverfügbarkeit sowie Backup- und Recovery-Strategien
  • Analyse und Behebung von Störungen im laufenden Betrieb (Troubleshooting)
  • Unterstützung bei Migrationen und Modernisierungen Richtung Azure
  • Beratung von Entwickler:innen und Fachbereichen bei datenbanknahen Fragestellungen

Das bist du?

  • Erfahrung mit Azure Data Services (Azure SQL, PostgreSQL, Cosmos DB)
  • Erfahrung in der Administration von Datenbanksystemen (z. B. PostgreSQL, MS SQL, Oracle)
  • Erfahrung im Monitoring, Performance-Tuning und Troubleshooting
  • Kenntnisse in Backup-, Recovery- und Sicherheitskonzepten
  • Verständnis für Datenbankarchitekturen und Datenmodellierung
  • Idealerweise erste Berührungspunkte mit Cloud-Technologien (z. B. Microsoft Azure)
  • Strukturierte, lösungsorientierte Arbeitsweise und Freude daran, Systeme stabil und performant zu betreiben
  • Kenntnisse in Automatisierung (z. B. Skripting, Infrastructure as Code)

Nice To Have

  • Erfahrung mit Datenintegration oder ETL-Prozessen (z. B. Azure Data Factory) Sichere Deutsch- und Englischkenntnisse

Das kannst du von uns erwarten

Work-Life-Balance & Flexibilität:

  • Plane deinen Tag flexibel mit Vertrauensarbeitszeit
  • Genieße 30 Tage Urlaub pro Jahr
  • Arbeiten bis zu 3 Monate im Jahr aus dem EU-Ausland möglich

Fitness & Gesundheit:

  • Kostenfreies Training im netgo fitness club und subventionierte Urban Sports Club-Mitgliedschaft
  • Regelmäßige Gesundheitsprogramme in Zusammenarbeit mit der Techniker Krankenkasse

Fortbildung & Zertifizierungen:

  • Weiterbildungsangebote und Herstellerzertifizierungen, um stets up-to-date zu bleiben
  • Zertifizierungen im hauseigenen Pearson VUE Testcenter möglich

Firmenwagen & Mobilität:

  • Firmenwagen oder Elektrofahrzeuge für Kundentermine
  • Exklusive JobRad-Angebote für Fahrräder

Arbeitskleidung:

  • Budget für Arbeitskleidung, bequem im Online-Shop bestellbar

Sicherheit & Vorsorge:

  • Zuschüsse zur Altersvorsorge und Unterstützung beim Vermögensaufbau

Rabatte & Goodies:

  • Vorteile bei über 1.500 Anbietern und Zugang zu Ticketsprinter

Familienfreundlich:

  • Zuschüsse zur Kinderbetreuung

Dafür stehen wir

Wir bei netgo glauben an echtes Teamwork, Offenheit und Weiterentwicklung. Unsere Werte bilden das Fundament für unsere tägliche Arbeit:

Vielfalt. Unsere Stärke.

  • Vielfalt ist kein Add-on, sondern Teil unserer Identität.

  • Nähe schafft Vertrauen.

  • Wir übernehmen Verantwortung und packen an.

  • Weil wir lieben, was wir tun und up-to-date bleiben.

  • Wir entwickeln uns gemeinsam weiter und lernen voneinander.

Frequently asked questions
Haystack features a variety of remote Data Engineer positions, including roles in data pipeline development, database management, ETL processes, and cloud data engineering across industries like tech, finance, healthcare, and more.
Many remote Data Engineer jobs require experience with tools such as SQL, Python, Apache Spark, Hadoop, and cloud platforms like AWS, Azure, or Google Cloud. Specific requirements vary by role, so be sure to check individual job descriptions.
Simply browse our remote Data Engineer job listings, select the role you're interested in, and click the apply button. You'll be prompted to submit your resume and any additional required information directly to the employer.
While many remote Data Engineer positions require some professional experience, Haystack also lists entry-level roles and internships. Use our filters to find opportunities that match your skill level.
Yes! You can create personalized job alerts on Haystack to receive notifications via email about new remote Data Engineer jobs that match your criteria, helping you stay up-to-date with the latest opportunities.