Roles
Remote Data Engineer Jobs
Overview
Looking for remote Data Engineer jobs? Haystack offers the best fully remote opportunities for skilled data engineers seeking flexible work-from-home roles. Discover top remote data engineering positions where you can design, build, and optimize data pipelines from anywhere. Start your remote data engineer career today with Haystack!
Data Governance/Data Steward
Capitole
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

Capitole Consulting sigue creciendo ¡y queremos hacerlo contigo!

Estamos buscando un/a Data Governance/Data Steward con más de +4 años de experiencia para impulsar la estrategia de gobierno del dato, garantizando la calidad, trazabilidad y correcta definición de los activos de información en un entorno de datos moderno.

Requisitos:

  • Gestión de metadatos y semántica: Experiencia en la creación y mantenimiento de glosarios de negocio, taxonomías y capas semánticas para mejorar la comprensión y el uso de datos en toda la organización.
  • Calidad del dato: Conocimiento avanzado en la definición de reglas y métricas de calidad, incluyendo metodologías de monitoreo y control aplicadas a entornos analíticos y proyectos de IA.
  • Modelado y documentación: Habilidad para elaborar modelos conceptuales y documentar procesos y flujos de datos en entornos corporativos complejos.
  • Gobernanza de acceso: Experiencia en la gestión de accesos y permisos, diseño de políticas de seguridad basadas en roles y cumplimiento normativo (ej. GDPR).
  • Conocimiento de estándares de la industria: Familiaridad con marcos de referencia como DAMA-DMBOK, DCAM u otros estándares de gobernanza del dato.
  • Conocimiento en MDM (Master Data Management): Buenas prácticas en la gestión de datos maestros y de referencia para asegurar consistencia a nivel organizativo.

Lenguajes y Herramientas:

  • SQL (nivel experto) y Python (nivel avanzado) para la automatización de procesos y validaciones de datos.
  • Plataformas de gobierno : Experiencia con Collibra, Purview u otras soluciones similares.
  • Entornos cloud: Familiaridad con GCP
  • Visualización: Experiencia en Power BI, Tableau o Looker para la creación de dashboards orientados a calidad y gobierno del dato.
  • Idiomas: inglés B2+/C1

Para ello tendrás:

Modalidad 100% teletrabajo.

Flexibilidad horaria para ayudarte a conciliar tu vida profesional / familiar.

Proyecto estable, crecimiento profesional y un gran equipo

Presupuesto de 1.200€ en formación individual para que lo utilices en lo que tú quieras (eventos tecnológicos, libros, formaciones, certificaciones etc.).

Seguro médico privado pagado íntegramente por Capitole

Seguimiento con tu equipo todos los meses, para tener un continuo feedback.

Retribución Flexible (Tickets Restaurante, Tickets Transporte, Guardería).

⚽ Plataforma de actividades WellHub.

Descuentos en grandes marcas para emplead@s (Club Capitole)

Para que conozcas a toda la familia:

  • Team Buildings cada dos meses. ¡No te puedes perder la fiesta de verano o la cena de Navidad!
  • Equipo de fútbol patrocinado por Capitole.
  • Comunidades tecnológicas para que compartas tus conocimientos e ideas con los demás equipos.

¡Por último y no menos importante un EQUIPAZO! ¿Aún no nos conoces? ¡¡Descúbrenos!!

Mira lo que opinan de nosotros

No dudes en enviarnos tu perfil, ¡estamos deseando conocerte!

El empleado/a se adherirá a las políticas de seguridad de la información:

  • Tendrá acceso a la información confidencial relativa a Capitole y al proyecto en el que trabaja.

  • Tendrá que cumplir las políticas de seguridad y las políticas internas de la empresa y cliente.

  • Tendrá que firmar un NDA.

AI Engineer
ISG International Service Group
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

AI Engineer (Generative AI & Agentic Systems) – 100% Remote We are looking for a hands-on AI Engineer to join a fast-growing, international tech company and work on cutting-edge Generative AI solutions and intelligent agentic systems . This is not a research role — we’re looking for someone who builds, deploys, and scales real AI products . What you’ll do • Design and build end-to-end Generative AI solutions • Develop AI agents and RAG (Retrieval-Augmented Generation) pipelines • Work closely with cross-functional teams to deliver scalable AI systems • Build and validate PoCs and production-ready solutions • Stay up to date with the latest trends in GenAI and agentic frameworks What we’re looking for • 3+ years of experience in Applied AI / Machine Learning (industry) • Strong background in Software Engineering (Python preferred) • Hands-on experience building: • GenAI applications • RAG pipelines • Agent-based systems • Experience with frameworks such as: • LangChain / LangGraph • Google Agent Development Kit (ADK) • or similar • Experience with cloud platforms (AWS, GCP, or Azure) • Strong communication skills and a builder mindset Nice to have • Experience with Vertex AI, Gemini, or similar tools • Knowledge of evaluation frameworks (RAGAs, LangSmith) • Experience with Docker / Kubernetes • Familiarity with CI/CD and MLOps practices What we offer • 100% remote within Europe • Flexible working model • International and collaborative environment • Career growth and continuous learning opportunities Salary: Competitive, depending on experience If you're a Software Engineer with real hands-on experience in GenAI , and you enjoy building impactful AI solutions — let’s talk! Feel free to reach out or apply directly.

Senior AEP / Adobe Journey Optimizer Engineer
Cognizant Netcentric
Multiple locations
Fully remote
Senior
Private salary

What makes Cognizant Netcentric a great fit for you?

At Cognizant Netcentric, we create memorable digital experiences for the world’s leading brands. We are a diverse, global community of 1,500+ Adobe experts working across countries, cultures, and technologies.

Our inclusive culture blends the entrepreneurial spirit of a startup with the stability, resources, and learning opportunities of a global organisation.

With Holacracy at our core, every individual is empowered to make an impact.

We are supporting a major marketing technology transformation for a leading financial institution , focused on implementing and optimizing Adobe Experience Platform (AEP) to enable real-time, personalized customer engagement .

We’re looking for a Senior Engineer with strong Adobe Journey Optimizer (AJO) expertise who can help configure and operationalize the platform.

What you’ll do

  • Configure Adobe Journey Optimizer (AJO) for inbound and outbound campaigns
  • Set up tracking frameworks and control groups
  • Leverage real-time data from Adobe Real-Time CDP to orchestrate journeys
  • Design and implement Adobe XDM data models
  • Build and maintain ETL processes using Python and Unix scripting
  • Manage deployments and CI/CD through Azure DevOps
  • Work with cross-functional teams integrating AEP, AJO, and Customer Journey Analytics
  • Ensure platform stability through unit, integration, and end-to-end testing

Must-have experience

  • Strong hands-on experience with Adobe Journey Optimizer (AJO)
  • 3+ years with Adobe Experience Platform (AEP) / Real-Time CDP
  • Experience configuring tracking and campaign orchestration
  • Knowledge of Adobe XDM data models
  • Python / Unix scripting
  • Experience with Azure DevOps or similar CI/CD tools

Nice to have

  • Experience with Customer Journey Analytics
  • Spanish language skills

What do we offer YOU?

  • Permanent contract
  • 30 working days of vacation
  • Flexible working hours
  • Recognition bonus system
  • Private health insurance
  • Apple work equipment
  • WFH equipment + welcome package
  • WFH monthly expenses compensation
  • Access to Udemy courses
  • Adobe certification
  • Sponsored gym membership
  • Tax-free benefits (ticket restaurant, kindergarten and transport)
  • A dynamic and international team
  • Everyone has a voice; we are a Holacracy organisation

At Cognizant Netcentric, we embrace an inclusive workplace, one where diversity is not just respected but celebrated. We do not discriminate based on age, gender, race, religion, sexual orientation, disability, or any other protected status. Our doors are wide open to all those who meet our high standards, and we cherish the distinct individuality and unique perspectives in our teams.

We firmly believe that a diverse and equitable workforce is the catalyst for groundbreaking innovation, boundless creativity, and seamless collaboration. We are aware of bias and have established clear criteria to take them out of the decision-making process, ensuring all qualified applicants will receive consideration for employment.

Oracle APEX Developer
Hays
Multiple locations
Remote or hybrid
Junior - Mid
Private salary

En HAYS estamos colaborando con con un grupo empresarial líder en el sector del transporte de mercancías, pasajeros y logística a nivel nacional, que cuenta con la más amplia gama de servicios de transporte y que actualmente se encuentra en fase de crecimiento y expansión a nivel internacional. .

Actualmente buscamos un perfil de Desarrollador/a Oracle APEX, que participará en un proyecto de migración, refactorización de ERP y adecuarlo a las necesidades de cada cliente.

¿Cuáles serán tus funciones?

  • Desarrollo del programa de TMS y de una plataforma de integración de clientes con Oracle Application Express.
  • Realización de migraciones e integraciones de los programas TMS.
  • Funciones de gestión y soporte técnico del programa.

¿Cuáles son los requisitos

  • Mínimo 2 años de experiencia en programación con especialización en Apex.
  • Mínimo 1 año de experiencia demostrable con PSQL .
  • Experiencia trabajando con APIS y Web Services.

¿Qué ofrecemos?

  • Proyecto estable e innovador.
  • Modalidad de 100% remoto o híbrido.
  • Ubicaciones oficinas: Madrid/ Málaga.

Estamos esperando perfiles como el tuyo, apasionados con la tecnología y que quiera enfrentarse a un nuevo reto. ¡Si es tu caso, inscríbete a esta oferta con tu CV para que podamos contarte más!

Data Engineer - 100% Remote - (Python, SQL, Spark / Scala)
Axpe Consulting
Multiple locations
Fully remote
Mid - Senior
Private salary

💼 Data Engineer (100% remoto – España/Portugal/Polonia/UK)

📍 Proyecto internacional en el sector banca/finanzas (UK)

🏢 AXPE Consulting

Buscamos 4 Data Engineers para incorporarse a un proyecto internacional dentro del sector financiero, colaborando en el diseño y construcción de plataformas de datos modernas en entornos cloud.

Trabajarás en un entorno altamente técnico, participando en iniciativas de data platforms, data lakes y data mesh , con foco en calidad, escalabilidad y gobierno del dato.

🚀 Responsabilidades

  • Diseñar, desarrollar y desplegar data pipelines y plataformas de datos en AWS
  • Implementar y mantener arquitecturas de data lake, lakehouse y data mesh
  • Colaborar con equipos de data, analítica y DevOps para entregar soluciones de negocio
  • Garantizar el cumplimiento en gobernanza, calidad y seguridad del dato
  • Resolver incidencias y optimizar procesos de datos
  • Liderar desarrollos end-to-end (de la concepción a producción)

🧠 Requisitos técnicos

  • Experiencia sólida con:
  • Python
  • SQL
  • Spark / Scala
  • Conocimiento avanzado de AWS (S3, Glue, Athena, EMR, EC2, Lambda)
  • Experiencia en ETL y modelado de datos
  • Capacidad analítica y enfoque en escalabilidad
  • Buenas habilidades de resolución de problemas

⭐ Valorable

  • Experiencia con CI/CD (GitHub Actions, etc.)
  • Conocimiento de Apache Iceberg o formatos similares
  • Experiencia con frameworks de calidad de datos ( Great Expectations, Deequ )
  • Conocimientos de Bash y/o HCL

👤 Perfil

  • Buenas habilidades de comunicación
  • Proactividad y autonomía
  • Mentalidad de mejora continua

🎓 Requisitos

  • Grado universitario (preferiblemente en informática o similar)
  • +3 años de experiencia en entornos cloud

#DataEngineer #DataJobs #BigData #AWS #Cloud #ETL #DataLake #DataMesh #Spark #Scala #Python #SQL #TechJobs #RemoteWork #Hiring #AXPE #Fintech #DataCareers #UKProjects #ITJobs

Data Engineer con background en Java | Remoto
Sngular
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
+1

¿POR QUÉ ELEGIR SNGULAR?

La gente viene a SNGULAR atraída por proyectos que usan tecnologías punteras, y se quedan porque colaboran con grandes profesionales. Y además porque ofrecemos esto:

🙋 Personas primero: somos una empresa colaborativa orientada a las personas, donde TÚ y tu perspectiva siempre serán valoradas. Nuestro valor número uno es “Personas antes que resultados”.

📈 Crecimiento y formación continua: espíritu de start-up con la infraestructura de una gran organización (ya somos más de 1300). Formación, certificaciones y evolución profesional hacia donde tú quieras.

🏋️ Beneficios increíbles , incluyendo un Wellbeing Pack para cuidar nuestro bienestar físico y mental.

En Sngular adoptamos una cultura plural, donde trabajamos con respeto, donde existe igualdad de oportunidades, nos enorgullecemos de ser proactivos, trabajamos con humildad e intentamos mantener siempre un espíritu de equipo, sin perder nunca el buen humor.

Conoce todo lo que hace de Sngular un #BestPlaceToGrow.

TU MISIÓN

Buscamos un/a Data Engineer con experiencia en desarrollo backend para incorporarse a uno de nuestros equipos multidisciplinares que trabaja en un proyecto clave basado en Google Cloud Platform (GCP) y Java.

Tu rol se enfocará principalmente en el diseño e implementación de soluciones de datos, participando también en el desarrollo de servicios backend.

Aunque se trata de un perfil híbrido, priorizamos la experiencia en proyectos Data y el dominio del ecosistema GCP, especialmente con herramientas como BigQuery, Dataflow y Datafusion .

¿QUÉ HARÁS EN TU DÍA A DÍA?

  • Diseñar y desarrollar pipelines de datos escalables y eficientes usando herramientas como Dataflow , Datafusion y BigQuery .
  • Trabajar con Google Cloud Platform (GCP) como nube principal , garantizando el despliegue, rendimiento y solidez de las soluciones.
  • Desarrollar y mantener scripts en Python para automatización, transformación de datos y orquestación y manipulación de flujos de datos complejos.
  • Gestionar el ciclo de vida de los desarrollos a través de herramientas como GitHub , Sonar , Turbine y Vault .
  • Desarrollar y evolucionar servicios backend Java 17 y Spring Boot 3 , aplicando buenas prácticas como arquitectura limpia o arquitectura hexagonal.
  • Participar en la definición técnica junto con otros perfiles de desarrollo y Data.
  • Aplicar buenas prácticas de versionado, pruebas y despliegue de pipelines y servicios.
  • Colaborar en un entorno ágil y altamente colaborativo.

¿QUÉ ES NECESARIO PARA EL PUESTO?

  • Experiencia sólida en el ecosistema de Google Cloud Platform (GCP) .
  • Experiencia trabajando con BigQuery, Dataflow, Datafusion y Python .
  • Manejo de ETLs y herramientas para ello
  • Conocimientos en DBT (deseable) y creación/gestión de pipelines de datos .
  • Experiencia demostrable en desarrollo con Java 17 y Spring Boot 3 .
  • Manejo fluido de GitHub, Sonar, Turbine y Vault .
  • Deseable: Experiencia con bases de datos NoSQL como Mongo y plataformas de streaming de eventos como Kafka.
  • Deseable: Experiencia trabajando bajo los principios de Arquitectura Hexagonal.

BENEFICIOS

🎓 Acceso a formación continua: presupuesto individual para formación, obtención de certificaciones bonificadas, acceso ilimitado a Udemy, clases de idiomas, dinámicas de formación interna

🏠 Flexibilidad: horaria, teletrabajo, posibilidad de trabajar desde nuestros Hubs o un complemento salarial para posiciones que requieran cierta presencialidad

📅 22 días de vacaciones + día de cumpleaños + 2 días de asistencia a eventos técnicos + 24 y 31 de diciembre no laborables

🌞 Wellbeing pack : Presupuesto anual para la mejora del bienestar

💵 Retribución flexible

🎉 Dinámicas y Eventos de Teambuilding

🎁 Pack de Bienvenida

💻 Posibilidad de elegir equipo (Windows / Mac)

🛜Complemento de ayuda al teletrabajo

🚀 Otras iniciativas que te permiten conseguir bonus adicionales: recomendar profesionales, speaker en eventos, artículos técnicos…

And last, but not least: porque somos muy Sngulares 💙

Tenemos Encuentro Virtual todos los viernes, fiestas, espacios donde podrás expresarte, proponer cambios y ser partícipe de ellos.

Big Data Engineer - Remoto 45K
Hays
Multiple locations
Remote or hybrid
Mid - Senior
Private salary

Buscamos un/a Big Data Engineer Senior para incorporarse a un proyecto estratégico en una de las áreas de Data & AI más relevantes del sector financiero.

Ubicación: Preferencia por Málaga, aunque valoramos perfiles de fuera con disponibilidad puntual para viajar.

Modalidad: Remoto con visitas puntuales.

⏱ Prioridad: Muy alta (proceso urgente).

¿Qué harás?

Formarás parte de un equipo experto en datos, participando en iniciativas de alto impacto. Tu rol se centrará en:

  • Diseñar y construir pipelines de datos distribuidos y escalables.
  • Liderar procesos ETL/ELT en entornos Databricks y Spark.
  • Desarrollar soluciones en Scala y/o Java .
  • Optimizar modelos y consultas SQL sobre motores distribuido (Trino, Starburst…).
  • Trabajar con almacenamiento cloud (S3) y arquitecturas Data Lake / Lakehouse.
  • Orquestar workflows con Airflow o Control‑M.
  • Colaborar con Data Science, ML y negocio para industrializar casos de uso.
  • Participar en decisiones de arquitectura y buenas prácticas de ingeniería.

Requisitos imprescindibles

  • +5 años como Data Engineer (se considerarán perfiles sólidos desde 3-4 años).
  • Experiencia avanzada con Scala/Java , Spark y Databricks.
  • Nivel fuerte de SQL y experiencia con motores distribuidos.
  • Experiencia en S3 o almacenamiento equivalente en cloud (AWS/Azure).
  • Orquestación con Airflow o Control‑M.
  • CI/CD, testing, Git y metodologías Agile.

⭐ Valoramos muy positivamente

  • Experiencia previa en banca o grandes corporaciones.
  • Conocimientos de Kafka o streaming.
  • Python.
  • Experiencia en multi‑región / multi‑país.

Qué te ofrecemos

  • Participar en proyectos estratégicos de Data & AI con alto nivel de impacto.
  • Entorno tecnológico moderno (Databricks, Spark, Cloud, Lakehouse).
  • Trabajo flexible y en remoto.
  • Equipo senior y altamente especializado.
  • Crecimiento real en uno de los ecosistemas de datos más consolidados.

Si encajas o conoces a alguien que pueda hacerlo, envíame un mensaje directo. ¡Proceso urgente!

AI Agent Developer
Capitole
Multiple locations
Fully remote
Senior
Private salary

¡En CAPITOLE seguimos creciendo y queremos hacerlo contigo!

Buscamos un Desarrollador Sr. de agentes de IA para participar en el desarrollo dentro de una plataforma corporativa basada en Azure AI. El rol estará centrado en el desarrollo backend de agentes con Python , integración con APIs corporativas y orquestación de modelos LLM , dentro de un entorno cloud.

Trabajará en la implementación de agentes conectados a sistemas corporativos (principalmente SAP HR ) y en la construcción de flujos de razonamiento y recuperación de información mediante arquitecturas RAG .

¿Qué perfil buscamos?

Si tienes experiencia en las siguientes tecnologías/herramientas, esta es tu oportunidad:

  • Python, FastAPI, REST APIs
  • Generative AI, LLMs (GPT-4, OpenAI)
  • AI Agents, Prompt Engineering
  • RAG, Embeddings, Vector Search
  • Azure OpenAI, Azure AI, Semantic Kernel
  • Microsoft Azure, Docker, CI/CD
  • OAuth2, JWT, Azure AD
  • API Integrations (Microsoft Graph, SAP SuccessFactors)

¿Qué podemos ofrecerte?

  • Contrato indefinido con Capitole
  • Salario competitivo
  • Proyecto estable, crecimiento profesional y un gran equipo
  • Remoto, España
  • Horario de oficina+ jornada intensiva viernes y verano

¿Por qué unirte a CAPITOLE?

• Presupuesto individual de formación de 1200 € (idiomas, libros, certificaciones).

• Paquete de retribución flexible .

• Grandes descuentos en centros deportivos (Wellness) .

• Seguro médico privado gratuito . ⚕️

• Revisiones mensuales con tu equipo para recibir feedback continuo .

• Team buildings : ¡No te puedes perder nuestra Pool Party ni la cena de Navidad !

• Descuentos en marcas internacionales para empleados (Club Capitole) . ️

¿Aún no nos conoces? ¡Descúbrenos!

¡No dudes en enviarnos tu perfil! Estamos ansiosos por conocerte.

#CAPITOLECONSULTING

Mira lo que opinan de nosotros

El empleado/a se adherirá a las políticas de seguridad de la información:

- Tendrá acceso a la información confidencial relativa a Capitole y al proyecto en el que trabaja.

- Tendrá que cumplir las políticas de seguridad y las políticas internas de la empresa y cliente.

- Tendrá que firmar un NDA.

Data Engineer (Python, Spark, Cloud) - 100% Remoto
Axpe Consulting
Multiple locations
Fully remote
Senior - Leader
Private salary
+1

Data Engineer (Python, Spark, Cloud)

Axpe Consulting – España | 100% Remoto | Proyecto estable

📍 Ubicación: Remoto

💼 Proyecto de largo plazo en entornos enterprise, con impacto real en plataformas de datos a gran escala

🌍 Inglés alto (B2 o superior) – colaboración con equipos internacionales

En Axpe Consulting buscamos un/a Senior Data Engineer para incorporarse a proyectos estratégicos de datos, trabajando con grandes volúmenes de información , arquitecturas modernas y plataformas cloud líderes del mercado.

El rol tiene un fuerte componente técnico y de liderazgo , participando tanto en la construcción como en la definición de soluciones de datos escalables, seguras y orientadas a analítica avanzada y Machine Learning.

💼 Responsabilidades

  • Diseño, desarrollo y mantenimiento de pipelines de datos a gran escala en entornos cloud y on-premise.
  • Procesamiento distribuido de datos utilizando PySpark, SparkSQL y Python .
  • Diseño y optimización de consultas SQL y NoSQL para entornos analíticos de alto rendimiento.
  • Modelado de datos y definición de arquitecturas analíticas (Data Lake, Lakehouse, Data Warehouse).
  • Liderazgo técnico en proyectos de datos y coordinación con equipos multidisciplinarios (Data, Cloud, Arquitectura, Negocio).
  • Definición de estrategias de datos junto a arquitectos y stakeholders técnicos.
  • Implementación de buenas prácticas de calidad del dato, seguridad y gobernanza .
  • Participación activa en despliegues, automatización y mejora continua de las plataformas.

🛠️ Stack tecnológico

Procesamiento y plataformas de datos

  • Python, PySpark, SparkSQL
  • Databricks
  • Snowflake
  • Cloudera Data Services

Cloud & Data Services

  • AWS (Glue, Redshift, S3, EMR)
  • Azure (Fabric, Data Factory, Synapse)
  • GCP (BigQuery, Dataproc, Cloud Storage)

DevOps & buenas prácticas

  • Azure DevOps, Jenkins, GitLab CI
  • Automatización de despliegues
  • Seguridad cloud y control de accesos
  • Versionado y testing de pipelines de datos

✅ Requisitos obligatorios

  • +5 años de experiencia como Data Engineer en entornos enterprise.
  • Experiencia sólida trabajando con grandes volúmenes de datos .
  • Dominio avanzado de Python, PySpark y SparkSQL .
  • Amplia experiencia en SQL y bases de datos analíticas.
  • Conocimiento profundo de modelado de datos y arquitecturas analíticas .
  • Experiencia trabajando en entornos cloud (AWS, Azure o GCP) .
  • Capacidad de liderazgo técnico y toma de decisiones.
  • Inglés alto (B2 o superior) para colaboración internacional.

🌱 Se valorará especialmente

  • Experiencia en arquitecturas Lakehouse .
  • Conocimientos de Data Governance y Data Quality .
  • Certificaciones en Snowflake, Databricks, AWS, Azure o GCP .
  • Experiencia en proyectos internacionales o multi-país.
  • Background en sectores como banca, retail o industria.

🎓 Formación

  • Titulación en Ingeniería Informática, Telecomunicaciones o áreas afines.

🌍 ¿Qué ofrecemos?

  • Proyecto estable y de largo recorrido .
  • Trabajo 100% remoto desde España .
  • Entorno técnico avanzado, con tecnologías líderes de mercado.
  • Rol con peso real en decisiones técnicas y de arquitectura.
  • Colaboración con equipos y clientes internacionales.
  • Crecimiento profesional, formación continua y certificaciones.

#DataEngineer #SeniorDataEngineer #BigData #PySpark #Databricks #Snowflake #CloudData #AWS #Azure #GCP

Data Engineer (Python, PySpark) - 100% Remoto
Axpe Consulting
Multiple locations
Fully remote
Mid - Senior
Private salary

💼 Buscamos Data Engineer | Proyecto Estable | 100% Remoto

¿Eres Data Engineer y estás buscando un nuevo reto profesional en un entorno de alto impacto y con tecnologías punteras?

Desde nuestra consultora, colaboramos con una reconocida empresa líder a nivel internacional, en pleno proceso de transformación digital.

Buscamos un perfil con experiencia en entornos de datos para incorporarse a un equipo técnico de primer nivel.

🧠 ¿Qué harás en este proyecto?

Formarás parte de un equipo de ingeniería de datos que está impulsando soluciones de gran escala en un entorno complejo, con foco en:

  • Desarrollo de pipelines de datos eficientes usando Python y PySpark .
  • Automatización y orquestación de procesos con herramientas como Apache Airflow o Control-M .
  • Participación en iniciativas que integran componentes de Inteligencia Artificial y Machine Learning .
  • Proyectos estables, con visión a largo plazo y en continuo crecimiento.

✅ ¿Qué buscamos en ti?

  • Experiencia sólida en Python y PySpark .
  • Conocimientos en automatización y orquestación de workflows de datos.
  • Familiaridad con entornos de IA o ML (valorable, no excluyente).
  • Actitud proactiva , resolutiva y con ganas de proponer e impulsar mejoras técnicas.
  • Residencia en España (requisito para contratación).

🌍 Lo que ofrecemos:

  • Proyecto 100% remoto y de larga duración .
  • Incorporación a un equipo técnico consolidado, dentro de una de las mayores compañías del sector retail a nivel europeo.
  • Entorno de trabajo ágil, dinámico y con foco en la innovación tecnológica .
  • Colaboración directa con áreas de negocio y tecnología, con impacto real en el cliente final.

Si buscas un nuevo paso profesional en un entorno donde la tecnología y los datos son el centro de las decisiones, ¡te queremos conocer!

¿Te interesa? Aplica directamente y hablamos.

Data Engineer
FDS Spain, a DXC Technology Company
Girona
Remote or hybrid
Mid - Senior
Private salary
+1

Quiénes somos

Nuestro departamento de Data&AI, que cuenta con más de 200 profesionales especialistas en proyectos de analítica avanzada de información (Ingesta, Modelado, Visualización, Plataformas de datos, Gobierno del dato, Big Data y AI), se encarga del desarrollo de todo tipo de soluciones, utilizando las últimas tecnologías, que proporcionen valor a nuestros clientes a partir de sus datos.

Qué buscamos

Buscamos un Ingeniero/a de Datos para diseñar, desarrollar y mantener una plataforma de datos escalable, segura y orientada a analítica avanzada, apoyando iniciativas de BI, Data Science e Inteligencia Artificial.

Será responsable de garantizar la calidad, disponibilidad y eficiencia de los datos en toda la organización.

Valoramos profesionales que residan en cualquier provincia.

Responsabilidades

  • Diseñar, construir y optimizar pipelines de datos batch y streaming.
  • Desarrollar procesos ETL/ELT en Databricks (Apache Spark).
  • Implementar arquitecturas basadas en Lakehouse / Data Lake / Data Warehouse.
  • Gestionar y optimizar modelos de datos analíticos.
  • Integrar fuentes de datos internas y externas (APIs, bases de datos, SaaS, etc.).
  • Asegurar la calidad, trazabilidad y gobernanza del dato.
  • Optimizar rendimiento y costes en entornos cloud.
  • Colaborar con equipos de BI, Data Science y negocio.
  • Automatizar despliegues y procesos mediante CI/CD.
  • Documentar soluciones técnicas y buenas prácticas.
  • Participar en la definición de estándares y arquitectura.

Requisitos

  • Formación: Valorable titulación STEM .
  • Experiencia como Data Engineer (+3–5 años).
  • Experiencia en proyectos cloud
  • Experiencia y/o conocimientos en Databricks.

Dominio de:

  • Modelado dimensional y analítico.
  • Apache Spark
  • SQL avanzado
  • Python (preferiblemente PySpark)

Conocimiento de:

  • Data Lakes / Lakehouse
  • Arquitecturas modernas de datos
  • Experiencia con sistemas de control de versiones (Git).
  • Conocimientos de orquestación (Airflow, ADF, dbt, etc.).

Valorable

  • Disponer de Certificación Databricks Data Engineer Professional

Qué ofrecemos

En nuestro equipo, valoramos el aprendizaje constante, ofrecemos un entorno donde puedes desarrollar tus habilidades en un campo en constante evolución. Al unirte a nosotros, tendrás la oportunidad de:

  • Formarte y crecer profesionalmente con nuestro apoyo para mantenerse al tanto de las últimas metodologías y soluciones en análisis de datos.
  • Colaborar con un equipo consolidado y con gran experiencia en análisis de datos
  • Horario flexible, jornada intensiva en verano.
  • Contrato indefinido.
  • Seguro de vida y accidentes.
  • Trabajo flexible.
Azure Data Platform Engineer
KRIMDA
Multiple locations
Fully remote
Mid - Senior
Private salary

En Krimda estamos buscando un/a Azure Data Platform Engineer para incorporarse a un proyecto internacional dentro del sector seguros. Se trata de un rol altamente técnico, centrado en el diseño, desarrollo y operación de soluciones de datos en plataformas Azure, con especial foco en arquitecturas cloud, automatización y servicios gestionados.

¿Qué esperamos de ti?

Buscamos un perfil con experiencia sólida en ingeniería de datos sobre Azure, capaz de trabajar con autonomía, criterio técnico y orientación a la calidad. Esperamos que puedas diseñar y mantener pipelines, trabajar con Databricks y ADF, colaborar en arquitecturas cloud y participar en la evolución de la plataforma de datos del cliente.

Queremos a alguien con mentalidad analítica, acostumbrado a trabajar en entornos internacionales y con un nivel muy alto de inglés , ya que la comunicación con equipos globales será constante.

Requisitos imprescindibles

  • Experiencia demostrable como Azure Data Platform Engineer o rol similar.
  • Dominio de Azure Databricks y Azure Data Factory (ADF) .
  • Experiencia con Azure DevOps y prácticas de CI/CD.
  • Conocimientos de programación aplicada a ingeniería de datos (Python, SQL, PySpark…).
  • Experiencia en arquitectura cloud y servicios gestionados de Azure.
  • Nivel muy alto de inglés (entorno multinacional).

¿Qué funciones tendrás?

  • Diseñar, desarrollar y mantener soluciones de datos en Azure , asegurando escalabilidad, rendimiento y seguridad.
  • Construir y optimizar pipelines de datos utilizando Azure Data Factory (ADF) y Azure Databricks .
  • Participar en la definición de arquitecturas cloud orientadas a datos.
  • Colaborar con equipos de Data Engineering, Data Science y negocio para integrar nuevas fuentes y modelos.
  • Implementar buenas prácticas de versionado, automatización y despliegue mediante Azure DevOps .
  • Asegurar la calidad, disponibilidad y eficiencia de los datos en entornos productivos.

¡Sigue leyendo! ofrecemos…

  • Modalidad 100% remoto desde España o Portugal.
  • Colaboración en un proyecto internacional del sector seguros.
  • Entorno técnico avanzado con foco en plataformas cloud.
  • Trabajo con equipos globales y tecnologías punteras.
  • Flexibilidad y conciliación.

Si eres un a persona dinámica, te gustan los desafíos y tienes ganas de poder aportar valor, este es tu sitio, no dudes en inscribirte, ¡Estamos deseando conocerte!

Scala/Spark Developer
HCLTech
Multiple locations
Fully remote
Mid - Senior
Private salary

Our goal is to strengthen the brand in Spain. We are looking for an expert to work as Scala/Spark Developer!

What do you need to fulfill this job?

  • Programming Languages - Scala Spark
  • Cloud Technology Services in AWS: EMR, S3, Step Functions
  • Database – SQL Server, Oracle
  • Experience with the following technologies: GitHub
  • Working experience with Terraform modules to create and handle the infrastructure (Glue catalog, S3, code artifacts, etc)."

Nice to have skills

  • Experience with the following technologies: JIRA and Confluence

Qualities

  • Excellent problem solving, analytical skills and technical troubleshooting skills.
  • Experience in presenting and explaining complex issues and solutions to senior stakeholders in a clear and concise way.
  • Strong teamwork and interpersonal skills; ability to communicate and persuade at all levels; and able to establish positive working relationships.
  • Strong experience in IT build development and support.
  • MINIMUM 3+ WORKING YEARS IN CLOUD

Qualifications

  • University degree in technology, preferably in computer science.

About HCLTech:

We are HCLTech, one of the fastest-growing large tech companies in the world and home to 225,000+ people across 60 countries, supercharging progress through industry-leading capabilities centered around Digital, Engineering and Cloud. The driving force behind that work, our people, are diverse, creative, and passionate, raising the bar for excellence on a regular basis.

We, in turn, work hard to bring out the best in them as we strive to help them find their spark and become the best version of themselves that they can be. If all this sounds like an environment you’ll thrive in, then you’re in the right place. Join us on our journey in advancing the technological world through innovation and creativity.

Why Us?

  • We offer End-to-end digital transformation expertise that helps clients from strategy through execution. We work with the biggest brands, offering the opportunity to be a part of industry-leading work.
  • We are invested in your growth, offering learning and career development opportunities at every level to help you find your spark.
  • We offer freedom and flexibility on the job, empowering our employees to make decisions.
  • We offer a virtual-first work environment, promoting a good work-life balance and real flexibility Our company is extremely diverse with representation of 165 nationalities.
  • We offer the opportunity to work with colleagues across the globe.
  • We are a certified great place to work and a top employer in 25 countries including Romania, offering a positive work environment that values employee recognition and respect.

If you have a valid disability certificate, Certificate of Disability in Force, please contact us.

Among HCL’s principles we would like to highlight diversity and inclusion as a strength in our values and practices. To achieve all our objectives, it intends to attract, develop, and retain different profiles, assuming diversity as a key factor and differentiator of fundamental innovation in our organization. We welcome and value all people, and we are committed to the inclusion and sense of belonging of each person who is part of HCL.

  • HCL is an equal opportunity employer. All qualified applicants will receive consideration for employment without regard to age, ancestry, color, family or medical care leave, gender identity or expression, genetic information, marital status, medical condition, national origin, physical or mental disability, political affiliation, protected veteran status, race, religion, sex (including pregnancy), sexual orientation, or any other characteristic protected by applicable laws, regulations, and ordinances.
Data Engineer (Python/Pyspark)
Scalian
Multiple locations
Fully remote
Mid - Senior
Private salary

¡Ampliamos nuestro equipo!

¿Buscas un nuevo reto en Python , trabajando sobre una aplicación ya en producción, con foco en estabilidad, mejora continua y seguridad ? Entonces sigue leyendo porque esto te puede interesar.

Scalian es una empresa de más de 6.000 personas , con dimensión internacional y oficinas en Europa y América del Norte . Estamos especializados en dar servicios a diferentes clientes enfocados en Data, Cloud e Inteligencia Artificial , participando en proyectos estratégicos y servicios de largo recorrido.

¿Qué buscamos?

Buscamos un ingeniero de datos con dominio de Python/Pyspark y SQL. El candidato ideal debe ser capaz de manejar grandes volúmenes de datos, optimizar flujos de trabajo de procesamiento, y crear consultas complejas. Se valoran habilidades analíticas, resolución de problemas y experiencia en colaboración interdisciplinaria.

Requisitos:

  • Experiencia de al menos 3 años con Python/Pyspark (imprescindible)
  • Mínimo 3 años de experiencia con SQL. (imprescindible)
  • Conocimiento y/o experiencia con HIVE/HDFS
  • Valorable experiencia con YARN, Entorno Linux y/o herramientas DevOps

¿Qué tendrás con nosotros?

Formar parte de un servicio estable y de largo recorrido

100% Teletrabajo

⛱ 25 días laborables de vacaciones

Contrato indefinido

Formación continua y planes de desarrollo profesional personalizados

Jornada completa con horario flexible

After works en las oficinas

La tarde del cumpleaños libre

️ Descuentos en gimnasios

Programas de retribución flexible

Entorno internacional

⚖️ Entorno inclusivo y diverso

♻️ Compromiso con iniciativas sostenibles

¡Despega en tu carrera con Scalian Spain! ✈️

Data Engineer / Databricks
FDS Spain, a DXC Technology Company
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
+1

Quiénes somos

Nuestro departamento de Data&AI, que cuenta con más de 200 profesionales especialistas en proyectos de analítica avanzada de información (Ingesta, Modelado, Visualización, Plataformas de datos, Gobierno del dato, Big Data y AI), se encarga del desarrollo de todo tipo de soluciones, utilizando las últimas tecnologías, que proporcionen valor a nuestros clientes a partir de sus datos.

Qué buscamos

Buscamos un Ingeniero/a de Datos con experiencia en Databricks para diseñar, desarrollar y mantener una plataforma de datos escalable, segura y orientada a analítica avanzada, apoyando iniciativas de BI, Data Science e Inteligencia Artificial.

Será responsable de garantizar la calidad, disponibilidad y eficiencia de los datos en toda la organización.

Valoramos profesionales que residan por la zona de Cataluña , Valencia o Alicante.

Responsabilidades

  • Diseñar, construir y optimizar pipelines de datos batch y streaming.
  • Desarrollar procesos ETL/ELT en Databricks (Apache Spark).
  • Implementar arquitecturas basadas en Lakehouse / Data Lake / Data Warehouse.
  • Gestionar y optimizar modelos de datos analíticos.
  • Integrar fuentes de datos internas y externas (APIs, bases de datos, SaaS, etc.).
  • Asegurar la calidad, trazabilidad y gobernanza del dato.
  • Optimizar rendimiento y costes en entornos cloud.
  • Colaborar con equipos de BI, Data Science y negocio.
  • Automatizar despliegues y procesos mediante CI/CD.
  • Documentar soluciones técnicas y buenas prácticas.
  • Participar en la definición de estándares y arquitectura.

Requisitos

  • Formación: Valorable titulación STEM .
  • Experiencia como Data Engineer (+3–5 años).
  • Experiencia demostrable con Databricks.

Dominio de:

  • Apache Spark
  • SQL avanzado
  • Python (preferiblemente PySpark)

Conocimiento de:

  • Data Lakes / Lakehouse
  • Arquitecturas modernas de datos
  • Modelado dimensional y analítico
  • Experiencia con sistemas de control de versiones (Git).
  • Conocimientos de orquestación (Airflow, ADF, dbt, etc.).

Valorable

  • Disponer de Certificación Databricks Data Engineer Professional

Qué ofrecemos

En nuestro equipo, valoramos el aprendizaje constante, ofrecemos un entorno donde puedes desarrollar tus habilidades en un campo en constante evolución. Al unirte a nosotros, tendrás la oportunidad de:

  • Formarte y crecer profesionalmente con nuestro apoyo para mantenerse al tanto de las últimas metodologías y soluciones en análisis de datos.
  • Colaborar con un equipo consolidado y con gran experiencia en análisis de datos
  • Horario flexible, jornada intensiva en verano.
  • Contrato indefinido.
  • Seguro de vida y accidentes.
  • Trabajo flexible.
PL/SQL Developer
Scalian
Multiple locations
Remote or hybrid
Mid - Senior
Private salary

¡Ampliamos nuestro equipo! ¿Buscas un nuevo reto en el ámbito Data , trabajando con bases de datos, ETL y desarrollo backend en entornos complejos? Entonces sigue leyendo porque esto te puede interesar. Scalian es una empresa de más de 6.000 personas , con dimensión internacional y oficinas en Europa y América del Norte . Estamos especializados en dar servicios a diferentes clientes enfocados en Data, Cloud e Inteligencia Artificial , participando en proyectos estratégicos de gran escala. ¿Qué buscamos? Buscamos un/a PL-SQL Developer para incorporarse a un proyecto enfocado en el desarrollo y optimización de procesos de datos, integración y backend , trabajando con tecnologías como Oracle, ETL y Spring Boot . Requisitos mínimos: • Experiencia sólida en PL/SQL y bases de datos Oracle • Experiencia en desarrollo de procesos ETL • Conocimientos de Spring Boot • Experiencia trabajando en entornos Unix/Linux y scripting (Shell) • Experiencia en optimización de queries y rendimiento • Capacidad de análisis y resolución de problemas técnicos • Experiencia trabajando en entornos de datos y backend Requisitos valorables: • Experiencia en diseño de data marts o modelos analíticos • Experiencia en entornos cloud o plataformas de datos modernas • Conocimientos adicionales en integración de APIs • Experiencia en entornos ágiles ¿Qué tendrás con nosotros? Formar parte de un equipo de alto nivel en proyectos Data Modalidad de trabajo flexible ⛱ 25 días laborables de vacaciones Contrato indefinido Formación continua y planes de desarrollo profesional Jornada flexible After works en las oficinas Tarde libre en tu cumpleaños ️ Descuentos en gimnasios Retribución flexible Entorno internacional ⚖️ Cultura inclusiva y diversa ♻️ Compromiso con sostenibilidad ¡Despega en tu carrera con Scalian Spain! ✈️

IA Developer- Python
Softtek
Velilla de San Antonio
Remote or hybrid
Mid
Private salary

✨¿Quieres ser protagonista de soluciones que impacten a nivel global? ¡Forma parte del cambio!

Somos Softtek , un grupo tecnológico global que integra una cultura única, beneficios y un gran desarrollo, tanto profesional como humano, con presencia en más de 20 países y 14 sedes en España . Generamos valor a través de la tecnología y nuestro objetivo es dejar huella y trascender en el ámbito de la transformación digital. Ya sumamos más 16.000 softtekians alrededor del mundo y seguimos creciendo.

En 2024 hemos sido reconocidos por la Lista Forbes como una de las 100 mejores empresas para trabajar en España, destacando por la flexibilidad y la personalización de la experiencia de nuestros colaboradores. Creemos que las personas con talento y autodeterminación son capaces de crear cosas asombrosas. ¿Nos acompañas en esta aventura? #FutureTogether.

¿Qué buscamos?

Buscamos un desarrollador especializado en Python para incorporarse a un proyecto centrado en la construcción de una plataforma de agentes de inteligencia artificial. El rol tendrá un fuerte enfoque técnico en la creación, optimización e integración de agentes basados en modelos de lenguaje, orientados al análisis de código legacy y a la generación automatizada de documentación y propuestas de arquitectura. Formarás parte de un equipo tecnológico donde la innovación, la automatización y el trabajo con grandes modelos serán elementos clave.

  • Experiencia en desarrollo con Python en entornos backend.
  • Conocimiento de APIs y servicios web orientados a integración.
  • Experiencia o interés demostrado en trabajo con LLMs y agentes.
  • Conocimientos básicos de LangChain o frameworks similares.
  • Experiencia trabajando con repositorios Git y capacidad para interpretar código legacy (Java, frontend, etc.).
  • Valorable experiencia con RAG (embeddings, vector stores), arquitecturas multi‑agente (LangGraph) y entornos cloud como AWS o Azure.

¿Cómo será tu día a día?

  • Desarrollar y mantener agentes de IA especializados, tanto en su estado actual como en sus evoluciones futuras.
  • Construir pipelines de ejecución de agentes, incluyendo orquestación, dependencias y paralelismo.
  • Integrar modelos LLM de distintos proveedores dentro de los agentes.
  • Diseñar, ajustar y optimizar prompts para diferentes escenarios de uso.
  • Implementar tools para análisis de código y procesamiento de documentación.
  • Optimizar el uso de contexto mediante filtrado, estructuración y reducción de tokens.
  • Incorporar mecanismos de RAG que permitan enriquecer las respuestas generadas por los agentes.
  • Gestionar y utilizar outputs generados automáticamente en formatos como Markdown o HTML.

✅ ¿Qué ofrecemos?

Contrato indefinido.

H orario flexible y mejoras para favorecer la conciliación a través de nuestro programa BetterWork.

✈️24 días de vacaciones

Seguro médico

Retribución flexible: tarjeta transporte, tarjeta restaurante, cheque guardería o seguro médico familiares.

Tarde de cumpleaños libre (también por el cumple de tus hijos)

Club del empleado: ofertas y promociones exclusivas por ser Softtekian.

Planes de formación: idiomas, tecnologías y soft skills

Oportunidad de movilidad interna: contamos con presencia internacional y diversas sedes en España

¿Todavía sigues aquí?

¡Tu incorporación es nuestra prioridad! No dudes en apuntarte, estamos deseando conocerte.

Data Analitycs
HOLA CONSULTORES SL
Barcelona
Remote or hybrid
Mid - Senior
Private salary

Hola Consultores S.L. somos una empresa especializada en la provisión de Servicios TIC e Ingeniería para la gestión empresarial. Trabajamos diseñando soluciones a medida de las necesidades de nuestros clientes.

Nos enorgullece ser una empresa 2.0 innovadora donde las personas son el centro de nuestra atención. La ética, transparencia, imparcialidad e independencia son valores fundamentales en nuestra filosofía, y también estamos comprometidos con la igualdad de género. Nos esforzamos por garantizar oportunidades equitativas para hombres y mujeres en todas las áreas de nuestro trabajo. Además, estamos firmemente a favor de la igualdad en todas sus formas y promovemos un entorno inclusivo donde cada individuo, independientemente de su género, religión, orientación sexual, etnia o cualquier otra característica, sea valorado y respetado.

Analytics Engineer – Data Modelling & Transformation

¿Te apasiona convertir datos complejos en modelos que impulsan decisiones reales de negocio?

Buscamos un perfil con mentalidad analítica y foco en escalabilidad.

🔎 Qué harás

  • Diseñar y construir modelos dimensionales escalables y eficientes
  • Explorar, transformar y estandarizar datos de múltiples fuentes
  • Realizar análisis ad hoc para apoyar la toma de decisiones
  • Documentar procesos y arquitectura de datos
  • Optimizar datasets para apps analíticas y dashboards

🛠 Stack tecnológico

  • T-SQL (imprescindible)
  • Clickhouse, Snowflake, Microsoft Fabric
  • Python (transformaciones, análisis, APIs)
  • DBeaver, SSMS, VSCode
  • Copilot & herramientas GenAI
  • Power BI (valorado)

🎯 Buscamos

  • +5 años de experiencia en Data Modelling & Data Transformation
  • Background en Ingeniería, Matemáticas, Estadística o similar
  • Perfil autónomo, estructurado y orientado a impacto

💡 Si te motiva diseñar la base que permite decisiones estratégicas basadas en datos…

Queremos conocerte.

📩 Escríbeme y lo hablamos.

Coordinador BIM (h/m)
Grupo Elecnor
Velilla de San Antonio
Remote or hybrid
Mid - Senior
Private salary

We are seeking a highly skilled BIM Coordinator with a strong focus on Automation to join the COBELEC team for the Rail Baltica Energy Subsystem (ENE) Design & Build project. This role is critical to support the BIM, AIM, and GIS Manager in ensuring the successful delivery of high-quality digital assets across the different project disciplines.

This position requires a proactive professional capable of developing Dynamo and Python scripts to automate Quality Assurance (QA/QC), managing the Autodesk Construction Cloud (ACC) environment, and ensuring strict compliance with ISO 19650 and the project’s complex Data Management standards (AD4/ATP).

Key Responsibilities

  1. Strategic Support & CDE Management
  • Assist the BIM Manager in the daily implementation of the BIM Execution Pla (BEP) and associated BIM, AIM & GIS documents.
  • Support the implementation of Autodesk Construction Cloud (ACC): manage folder structures, permission levels, and “Work in Progress” (WIP) to “Shared” workflows in compliance with ISO 19650.
  • Support the configuration of metadata and ensuring correct file namingconventions for all outgoing deliverables.

2.Automation & Data Quality (QA/QC)

  • Develop and maintain Dynamo scripts and Python plugins to automate repetitive tasks in Revit and Civil 3D, such as: Validating Client Asset Attributes. Checking compliance with the Uniclass 2015 classification system. Renaming families and parameters to match the BIM Objects Attribute Specifications.
  • Create automated dashboards (e.g., Power BI linked to ACC) to monitor model health, data completeness, and coordination progress.
  1. Coordination & Interference Management
  • Create and Manage the Federation of multidisciplinary models.
  • Run advanced Clash Detection tests, filtering results, and managing the resolution workflow with disciplines.
  • Review the correct Geo-location of all models and handle Shared Coordinates synchronization between Civil 3D and Revit.
  • Modeling Support & Interoperability
  • Provide advanced troubleshooting support for Revit 2025 and Civil 3D 2025 to the production teams.
  • Setup IFC export configurations to ensure geometry and data mapping aligns strictly with Client’s Employer’s Information Requirements (EIR).
  • QA/QC Review of drawings, IFC and native models and attributes with the client requirements.
  • Support the integration of BIM models with GIS data.

Required Qualifications

  • Education: Bachelor’s degree in Engineering, Architecture, or related field.
  • Experience: Minimum 4+ years in BIM Coordination, preferably in linear infrastructure or rail projects.
  • Languages: Professional proficiency in English (Project Language) is mandatory. Spanish is highly valued
  • Strong communication skills to bridge the gap between technical modelers and management.

Technical Skills

  • Authoring Tools: Demonstrated experience of Autodesk Revit (complex families, adaptive components) and Civil 3D (handling surfaces and alignments).
  • Coordination: Demonstrated experience in Navisworks Manage (Clash Detective, TimeLiner for 4D).
  • CDE: Demonstrated experience administering Autodesk Construction Cloud (ACC) or BIM 360.
  • Automation (Mandatory): Proficiency in Dynamo and intermediate/advanced knowledge of Python (Revit API) for data management and QA/QC automation.
  • Standards: Deep understanding of ISO 19650 workflows and COBie/Asset
Ingeniero/a de Datos (Azure)
Recodme
Multiple locations
Fully remote
Junior - Mid
Private salary
+2

En } ReCodme ( aceleramos el desarrollo tecnológico de nuestros clientes y colaboradores a través de soluciones especializadas, aportando valor en su continuidad y crecimiento.

Creemos en la cercanía con nuestras personas y en el valor añadido que aportan a nuestro equipo y proyectos. ¡Un ReCoder es un aficionado de la tecnología, es [la clave de nuestro éxito], la clave de nuestra Fuerza!”.

Actualmente estamos buscando un Ingeniero/a de Datos (Azure), para incorporarse con nosotros al proyecto de uno de nuestros clientes en modalidad remota .

¿Qué necesitas para formar parte de este proyecto?

📢 Requisitos:

  • 2-3 años de experiencia como Ingeniero de Datos o posiciones relacionadas (analista, analytics, data scientist…, en entorno Azure)
  • Experiencia en desarrollo con Python y uso de PySpark.
  • Expertise con SQL (Postgres, MySQL, SQL Server…)
  • Experiencia trabajando con Databricks y Azure Data Factory
  • CICD: Git / Azure DevOps.
  • Conocimiento basico de Kafka o Event Hubs.

📢 Funciones:

  • Desarrollo y mantenimiento de ETL/ELT en batch y streaming con Databricks/PySpark.
  • Gestionar el procesamiento y almacenamiento de datos con Delta Lake.
  • Soporte en procesos de CI/CD con Azure DevOps.
  • Colaboración estrecha con Data Scientist y Analistas de datos.
  • Resolución de problemas y optimización de pipelines.

📢 Idiomas:

  • Español (nativo)
  • Inglés (B2)

📢 Modalidad:

  • Remota (preferencia por residir en Madrid pero remoto 100%)

¿Estás listo para esta fuerza? Presenta tu candidatura.

En Recodme defendemos la igualdad y valoramos la diversidad. Creamos un ambiente seguro, diverso y donde las oportunidades son iguales para todos los colaboradores.

No discriminamos por edad, etnia, orientación sexual, género, discapacidad o cualquier otro factor que no sea el mérito.

¡Todas las candidaturas con las habilidades necesarias para el puesto son bienvenidas!

Big Data Developer (Java/Spark)
Scalian
Multiple locations
Fully remote
Senior
Private salary

¿Buscas un nuevo reto en el ámbito de big data , trabajando sobre una aplicación ya en producción, con foco en estabilidad, mejora continua y seguridad ? Entonces sigue leyendo porque esto te puede interesar.

Scalian es una empresa de más de 6.000 personas , con dimensión internacional y oficinas en Europa y América del Norte . Estamos especializados en dar servicios a diferentes clientes enfocados en Data, Cloud e Inteligencia Artificial , participando en proyectos estratégicos y servicios de largo recorrido.

¿Qué buscamos?

Buscamos un/a Senior Big Data Developer para incorporarse al equipo de Data for AI , trabajando en el diseño y desarrollo de soluciones de datos que soportan casos de uso estratégicos de Inteligencia Artificial dentro del entorno bancario.

La persona seleccionada será responsable de construir pipelines batch robustos, escalables y auditables, trabajando en un entorno altamente regulado y colaborando estrechamente con equipos de Data Science, Arquitectura y Gobierno del Dato.

Requisitos:

  • +3 años de experiencia en desarrollo backend con Java
  • +3 años de experiencia con Apache Spark en entornos productivos
  • Experiencia en procesamiento batch masivo
  • Experiencia en entornos bancarios o sectores altamente regulados

Valorable

  • Experiencia en entornos Big Data orientados a IA
  • Conocimiento de arquitecturas de datos modernas
  • Experiencia en entornos cloud

¿Qué tendrás con nosotros?

🚀 Formar parte de un servicio estable y de largo recorrido

💻 100% Teletrabajo

⛱ 25 días laborables de vacaciones

📝 Contrato indefinido

📚 Formación continua y planes de desarrollo profesional personalizados

🕐 Jornada completa con horario flexible

🎉 After works en las oficinas

🎂 La tarde del cumpleaños libre

🏋️ Descuentos en gimnasios

💲 Programas de retribución flexible

🌏 Entorno internacional

⚖️ Entorno inclusivo y diverso

♻️ Compromiso con iniciativas sostenibles

Frequently asked questions
Haystack features a variety of remote Data Engineer positions, including roles in data pipeline development, database management, ETL processes, and cloud data engineering across industries like tech, finance, healthcare, and more.
Many remote Data Engineer jobs require experience with tools such as SQL, Python, Apache Spark, Hadoop, and cloud platforms like AWS, Azure, or Google Cloud. Specific requirements vary by role, so be sure to check individual job descriptions.
Simply browse our remote Data Engineer job listings, select the role you're interested in, and click the apply button. You'll be prompted to submit your resume and any additional required information directly to the employer.
While many remote Data Engineer positions require some professional experience, Haystack also lists entry-level roles and internships. Use our filters to find opportunities that match your skill level.
Yes! You can create personalized job alerts on Haystack to receive notifications via email about new remote Data Engineer jobs that match your criteria, helping you stay up-to-date with the latest opportunities.