Roles
Remote Data Engineer Jobs
Overview
Looking for remote Data Engineer jobs? Haystack offers the best fully remote opportunities for skilled data engineers seeking flexible work-from-home roles. Discover top remote data engineering positions where you can design, build, and optimize data pipelines from anywhere. Start your remote data engineer career today with Haystack!
Mitarbeiter (m/w/d) eBusiness Daten- und Katalogmanagement
Haberkorn Deutschland GmbH & Co. KG
Feldkirchen
Remote or hybrid
Junior - Mid
€30
RECENTLY POSTED
TECH-AGNOSTIC ROLE

Haberkorn Deutschland - Vielseitig. Verlässlich. Vor Ort.

Haberkorn Deutschland zählt zu den führenden technischen Händlern in Deutschland.

Mit unserem einzigartigen Sortiment in den Bereichen Arbeitsschutz und technische Produkte für die Erstausrüstung und Instandhaltung sind wir für unsere Kunden der verlässlichste Partner.

Aus einer Hand bedienen wir Standardanforderungen und maßgeschneiderte Lösungen für nahezu jede Branche. Mit unseren etablierten E-Business & Logistik-Lösungen helfen wir unseren Kunden nicht nur, die Versorgung sicherzustellen und die Beschaffung zu vereinfachen - sondern auch, Prozesskosten zu senken.

Mit 835 engagierten Mitarbeitenden, über 200 kompetenten Kundenberaterinnen und Kundenberatern sowie 8 Standorten deutschlandweit bieten wir Ihnen persönliche Betreuung, fundiertes Fachwissen und zuverlässigen Service direkt vor Ort.

Qualität, Innovation und ein starkes Team - für eine erfolgreiche Zusammenarbeit.

Wir suchen Macher wie Sie als

Mitarbeiter (m/w/d)
eBusiness Daten- und Katalogmanagement DAS SIND IHRE AUFGABEN

  • Selbständige Produktdatenpflege im PIM, inkl. Bilder, Dokumente, Referenzen, Klassifikationen
  • Aufbau von Produktwissen mit den Sortimentsmanagern/Einkäufern
  • Betreuung der aus SAP zu übernehmenden Daten
  • Import von Produktdaten
  • Erstellung/Bearbeitung der Produktbilder mit Photoshop
  • Pflegen und aktualisieren von elektronischen Katalogen
  • Uploads von elektronischen Katalogen für Marktplätze/Plattformen und unseren Online-Shop
  • Erstellen und pflegen von PDF-Katalogen und Barcode-Etiketten

DAS SIND IHRE STÄRKEN

  • Erfahrung im kaufmännischen Bereich oder Datenmanagement
  • Sicherer Umgang mit MS-Office, insbesondere Excel
  • Lösungsorientiertes Handeln mit technischem Verständnis sowie idealerweise bereits erste Erfahrung mit PIM-Systemen
  • Selbstständige Arbeitsweise und die Fähigkeit, mehrere Projekte gleichzeitig kreativ zu managen
  • Ausgeprägte Kommunikations- und Präsentationsfähigkeiten sowie Freude im Umgang mit unseren Fachbereichen

HABERKORN DEUTSCHLAND ALS ARBEITGEBER:
Willkommen bei den Möglichmachern
Gestalten Sie mit - nutzen Sie den Freiraum, Ihre Ideen einzubringen und Haberkorn Deutschland weiterzuentwickeln. Bei uns sind die Wege kurz und die Türen offen - so kommen wir gemeinsam voran. Freuen Sie sich auf moderne Büros, individuelle Weiterbildungsmöglichkeiten und vor allem sympathische und motivierte Kolleginnen und Kollegen, die gemeinsam ein Ziel haben: zusammen möglich machen, was denkbar ist.

  • Attraktive Arbeitszeiten

  • 30 Tage Urlaub

  • Weihnachts- und Urlaubsgeld

  • Regelung zum mobilen Arbeiten

  • abwechslungsreiche und günstige Kantine

  • Gratis-Obst

  • Massageangebote

  • Sportkurse

  • JobRad

  • vermögenswirksame Leistungen

  • Zuschüsse für die betriebliche Altersvorsorge

  • Beteiligung am Unternehmenserfolg

DAS KLINGT NACH IHRER BESTMÖGLICHEN ZUKUNFT?

Ihr Ansprechpartner ist Marcus Beeck.

Haberkorn Deutschland GmbH & Co. KG
Friedrich-Schüle-Straße 20
85622 Feldkirchen/München

Datenschutzhinweise für Bewerberinnen und Bewerber

Data Engineer
WeHunt España
Multiple locations
Fully remote
Mid
Private salary
RECENTLY POSTED
  • Rol de Data Engineer – Big Data (Spark - Scala)
  • 100% remoto

Sobre nuestro cliente

Empresa española líder en soluciones de inteligencia artificial, datos y tecnología, con presencia nacional e internacional.

Sobre el perfil

Buscamos un Data Engineer Mid con experiencia en Spark (Scala) y Airflow , para incorporarse a un proyecto AML en un entorno bancario de primer nivel.

La persona seleccionada participará en el diseño, desarrollo y optimización de pipelines de datos en entornos Big Data , trabajando sobre Databricks y colaborando directamente con el cliente a nivel técnico.

Funciones

  • Diseño, desarrollo y mantenimiento de pipelines Big Data con Spark (Scala) .
  • Orquestación y automatización de procesos mediante Airflow y Python.
  • Implementación de procesos AML (Anti-Money Laundering) para la monitorización de transacciones.
  • Migración y adaptación de procesos a Databricks (Spark 3.x) .
  • Monitorización, optimización de rendimiento y resolución de incidencias.
  • Interacción técnica con el cliente y colaboración con equipos multidisciplinares.

Perfil buscado (H/M/D)

  • +2 años de experiencia como Data Engineer en entornos Big Data.
  • Experiencia sólida en Spark con Scala.
  • Experiencia con Airflow como herramienta de orquestación.
  • Conocimientos de Python (nivel básico, principalmente para desarrollo de DAGs en Airflow).
  • Experiencia trabajando con Databricks o entornos Spark 3.x.
  • Persona autónoma, resolutiva y con buenas habilidades de comunicación.
  • Capacidad para interactuar técnicamente con el cliente (sin responsabilidades de gestión).

Qué ofrecemos

  • Proyecto estable y de largo recorrido.
  • Entorno bancario de primer nivel.
  • Incorporación inmediata.
  • Proyecto técnicamente desafiante y de alto impacto.

Siguientes pasos

  • Si estás interesado/a en esta oferta, haz click en “aplicar ahora” para enviar una copia actualizada de tu CV.
Ingeniero de datos
Amaris Consulting
València
Remote or hybrid
Junior - Mid
Private salary
RECENTLY POSTED

Lleva tu carrera al siguiente nivel con Amaris Consulting como Ingeniero de datos (Data Engineer). Únete a un equipo internacional, crece en un grupo global con un volumen de negocio de 800 millones de euros y más de 1.000 clientes en todo el mundo, en un entorno ágil e innovador. Buscamos un perfil con experiencia demostrada en el diseño y desarrollo de soluciones de datos escalables y de alta calidad, con capacidad para trabajar en entornos cloud y en colaboración con equipos multidisciplinarios. S

✍️ ¿QUÉ NECESITARÁS? ✍️

  • +2 años de experiencia en roles relacionados con el desarrollo y modelado de datos.
  • Dominio avanzado de SQL , DBT y JINJA para transformación y modelado de datos.
  • Conocimientos sólidos en modelado de datos (BI / Relacional), incluyendo estrategias como Entity Relationship, Data Vault, Star Schema y Snowflake , en entornos de Data Lake .
  • Experiencia en el diseño de modelos de datos lógicos y físicos en arquitecturas cloud escalables.
  • Conocimientos en procedimientos de control de calidad de datos (data quality).
  • Experiencia con Power BI : modelado de data marts, creación de dashboards y visualizaciones interactivas.
  • Conocimientos en Python y en orquestación de flujos de datos (Apache Airflow, AWS Step Functions, etc.).
  • Nivel de inglés B2 o superior

¿QUÉ HARÁS EN TU DÍA A DÍA?

  • Diseñar y desarrollar modelos de datos lógicos y físicos en un entorno cloud basado en Data Lake .
  • Desarrollar scripts de transformación desde datos en bruto (raw data) hasta datos listos para la toma de decisiones, asegurando el control de calidad del dato.
  • Elaborar documentación técnica y guías para usuarios finales asociadas a los desarrollos realizados.
  • Integrarte en un equipo de desarrollo ágil (Agile) , multidisciplinar e internacional, aportando una actitud proactiva y colaborativa.
  • Participar en el mantenimiento y evolución de las soluciones una vez desplegadas en producción.
  • Colaborar en la construcción de pipelines de datos y en la integración de fuentes heterogéneas (ETLs, APIs, etc.).
  • Asegurar la integridad, rendimiento y escalabilidad de las estructuras de datos

¿POR QUÉ UNIRTE A NOSOTROS?

Únete a un equipo dinámico de profesionales talentosos y descubre un entorno lleno de crecimiento y oportunidades:

  • Crecimiento rápido gracias a una carrera personalizada y evaluaciones salariales regulares. El 70% de nuestros líderes actuales comenzaron en posiciones junior.
  • Desarrollo de habilidades a través de nuestro catálogo en la Technology Academy , plataforma Udemy , clases de idiomas, webinars y talleres.
  • Presupuesto anual personal para formación y certificaciones pagadas por la empresa.
  • Políticas flexibles : trabajo remoto, horarios adaptables y excelentes beneficios sociales: tickets de transporte y restaurante, apoyo en guarderías y seguro médico privado.
  • Programa WeCare , que apoya a los empleados en situaciones personales críticas.
  • Oportunidad de desarrollo profesional y personal en un entorno internacional y diverso.

Amaris Consulting es un empleador comprometido con la igualdad de oportunidades. Promovemos la diversidad en el lugar de trabajo y fomentamos un entorno inclusivo. Por ello, damos la bienvenida a candidaturas de todos los perfiles cualificados, independientemente de género, orientación sexual, raza, etnia, creencias, edad, estado civil o discapacidad.

Trainer Big Data
Tack TMI
Alessandria
Remote or hybrid
Mid - Senior
Private salary
TECH-AGNOSTIC ROLE

✨ Unisciti al nostro network di Trainer Big Data! ✨ Chi siamo Con oltre 110 anni di esperienza complessiva, Tack TMI è la società di Gi Group Holding esperta a livello globale nella formazione e nello sviluppo. Siamo presenti in più di 55 Paesi nel mondo con un unico obiettivo: supportare le persone e le organizzazioni nell’apprendere e crescere. Attraverso design e tecnologie all’avanguardia, creiamo soluzioni e percorsi formativi realmente efficaci, duraturi e con un impatto misurabile. Siamo alla ricerca di liber\* professionist\* a partita iva appassionati e dinamici pronti a condividere il loro know-how per formare e ispirare persone e team. Se hai una spiccata attitudine a trasmettere competenze in ambito IT, in particolare per quanto riguarda i Big Data e vuoi entrare in un network in continua crescita, siamo il partner giusto! A chi ci rivolgiamo Un/a trainer espert\*, abile nel creare esperienze formative che lascino il segno su: Big Data: principi e applicazioni Inoltre, possiedi: ✅ Laurea triennale e/o Magistrale ✅ Almeno 3 anni di esperienza come formatore ✅ Esperienza comprovata nell'ambito della formazione aziendale Cosa proponiamo Ingaggio per un corso di formazione, finanziato Fondimpresa, che sarà erogato tra maggio e luglio 2026. Collaborazioni stimolanti su progetti formativi innovativi. Un network professionale di alto livello , dove connettersi e fare la differenza. La possibilità di mettere in gioco la tua creatività e le tue competenze. Entra in contatto con noi! Invia il tuo CV aggiornato . Non vediamo l’ora di conoscerti e costruire insieme qualcosa di straordinario! Facciamo parte di Gi Group Holding ( la prima multinazionale italiana del lavoro e una tra le principali realtà che offrono servizi e consulenza HR a livello globale. Il nostro Gruppo è attivo nei seguenti campi: Temporary, Permanent e Professional Staffing, Ricerca e Selezione di Profili Manageriali, Executive Search, Outsourcing, Formazione, Consulenza HR, Amministrazione HR, Employability, Transizione e Sviluppo di Carriera. Siamo presenti in più di 37 Paesi in Europa, Asia e America con un team di oltre 9.000 persone. I valori che ci contraddistinguono: attenzione, collaborazione, passione, sostenibilità, apprendimento continuo e innovazione, responsabilità. L’offerta si intende rivolta ai candidati nel rispetto del D.lgs. n. 198/2006 e ss.mm.ii. e dei Decreti Legislativi n. 215 e n. 216 del 2003 sulle parità di trattamento. I candidati sono invitati a leggere l’informativa privacy ai sensi degli artt. 13 e 14 del Reg. EU 679/2016 al seguente indirizzo

Google Cloud Data Engineer
Esprimo S.r.l.
Multiple locations
Fully remote
Mid
Private salary

ESPRIMO Srl, società di consulenza informatica che opera dal 2002 su tutto il territorio nazionale ed internazionale, a supporto delle imprese, si colloca nel settore dell’Information Technology proponendosi come obiettivo quello di fornire una vasta gamma di prodotti, servizi e soluzioni nelle aree più strategiche per l’impresa, come: Infrastrutture IT, Content Management, ERP, Business Intelligence, CRM, Web Applications, è alla ricerca di un:

Data Engineer ambito Google Cloud con almeno 3 anni di esperienza, da inserire in ambito Telco

Competenze:

  • Pl/Sql
  • BigQuery ( GCP )
  • Certificazioni Looker

Nice To Have:

  • Google - Professional Data Engineer;
  • Google - Professional Machine Learning Engineer;
  • Google - Look ML Developer;
  • Google - Looker Business Analyst

Sede operativa: Remoto

Si offre un inserimento in un contesto stimolante e innovativo, con grandi prospettive di crescita professionale e una retribuzione commisurata all’esperienza.

Si richiede l’invio di Curricula rispondenti al profilo della posizione aperta, verranno presi in considerazione solo quelli effettivamente in possesso dei requisiti sopraindicati.

La ricerca è rivolta ad entrambi i sessi (L.903/77).

Inviare dettagliato curriculum vitae, con l’autorizzazione al trattamento dei dati personali secondo la Legge 196/2003.

VBA Consultant
ADENTIS Italia
Multiple locations
Remote or hybrid
Senior
Private salary

CHI SIAMO

Adentis Italia è un gruppo europeo di consulenza ingegneristica e IT operativa facente parte del Gruppo MoOngy. Presente in 14 Paesi europei con oltre 8500 dipendenti, abbiamo aperto la prima sede italiana a Milano e, grazie alla nostra continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano i valori della nostra società: AMBIZIONE, DINAMISMO, VOGLIA DI METTERSI IN GIOCO . Siamo una realtà in continua evoluzione, dove le relazioni umane sono sempre al primo posto.

Posizione: VBA Consultant

Modalità: Full Remote

contratto: tempo indeterminato o collaborazione in partita iva

IL TUO RUOLO

Siamo alla ricerca di un VBA Consultant con solida esperienza nello sviluppo e nella manutenzione di applicazioni basate su VBA e Python. La risorsa sarà coinvolta nella progettazione di soluzioni automatizzate, nella gestione di macro avanzate e nello sviluppo di dashboard in Power BI, contribuendo al miglioramento continuo dei processi aziendali.

Responsabilità principali:

  • Sviluppo e manutenzione di applicazioni in VBA e Python
  • Creazione, ottimizzazione e gestione di macro MS Office (Excel, Access, etc.)
  • Sviluppo e aggiornamento di dashboard Power BI
  • Gestione delle attività di change management
  • Redazione di documentazione tecnica e funzionale
  • Esecuzione di test e attività di debugging
  • Collaborazione e comunicazione con stakeholder tecnici e di business
  • Supporto nella definizione di soluzioni IT scalabili e moderne

Requisiti

  • Laurea triennale o magistrale in ambito tecnico/scientifico
  • Almeno 7 anni di esperienza in ruoli analoghi
  • Competenze avanzate in:

VBA / macro MS Office

SQL

XML, XSLT

Architetture IT moderne

Project management

  • Ottima conoscenza della lingua inglese (scritta e parlata)
  • Esperienza con Power BI
  • Conoscenza di Microsoft Azure
  • Background nel settore financial services

Cosa offriamo?

  • Contratto a tempo indeterminato o collaborazione in partita iva
  • Formazione continua su tecnologie di rete e sicurezza.
  • Supporto costante da parte del team HR e del Business Manager.
  • Opportunità di crescita professionale in un ambiente stimolante e innovativo.
  • Possibilità di lavoro ibrido, con presenza richiesta solo per attività critiche o coordinamenti.

The world needs you

Adentis Italia è un equal opportunities employer : crediamo che tutte le forme di diversità siano fonte di arricchimento reciproco. Ci impegniamo a garantire un ambiente di lavoro inclusivo, nel quale ogni singola risorsa possa apportare un valore unico alla nostra realtà. Accogliamo candidature senza distinzione di età, genere, nazionalità, disabilità, orientamento sessuale, religione o stato civile.

Inoltre, prestiamo attenzione alle risorse appartenenti alle categorie protette ai sensi degli articoli 1 e 18 della Legge 68/99.

I dati personali saranno trattati in conformità alle disposizioni contenute nel regolamento UE 2016/679 .

Data Engineer
Unikey
Multiple locations
Fully remote
Senior
€35,000

Job Description – Data Engineer (Python / Spark / Databricks)

Company: Unikey

Location: Full Remote (Italia)

Type: Full-Time / Freelance

Experience Level: Senior (5+ anni)

About the Role

Unikey è alla ricerca di un Data Engineer esperto in Python e Apache Spark per entrare a far parte di team di ingegneria avanzata nell’ambito Finance Data & Analytics .

La risorsa lavorerà su piattaforme moderne basate su architettura lakehouse , contribuendo allo sviluppo di pipeline dati scalabili e ad alte prestazioni, con focus su grandi volumi di dati finanziari strutturati.

Key Responsibilities

  • Progettare e sviluppare pipeline di data integration e trasformazione dati
  • Implementare logiche di business complesse su grandi dataset
  • Modellare e ottimizzare dati per analytics e reporting
  • Lavorare su architetture medallion (bronze, silver, gold)
  • Sviluppare codice scalabile e testato seguendo best practice di Software Engineering
  • Collaborare con team cross-funzionali in ambienti Agile
  • Garantire qualità, performance e affidabilità dei sistemi dati

Tech Stack

  • Python
  • Apache Spark (PySpark)
  • Azure Databricks
  • Azure Data Factory
  • Azure Data Lake
  • CI/CD pipelines

Requirements

  • Laurea in Informatica, Ingegneria o discipline affini
  • Almeno 5 anni di esperienza nello sviluppo software
  • Esperienza avanzata in Python (best practices, design patterns, testing)
  • Almeno 5 anni di esperienza hands-on con Apache Spark / PySpark
  • Esperienza con Delta Lake tables
  • Conoscenza di pipeline dati e architetture lakehouse
  • Inglese livello B2 o superiore

Nice to Have

  • Esperienza con CI/CD pipelines
  • Familiarità con ambienti cloud Azure
  • Conoscenza di data modeling avanzato
  • Esperienza in ambito Finance / Banking

Selection Process

  • Code Challenge tecnica (offline)
  • Colloquio tecnico approfondito con il cliente

Additional Info

  • Progetto internazionale
  • Team altamente tecnico e strutturato
  • Possibilità di lavoro completamente remoto
  • Range Ral: da 35k, commisurata in base dall’esperienza
AI Engineer (LLM & AI Agents) - Full Remote
HumaVerse
Multiple locations
Fully remote
Mid - Senior
€70,000/hour
+1

TL;DR

  • Stack e tecnologie: Python, LLM systems, AI Agents, RAG, vector database, LangChain / LlamaIndex / CrewAI / AutoGen, Docker, Kubernetes, API REST, Linux
  • Focus del ruolo: progettazione e sviluppo di sistemi AI agentici e applicazioni basate su Large Language Models per clienti Enterprise
  • Modalità di lavoro: full remote;
  • RAL: up to 70.000 €
  • Benefit: ticket restaurant, assicurazione sanitaria integrativa, formazione certificata, crescita professionale.

Humaverse, società di head hunting specializzata nella ricerca e selezione di talenti IT & Digital , è alla ricerca di un* AI Engineer / AI Agent Solutions Specialist per inserimento presso un player ICT nazionale.

L’azienda ha costruito nel tempo solide competenze nello sviluppo di soluzioni software avanzate e architetture data-driven , lavorando su progetti complessi per clienti Enterprise.

La figura entrerà nella Business Line Data Management & AI , dedicata alla progettazione e realizzazione di soluzioni di Intelligenza Artificiale avanzata , con un focus particolare su:

  • AI Agents
  • LLM-based systems
  • AI orchestration
  • automazione intelligente dei processi

Il team lavora su architetture moderne che combinano modelli linguistici, retrieval systems, agent orchestration e integrazione con piattaforme enterprise .

Cerchiamo una figura tecnica con esperienza nello sviluppo di soluzioni AI basate su LLM , capace di progettare sistemi scalabili, orchestrare agenti intelligenti e integrare modelli AI all’interno di architetture software distribuite.

Le posizioni sono aperte sulle sedi di Pisa, Firenze, Milano e Roma , con possibilità di smart working o full remote .

Di cosa ti occuperai:

  • progettazione e sviluppo di sistemi agentici (AI Agents) basati su Large Language Models
  • design di workflow multi-agente e sistemi di orchestrazione AI
  • sviluppo di applicazioni AI basate su RAG (Retrieval Augmented Generation) e vector database
  • integrazione di agenti AI con sistemi enterprise e piattaforme software esistenti
  • utilizzo e sviluppo su framework agentici (LangChain, LlamaIndex, CrewAI, AutoGen o simili)
  • implementazione di logiche di reasoning, planning, tool usage e memory management negli agenti
  • attività di prompt engineering avanzato e gestione del contesto dei modelli
  • monitoraggio e valutazione di performance, affidabilità e sicurezza dei sistemi AI
  • collaborazione con team multidisciplinari su architetture AI scalabili e production-ready

Competenze e requisiti:

  • esperienza nello sviluppo software con Python
  • esperienza con Large Language Models (LLM) e relative API
  • esperienza nello sviluppo di AI Agents o applicazioni AI basate su LLM
  • conoscenza di vector database e tecniche di retrieval (RAG)
  • familiarità con framework agentici (LangChain, LlamaIndex, CrewAI, AutoGen o simili)
  • conoscenza di architetture distribuite e microservizi
  • esperienza con API REST e integrazione tra servizi
  • conoscenza di containerizzazione (Docker, Kubernetes)
  • padronanza di strumenti di accesso remoto (vpn, ssh)
  • buona conoscenza di Linux
  • familiarità con database relazionali e NoSQL
  • capacità di scrivere script di automazione (Python, Bash)
  • attitudine al lavoro in team multidisciplinari e forte orientamento al problem solving

Competenze considerate un plus:

  • esperienza con cloud provider (AWS, Azure, GCP)
  • conoscenza di pipeline dati e integrazione Big Data
  • familiarità con MLOps / LLMOps
  • esperienza con CI/CD e pratiche DevOps
  • conoscenza di sistemi di messaging (es. Kafka )
  • esperienza in contesti Enterprise
  • buona conoscenza della lingua inglese

Cosa prevede l’offerta:

  • Assunzione a Tempo Indeterminato
  • RAL fino a 70.000 € ( strutturata su base fissa + variabile);
  • Ticket restaurant da 6 € al giorno
  • Assicurazione sanitaria integrativa
  • Smart working , incluso anche full remote ;
  • Formazione certificata continua;
  • Crescita in un team coeso e collaborativo ;
  • possibilità di lavorare su progetti avanzati di AI e sistemi LLM-based in contesti enterprise.

Pensi possa essere l’opportunità giusta per te?

Allora candidati , il team di HumaVerse sarà felice di contattarti per un confronto approfondito e per spiegarti i prossimi passi del processo di selezione.

L’offerta si intende rivolta a candidati ambosessi, nel rispetto del D.Lgs. n. 198/2006 e ss.mm.ii. e dei Decreti Legislativi n. 215 e n. 216 del 2003 sulle parità di trattamento.

I tuoi dati saranno trattati nel pieno rispetto delle disposizioni del Regolamento (UE) n. 679/2016 (Regolamento generale sulla protezione dei dati - “GDPR”), come successivamente modificato.

Jefe-a de Proyectos de Analitica Big Data (con experiencia técnica en Python y Spark) 100% remoto
ERHARDT Serikat
Velilla de San Antonio
Fully remote
Senior - Leader
Private salary
+5

En ERHARDT SERIKAT buscamos perfiles como tú que eres Jefe-a de proyecto

experto/a en analítica en entorno Big data y que aportas más de 5 años de experiencia global en analítica de datos, aportando más de 2 años de experiencia en gestión de proyectos Big Data.

¡Estamos abordando alguno de los desafíos tecnológicos más excitantes de nuestro tiempo!

Lo que hace diferente a Erhardt SERIKAT no lo decimos nosotros, lo dicen nuestros equipos: conciliación, confianza y proyectos con impacto ¡Nos encantaría contar contigo e integrarte en un equipo abierto, colaborativo y con visión de futuro!

¿Cuáles serán tus funciones?

Gestión de proyectos de Analítica en entorno Big Data en distintos clientes:

  • Gestionar el ciclo completo de los proyectos, desdela obtención de la información hasta su explotación, incluyendo la realización de procesos ETL y el diseño de sistemas informacionales.
  • Control de plazos y costes de los proyectos asignados.
  • Coordinar el equipo de ingenieros de datos en la realización de procesos ETL utilizando tecnologías BigData.
  • Asesoramiento en el diseño de soluciones tecnológicas alineadas con las necesidades de negocio.

¿Cuál será el Stack Tecnológico del que tienes que aportar al menos 5 años de experiencia?

  • Python y Spark/Pyspark
  • Transact SQL
  • Tecnologías Big Data (Apache Hadoop) y entornos cloud (Azure), control de versión de código (Git).
  • Realización de ETLs y modelos informacionales
  • Herramientas de visualización y dashboards con PowerBI.

Valoraremos experiencia en el siguiente stack tecnólogico:

  • Otros lenguajes de programación: Scala, R, Java
  • Experiencia en metodologías agile (kanban, scrum, design thinking,etc)
  • Conocimientos de Apache Kafka, NIFI, ElasticSearch
  • BBDD No relacionales

¿Qué encontrarás en Serikat?

ESTABILIDAD . Exclusivamente contratación indefinida en una compañía puramente tecnológica que forma parte de un sólido grupo empresarial.

FORMACIÓN ABIERTA . Para seguir desarrollando tu carrera profesional.

CONCILIACIÓN . Horario flexible, modalidad remota de trabajo, jornada intensiva 3 meses de verano y todos los viernes de año.

OTRAS VENTAJAS . Programa de retribución flexible a medida: seguro médico, cheques guardería, tarjeta restaurante, SKT Benefits, etc.

En definitiva, en Erhardt Serikat encontrarás un lugar donde la tecnología, las personas y el impacto social crecen juntos, de la mano. Los proyectos tecnológicos retadores, los equipos en los que confiar y el entorno pensado para crecer a largo plazo son los puntos que nos diferencian y nos hacen sentir más orgullosos.

¿¡Te interesa!? No lo dudes, haznos llegar tu candidatura para que podamos valorar mejor tu perfil

¡Únete a Erhardt Serikat!

Streamlit Application Development
Axpe Consulting
Barcelona
Fully remote
Mid - Senior
Private salary

En Axpe estamos impulsando proyectos de alto impacto en análisis de datos y desarrollo de aplicaciones interactivas para mejorar la toma de decisiones y la optimización de modelos de negocio.

Por ello, queremos incorporar un Streamlit Application Developer – Specialist para participar en el diseño, desarrollo e implementación de soluciones end-to-end basadas en Streamlit, optimización de modelos de datos y visualización interactiva.

Buscamos perfiles senior con profundo conocimiento técnico en Streamlit y Python , capaces de desarrollar soluciones robustas, escalables y centradas en la experiencia del usuario.

¿Qué buscamos de ti?

Profesionales con experiencia sólida en desarrollo de aplicaciones interactivas y optimización de datos:

✔ Desarrollo de aplicaciones Streamlit

  • Diseño y construcción de nuevas aplicaciones interactivas con Streamlit.
  • Desarrollo de nuevas funcionalidades, visualizaciones y componentes interactivos.
  • Mantenimiento y optimización de aplicaciones existentes y herramientas asociadas.

✔ Estándares y buenas prácticas de desarrollo

  • Establecimiento de estándares de desarrollo, patrones arquitectónicos y mejores prácticas de codificación.
  • Mentoría interna sobre desarrollo en Streamlit y buenas prácticas.
  • Soporte técnico y resolución de incidencias en aplicaciones desplegadas.

✔ Optimización de datos y conectividad

  • Modelado y optimización de datos para mejorar el rendimiento de aplicaciones.
  • Conectividad con entornos de datos, idealmente Databricks y DBT.
  • Integración fluida entre backend de datos y componentes interactivos frontend.

¿Qué valoramos?

  • Experiencia avanzada en Python y Streamlit .
  • Conocimientos sólidos en JavaScript para mejoras frontend e interacciones avanzadas.
  • Nivel de inglés fluido, tanto técnico como de comunicación de negocio.
  • Capacidad para equilibrar excelencia técnica con requisitos de negocio.
  • Enfoque colaborativo, habilidades de comunicación y documentación clara.
  • Sensibilidad hacia el diseño centrado en el usuario y experiencia UX.

¿Qué te ofrecemos?

Participar en proyectos de desarrollo de aplicaciones interactivas con impacto directo en la estrategia de negocio.

Modalidad 100% remoto.

Entorno técnico especializado en Streamlit, Python y optimización de datos.

Crecimiento profesional desarrollando aplicaciones críticas y de alto rendimiento, liderando innovación en visualización de datos.

Data Scientist Research - 100% teletrabajo
Nunegal Consulting
Multiple locations
Fully remote
Mid - Senior
Private salary

¿Listo/a para dar el siguiente paso como Data Scientist Research en un entorno tecnológico?

¡Desde Nunegal Consulting tenemos una oportunidad para ti!

¿Cómo es trabajar con nosotr@s?

  • Tenemos una cultura de mejora continua: Te integrarás en un proyecto retador que impulsará tus conocimientos y experiencia.
  • Crecimiento profesional: Apostamos por el crecimiento de nuestro equipo y priorizamos la promoción interna.
  • Cercanía: Nunegal lo formamos personas, no números. Nos conocemos por el nombre.
  • Buen rollo : Somos un equipo, nos ayudamos y compartimos conocimientos. Además, somos conocidos por nuestro #Nunefest

¿Qué te ofrecemos?

  • Incorporación a una empresa en constante crecimiento.
  • Teletrabajo 100%.
  • Retribución flexible (ticket restaurante, seguro médico, transporte y guardería).
  • Formación en inglés y cursos IT

Sobre ti… ♀️ ♂️

  • Cuentas con una sólida base en matemáticas, probabilidad y estadística.
  • Tienes experiencia en el desarrollo de modelos de Machine Learning y Deep Learning.
  • Has trabajado en análisis de escenarios “what-if” y simulación.
  • Posees conocimientos en Inferencia Causal.
  • Tienes experiencia en procesamiento de datos con Spark y SQL.
  • Dominas Python para análisis y desarrollo de soluciones de datos.

¿Cómo será tu día a día?

  • Desarrollarás y validarás modelos de Machine Learning y Deep Learning aplicados a problemas reales.
  • Analizarás escenarios complejos mediante simulaciones y enfoques “what-if”.
  • Aplicarás técnicas de inferencia causal para la toma de decisiones basada en datos.
  • Procesarás grandes volúmenes de datos utilizando Spark y SQL.
  • Colaborarás con equipos multidisciplinares
  • Optimizarás modelos y pipelines de datos para mejorar rendimiento y escalabilidad.
Palantir Forward Deployed Engineer
Third Republic
Multiple locations
Remote or hybrid
Senior - Leader
Private salary

Senior Forward Deployed Engineer (Palantir Foundry) – Spain

Location: Spain (primarily remote, occasional travel)

Engagement: Contract / Contract-to-Perm / Permanent

Overview

We are hiring a two Senior Forward Deployed Engineer (FDE) to lead delivery on a major enterprise data transformation programme in Spain. You will work directly with the customer, owning the design and implementation of scalable solutions using Palantir Foundry , while acting as the technical lead across the programme.

Key Responsibilities

  • Lead end-to-end delivery of Palantir Foundry solutions
  • Design and build data pipelines, ingestion frameworks, and transformations
  • Develop and optimise ontology models to support operational use cases
  • Build backend services and application layers (workflows, dashboards)
  • Ensure strong data governance, including lineage, access control, and auditability
  • Engage directly with stakeholders, translating business needs into technical solutions
  • Lead and mentor engineers, setting best practices and delivery standards

Required Experience

  • Strong hands-on experience with Palantir Foundry (pipelines, ontology, application layer)
  • Solid backend/data engineering skills (Python, PySpark, distributed systems)
  • Proven experience delivering enterprise-scale data platforms
  • Good understanding of data governance and data quality frameworks
  • Experience working directly with clients in complex environments
  • Strong communication skills (English required; Spanish beneficial)

Working Model

  • Primarily remote within Spain
  • Occasional travel for key workshops, stakeholder sessions, and major events

Engagement Flexibility

  • Open to contract, contract-to-permanent, or permanent setups

Why Join

  • Lead a high-impact, flagship programme
  • Work closely with senior stakeholders
  • Shape both the technical solution and engineering team
Machine Learning Engineer / MLOps & Cloud - 100% remoto
Nunegal Consulting
Multiple locations
Fully remote
Mid - Senior
Private salary

¿Listo/a para impulsar tu carrera como MLOps Engineer en proyectos de Machine Learning y cloud a gran escala?

Sigue leyendo…

¿Cómo es trabajar con nosotr@s?

  • Tenemos una cultura de mejora continua: Te integrarás en un proyecto retador que impulsará tus conocimientos y experiencia.
  • Crecimiento profesional: Apostamos por el crecimiento de nuestro equipo y priorizamos la promoción interna.
  • Cercanía: Nunegal lo formamos personas, no números. Nos conocemos por el nombre.
  • Buen rollo: Somos un equipo, nos ayudamos y compartimos conocimientos. Además, somos conocidos por nuestro #Nunefest

¿Qué te ofrecemos?

  • Incorporación a una empresa en constante crecimiento.
  • Teletrabajo 100%.
  • Retribución flexible (ticket restaurante, seguro médico, transporte y guardería).
  • Formación en inglés y cursos IT.

Sobre ti… ♀️ ♂️

  • Experiencia sólida de al menos 4 años en Machine Learning y MLOps , con enfoque en producción y despliegue de modelos.
  • Dominio de Python y familiaridad con entornos cloud (Azure, AWS, GCP) .
  • Capacidad para integrar modelos en microservicios y servicios serverless y conectar con APIs externas y MCPs.
  • Conocimiento en gestión de modelos con MLflow y Azure ML.
  • Experiencia con pipelines de entrenamiento, inferencia y procesamiento batch , y sistemas basados en LLMs y agentes .
  • Habilidad para diseñar soluciones técnicas complejas y colaborar en equipos multidisciplinares.

¿Cómo será tu día a día?

  • Implementarás soluciones técnicas de ML en producción, asegurando escalabilidad y eficiencia.
  • Colaborarás con equipos de desarrollo, datos y DevOps para garantizar la integración de modelos en arquitecturas cloud y microservicios .
  • Participarás en la automatización de pipelines , pruebas de modelos y monitorización de rendimiento.
  • Desarrollarás servicios y APIs que permitan la interacción de modelos con aplicaciones internas y externas.
  • Contribuirás a la adopción de buenas prácticas de MLOps , asegurando calidad, trazabilidad y reproducibilidad de los modelos.
Data Engineer
Staq.io
Multiple locations
Remote or hybrid
Mid - Senior
Private salary

About Us

Staq is a leading Banking-as-a-Service (BaaS) and embedded finance platform, transforming the way businesses integrate banking and financial services. At Staq, we empower our clients to innovate, expand, and streamline their financial services offerings using our cutting-edge platform. Our mission is to bridge the gap between traditional banking and the digital era by providing seamless, scalable, and secure financial solutions.

The Role

Our agents, recommendation systems, and automations are only as good as the data they consume. An agent giving financial advice needs rich, accurate, timely context about a user’s accounts, transactions, spending patterns, and financial goals. A recommendation engine needs well-structured feature data. An automation trigger needs reliable signals.

Right now that data plumbing doesn’t have a dedicated owner. As we scale from one product to an SDK that multiple banking applications use, the data layer becomes a shared dependency that every AI feature builds on top of. This role owns the pipelines that feed the intelligence platform, the evaluation data that tells us if our AI is working, and the infrastructure that lets us iterate on data quality without slowing down AI development.

Key Responsibilities

Context & Feature Pipelines for AI

  • Build and maintain the data pipelines that transform raw financial data (Plaid transactions, bank accounts, credit data, subscription records) into the enriched context that agents consume at runtime
  • Design the feature store or context layer that serves real-time and batch features to agents, recommendation engines, and automation triggers
  • Ensure data freshness, quality, and consistency across all pipelines feeding the intelligence platform
  • Build the context enrichment that makes the difference between a generic chatbot and a financial assistant that actually understands a user’s financial situation

Evaluation & Observability Data

  • Build the data infrastructure for AI evaluation — collecting agent decisions, recommendation results, automation outcomes, and user feedback into queryable, analyzable datasets
  • Own the LLM observability data layer — structured collection of call latencies, token usage, cost per flow, error rates, and model performance metrics across all agent and automation flows
  • Create dashboards and data products that let the AI team measure agent quality, recommendation relevance, automation success rates, and LLM operational health
  • Support A/B testing and experiment tracking data infrastructure so we can iterate on AI behavior with evidence, not intuition

SDK Data Contracts

  • Design data contracts and schemas that serve both Zeen and future banking applications that plug into the intelligence platform SDK
  • Own the ingestion layer for partner and third-party data sources — as the SDK expands to other banks, each will bring their own data formats and integration patterns
  • Build the feedback loops that connect production outcomes back to agent and recommendation improvement

Data Quality & Operations

  • Own data quality monitoring, validation, and alerting across all pipelines
  • Build data lineage tracking so we can trace any agent decision back to the data that informed it
  • Ensure PII handling in data pipelines aligns with platform policy — financial data requires careful treatment, and the AI layer has strict boundaries around what data reaches LLMs

Technical Environment

  • Python for pipeline development; SQL for analytics and data modeling
  • Financial data sources: Plaid, partner APIs, internal domain services (banking, credit, subscriptions, journal/ledger)
  • OpenTelemetry traces and structured artifacts as data sources for AI evaluation
  • Cloud-native infrastructure; containerized services
  • Financial data with strict handling requirements

What We Are Looking For

Must Have

  • 3+ years building and operating production data pipelines
  • Strong Python and SQL; experience with data transformation frameworks
  • Experience designing schemas and data contracts for consumption by application services or ML/AI systems
  • Understanding of data quality practices — validation, monitoring, alerting on pipeline failures
  • Comfort working with sensitive financial data and understanding why data handling discipline matters

Strong Signals

  • Experience building data infrastructure that feeds AI/ML systems (feature stores, context pipelines, evaluation datasets)
  • Fintech or financial services background
  • Familiarity with observability data (OpenTelemetry, structured logs) as a data source
  • Experience building monitoring and analytics for LLM systems — latency tracking, cost attribution, and performance dashboards
  • Experience with data lineage, audit trails, or data governance
  • Exposure to real-time streaming alongside batch processing
  • Experience designing data contracts for multi-tenant or multi-product platforms
Data Engineer GCP
Shakers
Multiple locations
Fully remote
Mid - Senior
Private salary
TECH-AGNOSTIC ROLE

Tu misión será diseñar, construir y mantener soluciones de datos robustas para clientes de sectores como retail , travel e insurance . Trabajarás en proyectos de largo recorrido, optimizando desde el seguimiento avanzado ( Server-Side GTM ) hasta la infraestructura como código (IaC).

️ ¿Qué harás?

  • Arquitectura GCP: Diseño y mantenimiento de soluciones escalables utilizando Cloud Run y Cloud Functions.
  • Tracking Avanzado: Implementación y gestión de Google Tag Manager , incluyendo entornos Server-Side .
  • Seguridad e Infraestructura: Configuración de Load Balancers, WAF y SSL/TLS bajo mejores prácticas de seguridad.
  • Cultura DevOps: Aplicación de metodologías de integración y despliegue continuo (CI/CD) e Infraestructura como Código (IaC).
  • Data Modeling: Creación de procesos ETL/ELT eficientes y modelado de datos avanzado en BigQuery .
  • Desarrollo en Python: Construcción de soluciones robustas aplicando principios de Programación Orientada a Objetos (OOP).
  • Visualización: Desarrollo de dashboards de alto impacto en Looker Studio o Power BI .

Condiciones del Proyecto

  • Modelo de contratación: Freelance (a través de Shakers).
  • Dedicación: Entre 100 y 160 horas mensuales (flexible).
  • Duración: Proyecto de larga duración / indefinido .
  • Internacional: Colaboración con expertos globales en un entorno nativo digital.

✅ ¿Qué buscamos? (Requisitos)

  • Certificación Google Cloud Certified Professional Data Engineer muy valorable.
  • Experiencia: Mínimo 5 años en ecosistemas de datos y arquitecturas modernas.
  • Coding: Dominio experto de SQL (BigQuery) y Python (Data wrangling y desarrollo de paquetes).
  • DevOps: Experiencia sólida en CI/CD y despliegue de tecnologías serverless .
  • Tracking: Conocimiento profundo de ecosistemas de etiquetado web (GTM).
  • Idiomas: Inglés fluido (imprescindible para el entorno internacional).

¿Estás listo para acelerar tu carrera en una compañía global? Inscríbete y lidera la transformación digital desde el dato. En Shakers, nos encargamos de la gestión administrativa para que tú te centres en la innovación tecnológica.

Data Scientist / MLOps Engineer - 100% teletrabajo
Nunegal Consulting
Multiple locations
Fully remote
Mid - Senior
Private salary

¿Listo/a para dar el siguiente paso como Data Scientist / MLOps Engineer en un entorno tecnológico?

¡Desde Nunegal Consulting tenemos una oportunidad para ti!

¿Cómo es trabajar con nosotr@s?

  • Tenemos una cultura de mejora continua: Te integrarás en un proyecto retador que impulsará tus conocimientos y experiencia.
  • Crecimiento profesional: Apostamos por el crecimiento de nuestro equipo y priorizamos la promoción interna.
  • Cercanía: Nunegal lo formamos personas, no números. Nos conocemos por el nombre.
  • Buen rollo : Somos un equipo, nos ayudamos y compartimos conocimientos. Además, somos conocidos por nuestro #Nunefest

¿Qué te ofrecemos?

  • Incorporación a una empresa en constante crecimiento.
  • Teletrabajo 100%.
  • Retribución flexible (ticket restaurante, seguro médico, transporte y guardería).
  • Formación en inglés y cursos IT

Sobre ti… ♀️ ♂️

  • Tienes experiencia en el desarrollo de modelos de Machine Learning y Feature Engineering.
  • Has trabajado con procesamiento de datos utilizando Spark y SQL.
  • Tienes experiencia construyendo pipelines de entrenamiento, inferencia en tiempo real y procesamiento batch.
  • Sabes desplegar modelos como APIs utilizando FastAPI.
  • Eres capaz de iterar rápidamente entre la experimentación y el despliegue en producción.
  • Te adaptas bien a entornos dinámicos y equipos pequeños, con un perfil versátil.
  • Dominas Python para desarrollo y análisis de datos.

¿Cómo será tu día a día?

  • Desarrollarás modelos de Machine Learning y realizarás tareas de Feature Engineering.
  • Diseñarás y mantendrás pipelines de datos y de entrenamiento (batch y tiempo real).
  • Desplegarás modelos en producción como APIs utilizando FastAPI.
  • Colaborarás estrechamente con equipos técnicos para llevar modelos desde la experimentación hasta producción.
  • Optimizarás el rendimiento y la escalabilidad de modelos y pipelines.
  • Trabajarás con grandes volúmenes de datos utilizando Spark y SQL.
Data engineer analyst
SARIA Es
Granollers
Remote or hybrid
Mid - Senior
Private salary

SARIA es una empresa global y líder especialista en el reciclaje de residuos animales y vegetales. Como Grupo SARIA , creamos valor para nuestros socios y el medio ambiente al actuar como un proveedor de servicios confiable y fabricante de productos de calidad para las industrias agrícola, energética, de alimentación animal, alimentaria, de catering y farmacéutica. Nuestra amplia cartera de productos y servicios se basa en la transformación de subproductos animales y residuos orgánicos en materias primas de alta calidad para nuevas aplicaciones, conservando los escasos recursos naturales existentes y realizando, mediante nuestro modelo de negocio, una importante contribución a la sostenibilidad ambiental.

En SARIA , estamos construyendo una cultura en la que todos puedan sentirse como en casa, con independencia de su género, edad, cultura, orientación sexual, religión y discapacidad.

Juntos, tenemos éxito como un equipo global. Queremos fomentar la innovación y capacitar a nuestros equipos para compartir nuevas formas de pensar, aprovechando al máximo el talento diverso. Al mismo tiempo, como empresa familiar, valoramos una mentalidad práctica y queremos que cada empleado crezca y desarrolle al máximo sus habilidades. Es esta combinación la que nos diferencia como empleador y caracteriza la vida en SARIA .

Nos ilusiona que te conviertas en parte de nuestro equipo y te unas por completo a la aventura que se avecina.

Si quieres trabajar con nosotros y formar parte de nuestro equipo como:

Data Engineer Analyst

Te interesa conocer lo siguiente, Los objetivos de la posición son:

Los objetivos de la posición son:

Garantizar flujos de datos eficientes, confiables y escalables dentro de los modelos de datos en Azure Databricks, asegurando la integración entre plataformas y la creación de modelos semánticos robustos para análisis en Power BI.

Tus funciones principales serán:

  1. Gestionar procesos de integración de datos.
  2. Asegurar la disponibilidad, calidad y prontitud de los datos.
  3. Diseñar arquitecturas escalables con Azure Databricks.
  4. Desarrollar modelos semánticos, dashboards y reportes en Power BI.
  5. Garantizar la conectividad entre diversas plataformas de datos.
  6. Documentar las soluciones desarrolladas.
  7. Comprender los procesos de negocio y actuar proactivamente.
  8. Colaborar con equipos multidisciplinarios.

¿Qué buscamos?

Buscamos profesionales con experiencia mínima de al menos 5 años en una posición similar habituado a trabajar en entornos multinacionales.

  • Persona metódica y ordenada, pragmática y resolutiva.
  • Autonomía, proactividad.
  • Habilidades comunicativas.
  • Habilidad para trabajar en equipo.

Requisitos deseados:

Formación: Grado o Máster en Tecnologías de la Información, Ciencias de la Computación o áreas relacionadas.

Experiencia: 3–5 años en proyectos de BI con Databricks y Power BI.

Conocimientos Técnicos: Modelado de datos, PySpark, SQL, integración entre plataformas, Power BI, DevOps, herramientas ETL.

Inglés: Avanzado

Español Fluido

El conocimiento de otros idiomas será considerado un plus.

Qué ofrecemos:

Incorporación a multinacional líder en su sector, en un ambiente de trabajo dinámico. Tendrás a tu disposición beneficios como seguro médico, descuentos en servicios y/o productos, Ticket restaurante, guardería y transporte y con flexibilidad horaria.

Uniéndote a nuestro equipo te acompañaremos en tu proceso de aprendizaje y desarrollo.

Python Developer / Data Engineer
Albitel
Sevilla
Remote or hybrid
Mid
Private salary

Data Engineer / Python Developer

About us

A global engineering services company specializing in renewable energy, currently expanding and seeking a Data Engineer to support ongoing projects. We’re looking for a data professional with strong Python skills to scale our pipelines and analytical products.

Responsibilities

  • Partner with solar/wind engineers to implement quality checks.
  • Collaborate with clients and teammates in Spanish and English.

Requirements

  • 3+ years in data engineering/analysis in production environments.
  • Strong Python: pandas, numpy, pathlib, concurrent.futures/multiprocessing, openpyxl.
  • Ability to convert business needs into clear technical solutions.
  • Professional fluency in Spanish and English.

Nice to have

  • Power BI (DAX modeling), Plotly/Matplotlib for reporting.

Education

  • BSc/MSc in Engineering (Industrial, Electrical, Computer, Energy) or similar.

What we offer

  • Competitive salary
  • A dynamic and exciting role with exposure to various industry stakeholders.
  • Joining a rapidly growing company with a unique market position.
  • Support from a highly skilled and motivated team.
  • Flexible work environment promoting work-life balance.
  • Professional growth and development opportunities.

___________________________________________________________________________________

If you meet the requirements and want to be part of an innovative team in the renewable energy sector, apply now!

Data Engineer Mid level
Sngular
Multiple locations
Remote or hybrid
Mid
Private salary

¿POR QUÉ ELEGIR SNGULAR?

La gente viene a SNGULAR atraída por proyectos que usan tecnologías punteras, y se quedan porque colaboran con grandes profesionales. Y además porque ofrecemos esto:

Personas primero: somos una empresa colaborativa orientada a las personas, donde TÚ y tu perspectiva siempre serán valoradas. Nuestro valor número uno es “Personas antes que resultados”.

Crecimiento y formación continua: espíritu de start-up con la infraestructura de una gran organización (ya somos más de 1300). Formación, certificaciones y evolución profesional hacia donde tú quieras.

️ Beneficios increíbles , incluyendo un Wellbeing Pack para cuidar nuestro bienestar físico y mental.

En Sngular adoptamos una cultura plural, donde trabajamos con respeto, donde existe igualdad de oportunidades, nos enorgullecemos de ser proactivos, trabajamos con humildad e intentamos mantener siempre un espíritu de equipo, sin perder nunca el buen humor.

Conoce todo lo que hace de Sngular un #BestPlaceToGrow.

LA OPORTUNIDAD

Buscamos un/a Mid Data Engineer con experiencia en Power Platform y ganas de crecer en entornos de Data e Inteligencia Artificial .

Te incorporarás a proyectos donde combinarás automatización, data engineering y soluciones basadas en IA , con impacto directo en negocio.

Serás responsable de diseñar, desarrollar y optimizar soluciones de datos y automatización , combinando tecnologías de Power Platform, pipelines de datos y herramientas modernas de visualización e IA .

¿QUÉ HARÁS EN TU DÍA A DÍA?

  • Diseñar y desarrollar pipelines de datos (limpieza, transformación y modelado)
  • Construir y mantener APIs y servicios de datos (CRUD)
  • Automatizar procesos mediante workflows y herramientas de orquestación
  • Trabajar con Power Platform :
  • Power Automate (Cloud) para automatización de flujos
  • Dataflow para procesos ETL
  • Dataverse como capa de almacenamiento y gestión de datos
  • Crear dashboards e interfaces interactivas (Retool, Streamlit o frameworks similares)
  • Experimentar con modelos analíticos y soluciones de IA generativa (LLMs)
  • Colaborar con equipos de negocio y producto para construir soluciones con impacto real

¿QUÉ ES NECESARIO PARA EL PUESTO?

  • Experiencia de al menos 3 años como Data Engineer.
  • Experiencia en Power Automate y en el ecosistema Power Platform (Dataflow, Dataverse)
  • Conocimientos en Python
  • Conocimiento de entornos cloud (preferiblemente Azure) para despliegue de soluciones de datos y automatización
  • Experiencia con herramientas como Retool, Streamlit (valorable como un plus)
  • Experiencia con Snowflake (valorable como un plus)
  • Conocimiento en pipelines de datos y modelado
  • Interés en IA y automatización avanzada

BENEFICIOS

Acceso a formación continua: presupuesto individual para formación, obtención de certificaciones bonificadas, acceso ilimitado a Udemy, clases de idiomas, dinámicas de formación interna

Flexibilidad: horaria, teletrabajo, posibilidad de trabajar desde nuestros Hubs o un complemento salarial para posiciones que requieran cierta presencialidad

22 días de vacaciones + día de cumpleaños + 2 días de asistencia a eventos técnicos + 24 y 31 de diciembre no laborables

Wellbeing pack : Presupuesto anual para la mejora del bienestar

Retribución flexible

Dinámicas y Eventos de Teambuilding

Pack de bienvenida con regalitos corporativos

Posibilidad de elegir equipo (Windows / Mac)

Complemento de ayuda al teletrabajo

Otras iniciativas que te permiten conseguir bonus adicionales: recomendar profesionales, speaker en eventos, artículos técnicos…

And last, but not least: porque somos muy Sngulares

Tenemos Encuentro Virtual todos los viernes, fiestas, espacios donde podrás expresarte, proponer cambios y ser partícipe de ellos.

Sr. BI & Data Architect [Fixed - Term Contract]
Cint
Multiple locations
Remote or hybrid
Senior
Private salary
+3

Who We Are

Cint is a pioneer in research technology (ResTech). Our customers use the Cint platform to post questions and get answers from real people to build business strategies, confidently publish research, accurately measure the impact of digital advertising, and more. The Cint platform is built on a programmatic marketplace, which is the world’s largest, with nearly 300 million respondents in over 150 countries who consent to sharing their opinions, motivations, and behaviours.

We are feeding the world’s curiosity! Job Description

Cint is seeking a Senior BI Data Architect (Infrastructure & Optimization) to lead the technical evolution of our data platform for a period of Six Months Fixed-Term Contract.

This is a hands-on architecture role at the intersection of data engineering and business intelligence — one where your decisions will directly shape how the business operates and makes decisions at scale.

You will own the design and implementation of our Databricks Lakehouse, drive the migration of complex legacy SQL into clean, governed pipelines, and build the semantic layer that powers self-service analytics in Omni. If you are energized by performance optimization, dimensional modeling, and infrastructure that lasts — this role was built for you.

Responsibilities

  • Design and implement the Unity Catalog structure — Catalogs, Schemas, and Volumes — to create a governed, secure, and well-documented data environment that serves as a Single Source of Truth across the organization.
  • Lead the migration of complex business logic from legacy systems into a unified Databricks Lakehouse, refactoring tightly coupled SQL into modular, maintainable, and performant code.
  • Architect our internal transformation framework using open-source tooling (Delta Live Tables or custom Python/SQL Spark pipelines), building scalable pipelines without reliance on managed SaaS platforms.
  • Serve as the resident query performance expert — analyze Spark execution plans and Spark UI to diagnose bottlenecks, reduce data skew, and optimize join strategies on large-scale datasets.
  • Govern our Databricks compute footprint through strategic application of Z-Ordering, Liquid Clustering, partition design, and Serverless SQL Warehouse configurations to maximize performance per dollar.
  • Build and maintain CI/CD pipelines (GitHub Actions or equivalent) to automate testing, validation, and deployment of data models.
  • Architect the semantic layer in Omni — designing data models built for self-service reporting with sub-second dashboard latency.
  • Occasionally take on the BI Developer role, building executive-level dashboards that surface clear, actionable narratives from complex datasets.
  • Partner with cross-functional stakeholders across Finance, Sales, Product, Marketing, and Trust & Safety to translate business questions into scalable data solutions.
  • Translate performance and cost metrics into clear recommendations for senior leadership, balancing engineering rigor with business impact.

Qualifications

Qualifications Required

  • 8+ years in Data Engineering or Data Architecture, with deep, hands-on experience in the Databricks ecosystem (Unity Catalog, Delta Lake, SQL Warehouses).
  • Expert-level SQL and distributed computing skills — you can diagnose exactly why a query is slow and implement the fix across Spark execution plans, joins, and data skew scenarios.
  • Demonstrated experience in query optimization and data platform migration, including refactoring legacy SQL and migrating from systems such as Snowflake, Redshift, or SQL Server into a Lakehouse architecture.
  • Proven experience building data transformation workflows using Delta Live Tables or custom Python/SQL Spark pipelines.
  • Strong command of dimensional modeling (Star and Snowflake schemas) and how to apply these patterns within a Lakehouse environment.
  • Hands-on Unity Catalog experience, including permissions management, data lineage, and catalog governance.
  • Fluency with Delta Lake internals — OPTIMIZE, Z-Order, Liquid Clustering, VACUUM, and file management strategies.
  • Hands-on experience with Omni or a comparable modern BI semantic layer (Looker, Metabase, Superset) — you can build and govern a semantic model, not just consume one.
  • Experience with CI/CD pipelines and version control workflows (Git / GitHub Actions or similar).

Essential Qualities

  • You think in systems, not just queries — you design for reuse, performance, and longevity.
  • You are comfortable navigating ambiguity and can move from whiteboard to working pipeline without waiting for perfect specifications.
  • You can distill complex technical trade-offs into language that lands with non-technical senior stakeholders.
  • You are self-directed and ownership-driven — you treat the data platform as your own product.
  • You can balance the competing needs of different departments while maintaining a unified data standard.

Nice to Have

  • Experience with dbt Core (OSS) or a similar SQL-based transformation framework; familiarity with transformation layer best practices is a strong asset.
  • Familiarity with Databricks Genie Spaces or AI/BI features for natural language querying.
  • Experience supporting embedded analytics or multi-tenant reporting environments.
  • Background in the digital insights, market research, or programmatic technology space.

Additional Information

Our Values

Collaboration is our superpower

  • We uncover rich perspectives across the world
  • Success happens together
  • We deliver across borders.

Innovation is in our blood

  • We’re pioneers in our industry
  • Our curiosity is insatiable
  • We bring the best ideas to life.

We do what we say

  • We’re accountable for our work and actions
  • Excellence comes as standard
  • We’re open, honest and kind, always.

We are caring

  • We learn from each other’s experiences
  • Stop and listen; every opinion matters
  • We embrace diversity, equity and inclusion.

More About Cint

We’re proud to be recognised in Newsweek’s 2025 Global Top 100 Most Loved Workplaces®, reflecting our commitment to a culture of trust, respect, and employee growth.

In June 2021, Cint acquired Berlin-based GapFish – the world’s largest ISO certified online panel community in the DACH region – and in January 2022, completed the acquisition of US-based Lucid – a programmatic research technology platform that provides access to first-party survey data in over 110 countries.

Cint Group AB (publ), listed on Nasdaq Stockholm, this growth has made Cint a strong global platform with teams across its many global offices, including Stockholm, London, New York, New Orleans, Singapore, Tokyo and Sydney. (

Additionally, in a world of AI, we want our candidates to understand our approach to the use of AI during the interview and hiring process, so we’d appreciate you reading our AI usage guide .

Informatiker:in
Hochschule Bielefeld
Bielefeld
Remote or hybrid
Graduate - Junior
Private salary

Hochschule Bielefeld University of Applied Sciences and Arts Campus Bielefeld Vollzeit ab sofort Unbefristet E 11 TV-L Die Hochschule Bielefeld (HSBI) mit ihren über 10.000 Studierenden steht für höchste Standards in Lehre, Forschung und Wissenstransfer. Die Fachbereiche Gestaltung, Campus Minden, Ingenieurwissenschaften und Mathematik, Sozialwesen, Wirtschaft und Gesundheit arbeiten interdisziplinär, forschungsbasiert und eng vernetzt. Regionale und internationale Kooperationen sowie gelebte Vielfalt und Nachhaltigkeit prägen die Arbeit an den Standorten Bielefeld, Minden und Gütersloh. Der Fachbereich Ingenieurwissenschaften und Mathematik besetzt eine Position als Informatiker:in Es besteht die Möglichkeit der Teilzeitbeschäftigung. Im Rahmen dieser Beschäftigung arbeiten Sie eng mit der Datenverarbeitungszentrale der HSBI zusammen. IHRE AUFGABEN AN DER HSBI Weiterentwicklung eines Moduldatenbanksystems zur Begleitung von Studiengangsentwicklungsprozessen am Fachbereich Key User:in des Fachbereichs für fachbereichsinterne und hochschulweite IT Systeme Nutzer:innenverwaltung für IT-Systeme am Fachbereich Erarbeitung und Abbildung von Nutzer:innendialogen und Workflows in einem Content-Management-System Verwaltung und Administration fachbereichsinterner Hardware Implementation von Schnittstellen fachbereichsinterner zu hochschulweiten IT-Systemen DAS BRINGEN SIE MIT Abgeschlossenes Hochschulstudium (Bachelor, Universität oder HAW/Fachhochschule) der Informatik Fundierte Kenntnisse in der Programmierung von Webtechnologien, wie PHP, HTML, CSS und JavaScript Fundierte Kenntnisse im Bereich Datenbanken, vorzugs weise SQL Kenntnisse im Programmieren von API-Schnittstellen, wie XML, JSON, AJAX, WebSockets und SOAP Sprachkenntnisse: Englisch und Deutsch auf fließendem Sprachniveau DARÜBER FREUEN WIR UNS Kenntnisse im Bereich Active Directory Erfahrungen in der Administration von Apache-WebServern Erfahrungen im 1st und 2nd Level Support DAS BIETEN WIR IHNEN Arbeiten an einer weltoffenen Hochschule mit starker Ausrichtung auf Nachhaltigkeit, Vielfalt und Inter natio nalität Flexible Arbeitszeiten: Gleitzeit mit Arbeitszeitkonto Möglichkeit zum mobilen Arbeiten (in Absprache mit dem/der Vorgesetzten) Kompetenzentwicklung: Möglichkeit zur Teilnahme an internen und externen Weiterbildungen Sie möchten mehr erfahren? Alle Angebote für Beschäftige an der HSBI. Work-Life-Balance, unterstützt durch betriebseigene Kita und Ferienbetreuung Umfangreiche Maßnahmen des Gesundheitsmanagements, u. a. durch Teilnahme am Hochschulsport, Gesundheits kampagnen und Impfaktionen SIE HABEN INTERESSE? Wir freuen uns auf Ihre vollständige Bewerbung unter Angabe der Kennziffer 032609 bis zum 28.04.2026 in unserem Bewerbungsportal. Fragen zum Inhalt der ausgeschriebenen Stelle beantwortet Ihnen gerne Prof. Dr. Jonas Ide (). Bei Fragen zur Gleichstellung sowie zu familienrelevanten Themen (etwa der Vereinbarkeit von Beruf und Familie) erreichen Sie die dezentrale Gleichstellungsbeauftragte, Dr. Elke Koppenrade, unter . Auf unserer Karriereseite finden Sie Informationen zum Bewerbungsverfahren, zur Hochschule Bielefeld als Arbeitgeberin und zu vielen weiteren Themen. Die Hochschule Bielefeld setzt sich aktiv für Chancengerechtigkeit und Vielfalt ein. Bewerbungen von Frauen sind ausdrücklich erwünscht und werden nach Maßgabe des LGG NRW bei gleicher Eignung, Befähigung und fachlicher Leistung bevorzugt berücksichtigt, sofern nicht in der Person eines Mitbewerbers liegende Gründe überwiegen. Vielfalt bereichert unser Arbeitsleben. Daher freuen wir uns sehr über alle Bewerbungen - unabhängig von kultureller und sozialer Herkunft, Alter, Religion, Behinderung oder sexueller Orientierung und geschlechtlicher Identität. Bewerbungen von schwerbehinderten und ihnen gleichgestellten behinderten Menschen sind ausdrücklich erwünscht. Bei gleicher Eignung werden schwerbehinderte Menschen vorbehaltlich anderer gesetzlicher Regelungen bevorzugt eingestellt. Wir freuen uns, wenn Sie uns mitteilen, wo Sie auf unser Stellenangebot aufmerksam geworden sind. hsbi.de

Frequently asked questions
Haystack features a variety of remote Data Engineer positions, including roles in data pipeline development, database management, ETL processes, and cloud data engineering across industries like tech, finance, healthcare, and more.
Many remote Data Engineer jobs require experience with tools such as SQL, Python, Apache Spark, Hadoop, and cloud platforms like AWS, Azure, or Google Cloud. Specific requirements vary by role, so be sure to check individual job descriptions.
Simply browse our remote Data Engineer job listings, select the role you're interested in, and click the apply button. You'll be prompted to submit your resume and any additional required information directly to the employer.
While many remote Data Engineer positions require some professional experience, Haystack also lists entry-level roles and internships. Use our filters to find opportunities that match your skill level.
Yes! You can create personalized job alerts on Haystack to receive notifications via email about new remote Data Engineer jobs that match your criteria, helping you stay up-to-date with the latest opportunities.