Roles
Remote Data Engineer Jobs
Overview
Looking for remote Data Engineer jobs? Haystack offers the best fully remote opportunities for skilled data engineers seeking flexible work-from-home roles. Discover top remote data engineering positions where you can design, build, and optimize data pipelines from anywhere. Start your remote data engineer career today with Haystack!
Duales Studium Wirtschaftsingenieurwesen (B.Eng.) am virtuellen Campus
IU Internationale Hochschule GmbH
Multiple locations
Remote or hybrid
Graduate - Junior
€610 - €800
RECENTLY POSTED
TECH-AGNOSTIC ROLE

Du interessierst Dich für ingenieurwissenschaftliche Themen – hast aber auch Lust, im kaufmännischen Bereich zu arbeiten und mit größtmöglicher Flexibilität zu studieren? Dann ist das Duale Studium Wirtschaftsingenieurwesen am virtuellen Campus genau das Richtige für Dich!

Du kannst im Januar, April oder im Oktober ganz flexibel online starten. 🚀 Du studierst bei uns im Dualen myStudium an unserem virtuellen Campus. Dort lernst Du live sowie interaktiv per Videokonferenz, nutzt digitale Lernmaterialien und unsere Lern-KI. Du vertiefst Dein Wissen flexibel und selbstbestimmt. Deine Praxisphasen absolvierst Du bei einem Unternehmen in Deiner Nähe.

  • Staatlich anerkannter Abschluss: Starte mit einem vollwertigen, anerkannten Hochschulabschluss beruflich durch
  • Flexibles Studieren: Lerne ortsunabhängig – ob zuhause oder unterwegs. Deine Lernerfahrung passt sich Deinem Leben an
  • Innovative Plattformen: Nutze myCampus und unseren KI-Lernassistenten Syntea für jederzeitigen Zugriff auf Deine Lernmaterialien und Infos 💻
  • Finanzhack: 0 € Studiengebühren, i.d.R. zusätzliches Gehalt und weitere Unterstützungsmöglichkeiten
  • Rabatte: Du profitierst von attraktiven Rabatten bei UNiDAYS, Spotify, 25hours Hotels und weiteren Partnern der IU ⚡️

Das hast Du Dir verdient: 💸

  • Je nach Unternehmen erwartet Dich ein monatliches Gehalt von 610 € - 800 € brutto

  • Zusätzlich werden Deine Studiengebühren in Höhe von bis zu 789 € mtl. übernommen

  • Du lenkst innovative Automatisierungslösungen und prägst die zukünftige Fertigung nachhaltig

  • Deine Aufgaben umfassen unter anderem die Planung, Steuerung und Realisierung von IoT-Projekten sowie die Entwicklung innovativer Lösungen

  • Du erstellst digitale Strategiepläne und entdeckst neue Aktionsbereiche, mit denen Du Dein Unternehmen erfolgsorientiert in die Zukunft leitest

  • Du unterstützt bei der Erstellung von Konzepten für das Datenmanagement und die Datenanalyse

  • Du kannst an der IU durchstarten, wenn Du (Fach-)Abitur oder einen qualifizierten Berufsabschluss hast oder staatl. gepr. Techniker:in oder Betriebswirt:in bist 🎓

  • Du kannst Deutsch-Kenntnisse gemäß Sprachniveau B2 nachweisen 💬

  • Du besitzt Interesse an neuen Technologien und Industrie 4.0

  • Du hast eine analytische und problemlösungsorientierte Denkweise 💡

  • Du bist teamfähig und besitzt gute kommunikative Fähigkeiten

  • Du bringst eine hohe Lernbereitschaft, Engagement und Motivation mit

Karrieremöglichkeiten:

  • Internet of Things Specialist
  • Digital Transformation Specialist
  • Robotics Engineer
  • und weitere spannende Berufe

Auf Dich warten auf jeden Fall ideale Karriereperspektiven durch praxisorientierte Lehre: 2 von 3 Absolvent:innen werden von ihrem Praxispartner übernommen. 🤝

Haben wir Dein Interesse geweckt?! Dann freuen wir uns auf Deine Bewerbung.

So bewirbst Du Dich für ein Duales myStudium: Bitte fülle im ersten Schritt im Online-Formular alle notwendigen Felder aus. Im Anschluss erhältst Du Zugang zu unserem Bewerbungsportal. Dort erfährst Du das Wichtigste zum Dualen myStudium und wir möchten Dich dort durch einige Fragen besser kennenlernen. So können wir Dich besser und individueller beraten.

Softwareentwickler für Delphi/Java und Oracle PL/SQL (m/w/d)
Bankhaus Metzler
Frankfurt am Main
Remote or hybrid
Mid
Private salary
RECENTLY POSTED

Weiterkommen mit Eigen-Sinn - wir suchen Sie

Sie haben Ihren eigenen Kopf, sind leistungsbereit und stellen hohe Ansprüche an sich und Ihre Arbeit? Sie sind Teamplayer , wollen gestalten, etwas bewegen und Ihre Ideen verwirklichen?

Dann sind Sie bei uns genau richtig: Verstärken Sie unsere IT-Entwicklung im Team Wertpapierabwicklung.

Als Bankhaus mit Eigen-Sinn leben wir seit 1674 konsequent unsere eigenen Werte: Unabhängigkeit, Unternehmergeist, Menschlichkeit - und richten uns konsequent für die Zukunft aus. Dabei verbinden wir Tradition mit Innovation und schaffen die Grundlage für moderne, zukunftsorientierte Lösungen.

Ihre neue Herausforderung

  • Sie übernehmen in der bestehenden Legacy-Anwendung die Entwicklung und Support der Module zur Erzeugung und Empfangen von SWIFT-Nachrichten.
  • Sie betreuen in der bestehenden Legacy-Anwendung die Entwicklung der automatisierten/manuellen Verarbeitung von SWIFT-Nachrichten im Kontext von Zahlungs- und Settlementinstruktionen.
  • Sie verantworten die technische Analyse und erarbeiten im bestehenden SWIFT-Umfeld Lösungskonzepte, die die Anforderungen der hausinternen Geschäftsbereiche optimal erfüllen.
  • Sie entwickeln stabile und effiziente Softwarelösungen und tragen als Teil eines multifunktionalen Teams maßgeblich zur Zielerreichung des Teams bei.
  • Sie arbeiten eng mit Ihren Teamkollegen zusammen, um bei dem Requirements Engineering, Testing und Betrieb bestehender Schnittstellen und Anwendungen höchste Qualität sicherzustellen.

Ihr Eigen-Profil

  • Sie verfügen über ein erfolgreich abgeschlossenes Studium der Informatik, Natur- oder Ingenieurwissenschaften oder bringen eine gleichwertige Qualifikation mit Erfahrung in Softwareentwicklung mit.
  • Sie beherrschen die Programmiersprachen Delphi und Java auf gutem Niveau, verfügen über fundiertes Wissen zu relationalen Datenbanken und kennen sich mit Oracle PL/SQL aus.
  • Sie besitzen bankfachliche Grundkenntnisse zu Zahlung und Settlement und idealerweise Kenntnisse im SWIFT-Umfeld.
  • Sie erstellen präzise Analysen, meistern komplexe Problemstellungen und überzeugen durch starke, lösungsorientierte Kommunikation.
  • Sie kommunizieren sicher auf Deutsch, sowohl mündlich als auch schriftlich.

Ihre Vorteile bei Metzler

  • Gestaltungsspielraum und die Möglichkeit, einen Mehrwert zu schaffen
  • Eine positive Arbeitskultur
  • Strukturiertes und mehr-moduliges Onboarding durch das Metzler Patenkonzept
  • Möglichkeit zum mobilen Arbeiten auch im EU-Ausland
  • Wertvolle Benefits und individuelle Weiterbildung

Sind Sie bereit, mit Eigen-Sinn weiterzukommen?

Wir suchen Persönlichkeiten, die Verantwortung übernehmen und mit Leidenschaft an der Weiterentwicklung unseres Bankhauses mitwirken möchten. Wir bieten Entfaltungsfreiheit und unterstützen Ihr Weiterkommen.

Bewerben Sie sich gleich online , und lassen Sie uns wissen, wann Sie bei uns starten können. Sie haben noch Fragen? Kontaktieren Sie Dounia Boutrid unter . Wir freuen uns auf Sie.

Vielfalt ist uns wichtig. Wir legen Wert darauf und betonen ausdrücklich, dass wir mit unseren Stellenanzeigen alle Menschen gleichberechtigt ansprechen. Daher begrüßen wir alle Bewerbungen unabhängig von Geschlecht, Nationalität, ethnischer und sozialer Herkunft, Religion/Weltanschauung, Behinderung, Alter sowie sexueller Orientierung und Identität.

Database Administrator
Teoresi Group
Rome
Remote or hybrid
Mid
Private salary

🟠🔵Teoresi S.p.A. , 35+ anni di storia , 6 società tra Italia, Stati Uniti, Germania, Svizzera, +1200 risorse , 3 acquisizioni in un anno, 1 solo partner ed un’unica soluzione.🔵🟠 Per ampliamento di un Team operante nel settore Informatico, è alla ricerca di un/una: Database Administrator/ DBA Il/la candidat\* ideale ha conseguito la Laurea in Ingegneria Informatica, Informatica o percorsi di studi equivalenti , e ha maturato almeno 3 anni di esperienza come Database Administrator. 🖥️LE SKILL TECNICHE: -Esperienza in attività di backup/restore e definizione di policy: retention, cifratura, test di restore, auditing. -Migrazioni e modernizzazione: assessment, pianificazione cutover, minimizzazione downtime. -Monitoraggio e troubleshooting proattivo: root cause analysis, miglioramento continuo. -Tuning e ottimizzazione: indici, query performance, capacity planning, gestione storage e crescita. -Conoscenza di MongoDB -Conoscenza di SQL Server -Troubleshooting delle performance -Esperienza con strategie di backup & disaster recovery -Familiarità con concetti di ETL e data pipeline 🔝COMPLETANO IL PROFILO: - Spiccata attitudine al lavoro in team - Spiccate doti relazionali - Elevata capacità di problem solving 📍Sede di lavoro: Milano Torino, Bologna, Roma ➡️ Qual è il prossimo step? Potresti essere contattato dal nostro team HR per approfondire le tue competenze e i tuoi interessi, in modo da considerare il tuo profilo per ogni posizione aperta in linea con il tuo profilo. 🔎Cosa offriamo? · Contratto full time, tempo indeterminato CCNL Metalmeccanico · Modalità di lavoro flessibile · Ticket Restaurant del valore di EURO 8. · Assicurazione Sanitaria e Welfare previsti da CCNL di Riferimento 🟠🔵 Perché scegliere Teoresi? Teoresi è una realtà nata a *Torino* e cresciuta fino a diventare oggi un gruppo internazionale , che si propone ovunque si respiri innovazione . Perseguiamo l’aggiornamento continuo rispetto all’ *evoluzione tecnologica* , collaborando con aziende Leader in diversi settori di mercato e realizzando soluzioni “chiavi in mano” presso i nostri laboratori. Lavoriamo mantenendo al centro le persone e la sostenibilità ambientale. Crediamo nel risultato generato dall’ unione del talento creativo e la solida preparazione dei nostri collaboratori , strumenti vincenti per rendere la tecnologia un ponte verso il cambiamento e proporre soluzioni che siano “un passo avanti”, anticipando bisogni e tendenze future a beneficio della vita umana. Amiamo le occasioni di incontro, per questo supportiamo eventi in grado di generare nuove opportunità, non solo di business, ma anche di scambio culturale, intergenerazionale, internazionale, riducendo qualsiasi distanza. Scopri di più sul Connection Day , l’evento aziendale che ogni anno ci porta a *conoscerci* e *ritrovarci* ! Nel *welcome kit* troverai una *borraccia in acciaio* brandizzata realizzata da *24 Bottles* , nata dall’idea di sostituire i distributori automatici di bottiglie di plastica con erogatori gratuiti di acqua potabile in tutte le nostre sedi (clicca qui per saperne di più sulle nostre iniziative in tema di sostenibilità ). *L’offerta è rivolta ad entrambi i sessi in ottemperanza al D.Lgs. 198/2006. La informiamo inoltre che,* inviando la sua candidatura, *tutti i suoi dati verranno trattati secondo quanto previsto dalla nostra informativa privacy, che potrà visionare al seguente link*

Senior Data Engineer
Esprimo S.r.l.
Multiple locations
Fully remote
Senior
Private salary

ESPRIMO Srl, società di consulenza informatica che opera dal 2002 su tutto il territorio nazionale ed internazionale, a supporto delle imprese, si colloca nel settore dell’Information Technology proponendosi come obiettivo quello di fornire una vasta gamma di prodotti, servizi e soluzioni nelle aree più strategiche per l’impresa, come: Infrastrutture IT, Content Management, ERP, Business Intelligence, CRM, Web Applications, è alla ricerca di n° 1:

Senior Data Engineer su GCP

Seniority : 4/5 anni

Competenze tecniche richieste :

  • Progettazione e gestione di architetture dati su Google Cloud Platform
  • Sviluppo e ottimizzazione di query e dataset su BigQuery
  • Orchestrazione di pipeline dati tramite Cloud Composer (Airflow) e gestione dei DAG
  • Modellazione dati per ambienti Data Warehouse / Data Lake
  • Ottimizzazione delle performance e gestione dei costi su GCP
  • Integrazione e trasformazione dati (processi ETL/ELT)

Sede : Remoto

Si offre un inserimento in un contesto stimolante e innovativo, con grandi prospettive di crescita professionale e una retribuzione commisurata all’esperienza.

Si richiede l’invio di Curricula rispondenti al profilo della posizione aperta, verranno presi in considerazione solo quelli effettivamente in possesso dei requisiti sopraindicati.

La ricerca è rivolta ad entrambi i sessi (L.903/77). Inviare dettagliato curriculum vitae, con l’autorizzazione al trattamento dei dati personali secondo la Legge 196/2003.

Data Scientist/ML Engineer (Rif. 2026-55)
aizoOn Technology Consulting
Turin
Remote or hybrid
Mid
Private salary
+2

aizoOn , società di tecnologia e consulenza, indipendente, operante a livello globale, ricerca un / a Data Scientist / ML Engineer , da inserire all’interno del mercato Finance di aizoOn per un importante cliente bancario.

La figura sarà coinvolta in progetti finalizzati allo sviluppo end-to-end di soluzioni data-driven e di Machine Learning in ambito AI.

Principali responsabilità e attività

  • Data engineering, data exploration e data preparation sulla base delle specifiche richieste dai clienti interni
  • Sviluppo, validazione e deployment di modelli di Machine Learning, con successivo monitoraggio delle soluzioni in produzione
  • Implementazione di modelli predittivi (supervised e unsupervised)
  • Progettazione e sviluppo di use case di Generative AI basati su Large Language Models
  • Implementazione di API e script per rendere operativi i modelli sviluppati all’interno del contesto applicativo aziendale

PROFILO

  • Laurea magistrale in materie STEM (preferibilmente Ingegneria Informatica, Data Science, Statistica, Matematica o Fisica)
  • Buona conoscenza della lingua inglese
  • Esperienza pregressa di almeno 2 anni nel ruolo

COMPETENZE TECNICHE

  • Conoscenza di Python e principali librerie (es: scikit-learn, Pandas, NumPy)
  • Conoscenza di SQL
  • Conoscenza di Docker
  • Conoscenza delle principali tecniche di Machine Learning e Data Mining

Nice to have

  • Pregressa esperienza nello sviluppo di modelli predittivi e/o nell’utilizzo di LLM
  • Conoscenza di altri linguaggi di programmazione (es. R, Scala)
  • Conoscenza di framework per Big Data (es. Hadoop, Spark, Kafka)
  • Esperienza con tool di MLOps
  • Esperienza con strumenti di Business Intelligence (Power BI, Board, ecc.)

SEDE DI LAVORO

Biella, Torino

Possibilità di smart-working

The job search refers to candidates of both genders

Databricks DevOps Engineer - Freelance / P.IVA
S2E | Business Technology Consultants
Multiple locations
Fully remote
Mid - Senior
Private salary
+10

S2E è un’azienda italiana di consulenza in ambito Business Technology, all’avanguardia nell’innovazione tecnologica nei settori Fintech, Insurtech e Cybertech. Con oltre 400 collaboratori, sede principale a Milano e uffici a Roma, Lecce, Lussemburgo, riprogetta, personalizza e sviluppa soluzioni digitali per il business delle imprese che operano in particolare nei settori finance, telecom, retail, energy and oil, industry.

S2E è un’azienda attenta alle pari opportunità. Celebriamo la diversità e ci impegniamo a creare un ambiente inclusivo per tutti i dipendenti.

Siamo alla ricerca di un/una DevOps Engineer con solida esperienza su Databricks per entrare a far parte del nostro team Data & Analytics. La figura sarà responsabile della gestione, dell’ottimizzazione e dell’automazione dell’intera piattaforma dati basata su Databricks, collaborando strettamente con i team di data engineering e data science.

Responsabilità:

  • Gestione e ottimizzazione dell’infrastruttura Databricks (workspace, cluster, job, Unity Catalog)
  • Progettazione e mantenimento di pipeline CI/CD per il deploy automatizzato di notebook, job e workflow Databricks
  • Integrazione di Databricks con servizi cloud (Azure Data Factory, AWS Glue, GCP Dataproc) e strumenti di orchestrazione
  • Implementazione e gestione di MLflow per il tracking degli esperimenti e il deploy di modelli ML in produzione
  • Monitoraggio delle performance dei job Spark e ottimizzazione dei costi cloud
  • Definizione di standard DevOps, best practice e documentazione tecnica
  • Supporto al team nella risoluzione di problemi infrastrutturali e nella migrazione di workload
  • Collaborazione con il team presales per la definizione di architetture e stime di effort

Competenze richieste:

  • 3–5 anni di esperienza in ruoli DevOps o Data Engineering
  • Esperienza comprovata con Databricks: cluster management, job scheduling, Databricks Asset Bundles o dbx
  • Conoscenza approfondita di Apache Spark (tuning, ottimizzazione query, gestione risorse)
  • Esperienza con pipeline CI/CD: GitLab CI o GitHub Actions applicati a progetti dati/Databricks
  • Buona conoscenza di almeno uno dei principali cloud provider: Azure (preferito), AWS o GCP
  • Esperienza con MLflow: experiment tracking, model registry, deployment
  • Familiarità con Infrastructure as Code (Terraform o Pulumi)
  • Conoscenza di Python a livello script/automazione

Gradite

  • Certificazione Databricks (Certified Associate Developer o superiore)
  • Esperienza con Delta Lake e Lakehouse architecture
  • Conoscenza di strumenti di orchestrazione (Apache Airflow, Prefect, Dagster)
  • Esperienza con container (Docker, Kubernetes)
  • Familiarità con strumenti di monitoring (Datadog, Grafana, Elastic)
  • Esperienza in contesti di consulenza o progetti multi-cliente

COSA SIGNIFICA FAR PARTE DEL TEAM S2E

  • Lasciare il segno! Farai parte di un team collaborativo e intraprendente
  • Crescere professionalmente perché seguiamo un processo continuo di scouting tecnologico e di miglioramento individuale ed un continuo training on the job
  • Work-life balance : Diamo valore agli obiettivi raggiunti e ci impegniamo per creare un ambiente di lavoro sereno
  • Essere proattivi ed orientati al problem solving

COSA TROVERAI IN S2E

  • Team di lavoro friendly, open-minded e collaborativi
  • Progetti in crescita, innovativi e sfidanti su tutti gli ambiti applicativi
  • Scouting di nuove tecnologie

IL TUO RAPPORTO DI LAVORO CON S2E

  • Disponibilità a collaborare in regime di Partita IVA .
  • Formazione hard e soft skills online
  • Orario flessibile , in base alle esigenze di progetto e/o di servizio

SEDE DI LAVORO

  • Full Remote
Adobe Customer Journey Analytics Engineer
Cognizant Netcentric
Barcelona
Remote or hybrid
Mid - Senior
Private salary

What makes Cognizant Netcentric a great fit for you?

At Cognizant Netcentric, we create memorable digital experiences for the worlds leading brands. We are a diverse, global community of 1,500+ Adobe experts working across countries, cultures, and technologies.

Our inclusive culture blends the entrepreneurial spirit of a startup with the stability, resources, and learning opportunities of a global organisation.

With Holacracy at our core, every individual is empowered to make an impact.

What you will do in this role:

Tag Management & Analytics

  • Implement and customize Adobe Launch configurations including rules, extensions, and data elements.
  • Deploy Adobe Experience Platform Events using Web SDK and ensure robust data quality.
  • Work with data layer specifications including design, implementation, and consumption across digital properties.
  • Develop and troubleshoot JavaScript-based solutions including DOM manipulation and custom tracking logic.
  • Work with HTML, CSS, and jQuery to support tagging and personalization requirements.
  • Apply software engineering best practices including iterative development, version control, and documentation.

AEP & Data Engineering

  • Implement Adobe Web SDK integrations across web properties, ensuring accurate and scalable data collection.
  • Design and maintain XDM schemas aligned with business requirements and AEP best practices.
  • Configure and validate data ingestion workflows within Adobe Experience Platform.
  • Support Customer Journey Analytics implementations including connection setup, dataset mapping, and validation.

Personalisation & Optimisation

  • Implement Adobe Target activities including A/B tests, personalization experiences, and audience-based targeting.
  • Collaborate with marketing teams to translate personalization strategies into technical execution.
  • Ensure proper integration between AEP, Target, and Analytics for end-to-end experience delivery.

Cross Functional Collaboration

  • Partner with analytics, marketing, and engineering teams to understand requirements and deliver scalable solutions.
  • Participate in code reviews and QA processes to ensure high-quality deployments.
  • Support troubleshooting and debugging across the Adobe Experience Cloud stack.

Data Governance & Consent Management

  • Implement and maintain consent management integrations (e.g., CMP tools) with Adobe Experience Platform and Web SDK.
  • Ensure all data captured aligns with client’s privacy standards, regulatory requirements (e.g., GDPR), and internal governance policies.
  • Configure consent signals and enforce them across Adobe solutions (Analytics, Target, AEP, CJA).
  • Support identity governance, including pseudonymization, anonymization, and identity stitching considerations.

Required Skills & Experience

  • Operational experience with Adobe Launch (Tag Management).
  • Hands-on experience with Adobe Experience Platform including Web SDK and XDM schema design.
  • Hands-on experience in configuring Customer Journey Analytics Data connections and Data views
  • Experience in designing and creating Dimensions, Metrics in CJA
  • Experience implementing Adobe Target for testing and personalization.
  • Experience with server-side tagging or edge-based data collection
  • Exposure to CDP or identity resolution concepts
  • Understanding of consent management platforms (CMPs) and privacy-compliant data collection.
  • Familiarity with data governance frameworks, data classification, and regulatory compliance (e.g., GDPR)
  • Familiarity with Adobe Experience Platform data governance features (labels, policies, enforcement).
  • Basic understanding of API integrations
  • Experience working in agile environments
  • Strong JavaScript, HTML, CSS, and jQuery skills with comfort manipulating the DOM.
  • Good understanding of browser technologies including debugging tools and performance considerations.
  • Experience with data layer design and consumption (e.g., JSON, event-driven models).
  • Understanding of digital marketing and analytics concepts such as attribution, segmentation, and KPIs.
  • Familiarity with software engineering principles including iterative development and version control.

At Cognizant Netcentric you get:

  • Permanent contract
  • 30 working days of vacation
  • Flexible working hours
  • Recognition bonus system
  • Private health insurance
  • Apple work equipment
  • WFH equipment + welcome package
  • WFH monthly expenses compensation
  • Access to Udemy courses
  • Adobe certification
  • Sponsored gym membership
  • Tax-free benefits (ticket restaurant, kindergarten and transport)
  • A dynamic and international team
  • Everyone has a voice; we are a Holacracy organisation
EU Big Data Engineer
T-Maxx International
Barcelona
Remote or hybrid
Mid - Senior
Private salary

About our client: OMODA Motors OMODA Motors is a new brand built by Chery Group, which is a leading Chinese automobile company. OMODA operates individually from other brands of Chery Group. Its business scope covers R&D, production and sales of passenger cars. Chery Motors Since founded, Chery has always taken adhering to technology-driven strategy, creating a vehicle brand with international competitiveness and influence as its corporate vision. Relying on the constant pursuit of technological innovation, Chery has become the first passenger vehicle enterprise in China to master the core technology of engine, gearbox, chassis, platform and new energy, and the first one in China to export vehicle, CKD parts, engine and vehicle manufacturing technology and equipment to overseas market. Chery has always focused on developing domestic and international markets. Chery has continuously deepened its globalization through the implementation of product strategy, localization strategy and talent strategy. After more than 20 years of development, Chery’s sales and services network covers more than 80 countries and regions and has won the trust of 11 million consumers worldwide. Responsibilities: ⚫ Design, build, and maintain EU regional data pipelines and data platforms under the Group data platform framework, supporting European business operations. ⚫ Integrate data from multiple sources such as local sales systems, vehicle telematics data, market research data, and other business systems. ⚫ Develop and maintain data extraction, transformation, and loading (ETL/ELT) processes to ensure data stability and availability. ⚫ Support data governance and data quality initiatives to ensure accuracy, consistency, and reliability of EU regional data. ⚫ Implement GDPR-related technical requirements in data processing, including basic privacy-by-design measures, in collaboration with legal and compliance teams. ⚫ Provide usable datasets, data models, and basic data services to support data analysts and business teams for sales analysis, customer insights, and aftersales use cases. ⚫ Support performance and cost optimization of data pipelines and data platforms. ⚫ Monitor data workflows, troubleshoot data issues, and ensure smooth daily operation of data systems. ⚫ Assist in integrating EU-local data sources, such as regional partners’ data, charging infrastructure data, or local market datasets. ⚫ Work closely with data analysts, business teams, and IT colleagues to continuously improve data availability and usability. Requirements: ⚫ Bachelor’s degree or above in Computer Science, Data Engineering, Information Systems, or related fields. ⚫ Must highly proficient in SQL. ⚫ 3+ years of experience in data engineering, data platform development, or related roles. ⚫ Hands-on experience with data pipelines, ETL/ELT processes, data warehouses, or data lakes. ⚫ Basic understanding of data governance, data quality management, and GDPR principles; prior EU data experience is a plus but not mandatory. ⚫ Experience working with multiple data sources; exposure to IoT/telematics or external partner data is a plus. ⚫ Good problem-solving skills and willingness to learn and grow in a regional data engineering role. ⚫ Ability to work collaboratively with cross-functional teams in a multicultural environment. ⚫ Fluent Spanish and fluent business English; Catalan and Chinese are a plus. Salary: Negotiable

Data Scientist
hiberus
Multiple locations
Remote or hybrid
Mid
Private salary

¡Hola!

¿Todavía no conoces hiberus ? Somos una empresa de #tecnología construida con un ingrediente diferencial, la HIPERESPECIALIZACIÓN .

Formar parte de hiberus significa crecimiento, pasión por la tecnología, interés por la innovación, ambiente laboral flexible y colaborativo, compañerismo, aprendizaje, formación continua, motivación y superación ante nuevos retos… y esto es solo el principio.

Contamos con un equipo de más de 4.500 profesionales, 46 áreas de especialización y 35 hubs de desarrollo en España, Europa, Latinoamérica, Estados Unidos y África. Somos la primera empresa tecnológica española de capital privado. En los últimos cuatro años, hemos experimentado un crecimiento exponencial, duplicando nuestro volumen de negocio año tras año. Esto nos ha permitido consolidarnos como un actor clave en el ecosistema tecnológico español y mantenernos competitivos frente a los líderes internacionales ¡Estamos redefiniendo el mapa tecnológico mundial!

Trabajamos muy duro, para transformar nuestra vida a través de la tecnología y queremos contar contigo para seguir creciendo. Si lo tuyo es el mundo IT, te gusta estar al día en las últimas tecnologías y quieres asumir un nuevo reto profesional ¡Sigue leyendo, te estamos buscando!

¿Qué estamos buscando?

Buscamos profesionales Data Scientist entre 3 y 5 años de experiencia especializado/a en Machine Learning para formar parte de un proyecto internacional.

Buscamos personas que nos ayuden a seguir creciendo, con ganas de aportar y seguir evolucionando de la mano de los mejores profesionales, pero sobre todo… ¡en Hiberus buscamos buena gente!

Funciones y requisitos

  • Dominio de Python y SQL .
  • Experiencia demostrable construyendo, entrenando y desplegando modelos (MLOps, APIs, entornos cloud…).
  • Experiencia con servicios gestionados de ML .
  • Capacidad analítica, pensamiento crítico y ganas de seguir aprendiendo.
  • Imprescindible alto nivel de inglés

Valorable

  • Experiencia con entornos cloud (AWS, Azure o GCP).
  • Experiencia práctica con IA Generativa (embeddings, Arquitecturas RAG, NLP…)

¿Qué te ofrecemos?

Contrato indefinido en una compañía puramente tecnológica, que forma parte de un gran grupo, solvente y en crecimiento.

Salario fijo competitivo

️ Ambiente familiar, cercano, ¡como una gran familia!

⏰ Conciliación con nuestra vida personal y laboral mediante horario flexible, desconexión digital, jornada intensiva viernes y verano.

Cultura “techie”, nos gusta estar en contacto con la tecnología, herramientas, y últimas novedades!

¡Formación! Siempre que quieras, disfrutarás de un amplio catálogo de cursos formativos, adaptados a tu perfil profesional, inquietudes y novedades del sector. Para ello, pondremos a tu disposición todo el potencial de nuestra Hiberus University y los acuerdos con los principales fabricantes.

¡Benefíciate! Programa de retribución flexible a medida: seguro médico, tarjeta de transporte público, cheques guardería, tarjeta restaurante, etc.

En hiberus estamos viviendo un crecimiento explosivo y queremos que formes parte de nuestro equipo.

Suena bien, ¿verdad? Si quieres saber más, ¡inscríbete y te contamos!

Si quieres saber más busca nuestros hashtag

#somoshiberus #lascosasocurrenaquí y conoce todo lo que hacemos.

¿Hablamos?

#somosHiberus y ¿tú? ¿Te animas?

Analista Programador/a Host, Microfocus (Banca)
Plexus Tech
Velilla de San Antonio
Fully remote
Junior - Mid
Private salary

Somos Plexus Tech. Una compañía tecnológica especializada en servicios y productos IT, fundada en el talento y las capacidades de nuestra gente, más de 5.000 profesionales desarrollando tecnología con alma. ¡Ampliamos nuestro equipo! ¡Buscamos talento! ¿Te animas a seguir formándote en tecnologías punteras y vanguardistas en el Mercado? entonces, debes unirte a la familia Plexus. Necesitaríamos un/a Analista-Programador/a host Necesario: - Experiencia en entorno bancario - Base Cobol, Oracle, Microfocus Ofrecemos: Acceso a formación continuada Formar parte de un equipo dinámico, comprometido, apasionado por sus clientes y con ganas de dar lo mejor de sí mismo. Formar parte de una compañía con muchos profesionales de referencia en el sector Un ecosistema de trabajo con un ambiente colaborativo. Contratación indefinida + teletrabajo 100% Paquete de retribución Flexible compuesto por: Seguro médico Ticket Restaurante Ticket transporte Ticket guardería Plexus Tech mantiene un compromiso firme con las políticas de Igualdad de empresa. Todos nuestros procesos de selección tienen en cuenta la igualdad de oportunidades entre hombres y mujeres de forma transversal, quedando esto reflejado en nuestro Plan de Igualdad. Fomentamos la igualdad de trato y de oportunidades para toda persona, de modo que ninguna razón de nacimiento, raza, sexo, religión, opinión o cualquier otra condición o circunstancia personal o social cause discriminación. En particular, la organización está comprometida con la creación de un contexto favorable a la diversidad y avance en la erradicación de la discriminación de las personas LGTBI, independientemente de su orientación e identidad sexual o su expresión de género universal, quedando esto reflejado en nuestro Plan de Igualdad.

Data Lead Engineer - 100% Remote
UST España & Latam
Multiple locations
Fully remote
Senior
Private salary

We are looking for the very Top Talent…and we would be delighted if you were to join our team!

More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies.

What we look for?

As a Senior Data Lead Engineer you will drive the evolution of our cloud‑based Data, AI, and BI platforms . You will play a key technical leadership role, shaping our lakehouse architecture, enabling AI/ML use cases, and guiding engineering best practices across teams.

Main tasks and accountabilities will be:

  • Lead the Data, AI & BI roadmap for GTB, ensuring scalability, resilience, security, and cost efficiency.
  • Design and evolve our data lakehouse architecture.
  • Define and build domain-oriented data products aligned with data mesh principles (data-as-a-product, SLAs, contracts, domain ownership).
  • Build and maintain data ingestion, ETL and transformation pipelines including CDC-based and event-driven ingestion.
  • Implement and enforce data governance, data rules, data quality, data normalization/cleaning and guardrails.
  • Enable AI/ML and LLM use cases (training, feature engineering, RAG, fine‑tuning, guardrails, monitoring).

What do we expect from you?

  • 5+ years in Data Engineering , Data Platforms, AI Engineering or Advanced Analytics, ideally in large or regulated environments.
  • Proven experience designing and building cloud data platforms and data lakehouse architectures (preferably AWS).
  • AWS experience: S3, Lake Formation, Glue (Jobs, Crawlers, Data Wrangler), EMR.
  • Hands-on experience with Databricks or EMR for large-scale data transformation.
  • Strong background in data ingestion and ETL .
  • Experience with CDC pipelines and event‑driven architectures for ingesting operational/transactional data.
  • Experience integrating on‑premise data lakes with cloud platforms in hybrid architectures.
  • Experience enabling AI/ML solutions in production environments.
  • Involvement in data governance, data quality, data rules and guardrails.
  • English B2+/C1

What can we offer?

✈️ 23 days of Annual Leave plus the 24th and 31st of December as discretionary days!

❤️ Numerous benefits (Health Care Plan, teleworking compensation, Life and Accident Insurances).

`Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Health Care Plan…)

Free access to several training platforms

Professional stability and career plans

UST also, compensates referrals from which you could benefit when you refer professionals.

The option to pick between 12 or 14 payments along the year.

Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime…)

UST Club Platform discounts and gym Access discounts

If you would like to know more, don’t hesitate to apply and we’ll get in touch to fill you in detail. We are waiting for you!

In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.

Senior AI Data Engineer (Azure)
Shakers
Velilla de San Antonio
Remote or hybrid
Senior
Private salary

Desde Shakers estamos buscando un Senior AI Data Engineer (Azure) en Madrid, para incorporarse en un estudio especializado en transformación de marketing mediante IA generativa.

Ubicación: Madrid — remoto con visita puntual

Jornada: Completa

Contrato: freelancer largo plazo (posible incorporación)

Experiencia: 5–8+ años en Data Engineering sobre Azure

Es un rol muy técnico orientado a infraestructura de datos para agentes de IA :

1️⃣ Data Engineering orientado a IA

  • Diseñar Data Lakes (raw / curated / gold)
  • Modelado semántico y taxonomías
  • Gestión multi-cliente
  • Optimización de costes y almacenamiento

2️⃣ RAG & Retrieval (parte datos)

  • Estrategias de chunking
  • Gestión de embeddings
  • Vector + hybrid search
  • Medición de calidad de recuperación

3️⃣ Ecosistema Microsoft / Azure

  • Integrar fuentes empresariales en Foundry IQ
  • Indexación y permisos (Entra ID)
  • Gobernanza del conocimiento entre agentes

4️⃣ MCP y exposición de datos a agentes

  • Convertir datasets en herramientas consumibles por IA
  • Versionado y control de acceso

5️⃣ Seguridad y observabilidad

  • GDPR, RBAC, Purview
  • Métricas de precisión/recall
  • Control de costes y drift de datos

Stack principal

  • Azure Data Lake, Synapse, AI Search
  • Microsoft Foundry / Foundry IQ
  • Python, SQL avanzado, PySpark
  • APIs REST
  • Vector DB concepts
  • Arquitecturas RAG y multi-tenant

✅ Perfil que buscan

  • Experiencia real en producción en Azure
  • Haber trabajado con RAG en entornos reales
  • Perfil arquitecto/ingeniería (no analista)
  • Enfoque enterprise: seguridad, calidad y escalabilidad

¡Aplica para que podamos tener en cuenta tu candidatura!

Data Scientist + ML Engineer
Paradigma Digital
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
TECH-AGNOSTIC ROLE

¡Forma parte del futuro en Paradigma Digital! Buscamos talento para una posición de Data Scientist + ML Engineer Tienes la oportunidad de sumarte a un equipo innovador, flexible y comprometido. En Paradigma, valoramos tanto la experiencia como la actitud: buscamos personas con conocimientos en varias de las áreas clave y, sobre todo, con ganas de aprender, colaborar y crecer. ¿Qué buscamos? Un Data Scientist + ML Engineer combina la investigación y el desarrollo de modelos de machine learning con la implementación y despliegue de estos modelos en sistemas de producción. Su trabajo abarca desde la recolección y preprocesamiento de datos hasta la optimización y mantenimiento de modelos en producción, asegurando su rendimiento y escalabilidad. Además, aplican técnicas avanzadas de inteligencia artificial, incluida la IA Generativa, para resolver problemas complejos y crear soluciones innovadoras. Responsabilidades: ✔ Recolección, limpieza y preprocesamiento de datos: Gestionar y preparar datos de diversas fuentes para su análisis. ✔Exploración y visualización de datos: Crear gráficos y visualizaciones para identificar insights y comunicar resultados. ✔Desarrollo y validación de modelos predictivos y descriptivos: Implementar algoritmos de machine learning y estadística para predecir y describir comportamientos futuros, validando y ajustando estos modelos según sea necesario. ✔Diseño e implementación de arquitecturas de machine learning: Crear y estructurar sistemas de machine learning desde su concepción hasta su implementación. ✔ Desarrollo de pipelines de datos: Implementar procesos para la ingestión y procesamiento de grandes volúmenes de datos. ✔Optimización y escalabilidad de modelos: Ajustar modelos de machine learning para mejorar su rendimiento y escalabilidad. ✔Despliegue y mantenimiento de modelos en producción: Asegurar la correcta integración y funcionamiento de los modelos en entornos de producción. ✔Monitorización y ajuste de modelos: Supervisar y ajustar modelos en producción para mantener su rendimiento a lo largo del tiempo. ✔Aplicación de técnicas de Inteligencia Artificial y IA Generativa: Implementar y optimizar modelos de IA avanzada, incluyendo IA Generativa, para diversas aplicaciones. Experiencia en: ✔ Azure ¿Qué encontrarás en Paradigma? ✅ Flexibilidad real: Conciliación entre vida personal y laboral con horarios adaptables. ✅ Innovación y modelo propio: Proyectos retadores donde podrás trabajar y evolucionar Polaris, nuestro modelo ágil adaptable, basado en nuestra experiencia ✅ Comunidad experta: Te unirás a una comunidad de ágil activa, donde ampliamos conocimiento de forma colaborativa con el objetivo de ser un referente en el sector. ✅ Capacitación real: Acceso a un plan de formación anual que incluye un Programa de Certificaciones y formaciones oficiales. ✅ Acompañamiento desde el inicio: Contarás con un Buddy desde tu incorporación, que te ayudará a crecer, apoyarte y sentirte parte de Paradigma. ✅ El dominio técnico son parte de nuestra identidad. ✅ Beneficios sociales: Seguro médico 100% cubierto. Conócenos mejor aquí: Nuestro compromiso con la diversidad e inclusión: En Paradigma, la igualdad es clave. Creamos un entorno donde todas las personas son bienvenidas, independientemente de género, edad, religión, orientación sexual o cualquier otra condición. Trabajamos para garantizar la igualdad salarial y de oportunidades. Se valorará certificado de discapacidad. En Paradigma, creamos el cambio. ¿Te sumas?

Azure Cloud Engineer - Data Platform & Infrastructure
Capitole
Multiple locations
Fully remote
Mid - Senior
Private salary

✨ Capitole is celebrating 10 years! We are now more than 1,000 people building an environment where talent is nurtured, recognized, and empowered to grow.

People First : trust, respect, and professional development.

Employee turnover rate of just 13%, well below the industry average.

Cutting-edge projects with global clients and modern technologies.

Tailored training programs: up to €1,200/year per employee.

True flexibility to work your way.

Monthly check-ins and annual 360º evaluations to support your growth.

Private health insurance, flexible compensation, and Wellhub for your overall wellbeing.

Active tech communities to learn and share knowledge.

Amazing team events (yes, we know how to have fun too ).

Interested in joining us? Take a look at this opportunity

We are seeking a highly skilled Azure Cloud Engineer with a strong focus on data platform architecture , data governance , and cloud infrastructure automation .

This role is part of a large-scale data platform initiative for a German automotive client , supporting cross-functional teams in a global environment.

Key Responsibilities

  • Design and implement data platform solutions in Azure, focusing on Identity and Access Management (IAM), permissions management, and secure storage integration
  • Manage and optimize the Azure Data Lake environment, ensuring compliance with enterprise-level security and governance standards
  • Support and enforce Data Mesh architectural principles to enable decentralized data product sharing
  • Resolve incidents and service requests related to big data infrastructure (Databricks, Data Factory, Key Vault, firewall configs, etc.)
  • Collaborate with other teams on solution architecture , including networking , infrastructure design , and integration of new cloud services
  • Participate in Agile ceremonies and planning cycles (SAFe, Scrum) in a multicultural, distributed team
  • Automate and monitor cloud deployments using Infrastructure as Code and CI/CD pipelines

Required Skills & Experience

  • Solid hands-on experience with Azure Data Lake Gen2 , Databricks (mandatory), and Azure Data Factory
  • Strong understanding of Azure security concepts: RBAC, ACLs, AAD, Key Vault
  • Knowledge of Data Mesh principles and data governance frameworks
  • Scripting/programming skills in Python
  • Familiarity with Infrastructure as Code tools (Pulumi, Terraform)
  • Experience with CI/CD pipelines and cloud-native deployment practices
  • Knowledge of Kubernetes and Azure Kubernetes Service (AKS) is a plus
  • Fluent English (C1 level or higher) is essential

Location: 100% Remote

Schedule: Flexible, with reduced hours on Fridays

Language: English (C1)

Want to know more? Click here ️ and find out!

See what people say about us ️‍♀️ Glassdoor Reviews

Feel free to send us your profile, we are excited to meet you!

The employee will adhere to information security policies:

-Will have access to confidential information related to Capitole and the project they are working on.

-Must comply with the security policies and internal policies of the company and the client.

-Must sign an NDA.

Ingeniero de Datos - PySpark (100% teletrabajo)
ConSol Partners
Multiple locations
Fully remote
Senior
€25/hour

Ingeniero de Datos - Especialista en PySpark

  • Ubicacion : 100% Remoto (Espana)
  • Idioma: Espanol C2 - Obligatorio
  • Tipo de contrato: Freelance
  • Tarifa horaria: 25 - 27 EUR/hora

SOBRE EL PUESTO

Buscamos un Desarrollador PySpark con más de 5 años de experiencia. El candidato/a será responsable del diseño técnico, programación, pruebas, despliegue e integración de las soluciones desarrolladas.

RESPONSABILIDADES

  • Diseño técnico de soluciones de procesamiento de datos con PySpark.
  • Programación, pruebas y despliegue de las soluciones desarrolladas.
  • Integración en el sistema de las soluciones implementadas.
  • Elaboración de documentación técnica y evidencias de pruebas (ALM).

HABILIDADES TÉCNICAS

  • Python - Avanzado
  • Spark Streaming - Avanzado
  • GitHub - Intermedio
  • Balances y estados financieros - Intermedio (Opcional)
  • Inteligencia Artificial / Machine Learning - Intermedio (Opcional)

EXPERIENCIA REQUERIDA

  • Mínimo 5 años de experiencia con PySpark.
  • Conocimiento de flujos de integración continua con GitHub.
Cloud Data Engineer (GCP)
SOLTEL Group
Multiple locations
Fully remote
Mid - Senior
Private salary

Soltel Group continúa creciendo. Somos una compañía IT con un sólido proyecto empresarial con más de 800 profesionales especializados en Ingeniería de Sistemas, Ingeniería de Software, Soporte Tecnológico, Asistencia Técnica, I+D+i y Smart Cities.

Buscamos un/a Cloud Data Engineer con un perfil senior y enfoque arquitectónico para el diseño, desarrollo y soporte operativo de plataformas de datos en la nube. El servicio se centra en habilitar la ingesta, procesamiento y almacenamiento de datos de forma escalable y segura, alineando las soluciones técnicas con los requisitos de negocio bajo estándares de DevOps y DataOps.

Requisitos Técnicos Obligatorios:

  • Experiencia demostrable (3-6 años) en ingeniería de datos en la nube.
  • Dominio experto de Python, SQL y BigQuery (mínimo 3-5 años).
  • Experiencia sólida con Airflow y gestión de Data Lakes/Warehouse .
  • Certificación Google Cloud Professional Data Engineer .
  • Experiencia en diseño de arquitectura y consultoría técnica.
  • Nivel de inglés C1 (imprescindible para el servicio).

Condiciones del Proyecto:

  • Ubicación: 100% Remoto (desde España).
  • Viajes: Disponibilidad para viajar por España una vez al mes

Actividades Principales:

  • Diseño y mantenimiento de pipelines de datos (batch y streaming) en Google Cloud Platform .
  • Implementación de transformaciones, validaciones y agregaciones de datos.
  • Gestión de soluciones de almacenamiento: Data Lakes y Data Warehouses (BigQuery) .
  • Monitorización, resolución de incidencias de rendimiento y calidad de datos.
  • Optimización de flujos de trabajo para eficiencia de costes y escalabilidad.
  • Colaboración con equipos de Data Science y Analytics para definir arquitecturas.

¿Qué te ofrecemos?

Soltel Group te da la oportunidad de:

  • Trabajar con tecnologías emergentes
  • Trabajar con horarios flexibles
  • Teletrabajo
  • Valoramos tu dedicación y te recompensamos por ello con oportunidades de crecimiento a través de la formación continua
  • Participar en el Plan Amigo

Todo ello con un trato cercano y profesional.

Si te encanta la tecnología y los retos, encajarás bien en Soltel Group.

¡Te esperamos!

Senior Data Engineer
Signify Technology
Multiple locations
Fully remote
Senior
€500/day - €550/day
+1

Senior Data Engineer (Scala / Spark) – AWS Migration | Start ASAP

Signify Technology is partnering with a client on a large-scale GCP → AWS data migration We’re looking for a Senior Data Engineer to help deliver the final phase of a business-critical data platform.

Location : Fully Remote (EU timezones) US East Coast team – some overlap required

Contract:- Until the end of 2026 (likely extension)

Rate : $500–$550 per day

Interview Process -2 stages (fast turnaround)

What You’ll Do

  • Deliver the final 30% of a complex data migration (GCP → AWS)
  • Work with and adapt an existing Scala-based Spark codebase
  • Translate pipelines for AWS compatibility and performance
  • Support Airflow (Python) orchestration
  • Ensure robust testing, validation, and monitoring across pipelines

Tech Stack

Scala, Apache Spark, Python (Airflow), SQL, GCP, AWS (Kubernetes), Hive

What We’re Looking For

  • Strong Scala + Spark experience
  • Proven experience with data pipeline migrations (GCP/AWS)
  • Solid understanding of testing, validation, and data quality
  • Comfortable working with high-impact, business-critical datasets

if you are interested in this role, please apply or drop me a message at jay.flaherty@signify-tech.com

AI Engineer
Lognext
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
+1

En Lognext llevamos más de 18 años identificando e implementando soluciones tecnológicas prácticas que nos permitan seguir avanzando y optimicen nuestras operaciones, acompañando a los equipos con talento experto de alto rendimiento y haciendo de la tecnología una fuerza transformadora en nuestro día a día

Buscamos un AI Engineer con talento para incorporarse a nuestro equipo.

¿Qué buscamos?

• Buscamos una persona con sólida experiencia en el desarrollo de modelos de Inteligencia Artificial, tanto tradicionales como generativos.

• Experiencia previa desarrollando y desplegando soluciones de IA en entornos productivos.

• Experiencia en optimización de prompts, uso de LLMs, RAG y frameworks de IA generativa como LangGraph o LlamaIndex.

• Conocimientos en MLOps y despliegue de modelos (Docker, Kubernetes, MLflow, APIs).

• Experiencia con Python, Spark/PySpark y gestión de datos estructurados y no estructurados (SQL y NoSQL como MongoDB).

• Experiencia en control de versiones (GitHub/GitLab) y automatización de pipelines.

• Se valorará experiencia con Databricks, ecosistema Azure y herramientas BI como Power BI.

• Pensamiento crítico, orientación a resultados, autonomía y capacidad de comunicación transversal.

• Buen nivel de inglés (mínimo B2)

️¿Cuáles serán tus principales funciones y responsabilidades?

• Diseñar, desarrollar y desplegar modelos de IA asegurando su correcto funcionamiento y eficiencia.

• Colaborar con áreas de negocio para identificar necesidades y definir casos de uso de alto valor.

• Traducir requerimientos de negocio en soluciones técnicas escalables basadas en IA.

• Coordinar con equipos técnicos (data, IT, arquitectura) para asegurar la correcta implementación end-to-end.

• Definir mecanismos de control, monitorización y gobierno del dato cumpliendo normativa y políticas internas.

• Medir el impacto de las soluciones mediante métricas y proponer mejoras continuas.

¿Qué ofrecemos?

• Salario Competitivo

• Retribución flexible

• Programa de formación técnica, certificaciones e idiomas

• Plan de Desarrollo Profesional

• ⏰ Flexibilidad horaria

• Eventos de teambuilding y voluntariado

• Referral Program

Únete a un equipo de NEXTERS que van más allá, un equipo donde la creatividad, el ingenio y la audacia marcan la diferencia en un mundo lleno de oportunidades.

En Lognext apostamos por la igualdad entre mujeres y hombres y prueba de ello tenemos Plan de Igualdad registrado y publicado. Y así mismo, creemos que en la multiculturalidad existe una fuente de valores, experiencias y conocimiento, que aportan valor añadido a nuestros proyectos es por ello por lo que creemos en la diversidad y estamos comprometidos con ella. Trabajamos día a día para crear entornos en los que se trate con respeto y dignidad sin importar de donde vengas, no discriminamos por motivos de raza, religión o creencias, etnia, discapacidad, edad, nacionalidad, estado civil, orientación sexual o género.

#Empleo #Tecnología #IA #MachineLearning #Innovación #DesarrolloProfesional #Igualdad #Diversidad"

Data Scientist
agap2 España
Multiple locations
Remote or hybrid
Mid - Senior
Private salary

SOBRE EL PUESTO:

  • Trabajar estrechamente con Product Owners, Data Analysts, Data Engineers y ML Engineers para diseñar, construir, desplegar y monitorizar productos escalables de IA e IA Generativa .
  • Desempeñar un papel clave en la adopción de la IA Generativa dentro del negocio, desarrollando soluciones basadas en LLMs, embeddings y arquitecturas RAG para resolver problemas reales de usuarios y operaciones.
  • Colaborar directamente con stakeholders del negocio para entender sus necesidades y traducirlas en sistemas de IA precisos, fiables y prácticos en entornos de producción.
  • Monitorizar y mejorar el rendimiento de los modelos y sistemas, aplicar buenas prácticas en Data Science, MLOps y LLMOps, y refinar continuamente modelos y prompts para maximizar el impacto en el negocio.
  • Mantenerse actualizado en buenas prácticas de LLM, RAG e IA Generativa , utilizando nuevas técnicas y tecnologías para impulsar la innovación y la eficiencia.

SOBRE TI: Buscamos un perfil con fuertes capacidades analíticas y técnicas.

Requisitos clave:

  • 3–5 años de experiencia en Data Science o Machine Learning aplicado.
  • Sólido dominio de Python y SQL.
  • Experiencia en la construcción y despliegue de modelos de machine learning.
  • Experiencia práctica en IA Generativa, incluyendo:
  • Embeddings
  • Búsqueda vectorial
  • Arquitecturas tipo RAG
  • Modelos NLP o transformers
  • Familiaridad con la evaluación de modelos más allá de la accuracy (ranking, relevancia, calidad de recuperación, etc.)

SE VALORARÁ:

  • Experiencia con Snowflake (altamente valorable)
  • Conocimiento de cloud AWS
  • Experiencia en LLMOps (gestión de prompts y versiones, monitorización, frameworks de evaluación)

Si te interesa la oportunidad y conocer todos los detalles, no dudes en aplicar al puesto para que podamos contactarte y hablar mejor sobre la posición, darte todos los detalles y resolver cualquier duda que te pueda surgir.

Agap2 es una empresa que ofrece igualdad de oportunidades, por ello nos comprometemos a tratar todas las candidaturas por igual en función de sus capacidades, logros y experiencia. Animamos a cualquier persona a presentar su candidatura que será tratada con igualdad de oportunidades independientemente de su raza, nacionalidad, sexo, edad, discapacidad, orientación sexual, identidad de género o cualquier otra característica.

Azure Data Engineer (automotive sector)
Capitole
Multiple locations
Fully remote
Mid - Senior
Private salary

✨ Capitole is celebrating 10 years! We are now more than 1,000 people building an environment where talent is nurtured, recognized, and empowered to grow.

People First : trust, respect, and professional development.

Employee turnover rate of just 13%, well below the industry average.

Cutting-edge projects with global clients and modern technologies.

Tailored training programs: up to €1,200/year per employee.

True flexibility to work your way.

Monthly check-ins and annual 360º evaluations to support your growth.

Private health insurance, flexible compensation, and Wellhub for your overall wellbeing.

Active tech communities to learn and share knowledge.

Amazing team events (yes, we know how to have fun too ).

Interested in joining us? Take a look at this opportunity

We are seeking a skilled Data Engineer to join a German international client in the automotive sector . The ideal candidate will have a strong background in designing and implementing robust ETL pipelines, with a focus on Azure cloud technologies and big data processing frameworks.

Key Responsibilities

  • Design, develop, and maintain ETL pipelines using Azure Data Factory to process data from multiple sources into Azure Data Lake and other destinations.
  • Leverage Databricks and Spark environments for data transformation, processing, and analytics.
  • Collaborate with cross-functional teams to translate business requirements into data solutions.
  • Maintain data catalogs and ensure accurate documentation within Databricks.
  • Optimize and troubleshoot existing ETL workflows to improve performance and reliability.
  • Stay current with Azure data engineering best practices .
  • Participate actively in code reviews, documentation, and knowledge sharing.

Requirements

  • Bachelor’s degree in Computer Science, Engineering, or related field.
  • Proven experience with Azure Data Factory, Databricks, Azure Data Lake, SQL, Python, Spark, and PySpark.
  • Strong proficiency in SQL and Python for data manipulation and querying.
  • Excellent problem-solving skills and keen attention to detail.
  • Ability to work independently and collaboratively in a dynamic environment.
  • Strong communication and interpersonal skills.

Preferred

  • Certification in Azure Data Engineering or related field.
  • Knowledge of data governance principles and best practices.
  • Experience with DevOps CI/CD pipelines, especially GitHub workflows.
  • Familiarity with the SPIRE working model is highly desirable.
  • Experience in finance or other regulated industries is a plus.

Location: 100% Remote

Schedule: Flexible, with reduced hours on Fridays

Language: English (C1)

Want to know more? Click here ️ and find out!

See what people say about us ️‍♀️ Glassdoor Reviews

Feel free to send us your profile, we are excited to meet you!

The employee will adhere to information security policies:

-Will have access to confidential information related to Capitole and the project they are working on.

-Must comply with the security policies and internal policies of the company and the client.

-Must sign an NDA.

Data Migration Lead SAP (w/m/d) ab 01.04.2026
NTT DATA
Cologne
Remote or hybrid
Senior
Private salary
TECH-AGNOSTIC ROLE

In Voll- oder Teilzeit

Als NTT DATA Business Solutions treiben wir Innovationen voran - von der Beratung und Implementierung bis hin zu Managed Services und darüber hinaus, gestützt von einem globalen Team von über 18.500 Expert:innen aus über 90 Nationen in mehr als 30 Ländern. Mit SAP als Herzstück und einem starken Netzwerk aus Partnern wie Microsoft und ServiceNow verbessern wir kontinuierlich KI-getriebene Lösungen und Technologien, damit sie für Unternehmen - und ihre Mitarbeitenden - funktionieren.

Wir sind Teil von NTT DATA, einem führenden Anbieter von Unternehmens- und Technologiedienstleistungen, KI und digitaler Infrastruktur mit einem Umsatz von über 30 Mrd. $. Als Global Top Employer betreut NTT DATA 75 % der Fortune Global 100-Unternehmen und entwickelt mit Expert:innen in über 70 Ländern gemeinsam innovative Lösungen, die dazu inspirieren, Neues zu wagen und Erfolge sichtbar zu machen.

Mit uns hast du unzählige Möglichkeiten, groß zu denken, mutig zu handeln und Verantwortung zu übernehmen. Gestalte deine Zukunft in einer Kultur, die Zugehörigkeit lebt und dir Raum für Lernen und Networking gibt.

Make this the place where you grow

Standort: deutschlandweit

Das darfst Du von uns erwarten:

Wir haben die individuellen Bedürfnisse unserer Mitarbeitenden ganzheitlich im Blick. Eine ausführliche Übersicht der Benefits während der verschiedenen Lebensphasen findest Du hier .

Gestalte Arbeitsort und -zeit flexibel: u. a.Workation, mobiles Arbeiten, Teilzeitmodelle und Sabbatical

Deine Weiterentwicklung nach Plan: themenspezifische Einarbeitung, gezielte Karriereförderung basierend auf Karrieremodellen, Programmen und eigener Academy

Family first: z. B. KiTa-Zuschuss, bezahlte Karenztage und Väternetzwerk

SAP Platinum Partnerschaft: starke SAP-Partnerschaft, großes Wissensnetzwerk sowie SAP Learning Hub- und Zertifizierungsmöglichkeiten

Wir sorgen vor: bspw. 25 % Zuschuss zur betrieblichen Altersvorsorge, betriebliches Gesundheitsmanagement und Kooperation mit Fitnessanbietern

Mit uns kommst Du von A nach B: Dienstwagen (je nach Bereich), Vergünstigung für die Nutzung von öffentlichen Verkehrsmitteln und Fahrradleasing via JobRad

Du brennst für Herausforderungen?

Als Data Migration Lead SAP (w/m/d) bist du verantwortlich für:

Du analysierst, konzipierst und planst Datenmigrationsprojekte bei unseren Mittelstands- und Großkunden.

Du führst das Migrationsteam fachlich im Projekt und agierst in enger Abstimmung mit Stakeholdern.

Du leitest Workshops, vermittelst den Status und die Ergebnisse des Teilprojekts und sicherst die Qualität in der Datenmigration.

Bei deinen Aufgaben unterstützt dich dein persönlicher Coach / Pate in einer freundlichen Arbeitsatmosphäre in einem Team auf Augenhöhe.

Wir arbeiten in Kundenprojekten - teilweise bei Kunden vor Ort, in unseren Büros oder aus dem Homeoffice.

Überzeuge uns mit deinem Potential!

Du verfügst über ein abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, Mathematik oder eine vergleichbare Qualifikation.

Du besitzt Kenntnisse in mindestens einem der gängigen Migrationstools, beispielsweise LSMW, SAP Migration Cockpit, SAP Data Services oder ähnlichen Tools.

Idealerweise hast du schon modulübergreifende SAP-Kenntnisse.

Du verfügst über sehr gute Deutsch- und gute Englischkenntnisse.

Bewirb dich jetzt!

Wir freuen uns über deine Onlinebewerbung inkl. Standortwunsch, Gehaltsvorstellung und frühestmöglichem Eintrittstermin.

NTT DATA Business Solutions: Make this the place where you grow

Julia Czernitzki

Tel.: ()

E-Mail:

Du hast Fragen zum Thema Diversität, Gleichberechtigung und Inklusion bei NTT DATA Business Solutions? Hier findest du weitere Informationen.

Wir sind davon überzeugt, dass Diversity, Equity, Inclusion und Wellbeing Innovation fördern und ein herausragendes Kund:innen- und Mitarbeitendenerlebnis sicherstellen. Wir freuen uns über Bewerbende jeden Geschlechts, jeder Herkunft, jeden Alters, jeder sexuellen Orientierung, jedes Lebensentwurfs, jeder Religion und mit jeder Art von Behinderung.

Gerne kannst du auch unsere Kolleg:innen unter kontaktieren.

We transform. SAP solutions into Value

Frequently asked questions
Haystack features a variety of remote Data Engineer positions, including roles in data pipeline development, database management, ETL processes, and cloud data engineering across industries like tech, finance, healthcare, and more.
Many remote Data Engineer jobs require experience with tools such as SQL, Python, Apache Spark, Hadoop, and cloud platforms like AWS, Azure, or Google Cloud. Specific requirements vary by role, so be sure to check individual job descriptions.
Simply browse our remote Data Engineer job listings, select the role you're interested in, and click the apply button. You'll be prompted to submit your resume and any additional required information directly to the employer.
While many remote Data Engineer positions require some professional experience, Haystack also lists entry-level roles and internships. Use our filters to find opportunities that match your skill level.
Yes! You can create personalized job alerts on Haystack to receive notifications via email about new remote Data Engineer jobs that match your criteria, helping you stay up-to-date with the latest opportunities.