Roles
Remote Data Engineer Jobs
Overview
Looking for remote Data Engineer jobs? Haystack offers the best fully remote opportunities for skilled data engineers seeking flexible work-from-home roles. Discover top remote data engineering positions where you can design, build, and optimize data pipelines from anywhere. Start your remote data engineer career today with Haystack!
Werkstudent/in Informatik - Data Intelligence (m/w/d)
Regionetz GmbH
Aachen
Remote or hybrid
Graduate - Junior
Private salary
RECENTLY POSTED
TECH-AGNOSTIC ROLE

Für die Abteilung “Maßnahmen-Management” suchen wir

Werkstudent/in Informatik - Data Intelligence (m/w/d)

Regionetz GmbH Standort Aachen

01.05.2026

Teilzeit

befristet

Ihr Beitrag

Wir suchen für unsere Abteilung Maßnahmenmanagement zwei Werkstudierende (m/w/d) zur Mitarbeit in einem internen Benchmarking-Projekt, welche uns bei der Analyse und Aufbereitung vontechnischen/kaufmännischen Daten, sowie bei der Entwicklung von AI- und Machine-Learning-Ansätzen unterstützen. In diesem Zusammenhang besteht die Möglichkeit zur Übernahme einer Abschlussarbeitunter fachlicher Betreuung und Unterstützung erfahrener Kolleginnen und Kollegen.

  • Mitwirkung in einem internen Benchmarking-Projekt im technischen und datenanalytischen Umfeld
  • Analyse und Aufbereitung von Daten zur Identifikation von Optimierungspotenzialen
  • Recherche aktueller Methoden und Technologien im Bereich Data Analytics und Data Science, sowie Machine Learning und AI
  • Entwicklung, Bewertung und Dokumentation von Data Intelligence-Lösungen
  • Erstellung von Auswertungen und Visualisierungen, sowie dessen Präsentation

Das bringen Sie mit

  • Laufendes Studium der Informatik, Wirtschaftsinformatik, Data Science oder eines vergleichbaren Studiengangs
  • Hohes Interesse an Data Intelligence
  • Kenntnisse und Erfahrungen im datenanalytischen Umfeld
  • Gute Kommunikationsfähigkeiten in Sprache und Schrift
  • Teamplayer mit schneller Auffassungsgabe und verantwortungsbewusster Arbeitsweise

Deshalb Regionetz Tolle Entwicklungsmöglichkeiten
dank individueller Förderung und Weiterbildung Moderne Arbeitskultur
mit Spaß an Innovationen Tolles Team
und Arbeiten auf Augenhöhe Gute Work-Life-Balance
mobiles Arbeiten im Homeoffice Flexible Arbeitszeiten
innerhalb der Rahmenarbeitszeit von 07:00 Uhr bis 19:00 Uhr. Sie haben Interesse?

Wir engagieren uns für ein ehrliches, offenes und respektvolles Miteinander. Dies ist Teil unserer Unternehmenskultur.
Wir wünschen uns daher ausdrücklich Bewerbungen von Menschen aus allen Lebensbereichen - unabhängig von Alter, Geschlecht, Herkunft, Weltanschauung oder Behinderung.

Sie haben noch weitere Fragen? Dann melden Sie sich gerne bei mir.

Claudia Luetzeler

Batch Operations & Support Specialist (Control‑M) - 100% remoto (España)
UST España & Latam
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

¡Seguimos buscando talento…y nos encantaría que te unieras a nuestro equipo!

Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías.

¿Qué buscamos?

Estamos buscando un/Batch Operations & Support Specialist con experiencia en Control-M para colaborar junto con uno de nuestros principales clientes, líder en el sector bancario.

Localización : España 100% remoto

Modalidad : 100% remoto

Horario: Oficina.

Requisitos mínimos:

  • Inglés C1.
  • 3+ años de experiencia en soporte a producción o entornos batch críticos.
  • SQL sólido (obligatorio) y habilidades avanzadas en Excel.
  • Capacidad demostrada para depurar incidencias de datos y ETLs a nivel numérico.
  • Experiencia con Control M (se valora experiencia en Job as Code).
  • Cómodo/a utilizando herramientas de IA a diario para programación, análisis y documentación.
  • (Nice to Have): Experiencia en servicios financieros, P&L o Market Risk. Exposición a Murex, Databricks / Cloudera, Spark/Scala, ActiveViam (MARS) o Qlik. Experiencia con ServiceNow o sistemas de ticketing similares.

¿Qué te ofrecemos?

-✈️ 23 días laborables de vacaciones y el 24 y 31 de diciembre.

-❤️ Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes).

  • Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia…).

  • Acceso gratuito a varias plataformas de formación.

  • Estabilidad y carrera profesional.

  • Tenemos implantado un plan de compensación de referencias internas.

  • Posibilidad de elección de percibir tu salario en 12 o 14 pagas.

  • Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto).

  • Plataforma UST Club descuentos y descuentos en gimnasios.

Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando!

En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.

Data Engineer
Exprivia
Molfetta
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED

La Digital Factory Financial Services & Solutions di Exprivia ( è alla ricerca di un Data Engineer La risorsa, all'interno di team di progetto coinvolti in tutte le fasi del ciclo di vita del software, si occuperà di: - Sviluppo e ottimizzazione di pipeline di elaborazione dati in ambienti Big Data distribuiti; - Progettazione e implementazione di flussi ETL e processi di calcolo su larga scala; - Sviluppo test-driven e domain-driven applicato a contesti di ingegneria dei dati; - Test Automation dei flussi di integrazione e trasformazione dati; - Supportare il PM nelle stime; - Pianificazione degli interventi; - Rilascio in ambiente di collaudo e di esercizio. Potresti essere la persona giusta se: - Hai maturato esperienza (almeno 3/4 anni) nello sviluppo di soluzioni Big Data in contesti enterprise; - Hai utilizzato per lavoro Apache Spark tramite Java per la progettazione e lo sviluppo di job di elaborazione dati batch e streaming; - Hai esperienza nella progettazione e implementazione di flussi ETL complessi e pipeline di calcolo distribuito; - Hai lavorato su ambienti Cloudera (CDH o CDP), con familiarità con i principali servizi dell'ecosistema Hadoop (HDFS, YARN, Hive, Impala, Kafka); - Sei capace di eseguire query in SQL per creare, modificare e gestire i dati all'interno di database relazionali e distribuiti (es. Hive, Impala); - Hai utilizzato per lavoro tecnologie quali Java 8+, Apache Spark, Spark SQL, Apache Kafka; Costituiscono titolo preferenziale: - Esperienza maturata su Palantir Foundry, con familiarità nella costruzione di pipeline e ontologie sulla piattaforma. - Esperienza maturata in progetti di sviluppo software in ambito Banking / Finance. La posizione è aperta su tutte le nostre sedi, con preferenza per Molfetta, Lecce o Palermo. Cosa offriamo: Tipologia contrattuale, RAL e inquadramento saranno valutati durante l’iter selettivo sulla base dell’esperienza maturata dal candidato prescelto. Offriamo un ambiente dinamico, attento alle tue esigenze, piano di smart working (fino all'80%), welfare aziendale e Flexible Benefit. Chi siamo: Il Gruppo Exprivia, specializzato in Information and Communication Technology (ICT), è tra i principali protagonisti della trasformazione digitale sul mercato nazionale e internazionale con un team di esperti (oltre 2400 professionisti) in diversi ambiti della tecnologia e della digitalizzazione: dall’Intelligenza Artificiale alla Cybersecurity, dai Big Data, al Cloud, dall'IoT al BPO, dal Mobile al Networking e alla Collaboration, presidiando interamente il mondo SAP. Exprivia supporta i propri clienti nei settori Banking, Finance&Insurance, Aerospace&Defence, Energy&Utilities, Healthcare e Public Sector, Manufacturing&Distribution, Telco&Media. Il Gruppo Exprivia è presente in sei Paesi nel mondo (Italia, Spagna, Germania, Brasile, Messico e Cina) e presente in Italia a Milano, Roma, Trento, Vicenza, Lecce, Matera, Palermo e Molfetta dove è basato l’HQ. *La ricerca è aperta a candidat\* di qualsiasi orientamento o espressione di genere.* Trattamento dei dati personali *Rispondendo al presente annuncio/email, la società Exprivia S.p.a., nella sua qualità di Titolare del Trattamento, otterrà i Suoi dati, definiti dal GDPR (regolamento UE 2016/679) "dati personali", esclusivamente per finalità relative alla ricerca e selezione del personale alle posizioni aperte attuali e future, per un potenziale inserimento all’interno delle singole società del Gruppo societario.* *Exprivia Le ricorda che nel curriculum vanno indicati solo i dati necessari a valutare il profilo del candidato alla posizione a cui si è candidato. I Suoi dati personali potranno essere comunicati anche alle altre società del Gruppo che ne facciano richiesta per valutare un’eventuale assunzione in presenza di un interesse legittimo. Lei potrà esercitare i suoi diritti privacy, compreso il diritto di opporsi alla comunicazione infragruppo, rivolgendosi al titolare o al DPO alle mail ufficio.privacy@exprivia.com o dpo\_expriviaspa@exprivia.com.* *Si prega di non inserire nel CV categorie particolari di dati personali già noti come dati sensibili (relativi, in particolare, a salute, convinzioni religiose e opinioni politiche o sindacali). Eventuali dati sensibili indicati saranno immediatamente cancellati in mancanza del suo consenso che autorizzi Exprivia al loro trattamento. L’informativa completa potrà essere letta al seguente link ”.*

Sviluppatore Dot Net
agap2 Italia
Corato
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED

AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa facente parte del Gruppo MoOngy.

Presente in 14 paesi europei con oltre 8000 dipendenti, abbiamo aperto, da 7 anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società: AMBIZIONE, SORRISO, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.

Siamo alla ricerca di uno Sviluppatore .NET con ottima conoscenza dei database relazionali e forte orientamento alla gestione, trasformazione e integrazione dei dati (ETL) .

La figura sarà inserita in un contesto ad alto volume di transazioni , dove transitano decine di milioni di record al giorno, provenienti da sistemi distribuiti

Cosa farai

  • Sviluppo e manutenzione di applicazioni e servizi .NET Core / .NET Framework .
  • Integrazione tra diversi database ( MySQL, Oracle, PostgreSQL ) e applicativi aziendali.
  • Sviluppo di pipeline ETL per far transitare dati in modo efficiente e affidabile.
  • Progettazione e manutenzione di API REST per integrazione tra sistemi e servizi legacy.
  • Analisi e interrogazione dati tramite Entity Framework Core .
  • Gestione dati in contesti con tabelle di grandi dimensioni e query ad alte prestazioni.
  • Collaborazione con il team infrastrutturale per integrazioni tramite script, web services e strumenti di automazione .
  • Supporto allo sviluppo di applicativi interni basati su MAUI / XAML .
  • Utilizzo di strumenti di reportistica (es. PowerBI , linguaggio DAX ).

Tech Stack richiesto

  • .NET Core / .NET Framework (fino a 4.8)
  • C# (back-end)
  • Entity Framework Core
  • MySQL, Oracle, PostgreSQL
  • API REST
  • ETL / Data Integration
  • Query e ottimizzazione su DB ad alto volume
  • Pattern architetturali: MVC
  • Conoscenza strumenti Microsoft: Azure , servizi cloud (nice to have)

Requisiti chiave

  • Esperienza nel lavorare con database molto grandi (milioni di record/giorno).
  • Capacità di sviluppare e manutenere servizi API ad alte prestazioni.
  • Capacità di riconoscere problemi di performance, lock, rallentamenti su DB.
  • Familiarità con ambienti cloud o ibridi (web app/DB in cloud).
  • Attenzione all’ottimizzazione dei flussi dati e alla continuità del servizio.
  • Attitudine a lavorare “tra infrastruttura e sviluppo”, con ottica di integrazione.

Nice to have

  • Esperienza con applicazioni desktop o mobile MAUI .
  • Esperienza con reportistica e analytics ( PowerBI, DAX ).
  • Conoscenza di sistemi legacy integrati via API interne.

Cosa offriamo:

  • Benefits aziendali: Flessibilità oraria e ticket restaurant
  • Contratto a tempo indeterminato o collaborazioni a p.iva;
  • Strumenti di formazione sia per le hard che soft skill;
  • Follow-up costanti con il team HR e con il proprio Business Manager;
  • Un piano di crescita professionale in un ambiente dinamico e stimolante.

The world needs you

AGAP2 è un equal opportunities employer: crediamo che tutte le forme di diversità siano fonte di arricchimento reciproco. Ci impegniamo a garantire un ambiente di lavoro inclusivo, nel quale ogni singola risorsa possa apportare un valore unico alla nostra realtà. Pertanto, accogliamo candidature senza distinzione di età, genere, nazionalità, disabilità, orientamento sessuale, religione o stato civile.

  • Inoltre, teniamo fede ai nostri impegni prestando attenzione alle risorse appartenenti alle categorie protette ai sensi degli articoli 1 e 18 della Legge 68/99.
PySpark Data Engineer
Esprimo S.r.l.
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED
+2

ESPRIMO Srl, an IT consultancy company that has been operating since 2002 throughout the national and international territory, in support of businesses, is located in the Information Technology sector with the aim of providing a vast range of products, services and solutions in the most strategic areas for the business, such as: IT Infrastructure, Content Management, ERP, Business Intelligence, CRM, Web Applications, is looking for a:

Apache Spark and Python Data Engineer

We are searching for Python engineers with PySpark experience to join our hybrid engineering teams in Finance Data and Analytics.

Activity:

  • You will join a team responsible for the data integration, complex transformations, application of business logic, modelling and serving billions of rows of structured financial data.
  • The team builds on a lakehouse architecture utilizing Azure Databricks, Azure Data Factory and Azure Data Lake with Python being the main programming language.
  • Our teams are at the intersection of data engineering and software engineering and apply a robust Software Development Life Cycle (SDLC) to all of their deliveries.
  • You will build design and automatically test software that processes data through our medallion architecture.

Requirements:

  • Bachelor’s degree in computer science
  • Proven experience developing complex software systems as a software engineer (at least 5 years)
  • Strong understanding of data engineering techniques with high level programming languages (e.g., Java, C#, or Python)
  • Good core Python software engineering experience
  • At least 2 years for hands on experience with Apache Spark (PySpark), developing applications using an IDE such as VS Code or PyCharm
  • Experience of working with delta lake tables
  • A good understanding of, and, significant experience developing software on projects using relational data models and SQL
  • Preferably experience with the Azure Databricks platform

Operational headquarter: Remote

CV in English is required

We offer employment in a stimulating and innovative context, with great prospects for professional growth and a salary commensurate with experience.

It is requested that CVs corresponding to the profile of the open position be sent. Only those who actually meet the above requirements will be taken into consideration.

The research is aimed at both sexes (L.903/77).

Send detailed curriculum vitae, with authorization to process personal data according to Law 196/2003.

Elastic Stack Specialist - Freelance / P.IVA
S2E | Business Technology Consultants
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED
+6

S2E è un’azienda italiana di consulenza in ambito Business Technology, all’avanguardia nell’innovazione tecnologica nei settori Fintech, Insurtech e Cybertech. Con oltre 400 collaboratori, sede principale a Milano e uffici a Roma, Lecce, Lussemburgo, riprogetta, personalizza e sviluppa soluzioni digitali per il business delle imprese che operano in particolare nei settori finance, telecom, retail, energy and oil, industry.

S2E è un’azienda attenta alle pari opportunità. Celebriamo la diversità e ci impegniamo a creare un ambiente inclusivo per tutti i dipendenti.

Cerchiamo un/una Elastic Stack Specialist con solida esperienza su Elasticsearch, Kibana e Elastic Observability per supportare i nostri clienti enterprise nella progettazione, deploy e ottimizzazione di soluzioni di logging, ricerca full-text e application performance monitoring. La figura lavorerà sia in fase di presales (architetture, sizing e stime) sia nella delivery di progetti complessi — inclusi ambienti multi-tenant, integrazioni Kafka e scenari regolamentati in ambito bancario.

Responsabilità principali

  • Progettazione e implementazione di cluster Elasticsearch (single-node, multi-node, hot-warm-cold)
  • Configurazione di pipeline di ingestione dati con Logstash (incluse integrazioni Kafka), Filebeat, Metricbeat e Elastic Agent/Fleet
  • Creazione di dashboard e visualizzazioni avanzate in Kibana (Lens, TSVB, Canvas, Maps)
  • Implementazione di Elastic APM per il monitoring applicativo: tracing distribuito, transaction profiling, service maps
  • Configurazione di Elastic Observability: infrastructure monitoring, uptime e synthetic monitoring
  • Progettazione di architetture multi-tenant con isolamento degli indici, RBAC granulare e gestione della privacy (GDPR)
  • Implementazione di Elastic Machine Learning e anomaly detection per scenari AIOPS (log pattern, rare terms, anomaly scoring)
  • Integrazione con OpenTelemetry (collector, SDK, OTLP receiver su Elasticsearch)
  • Gestione del ciclo di vita degli indici (ILM), snapshot e policy di retention
  • Hardening della sicurezza: TLS, autenticazione nativa, RBAC, API keys, SAML/LDAP
  • Ottimizzazione delle performance: mapping, query tuning, shard strategy, caching
  • Knowledge Transfer strutturato: formazione on-site e documentazione per l’autonomia dei team cliente
  • Supporto al team presales per architetture, sizing e technical attachment

BACKGROUND E SKILLS:

  • 3–5 anni di esperienza con Elastic Stack in ambienti di produzione
  • Conoscenza approfondita di Elasticsearch: mapping, query DSL, aggregazioni, performance tuning
  • Esperienza con pipeline di ingestione: Logstash (filter plugins, grok, input Kafka), Filebeat, Metricbeat
  • Kibana avanzato: dashboard, alerting, Discover, Lens, TSVB
  • Elastic APM: instrumentazione, tracing distribuito, error tracking, service maps
  • Elastic Observability: infrastructure monitoring, uptime checks, synthetic monitoring
  • Gestione cluster: ILM, snapshot lifecycle, shard allocation, rolling upgrades
  • Sicurezza Elastic: TLS mutual, RBAC, autenticazione SAML/LDAP/PKI
  • Buona conoscenza di Linux e scripting (Bash o Python)
  • Capacità di operare in contesti regolamentati (banking, finance) e di gestire requisiti di compliance

Gradite

  • Elastic Certified Engineer o Elastic Certified Observability Engineer
  • Esperienza con Elastic Cloud (ESS) o Elastic Cloud Enterprise (ECE)
  • Conoscenza di Elastic Security / SIEM (detection rules, ML jobs, SOAR)
  • Familiarità con Kubernetes e monitoring di workload containerizzati
  • Esperienza con Apache Kafka in pipeline di ingestione dati real-time
  • Conoscenza di altri tool di observability (Grafana, Datadog, Dynatrace) per contesti multi-stack
  • Esperienza in ambienti multi-tenant con requisiti di isolamento e privacy

COSA SIGNIFICA FAR PARTE DEL TEAM

  • Lasciare il segno! Farai parte di un team collaborativo e intraprendente
  • Crescere professionalmente perché seguiamo un processo continuo di scouting tecnologico e di miglioramento individuale ed un continuo training on the job
  • Work-life balance : Diamo valore agli obiettivi raggiunti e ci impegniamo per creare un ambiente di lavoro sereno
  • Essere proattivi ed orientati al problem solving

COSA TROVERAI

  • Team di lavoro friendly, open-minded e collaborativi
  • Progetti in crescita, innovativi e sfidanti su tutti gli ambiti applicativi
  • Scouting di nuove tecnologie

IL TUO RAPPORTO DI LAVORO

  • Disponibilità a collaborare in regime di Partita IVA .
  • Orario flessibile , in base alle esigenze di progetto e/o di servizio

SEDE DI LAVORO

  • Full Remote

I candidati ambosessi (L.903/77) sono invitati a leggere l’informativa sulla privacy ai sensi dell’art. 13 del Regolamento (UE) 2016/679 sulla protezione dei dati (GDPR).

Sviluppatore pl/sql - Oracle ODI - Full remote
Gruppo Ulixe
Multiple locations
Fully remote
Mid
Private salary
RECENTLY POSTED
TECH-AGNOSTIC ROLE

Stiamo cercando un developer Oracle ODI con PL/SQL.

La risorsa ricercata è un profilo middle

L’opportunità prevede la modalità full rmeote

Skill richieste/mansioni:

  • Consolidata esperienza con Oracle ODI
  • Consolidata esperienza con PL/SQL
  • Consolidata esperienza nello sviluppo Backend

Cosa offriamo:

  • Trattamento retributivo in linea con le effettive competenze, assicurazione sanitaria, welfare aziendale e notebook
  • Percorsi di formazione
  • Modalità Full remote
  • Grande attenzione al percorso professionale, con un team HR dedicato alla crescita e al supporto delle nostre risorse
  • Possibilità di lavorare in grandi realtà e progetti di respiro internazionale, in diverse Industry, tra cui Banking, Insurance, Automotive e Retail

PERCHÉ ULIXE?

Siamo una realtà ICT che offre servizi esclusivi di consulenza, sviluppo e implementazione di sistemi informativi.

La nostra azienda è in continua crescita e ad oggi contiamo oltre 500 dipendenti .

Scopri di più sulla nostra pagina LinkedIn Ulixe Nova e sul nostro sito Ulixe Nova .

Sei pronto ad entrare nel nostro team?

L’offerta è rivolta ad entrambi i sessi nel rispetto delle norme sulle parità di trattamento, ai sensi del d.lgs. 198/2006. Per quanto riguarda il trattamento dei dati personali, ti invitiamo a prendere visione dell’informativa resa ai sensi dell’art. 13 del d.lgs. 196/2003 e dell’art. 13 del GDPR 2016/679.

Sviluppatore Plsql / 2026-078-XX-PLSQL
IT Partner Italia
Multiple locations
Fully remote
Mid - Senior
Private salary
RECENTLY POSTED

IT Partner Italia , azienda con una solida esperienza pluriennale nel settore della consulenza informatica, è alla ricerca di

PL/SQL SPECIALIST

Per un importante progetto in ambito Factoring & Lending, siamo alla ricerca di una figura tecnica che supporterà la progettazione e la gestione delle strutture dati di integrazione tra sistemi core basati su Oracle e una moderna data platform su Microsoft Fabric, utilizzata per analisi e Business Intelligence.

Quali sono le attività operative?

  • Definizione e gestione dei data contract e degli schemi dati tra sistemi sorgente Oracle e piattaforma dati
  • Analisi di change e impact legate all’evoluzione del sistema gestionale e alle nuove esigenze di data analytics
  • Collaborazione alla progettazione e gestione di pipeline di integrazione e CDC Oracle
  • Monitoraggio di data quality, consistenza e riconciliazione dei dati tra sistemi operativi e piattaforma dati
  • Supporto alla governance del modello dati e alla documentazione tecnica

Quali sono le competenze richeiste:

  • Solida esperienza nello sviluppo e manutenzione di procedure complesse in Oracle PL/SQL
  • Ottima capacità di performance tuning su database Oracle
  • Esperienza in contesti di integrazione dati e gestione di flussi verso data platform
  • Gradita conoscenza di Oracle Data Integrator

La risorsa avrà un ruolo chiave nel garantire coerenza, qualità e disponibilità dei dati tra sistemi core e piattaforme analitiche, contribuendo all’evoluzione della data architecture aziendale.

Sede di lavoro : full remote

Modalità Operativa : l’attività sarà full time e full remote dall’Italia

Si prega di inviare il CV dettagliato in formato europeo all’indirizzo risorse@ITPartnerItalia.com indicando il codice posizione 2026-078-XX-PLSQL ed autorizzando il trattamento dei dati personali ai sensi del D. Lgs. 196/2003.

L’offerta è rivolta a candidati di entrambi i sessi nel rispetto delle norme sulle parità di trattamento in materia di occupazione e di condizioni di lavoro (D.lgs. 216/03).

Data Engineer con competenze su AWS
Esprimo S.r.l.
Multiple locations
Remote or hybrid
Senior - Leader
Private salary
RECENTLY POSTED

ESPRIMO Srl, società di consulenza informatica che opera dal 2002 su tutto il territorio nazionale ed internazionale, a supporto delle imprese, si colloca nel settore dell’Information Technology proponendosi come obiettivo quello di fornire una vasta gamma di prodotti, servizi e soluzioni nelle aree più strategiche per l’impresa, come: Infrastrutture IT, Content Management, ERP, Business Intelligence, CRM, Web Applications, è alla ricerca di uno:

Data Engineer con competenze su AWS:

Il candidato ideale sarà inserito all’interno del team di Application Maintenance in ambito dati per un progetto in ambito Media & Entertainment. Si richiedono comprovate capacità di leadership tecnologica e capacità di gestione di un team.

Requisiti richiesti:

  • Redshift;
  • AWS Glue;
  • Databricks;
  • Qlik

Sede operativa: Remoto (possibilità di sporadiche giornate di presenza su Roma in sede cliente)

Si offre un inserimento in un contesto stimolante e innovativo, con grandi prospettive di crescita professionale e una retribuzione commisurata all’esperienza.

Si richiede l’invio di Curricula rispondenti al profilo della posizione aperta, verranno presi in considerazione solo quelli effettivamente in possesso dei requisiti sopraindicati.

La ricerca è rivolta ad entrambi i sessi (L.903/77).

Inviare dettagliato curriculum vitae, con l’autorizzazione al trattamento dei dati personali secondo la Legge 196/2003.

Data Architect
InterEx Group
Arluno
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED
+2

Key Responsibilities:

  • Architect scalable data processing and analytics solutions for big data storage, processing, and consumption.
  • Clearly, articulate the pros and cons of various technologies and platforms while proposing solutions.
  • Prior experience on cloud platform (AWS/Azure/GCP)
  • Define architecture, blueprints/patterns, accelerators & interoperability standards.
  • Define data security and data privacy standards for solutions.
  • Drive the evolution of data architecture.
  • Lead architectural discussions and design workshops with internal stakeholders.
  • Create technical documentation.

About You:

  • You have a bachelor’s degree in STEM.
  • You have more than 5+ years of data engineering experience, and 3+ years as a data architect.
  • Extensive hands-on experience in leading large-scale full-cycle enterprise data warehousing (EDW), BI reporting, and dashboard development projects.
  • You understand the latest database and analytical technologies including data lake/lakehouse architectures and NoSQL storage.
  • You have a strong understanding of data modelling techniques and are experienced in building domain data models.
  • You have hands-on experience with designing and tuning ETL/ELT pipelines.
  • You bring along your excellent SQL and strong hands-on scripting ability.
  • You have already planned data governance and data security practices. Experience in semantic and metamodeling is a plus.
  • Confidence with Microsoft Azure (or AWS, GCP) platform.
  • Prior engineering experience using modern programming languages (Python, Scala, Java, etc.) is a big plus.
  • Prior experience with designing on-demand analytics systems is a plus.
  • Prior exposure to Databricks is good to have.

We look forward to receiving your application!

Data Engineer (Rif. 2026-112)
aizoOn Technology Consulting
Multiple locations
Remote or hybrid
Mid - Senior
Private salary
RECENTLY POSTED
+5

aizoOn , società di tecnologia e consulenza, indipendente, operante a livello globale, ricerca un / a Data Engineer.

Il/La candidato/a verrà inserito/a nell’area IT della divisione Transportation ed opererà per un importante cliente in ambito mobilità sostenibile.

Parteciperà a progetti complessi di integrazione dati su AWS, lavorando su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati basate su eventi, con focus sull’integrazione tra sistemi eterogenei.

Attività previste

  • Progettare e implementare pipeline ETL per l’integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora/MySQL, MongoDB) utilizzando AWS Glue, Spark e Lambda
  • Creare soluzioni di migrazione dati e CDC utilizzando AWS DMS, Debezium e strumenti di Change Data Capture per la sincronizzazione continua dei dati tra microservizi e sistemi esterni
  • Progettare soluzioni di data lake su S3, definendo strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridge
  • Sviluppare integrazioni dati a bassa latenza per la sincronizzazione CRM su più ecosistemi di microservizi
  • Gestire l’evoluzione degli schemi e le problematiche legate alla qualità dei dati, risolvendo incongruenze tra sistemi NoSQL e SQL

PROFILO

  • Laurea in discipline tecnico-scientifiche
  • Almeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions)
  • Buona conoscenza della lingua inglese scritta, parlata e compresa (minimo B2)

COMPETENZE TECNICHE

  • Buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions)
  • Esperienza con strumenti di migrazione dati e CDC (AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione)
  • Esperienza nell’elaborazione dati batch e streaming con Apache Spark (Scala/Python), PySpark e architetture distribuite
  • Competenze su database: SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora/MySQL, SQL Server)
  • Conoscenza dell’architettura a microservizi e modelli di integrazione API (REST, gestione errori, retry, rate limiting)
  • Esperienza con formati dati e gestione schemi (Parquet, JSON, evoluzione schemi, data quality)
  • Programmazione in Python per data processing, scripting e integrazione con AWS SDK

Nice to have

  • Esperienza in Infrastructure as Code (Terraform o CloudFormation)
  • Esperienza con stream processing (Apache Kafka, AWS Kinesis, architetture event-driven)
  • Esperienza in data governance e monitoring (CloudWatch, metriche custom, data lineage, alerting)
  • Gestione pipeline CI/CD per deployment e testing
  • Esperienza DevOps e tecnologie di containerizzazione/orchestrazione

Sede di lavoro

Full remote working con saltuaria presenza presso il cliente a Torino

The job search refers to candidates of both genders

Data Engineer
Hays
Multiple locations
Fully remote
Mid - Senior
Private salary

Hays Solutions, società del gruppo multinazionale Hays, quotata al London Stock Exchange, offre servizi di consulenza mirati all’individuazione, alla comprensione e al raggiungimento degli obiettivi concreti di un progetto di business in ambito IT, Engineering o Digital.

Stiamo cercando un Senior Data Engineer altamente qualificato, con esperienza nella progettazione, implementazione e ottimizzazione di sistemi dati complessi. La risorsa guiderà attività tecniche avanzate, supporterà i membri più junior del team e contribuirà all’evoluzione delle nostre soluzioni data‑driven.

Responsibilities

  • Analizza, progetta e implementa sistemi complessi e ad alta scalabilità.
  • Sfida e migliora i processi del team, identificando opportunità di ottimizzazione.
  • Fornisce mentoring a figure junior tramite attività di pair programming, design review e code review.
  • Sviluppa soluzioni software rispettando gli standard di qualità del nostro SDLC.
  • Mantiene un aggiornamento costante sulle tecnologie di settore.
  • Conduce la progettazione tecnica di sistemi complessi e distribuiti.
  • Comprende, analizza e ottimizza le performance dei sistemi dati.
  • Identifica e risolve in autonomia problemi prima che diventino criticità.
  • Garantisce la delivery di soluzioni robuste, mature e con un livello minimo di bug.
  • Identifica proattivamente problemi nei requisiti o nei piani progettuali.

️ Requirements

  • Laurea in Ingegneria Informatica, Informatica o equivalente.
  • Esperienza pregressa come Data Engineer (3–5 anni).
  • Conoscenza approfondita di Hadoop, Spark e framework Big Data correlati.
  • Ottima conoscenza di linguaggi di programmazione, in particolare Java.
  • Esperto in tecnologie cloud-native, Infrastructure as Code, e strumenti Docker.
  • Eccellenti competenze di project management.
  • Ottime capacità comunicative.
  • Attitudine alla proattività e problem-solving.
  • Buona comprensione degli aspetti di business e dei requisiti funzionali.
  • Spiccato spirito di squadra.
  • Capacità di risolvere problemi complessi legati a networking, dati e software.
  • Leadership e capacità di guidare decisioni tecniche.

Sede di lavoro: full remote

Cosa devi fare:

Se sei interessato a questa opportunità, clicca su “Candidarsi ora”. Se questa opportunità non è in linea con le tue aspettative, ma sei alla ricerca di un nuovo lavoro, visita il nostro sito Internet per scoprirne di nuove.I candidati di ambo i sessi, dopo aver visionato l’informativa obbligatoria sulla privacy sul sito sono pregati di inviare il proprio CV. Hays Solutions S.r.l. con Socio unico. Soggetta a direzione e coordinamento da parte di Hays Plc

ve, ma sei alla ricerca di un nuovo lavoro, visita il nostro sito Internet per scoprirne di nuove.

Esperto Basi Dati e Reporting OLAP | Full Remote
Global Technologies
Multiple locations
Fully remote
Mid - Senior
Private salary

Sei pronto per una nuova sfida? In Global Technologies Italia progettiamo e sviluppiamo trasformazioni digitali. Collaboriamo con partner nazionali e internazionali per potenziare i processi integrando al meglio le tecnologie ai sistemi operativi.

Per un nostro importante cliente siamo alla ricerca di un Esperto Basi Dati e Reporting Olap che lavorerà in modalità full remote.

Profilo:

  • Capacità di gestire le basi dati e/o attività di reporting in tecnologia Microsoft
  • Capacità di gestire l’intero ciclo di sviluppo delle basi dati, di ottimizzazione delle prestazioni dei database e di progettazione e sviluppo di processi ETL;
  • Esperienza su reporting relazionale e reporting multidimensionale / OLAP
  • Conoscenza di SQL, PL-SQL, T-SQL, MDX o Microsoft SQL Server, Reporting Services, Analysis Services o Microsoft Power BI o Microsoft Visual Studio o Microsoft SourceSafe

Attività:

  • Analisi, creazione e modifica di tabelle, viste, stored-procedures, indici, SQL-Jobs e queries di reportistica in ambiente relazionale Microsoft SQL Server 2014
  • Analisi, creazione, modifica (Gestione) di ETL sviluppati in ambiente Microsoft Integration Services 2014;
  • Gestione di strutture dati multidimensionali (dimensioni, cubi, partizioni, ruoli) OLAP in ambiente Microsoft Analysis Services 2012;
  • Analisi, creazione e modifica di reports in ambiente Microsoft Reporting Services 2012;

Skills:

  • Object Relational Mapper: Microsoft NHibernate 4.0;
  • Database relazionali: Microsoft SQL Server 2000/2005/2008/2012/2014, Oracle, MySQL;
  • Migrazione dati: Microsoft DTS 2000, Microsoft Integration Services 2005/2008/2014;
  • Database multidimensionali: Microsoft Analysis Manager 2000, Microsoft Analysis Service 2008/2012;
  • Reportistica: Microsoft Reporting Services 2000/2008/2012;

Completano il profilo:

  • Orientamento al teamwork e al raggiungimento dei risultati
  • Proattività
  • Motivazione ed interesse verso nuove tecnologie

Cosa Offriamo:

Contratto a tempo determinato di 24 mesi commisurato a competenze ed esperienze del candidato prescelto.

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91 e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

Entra a far parte di Global Technologies!

Data Analyst
P4I - Partners4Innovation - A DIGITAL360 Company
Milan
Remote or hybrid
Graduate - Junior
Private salary

Partners4Innovation s.r.l ., è una realtà imprenditoriale innovativa che affonda le proprie radici nella ricerca universitaria e che è parte del Gruppo Digital360 S.p.A ., che conta al suo interno 1200 persone distribuite in più di 40 società localizzate in 8 paesi del mondo, supporta attraverso le sue tre business unit Imprese e Pubbliche Amministrazioni in percorsi di trasformazione digitale, per favorirne la crescita e lo sviluppo sostenibile, rendendo le persone protagoniste del cambiamento. Uniamo competenze, metodo, strumenti e dati per aiutare i nostri clienti ad affrontare concretamente la complessità delle sfide del futuro in modo collaborativo e creativo.

P4I accompagna le organizzazioni pubbliche e private nella comprensione e nell’attuazione dell’Innovazione Digitale, supportando le organizzazioni in tutte le fasi del percorso di trasformazione digitale. P4I adotta un approccio innovativo e multidisciplinare, basato sull’ascolto ed in grado di arricchire visione e competenze dei suoi interlocutori.

Nell’ambito di una strategia di crescita, cerchiamo un/una Data Analyst , da inserire all’interno dell’area Data & AI . La risorsa supporterà importanti clienti pubblici e privati nella progettazione e realizzazione di soluzioni di Analytics, contribuendo alla produzione di insight utili a supportare le decisioni di business e i percorsi di trasformazione data-driven.

Principali responsabilità:

  • Collaborare con team multidisciplinari per comprendere i bisogni informativi dei clienti e tradurli in analisi e modelli dati;
  • Analizzare e interpretare dataset complessi per identificare pattern, trend e insight rilevanti per il business;
  • Collaborare alla preparazione e strutturazione dei dati per finalità di analisi e reporting, supportando attività di integrazione, trasformazione e modellazione dei dati (ETL/ELT) e interfacciandosi con le architetture dati del cliente (es. Data Warehouse, Data Lake).
  • Contribuire allo sviluppo di report, dashboard e visualizzazioni dati a supporto dei processi decisionali;
  • Supportare attività di monitoraggio e miglioramento della qualità del dato;
  • Contribuire alla definizione di metriche, KPI e indicatori di performance a supporto delle strategie di business.
  • Contribuire alla crescita dell’offerta progettuale dell’area, supportando lo sviluppo di metodologie, strumenti e framework.

Competenze e capacità richieste:

  • Conoscenza delle tecniche di analisi dei dati e dei principali metodi statistici;
  • Conoscenza di strumenti di analisi dati e linguaggi di programmazione per l’analisi dati (es. SQL, python, R);
  • Conoscenza di strumenti di data visualization e business intelligence (es. Power BI, Tableau o simili);
  • Conoscenza di base delle tecniche di data modeling (es. modelli relazionali, schemi star/snowflake) per strutturare e organizzare i dati a supporto di analisi e reporting;
  • Capacità di interpretare i dati e trasformarli in insight utili per il business, identificando pattern, trend e indicatori chiave a supporto dei processi decisionali.Buona conoscenza della lingua inglese;
  • Abilità nel lavorare per obiettivi e attitudine al problem solving;
  • Buone capacità comunicative e relazionali;
  • Elevata motivazione alla crescita professionale e naturale propensione al lavoro in team;

Plus

  • Conoscenza di base di ambienti cloud data platform (es. AWS, Azure, GCP);
  • Certificazioni su strumenti di Data Visualization (Power BI, Tableau o affini);

Requisiti:

  • Laurea in discipline economiche, scientifiche o ingegneristiche;
  • 0-2 anni di esperienza;
  • Disponibilità a trasferte presso le sedi dei clienti sul territorio nazionale e internazionale.

Perché lavorare con noi:

  • Per entrare a far parte di una realtà multidisciplinare dove il valore è generato da sperimentazione e continuo scambio di competenze;
  • Le nostre sedi offrono spazi di lavoro moderni e funzionali nei quali organizziamo frequentemente eventi, workshop e momenti formativi;
  • Integriamo l’AI nei nostri processi a supporto delle attività che svolgiamo quotidianamente;
  • Offriamo modalità di lavoro agili e flessibili, con possibilità di smart working;
  • Promuoviamo la formazione continua, individuale e di gruppo;
  • Valorizziamo la diversità e crediamo in un modello di crescita sostenibile e inclusivo.

La ricerca rispetta il d.lgs. 198/2006 ed è aperta a persone con disabilità, di qualsiasi orientamento o espressione di genere, orientamento sessuale, età, etnia e credo religioso. Il presente annuncio è stato ideato nel rispetto della diversity e dell’inclusività.

Data Expert
Esprimo S.r.l.
Multiple locations
Remote or hybrid
Mid - Senior
Private salary

ESPRIMO Srl, società di consulenza informatica che opera dal 2002 su tutto il territorio nazionale ed internazionale, a supporto delle imprese, si colloca nel settore dell’Information Technology proponendosi come obiettivo quello di fornire una vasta gamma di prodotti, servizi e soluzioni nelle aree più strategiche per l’impresa, come: Infrastrutture IT, Content Management, ERP, Business Intelligence, CRM, Web Applications, è alla ricerca di uno:

Data Expert che abbia come skill primarie OLAP e MDX

Responsabilità principali:

  • Analisi, creazione e modifica di tabelle, viste , stored-procedures, indici, SQL-Jobs e queries di reportistica in ambiente relazionale Microsoft SQL Server 2014
  • Analisi, creazione, modifica (Gestione) di ETL sviluppati in ambiente Microsoft Integration Services 2014;
  • Gestione di strutture dati multidimensionali (dimensioni, cubi, partizioni, ruoli) OLAP in ambiente Microsoft Analysis Services 2012;
  • Analisi, creazione e modifica di reports in ambiente Microsoft Reporting Services 2012;

Requisiti richiesti:

  • Stack Microsoft on prem
  • BI Analytics
  • ETL
  • Power BI
  • Reporting Services
  • Analysis Services
  • una seniority generale ICT di 6 anni;
  • una seniority di almeno 4 anni su progetti che prevedano la gestione delle basi dati e/o attività di reporting in tecnologia Microsoft
  • capacità di gestire l’intero ciclo di sviluppo delle basi dati, di ottimizzazione delle prestazioni dei database e di progettazione e sviluppo di processi ETL; esperienza su reporting relazionale e reporting multidimensionale / OLAP
  • essere in possesso delle seguenti competenze tecnologiche: o linguaggi di programmazione SQL, PL-SQL, T-SQL. MDX o Microsoft SQL Server, Reporting Services, Analysis Services o Microsoft Power BI o Microsoft Visual Studio o Microsoft SourceSafe

Sede operativa: Remoto (preferibile ubicazione su Roma o dintorni per eventuali presenze sporadiche in sede)

Si offre un inserimento in un contesto stimolante e innovativo, con grandi prospettive di crescita professionale e una retribuzione commisurata all’esperienza.

Si richiede l’invio di Curricula rispondenti al profilo della posizione aperta, verranno presi in considerazione solo quelli effettivamente in possesso dei requisiti sopraindicati.

La ricerca è rivolta ad entrambi i sessi (L.903/77).

Inviare dettagliato curriculum vitae, con l’autorizzazione al trattamento dei dati personali secondo la Legge 196/2003.

Senior Backend / AI Engineer (Python)
Hybrid Mind
Multiple locations
Remote or hybrid
Senior
Private salary

We’re supporting one in their efforts to build an AI product that brings together operational, supply chain, and financial data into a single intelligent platform used by business and technical teams.

We’re now scaling it across additional datasets and expanding the intelligence layer to support advanced analytics and agentic workflows.

We’re looking for a Senior Backend / AI Engineer who is Python-first, comfortable working close to data, and has hands-on experience using LLMs in real systems.

This is a contract role with a strong likelihood of long-term extension.

What You’ll Do

  • Build and maintain backend services in Python
  • Develop and improve LLM-powered features for interacting with structured data
  • Design APIs and services that expose analytics and insights to frontend teams
  • Work on agent-based or workflow-driven AI systems
  • Contribute to architecture and technical direction of a growing product
  • Write clean, maintainable, production-grade code

What We’re Looking For

  • Strong experience as a backend software engineer (Python)
  • Hands-on experience working with LLMs / Generative AI
  • Comfortable working with SQL and structured datasets
  • Analytical mindset and interest in data-driven problem solving
  • Experience deploying services in a cloud environment (AWS preferred)

Nice to Have

  • Experience with agent frameworks (e.g., LangChain, LangGraph, or similar)
  • Background in data engineering, analytics, or data science
  • Experience building internal platforms or data products
Data Engineer BI (AWS & Snowflake)
SEIDOR
Barcelona
Remote or hybrid
Mid - Senior
Private salary

Humanizando la Tecnología.

Somos una gran empresa con alma de start-up. Nos organizamos por unidades de conocimiento expertas que colaboran entre sí.

En SEIDOR estamos convencidos en las posibilidades de crecimiento que ofrece la movilidad interna, pensamos que es una de las la mejores formas de desarrollarnos, de crecer personal y profesionalmente .

¿TE APUNTAS AL RETO?

Buscamos Data Engineer BI (AWS & Snowflake), perfil Data para un proyecto de transformación e implementación BI. La persona seleccionada participará activamente en el análisis, diseño y desarrollo de soluciones de datos, trabajando de forma cercana con el cliente para entender sus procesos y adaptar las soluciones a sus necesidades.

¿QUÉ HARÁS EN TU DÍA A DÍA?

Interlocución directa con el cliente para comprender procesos actuales y fuentes de datos origen.

Interpretación y adaptación de la información recibida para traducirla en soluciones técnicas.

Desarrollo de pipelines de datos en entornos AWS y Snowflake.

Análisis y modelado de datos orientado a BI.

Visualización de datos en herramientas como Tableau y Power BI.

Participación activa en la fase de descubrimiento para preparar el backlog de implementación.

Apoyo en la preparación de entregables y documentación técnica.

¿QUÉ ESPERAMOS DE TI?

Experiencia demostrable como Data Engineer en entornos AWS y Snowflake.

Sólidos conocimientos en modelado de datos y análisis BI.

Experiencia con herramientas de visualización: Tableau, Power BI.

Capacidad para comunicarse eficazmente con cliente, entender requerimientos funcionales y traducirlos a soluciones técnicas.

Mentalidad colaborativa y orientación a resultados.

Se valorará

Conocimiento previo de entornos educativos o administrativos públicos.

Experiencia como Data Engineer en entornos Oracle

Experiencia en proyectos de implantación de soluciones de datos de extremo a extremo.

¿QUE ENCONTRARÁS EN SEIDOR?

  • Un equipo diverso. Respetamos las diferencias que nos hacen más humanos.
  • Compañerismo. Trabajamos en equipo y aprendemos los unos de los otros.
  • Flexibilidad y conciliación. El teletrabajo está en nuestro ADN. Promovemos la flexibilidad horaria, y tenemos jornada intensiva los viernes y los meses de julio y agosto.
  • Aprendizaje continuo. Formaciones en idiomas, técnicas, certificaciones, etc.
  • Carrera profesional individualizada, para que seas tú quien decide hasta dónde quieres llegar.
  • Autonomía y posibilidad de proponer y promover nuevas oportunidades.
  • Programa de retribución flexible. Tickets guardería, restaurante, transporte, y seguro médico.
  • Descuentos exclusivos y condiciones especiales en tecnología, ocio, viajes, etc.
  • Podrás formar parte de iniciativas solidarias y relacionadas con el medio ambiente.
  • Si tienes inquietudes internacionales, estamos en 45 países.

¡Únete a nuestro equipo y ayúdanos a humanizar el mundo a través de la tecnología!

Software Engineer
Queen Square Recruitment
Velilla de San Antonio
Remote or hybrid
Mid - Senior
Private salary
+1

About the Company

We are looking for a Software Engineer III with strong Data Engineering and MLOps experience.

About the Role

This is not a Data Scientist position — the role focuses on building production-grade data and ML pipelines and automating infrastructure on Azure Databricks. You will work at the intersection of data engineering, infrastructure automation, and machine learning, transforming prototype workflows into reliable, observable, and cost-efficient production pipelines.

Responsibilities

  • Design and maintain end-to-end data and ML pipelines using Databricks Workflows, Delta Lake, and Unity Catalog.
  • Build reproducible training and deployment workflows integrated with experiment tracking, model registry, and artifact management.
  • Implement data quality and observability frameworks.
  • Build dashboards for data quality, model performance, and operational metrics (Lakeview, Grafana, or similar).
  • Automate ingestion and feature pipelines using PySpark, SQL Warehouses, and Databricks Asset Bundles under CI/CD.
  • Manage security, access, and governance.
  • Optimize performance and cost of compute workloads.
  • Develop automated evaluation and validation pipelines triggered by new telemetry data.
  • Implement monitoring for drift detection, feature stability, and prediction quality.
  • Maintain reproducible environments using Infrastructure as Code and containerization (Terraform or similar).

Qualifications

  • Strong Azure Databricks experience
  • Strong PySpark / Data Engineering experience
  • MLOps / ML pipeline automation experience
  • CI/CD and Infrastructure as Code experience
  • Experience with monitoring and production pipelines

Required Skills

  • Strong Azure Databricks experience
  • Strong PySpark / Data Engineering experience
  • MLOps / ML pipeline automation experience
  • CI/CD and Infrastructure as Code experience
  • Experience with monitoring and production pipelines

Preferred Skills

  • Experience with monitoring and production pipelines

Pay range and compensation package

Location: Madrid / Remote

Contract: Contract / Freelance

Rate: Hourly rate negotiable

Start date: Immediate or within two weeks preferred

Business Intelligence Developer
InterEx Group
Selvazzano Dentro
Remote or hybrid
Mid - Senior
Private salary

BI Developer responsibilities include:

  • Designing, developing and maintaining business intelligence solutions
  • Crafting and executing queries upon request for data
  • Presenting information through reports and visualization

Our client is looking for a Business Intelligence (BI) Developer to create and manage BI and analytics solutions that turn data into knowledge.

In this role, you should have a background in data and business analysis. You should be analytical and an excellent communicator. If you also have business acumen and problem-solving aptitude, we’d like to meet you. Ultimately, you will enhance the client’s business intelligence system to help them make better decisions.

Responsibilities:

  • Translate business needs to technical specifications
  • Design, build and deploy BI solutions (e.g. reporting tools)
  • Maintain and support data analytics platforms (e.g. MicroStrategy)
  • Create tools to store data (e.g. OLAP cubes)
  • Conduct unit testing and troubleshooting
  • Evaluate and improve existing BI systems
  • Collaborate with teams to integrate systems
  • Develop and execute database queries and conduct analyses
  • Create visualizations and reports for requested projects
  • Develop and update technical documentation

Requirements:

  • Proven experience as a BI Developer or Data Scientist
  • Industry experience is preferred
  • Background in data warehouse design (e.g. dimensional modelling) and data mining
  • In-depth understanding of database management systems, online analytical processing (OLAP) and ETL (Extract, transform, load) framework
  • Familiarity with BI technologies (e.g. Microsoft Power BI, Oracle BI)
  • Knowledge of SQL queries, SQL Server Reporting Services (SSRS) and SQL Server Integration Services (SSIS)
  • Proven abilities to take initiative and be innovative
  • Analytical mind with a problem-solving aptitude
  • BSc/BA in Computer Science, Engineering or a relevant field

We look forward to receiving your application!

Software Engineer - Data Integrations
ElasticHotel
Multiple locations
Fully remote
Mid - Senior
Private salary

ElasticHotel vuole rivoluzionare il modo in cui gli albergatori usano la tecnologia in un settore sempre più complesso e competitivo.

Il panorama dei sistemi utilizzati nel mondo hospitality è spesso frammentato: il nostro lavoro è progettare strumenti che permettano di integrare informazioni provenienti da diverse fonti e trasformarle in insight utili per chi gestisce una struttura.

Per farlo stiamo ampliando il nostro team tecnico con una figura che si occuperà di progettare e sviluppare sistemi di acquisizione, elaborazione e integrazione dati.

Attività sulle quali lavorerai:

  • Progettazione e sviluppo di pipeline di web scraping e data acquisition.
  • Integrazione con API di terze parti del settore hospitality.
  • Progettazione di sistemi asincroni per la schedulazione e l’orchestrazione di job ricorrenti.
  • Utilizzo di database relazionali e NoSQL per costruire sistemi scalabili di data storage e retrieval.
  • Costruzione di pipeline ELT per portare i dati dallo storage cloud al database applicativo, passando per fasi di trasformazione e pulizia.
  • Uso di LLM e modelli di AI generativa per analizzare, classificare e arricchire i dati raccolti.

Cosa ti farà emergere:

  • Ti piace sviluppare software ben strutturato, con attenzione a clean architecture e design pattern.
  • Conosci bene Python.
  • Hai esperienza concreta con web scraping (Scrapy, Playwright, Selenium o simili).
  • Sai progettare sistemi asincroni e task queue.
  • Hai lavorato con API RESTful, sia lato consumo che progettazione.
  • Hai esperienza con LLM e prompt engineering integrati in pipeline di dati (OpenAI, Anthropic o simili).
  • Hai un approccio analitico al design dei sistemi e un mindset orientato al miglioramento continuo.

Punti extra:

  • Esperienza con data storage cloud-based, in particolare servizi AWS.
  • Familiarità con il settore hospitality.
  • Esperienza nello sviluppo di applicativi che nascono standalone ma devono integrarsi in architetture più ampie.

Cosa offriamo:

  • Posizione completamente da remoto, con orari flessibili.
  • L’opportunità di lavorare a stretto contatto con il core team, contribuendo direttamente alle decisioni di prodotto.
  • Un progetto innovativo e centrale per la strategia aziendale, con la possibilità di definire l’approccio tecnico fin dalle fondamenta.
  • Un ambiente dove sperimentare è incoraggiato: nuovi modelli AI, prototipi e idee che possono evolvere in veri prodotti.

Sappiamo quanto è prezioso il tuo tempo: per questo il nostro processo di selezione è rapido e lineare.

Primo Incontro (30-45 minuti)

Il colloquio è un momento di scambio: serve tanto a noi per conoscerti quanto a te per capire chi siamo. In questa fase incontrerai il CPO e potrai approfondire l’azienda e la nostra mission.

Technical Round (60-90 minuti)

Un colloquio tecnico per capire se il tuo profilo è in linea con il ruolo.

Parleremo di tech stack, cultura aziendale e affronteremo insieme alcuni esempi di codice per vedere il tuo approccio al problem solving.

Ci sarà anche una parte di system design per capire come pensi e progetti sistemi scalabili.

Incontro Finale (30 minuti)

Questo è lo spazio per chiedere tutto ciò che vuoi su di noi e sul nostro modo di lavorare. Nel round finale possiamo approfondire gli aspetti che più ti interessano e potresti conoscere altri membri del team.

Sviluppatore Big Data
F1 Consulting & Services
Multiple locations
Fully remote
Junior - Mid
Private salary

F1 Consulting & Services è una società di consulenza informatica operante su tutto il territorio nazionale, con sedi principali a Milano, Torino, Verona e Roma.

Ad oggi, conta circa 100 professionisti impiegati nella fornitura di servizi specializzati nel settore ICT, in uno scenario estremamente competitivo ed in rapida trasformazione.

Grazie alle competenze acquisite su clienti leader di mercato, opera internamente su tre Business Unit quali SAP , Gold Partner Microsoft CRM e Digital Opensource (Machine Learning e Business Intelligence) portando avanti progetti di consulenza professionale per prestigiosi clienti o per i più importanti system integrator.

Siamo alla ricerca di un Data Engineer, con almeno 1 anno di esperienza che abbia solide competenze su:

  • Python per lo sviluppo di pipeline e script ETL
  • SQL avanzato per la manipolazione ed estrazione di dati
  • Esperienza almeno 1 anno con Apache Spark
  • Laurea ing informatica/ informatica o STEM
  • Esperienza con Databricks
  • Esperienza su almeno un provider cloud ( Google Cloud Platform, AWS, Azure )
  • Italiano fluente

Sede: full remoto - residente in Italia

Modalità contrattuale : assunzione CCNL Commercio

Il presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

Frequently asked questions
Haystack features a variety of remote Data Engineer positions, including roles in data pipeline development, database management, ETL processes, and cloud data engineering across industries like tech, finance, healthcare, and more.
Many remote Data Engineer jobs require experience with tools such as SQL, Python, Apache Spark, Hadoop, and cloud platforms like AWS, Azure, or Google Cloud. Specific requirements vary by role, so be sure to check individual job descriptions.
Simply browse our remote Data Engineer job listings, select the role you're interested in, and click the apply button. You'll be prompted to submit your resume and any additional required information directly to the employer.
While many remote Data Engineer positions require some professional experience, Haystack also lists entry-level roles and internships. Use our filters to find opportunities that match your skill level.
Yes! You can create personalized job alerts on Haystack to receive notifications via email about new remote Data Engineer jobs that match your criteria, helping you stay up-to-date with the latest opportunities.