RoboSync.AI

Data Engineer – Databricks / Lakehouse (B2B Contractor)

⭐ - Featured Role | Apply direct with Data Freelance Hub
This role is for a Data Engineer – Databricks / Lakehouse (B2B Contractor) with a medium to long-term contract, offering a hybrid work location. Key skills include Databricks, PySpark, and Delta Lake, with experience in ETL/ELT pipelines and data governance required.
🌎 - Country
United Kingdom
💱 - Currency
£ GBP
-
💰 - Day rate
Unknown
-
🗓️ - Date
March 6, 2026
🕒 - Duration
Unknown
-
🏝️ - Location
Hybrid
-
📄 - Contract
Unknown
-
🔒 - Security
Unknown
-
📍 - Location detailed
United Kingdom
-
🧠 - Skills detailed
#PySpark #"ETL (Extract #Transform #Load)" #Scala #Data Engineering #Delta Lake #Cloud #BI (Business Intelligence) #AI (Artificial Intelligence) #Data Lineage #Storage #Spark SQL #Data Pipeline #Data Governance #ML (Machine Learning) #Databricks #Spark (Apache Spark) #SQL (Structured Query Language)
Role description
Căutăm un Data Engineer cu experiență solidă în Databricks, capabil să construiască pipeline-uri moderne de date, arhitecturi Lakehouse și un ecosistem de date scalabil pentru analytics și AI. Rolul este deschis în regim contractor B2B, colaborare pe termen mediu/lung, într-un mediu tehnic orientat pe data platforms moderne. Responsabilități • Construirea și optimizarea de data pipelines în Databricks (Jobs, Workflows, Delta Live Tables). • Dezvoltarea și administrarea de Lakehouse architectures folosind Delta Lake. • Implementarea de transformări de date cu PySpark și SQL în notebooks Databricks. • Integrarea datelor din multiple surse (APIs, baze de date, streaming, cloud storage). • Asigurarea calității datelor, versionării și data lineage folosind Delta Lake. • Automatizarea fluxurilor end-to-end și documentarea pipeline-urilor. • Colaborarea cu echipele de BI și AI/ML pentru pregătirea și modelarea datelor. Profilul dorit • Experiență hands-on cu Databricks (Lakehouse Platform). • Cunoștințe solide de PySpark, Spark SQL și Delta Lake. • Experiență în ETL/ELT pipelines și arhitecturi Lakehouse. • Experiență cu Databricks Workflows / Jobs / Delta Live Tables. • Înțelegere a data governance, securitate și data lineage în platforme moderne de date. • Experiența în pregătirea datelor pentru AI/ML workloads reprezintă un plus. Tip colaborare • Contractor B2B - SRL/PFA • Posibilitate colaborare remote / hibrid (în funcție de proiect) • Implicare în proiecte de data platforms moderne pentru analytics și AI