

RoboSync.AI
Data Engineer – Databricks / Lakehouse (B2B Contractor)
⭐ - Featured Role | Apply direct with Data Freelance Hub
This role is for a Data Engineer – Databricks / Lakehouse (B2B Contractor) with a medium to long-term contract, offering a hybrid work location. Key skills include Databricks, PySpark, and Delta Lake, with experience in ETL/ELT pipelines and data governance required.
🌎 - Country
United Kingdom
💱 - Currency
£ GBP
-
💰 - Day rate
Unknown
-
🗓️ - Date
March 6, 2026
🕒 - Duration
Unknown
-
🏝️ - Location
Hybrid
-
📄 - Contract
Unknown
-
🔒 - Security
Unknown
-
📍 - Location detailed
United Kingdom
-
🧠 - Skills detailed
#PySpark #"ETL (Extract #Transform #Load)" #Scala #Data Engineering #Delta Lake #Cloud #BI (Business Intelligence) #AI (Artificial Intelligence) #Data Lineage #Storage #Spark SQL #Data Pipeline #Data Governance #ML (Machine Learning) #Databricks #Spark (Apache Spark) #SQL (Structured Query Language)
Role description
Căutăm un Data Engineer cu experiență solidă în Databricks, capabil să construiască pipeline-uri moderne de date, arhitecturi Lakehouse și un ecosistem de date scalabil pentru analytics și AI.
Rolul este deschis în regim contractor B2B, colaborare pe termen mediu/lung, într-un mediu tehnic orientat pe data platforms moderne.
Responsabilități
• Construirea și optimizarea de data pipelines în Databricks (Jobs, Workflows, Delta Live Tables).
• Dezvoltarea și administrarea de Lakehouse architectures folosind Delta Lake.
• Implementarea de transformări de date cu PySpark și SQL în notebooks Databricks.
• Integrarea datelor din multiple surse (APIs, baze de date, streaming, cloud storage).
• Asigurarea calității datelor, versionării și data lineage folosind Delta Lake.
• Automatizarea fluxurilor end-to-end și documentarea pipeline-urilor.
• Colaborarea cu echipele de BI și AI/ML pentru pregătirea și modelarea datelor.
Profilul dorit
• Experiență hands-on cu Databricks (Lakehouse Platform).
• Cunoștințe solide de PySpark, Spark SQL și Delta Lake.
• Experiență în ETL/ELT pipelines și arhitecturi Lakehouse.
• Experiență cu Databricks Workflows / Jobs / Delta Live Tables.
• Înțelegere a data governance, securitate și data lineage în platforme moderne de date.
• Experiența în pregătirea datelor pentru AI/ML workloads reprezintă un plus.
Tip colaborare
• Contractor B2B - SRL/PFA
• Posibilitate colaborare remote / hibrid (în funcție de proiect)
• Implicare în proiecte de data platforms moderne pentru analytics și AI
Căutăm un Data Engineer cu experiență solidă în Databricks, capabil să construiască pipeline-uri moderne de date, arhitecturi Lakehouse și un ecosistem de date scalabil pentru analytics și AI.
Rolul este deschis în regim contractor B2B, colaborare pe termen mediu/lung, într-un mediu tehnic orientat pe data platforms moderne.
Responsabilități
• Construirea și optimizarea de data pipelines în Databricks (Jobs, Workflows, Delta Live Tables).
• Dezvoltarea și administrarea de Lakehouse architectures folosind Delta Lake.
• Implementarea de transformări de date cu PySpark și SQL în notebooks Databricks.
• Integrarea datelor din multiple surse (APIs, baze de date, streaming, cloud storage).
• Asigurarea calității datelor, versionării și data lineage folosind Delta Lake.
• Automatizarea fluxurilor end-to-end și documentarea pipeline-urilor.
• Colaborarea cu echipele de BI și AI/ML pentru pregătirea și modelarea datelor.
Profilul dorit
• Experiență hands-on cu Databricks (Lakehouse Platform).
• Cunoștințe solide de PySpark, Spark SQL și Delta Lake.
• Experiență în ETL/ELT pipelines și arhitecturi Lakehouse.
• Experiență cu Databricks Workflows / Jobs / Delta Live Tables.
• Înțelegere a data governance, securitate și data lineage în platforme moderne de date.
• Experiența în pregătirea datelor pentru AI/ML workloads reprezintă un plus.
Tip colaborare
• Contractor B2B - SRL/PFA
• Posibilitate colaborare remote / hibrid (în funcție de proiect)
• Implicare în proiecte de data platforms moderne pentru analytics și AI






