New offer - be the first one to apply!

December 17, 2025

DevOps Engineer

Senior • Hybrid

$100 - $135/

Warsaw, Poland

Dołącz do zespołu odpowiedzialnego za budowę i operacjonalizację nowoczesnej platformy BI/analitycznej opartej o Databricks 🚀

Rola zakłada ścisłą współpracę z zespołami ML Ops oraz Data Engineering w ramach tworzonego w Polsce centrum technologicznego lidera niemieckiego rynku ✨


Poszukujemy doświadczonego DevOps'a, który będzie kluczową osobą przy uruchamianiu i utrzymaniu nowego środowiska Databricks – wspierającego zaawansowane procesy AI oraz Machine Learning 💪🏻


Chodź do nas! 🔥




✅ Wymagania:



Must-have:


  • Doświadczenie w DevOps / Data Platform Ops w środowiskach chmurowych.

  • Bardzo dobra znajomość Terraform.

  • Python na potrzeby automatyzacji.

  • Znajomość SQL oraz podstaw data engineering.

  • Doświadczenie z orkiestracją (Databricks Workflows / Airflow / ADF).

  • Znajomość IAM w środowiskach chmurowych.


Nice-to-have:


  • Administracja środowiskiem Azure Databricks.

  • Znajomość Azure (ADLS, Synapse).

  • Doświadczenie z IaC (Terraform, ARM).

  • Performance tuning dla BI i dużych zbiorów danych.

  • Wiedza o architekturze Delta Lake.



✅ Obowiązki:


  • Konfiguracja i utrzymanie środowiska

  • Tworzenie, konfiguracja i przygotowanie środowisk Databricks dla wielu zespołów.

  • Ustalanie zasad wykorzystania zasobów – shared clusters, job clusters, interactive clusters.

  • Konfiguracja ról, uprawnień i polityk zgodnych z zasadami data governance.

  • Budowa bezpiecznych połączeń z danymi on-prem oraz w chmurze (SQL Server, data lake, API).

  • Tworzenie wspólnych pipeline’ów do zasilania BI i analityki.

  • Automatyzacja cyklicznych procesów odświeżania danych.

  • Integracja środowiska Databricks z Power BI oraz innymi narzędziami raportowymi.

  • Konfiguracja i optymalizacja JDBC/ODBC oraz konektorów BI.

  • Wdrażanie monitoringu, logowania i alertowania dla jobów oraz pipeline’ów.

  • Definiowanie procesów backupu i disaster recovery.

  • Kontrola kosztów użycia klastrów oraz rekomendacje optymalizacyjne.

  • Budowa pipeline’ów CI/CD dla kodu data engineering.

  • Zarządzanie wdrożeniami notebooków, zapytań SQL oraz modeli danych.

  • Współpraca z ML Ops nad wspólną infrastrukturą i zasobami (shared storage, Delta Lake).



✅ Benefity:


  • Stabilna współpraca z liderem rynku niemieckiego w branży telco.

  • Praca przy tworzeniu nowego Europejskiego Centrum Technologicznego.

  • Hybrydowy model pracy.

  • Realny wpływ na architekturę i standardy pracy środowiska Data & AI.

  • Możliwość rozwoju w kierunku ML Ops/Data Ops/Cloud Engineering.

  • Praca w międzynarodowych zespołach i nowoczesnym ekosystemie chmurowym.