New offer - be the first one to apply!
December 18, 2025
Senior • Hybrid
Warsaw, Poland
Opis stanowiska
Projektowanie, rozwój i utrzymanie potoków danych (ETL/ELT) w środowisku GCP.
Integracja danych z różnych źródeł (API, bazy, pliki) do narzędzi takich jak BigQuery i Cloud Storage.
Projektowanie i optymalizacja modeli danych w hurtowniach danych (Kimball, Data Vault, Dimensional Modeling).
Implementacja rozwiązań streamingowych (np. Pub/Sub, Dataflow, Apache Beam).
Automatyzacja procesów wokół danych przy użyciu Cloud Composer (Airflow).
Planowanie prac/sprintów, priorytetyzacja backlogu, facylitacja warsztatów z biznesem, przekładanie wymagań na rozwiązania i SLA/SLO.
Zapewnienie wydajności, jakości, bezpieczeństwa i skalowalności danych.
Współpraca z zespołami ds. analityki danych, Data Science oraz zespołami biznesowymi.
Tworzenie dokumentacji technicznej i udział w code review.
Monitorowanie i rozwiązywanie problemów wydajnościowych oraz optymalizacja kosztów w chmurze.
Optymalizacja wydajności i kosztów implementowanych rozwiązań.
Mentoring, prowadzenie warsztatów, zarządzanie interesariuszami.
Wymagania
+5 lat doświadczenia na stanowisku Data Engineer oraz doświadczenie w pełnieniu roli wiodącej.
Praktyczna znajomość ekosystemu GCP, w szczególności:- BigQuery - zaawansowany SQL, zarządzanie kosztami, optymalizacja wydajności.- Cloud Storage - zarządzanie danymi, wersjonowanie.- Pub/Sub oraz Dataflow/Apache Beam lub Dataproc/Spark.
Cloud Composer (Airflow) - orkiestracja i harmonogramowanie pipeline’ów danych.
Podstawy bezpieczeństwa w GCP: IAM, KMS, DLP.
Umiejętność programowania w Python (np. pandas, PySpark, testy automatyczne).
Doświadczenie w projektowaniu modeli danych (Kimball, Data Vault, Dimensional Modeling) i budowie warstw danych (raw/bronze, curated/silver, semantic/gold).
Znajomość narzędzi do automatyzacji: CI/CD (np. GitLab CI, Cloud Build).
Praktyka w zapewnieniu jakości danych (testowanie, monitorowanie, alertowanie).
Znajomość narzędzi do monitorowania i rozwiązywania problemów wydajnościowych (Cloud Monitoring, Logging).
Doświadczenie w dokumentacji technicznej oraz code review.
Umiejętność pracy zespołowej i komunikacji z zespołami biznesowymi, technicznymi oraz analitycznymi.
Proaktywność, odpowiedzialność i nastawienie na jakość w obszarze danych.
Mile widziane:
Doświadczenie z narzędziami zarządzania danymi, np.:- dbt, Dataform (transformacja i dokumentacja danych).- Dataplex, Data Catalog (zarządzanie ładem danych).
Praktyczna znajomość narzędzi do analityki takich jak Looker Studio.
Doświadczenie z technologiami MLOps: Vertex AI, Feature Store.
Zaawansowana znajomość Apache Kafka, Apache Pulsar dla streamingu danych.
Znajomość zasad RODO, ISO 27001 i polityk bezpieczeństwa w obszarze danych.
Znajomość narzędzi do zarządzania jakością danych, takich jak Great Expectations/Soda.
Umiejętność tworzenia architektury dla poszczególnych produktów (dostosowanie od
Doświadczenie w migracjach danych z systemów on-prem.
Znajomość Oracle (PL/SQL).
Oferujemy
Dołącz do programu transformacji danych w T‑Mobile i współtwórz program, który zmienia sposób, w jaki pracujemy z danymi na co dzień. Pracuj z najnowocześniejszymi technologiami, miej realny wpływ na strategię danych i rozwijaj kompetencje przyszłości w kulturze otwartej na innowacje. Stwórz z nami przestrzeń na eksperymentowanie, szybkie prototypowanie i tworzenie rozwiązań, które kształtują przyszłość telekomunikacji napędzaną danymi.
Jako Data Engineer będziesz odpowiedzialny za projektowanie, implementację i utrzymanie rozwiązań danych w Google Cloud Platform (GCP). Twoja praca pozwoli wspierać procesy analityczne, biznesowe, aportowanie, rozwój modeli ML, aplikacji AI oraz innych aplikacji wykorzystujących dane w organizacji.