New offer - be the first one to apply!

December 17, 2025

Full Stack Data Engineer (AWS & BI)

Mid • Remote

$150 - $200/

Warsaw, Poland

Everything is possible with the right people

In4ge jest firmą rekrutacyjną, w której wierzymy, że wszystko jest możliwe dzięki odpowiednim ludziom. Naszym celem jest połączenie najbardziej utalentowanych pracowników z odpowiednimi firmami, tworząc synergiczne relacje, które przyczyniają się do wzrostu i sukcesu każdej ze stron. Uważamy, że prawdziwą wartość stanowią ludzie pracujący wspólnie w atmosferze wzajemnego szacunku i zaufania.


Poszukujemy Mid/Senior Full Stack Data Engineera z doświadczeniem w tworzeniu rozwiązań BI oraz budowie skalowalnych platform danych w oparciu o usługi AWS. Rola obejmuje utrzymanie i rozwój środowiska analitycznego, integrację różnorodnych źródeł danych oraz przygotowywanie raportów i dashboardów wspierających decyzje biznesowe.


Zakres odpowiedzialności:​

  • Zbieranie wymagań i ich przekładanie na skalowalne rozwiązania danych.

  • Projektowanie, budowanie i utrzymanie architektury danych w AWS (data lakes, hurtownie, ETL/ELT, orkiestracja procesów).

  • Tworzenie i automatyzacja pipeline’ów w oparciu o AWS Glue, Lambda, Step Functions oraz CDK.

  • Integracja danych z różnorodnych API oraz systemów wewnętrznych.

  • Rozwój warstwy BI i budowa dashboardów w Amazon QuickSight (lub alternatywnych narzędziach BI).

  • Utrzymanie środowiska IaC i CI/CD (CloudFormation, CodePipeline).

  • Monitorowanie operacyjne (CloudWatch, CloudTrail) oraz optymalizacja wydajności.

  • Zapewnianie zgodności z zasadami bezpieczeństwa i governance (IAM, szyfrowanie, kontrola dostępu).

  • Współpraca z zewnętrznymi zespołami technicznymi i dostawcami danych.

  • Zarządzanie ryzykiem, incydentami i podatnościami związanymi ze środowiskiem danych.


Wymagania:

  • Doświadczenie w pracy z usługami AWS: Glue, Lambda, Step Functions, Redshift Serverless, S3, Athena, CDK, CloudFormation oraz QuickSight.

  • Bardzo dobra znajomość Python, SQL oraz Spark/PySpark.

  • Praktyka w budowie i utrzymaniu pipeline’ów danych oraz architektury data lake / data warehouse.

  • Umiejętność modelowania danych, projektowania workflowów oraz automatyzacji procesów w chmurze.

  • Doświadczenie w integracji danych z różnych API i systemów.

  • Znajomość nowoczesnych frameworków ETL/ELT.

  • Umiejętność pracy z CI/CD (AWS CodePipeline, Git).

  • Doświadczenie w monitorowaniu i audycie środowisk chmurowych (CloudWatch, CloudTrail).

  • Praktyka w tworzeniu dashboardów BI (preferowane Amazon QuickSight, ale możliwe również inne narzędzia).

  • Wiedza z zakresu bezpieczeństwa i governance: IAM, szyfrowanie danych, kontrola dostępu oraz dobre praktyki bezpieczeństwa w AWS.

  • Mile widziane doświadczenie z API platform e-commerce lub marketingowych, znajomość analityki sprzedażowej i łańcucha dostaw oraz praca z AWS Data Catalog, DataBrew lub Redshift Spectrum.

  • Gotowość do udziału w projekcie, którego harmonogram częściowo pokrywa się z godzinami pracy w US (4h w ciągu dnia).


Oferujemy:

  • Projekty realizowane w międzynarodowym środowisku. 

  • Wpływ na wytwarzanie produktu. 

  • Przyjazną kulturę pracy i doświadczony zespół inżynierów.

  • Współpracę w ramach modelu B2B na przejrzystych warunkach.

  • Zdalny model projektu.