Kurti, diegti ir prižiūrėti duomenų inžinerijos sprendimus, paremtus modernia duomenų platforma (lakehouse principu).
Įgyvendinti duomenų srautus, transformacijas (ELT), naudoti dbt, Airflow ir Python / R kalbas.
Kurti patikimus ir efektyvius duomenų apdorojimo procesus, bendradarbiaujant su duomenų analitikais, architektais ir verslo komandomis.
Rengti ir tobulinti integracijas su išoriniais ir vidiniais šaltiniais, valdant duomenų įkėlimą per onboarding portalus.
Padėti pasirengti migracijai į debesijos platformą (AWS, Azure arba GCP), diegiant gerąsias praktikas, automatizaciją ir infrastruktūrą kaip kodą (IaC).
Reikalavimai
Aukštasis išsilavinimas IT, informatikos ar susijusioje srityje.
Daugiau nei 3 metų praktinė patirtis kuriant duomenų srautus ir transformacijas (ETL/ELT).
Patirtis dirbant su dbt, Python, Airflow ar panašiais įrankiais.
Patirtis dirbant su duomenų sandėliais ar lakehouse (pvz., Iceberg, Parquet, Hive, S3).
Patirtis su CI/CD procesais ir įrankiais (GitLab, ArgoCD)
Pageidautina patirtis su Starburst, JupyterHub, RStudio, ar panašiomis analitikos priemonėmis.
Patirtis arba motyvacija dirbti debesijos aplinkoje (AWS, Azure arba GCP).
Geros techninės anglų kalbos žinios.
Įmonė siūlo
Galimybę prisidėti prie reikšmingų IT projektų finansų sektoriuje.
Profesionalią ir draugišką komandą, kuriančią ateities technologinius sprendimus.
Lankstumą ir galimybę augti bei tobulėti profesinėje srityje.
Darbą organizacijoje, kuri vertina inovacijas, efektyvumą ir skaidrumą.
Terminuotą projektinę darbo sutartį.
Konkurencingą atlyginimą, priklausantį nuo jūsų kompetencijų ir patirties.
Klausimai ir atsakymai
Užduokite klausimą:
Jūs galite pateikti klausimą darbdaviui. Klausimas atsiras skelbime iškart, kai tik darbdavys atsakys į jį. Lanktytojai negalės matyti jūsų el. pašto adreso.
Persiųsti
Nuoroda į skelbimą bus pridėta automatiškai žinutės pabaigoje.