Job Description
<h3>📋 Description</h3> • Cloud Data Architect (GCP) <h3>🎯 Requirements</h3> • posiadasz min. 5 lat doświadczenia w pracy z danymi w Google Cloud Platform (potwierdzone komercyjnymi wdrożeniami produkcyjnymi).
• masz szeroką wiedzę o usługach Data & Analytics w GCP (BigQuery, BigLake, Dataflow, Dataproc, Pub/Sub, Cloud Composer, Dataplex, Senstive Data Protection, Looker, Vertex AI).
• biegle korzystasz z narzędzi i procesów CI/CD, IaC (Terraform i/lub Cloud Deploy/Cloud Build), Git.
• potrafisz projektować i modyfikować modele danych oraz dobierać odpowiednią architekturę (DWH, Data Marts, Data Lake, Delta Lake, Lakehouse, BigLake).
• architektury Lambda i Kappa nie kryją przed Tobą tajemnic; wiesz, jak implementować je w GCP.
• masz doświadczenie w budowie rozwiązań “near-real-time” (Pub/Sub, Dataflow).
• korzystasz z SQL i Pythona na poziomie zaawansowanym.
• potrafisz projektować skalowalne i odporne na błędy pipeline’y z wykorzystaniem Dataflow (Apache Beam) i Dataproc, dobierając odpowiednie wzorce dla przetwarzania batch & streaming.
• masz doświadczenie w optymalizacji wydajności i kosztów pipeline’ów Dataflow oraz klastrów Dataproc (autoscaling, sizing workerów).
• monitoring, diagnostyka i rozwiązywanie problemów w chmurze (Cloud Monitoring, Logging, Error Reporting, Cloud Trace) to dla Ciebie codzienność.
• posiadasz wiedzę na temat migracji rozwiązań on-premise do GCP i znasz różne typy migracji (lift-and-shift, re-platform, re-architect).
• wiesz, jak stosować mechanizmy bezpiecznego przechowywania i przetwarzania danych w GCP (VPC Service Controls, CMEK, DLP, Cloud KMS).
• brałeś(aś) udział w spotkaniach przedsprzedażowych i umiesz przekładać wymagania biznesowe na rozwiązania techniczne.
• cechuje Cię myślenie strategiczne i analityczne, dobra samoorganizacja, samodzielność, adaptacyjność, komunikatywność oraz proaktywność.
• masz doświadczenie w mentorowaniu i szkoleniu inżynierów o mniejszym stażu oraz wspieraniu ich rozwoju.
• prowadzenie prezentacji / prelekcji podczas wydarzeń branżowych nie spędza Ci snu z powiek.
• jesteś otwarty(a) na wyjazdy służbowe.
• posługujesz się językiem angielskim na poziomie zaawansowanym (min. C1). <h3>🏖️ Benefits</h3> • konsultowanie rozwiązań z klientami – obecnymi i potencjalnymi – oraz doradztwo w doborze technologii GCP, z dążeniem do optymalnego kosztowo rozwiązania problemu biznesowego.
• udział w spotkaniach discovery / pitch – prezentacja naszego doświadczenia, procesu, podejścia do GCP, doprecyzowanie wymagań.
• tworzenie wkładu merytorycznego do ofert: schematy architektury, obliczenia TCO / ROI / kosztów GCP za pomocą Pricing Calculatora.
• estymowanie projektów i zapotrzebowania na zasoby zespołu Data Solutions.
• budowanie argumentacji przekonującej klienta do proponowanego rozwiązania, wskazywanie przewag nad alternatywami.
• udział w spotkaniach ofertowych – odpowiadanie na pytania, prezentacja architektury i kosztorysu.
• R&D w obszarze Data & Analytics GCP – analiza nowych usług i narzędzi pod kątem wartości biznesowej.
• tworzenie Proof-of-Concept dla nowych koncepcji danych.
• utrzymywanie relacji z technicznym zespołem klienta i koordynację pracy inżynierów zaangażowanych w projekt.
• aktywne zaangażowanie w rozwój linii biznesowej Data Solutions (rekrutacja, pozyskiwanie klientów, prelekcje konferencyjne, mentoring).
• odpowiedzialność end-to-end za rozwiązania data-platformowe tworzone wspólnie z zespołem.
• tworzenie i optymalizację potoków ETL/ELT w GCP (BigQuery, Dataflow, Dataproc, Cloud Composer).
• tworzenie i modyfikowanie dokumentacji.
• budowanie i utrzymywanie katalogu oraz modeli danych zgodnie z najlepszymi praktykami Data Governance.
• analizę wymagań biznesowych i dobór optymalnych rozwiązań technologicznych.
• analizowanie potencjalnych zagrożeń.
• monitoring, diagnostykę i FinOps-owe optymalizacje kosztów chmury.