Szukasz dla siebie czegoś nowego? Dobrze się składa - mamy o czym rozmawiać!
Sprawdź, co czeka Cię w Scalo:
zarządzanie środowiskiem BIG Data - Hadoop,
projektowanie rozwiązań informatycznych umożliwiających przetwarzanie danych w czasie rzeczywistym (Kafka),
integracja rozwiązań z innymi wewnętrznymi systemami banku,
praca w samoorganizującym się zespole z wykorzystaniem metodologii Agile (Scrum),
stawka do 130 zł/h netto + vat (w zależności od doświadczenia).
Dobrze odnajdziesz się w naszym zespole, jeśli:
posiadasz min. 3 lata komercyjnego doświadczenia na podobnym stanowisku,
masz min. 1 rok doświadczenia we wdrażaniu rozwiązań przetwarzania danych na platformach big data (hive, impala, kudu, hbase, spark streaming/spark structured streaming, Kafka, Apache Nifi),
posiadasz doświadczenie z klastrami: Hadoop, Kafka,
wiesz jak wykorzystywać języki java, scala lub python do przetwarzania danych,
masz znajomość dobrych praktyk przetwarzania dużych zbiorów danych, w tym standardów projektowania, kodowania, dokumentowania, testowania i wdrażania
Co możesz zyskać?
możliwość rozwoju kompetencji w ramach współpracy z naszym Center of Excellence,
długofalową współpracę - różnorodne projekty,
program finansowania, przygotowania i egzaminu na certyfikaty z nowoczesnych technologii (Azure, AWS, GCP),
udział w wydarzeniach technologicznych np. Devoxx, Confitura,
platformę e-learningową i lekcje języka angielskiego (angielski biznesowy i angielski w IT),
ProMEET - własny event dla społeczności IT, na którym możesz zostać prelegentem,
udział w akcjach charytatywnych np. Szlachetna Paczka,
płatny Program Poleceń,
bonus relokacyjny,
dofinansowanie opieki medycznej i karty sportowej.