- Stawka:
- Miejsce pracy/praca zdalna: Zapewniamy swobodę pracy zdalnej, przy czym 1-2x w miesiącu zapraszamy do warszawskiego biura na PI planning/workshop.
- Sektor: Money Services
- Opis:
- Proces rekrutacji: 1-etapowy (techniczne spotkanie zdalne), sporadycznie może się zdarzyć krótkie dodatkowe spotkanie z Managerem połączone z decyzją
- Szacowany czas trwania projektu: Długoterminowy/bezterminowy
- Czas pracy/Strefa czasowa: Standardowe polskie godziny pracy (8->16 lub 9->17)
- Zespół/Struktura:
- Technologie na projekcie:
- Zarządzanie infrastrukturą informatyczną powiązaną z klastrem Hadoop z Big Data
- Codzienna praca z problemami związanymi z przetwarzaniem dużych zbiorów danych
- Stałe wsparcie i współpraca z analitykami i użytkownikami narzędzi ekosystemu Big Data
- Zapewnienie wsparcia przy projektach rozwoju platformy Big Data
- Monitoring oraz zapewnienie wsparcia systemów Hadoop (Python, Spark, Hive, Impala)
- Administracja systemem Linux
- Współtworzenie procesów CI/CD dla rozwiązań informatycznych,
- Współpracowanie z zespołami developerskimi oraz bezpieczeństwem IT
- Otrzymywanie wsparcia mentorskiego od doświadczonych kolegów z zespołu
- Zbieranie doświadczenia w obszarze Cloud, Terraform, DevOps, IaC
- Realizowanie prac R&D z wykorzystaniem nowych technologii w obszarze automatyzacji zadań z zakresu Money Services
- Minimum 3-letnie praktyczne doświadczenie z zakresu zarządzania infrastrukturą informatyczną
- Znajomość architektury środowiska rozproszonego Hadoop
- Minimum 3-lata doświadczenia w zakresie administracji środowiskiem Hadoop (Cloudera, Hortonworks)
- Minimum 3-lata doświadczenia w monitoringu i wsparciu aplikacji wykorzystujących: Apache Spark, Hive, HBase, Impala, Kudu
- Znajomość narzędzi do monitoringu (Zabbix, Grafana, SMM itp.)
- Podstawowa znajomość baz relacyjnych (Oracle, MS SQL, Postgres)
- Znajomość systemów Linux Red Hat w zakresie administracji
- Wiedza w zakresie administracji: Informatica Big Data Managment, Apache Kafka, Apache Nifi, Kubernetes oraz automatyzacji CI/CD
- Znajomość GCP i/lub Azure,
- Doświadczenie w administracji serwerami działającymi pod kontrolą systemu operacyjnego Linux (zarówno w środowiskach produkcyjnych jak i rozwojowych),
- Znajomość narzędzi typu: Elastick Stack (Kibana, Logstash, Elastisearch), Hashicorp Stack (Terraform, Packer, Vault, Consul), Grafana, Checkmarx, Sonarqube, GitLab, Jenkins, Ansible, Artifactory,
- Doświadczenie w konteneryzacji aplikacji (Kubernetes, Docker, Podman, Openshift, GKE lub inne)
- Umiejętność pisania kodu do celów automatyzacji (Bash/Python/Java/Groovy/Go/lub inne)
- Wiedza na temat praktyk DevSecOps
- Dużą swobodę pracy zdalnej
- Długofalowe stabilne zatrudnienie w oparciu o kontrakt B2B.
- Dopłatę do karty MultiSport oraz ubezpieczenia.
- Elastyczne godziny startu pracy.
- Szansę na uczestniczenie w kluczowych projektach dla dużej firmy działającej w bardzo stabilnym sektorze.
DevOps Cloud Engineer Admin - Taśmowa C, Warszawa, Polska - ITLT
Opis
W ITLT pomagamy naszym zaprzyjaźnionym firmom przekształcać ambitne pomysły w cyfrową rzeczywistość.
Z nastawieniem na wyzwania, ciekawość technologii i zwinność - współtworzymy wyjątkowe rozwiązania IT i zapewniamy najlepszych specjalistów - którzy pomagają przyspieszyć cyfrową transformację.
Aktualnie poszukujemy kandydatów na stanowiska: Administrator Big Data (Projekt I) // DevOps - GCP or Azure (Projekt II)
KONKRETY:
PROJEKT I: PLN/h
PROJEKT II: PLN/h
PROJEKT I: Współpraca ze zróżnicowanymi departamentami w realizacji projektów z zakresu Money Services. Codzienna praca w środowisku Hadoop (Cloudera), R&D, projektowanie przetwarzania streaming/batch, wdrażanie modeli ML wraz z zespołem Data Science
PROJEKT II: Działania R&D z wykorzystaniem nowych technologii w obszarze automatyzacji zadań w sektorze Money Services
PROJEKT I: Zespół 10-osobowy (4x DevOps, 6x Developerów)
PROJEKT I: Hadoop (Cloudera), Kafka, Nifi, Kubeflow, Spark, Python, Scala
PROJEKT II: GCP, Azure, Elastick Stack (Kibana, Logstash, Elastisearch), Hashicorp Stack (Terraform, Packer, Vault, Consul), Grafana, Checkmarx, Sonarqube, Gitlab, Jenkins, Ansible, Artifactory
Do Twoich głównych obowiązków na tym stanowisku należeć będzie:
PROJEKT I:
PROJEKT II:
Ta oferta będzie idealna dla Ciebie, jeśli posiadasz:
PROJEKT I:
Nice to have:
PROJEKT II:
Warto do nas dołączyć, ponieważ oferujemy:
Przy aplikowaniu - napisz proszę w formularzu (pole: "Dodatkowe informacje dla Działu Rekrutacji") - który projekt/projekty wybierasz (I, II)
W razie pytań pisz śmiało na Linkedin'ie do Kuby ;)