Miejsca pracy

    DevOps Cloud Engineer Admin - Taśmowa C, Warszawa, Polska - ITLT

    ITLT
    ITLT Taśmowa C, Warszawa, Polska

    Znalezione w: Adzuna PL C2 - 2 dni temu

    Default job background
    W pełnym wymiarze godzin
    Opis

    W ITLT pomagamy naszym zaprzyjaźnionym firmom przekształcać ambitne pomysły w cyfrową rzeczywistość.

    Z nastawieniem na wyzwania, ciekawość technologii i zwinność - współtworzymy wyjątkowe rozwiązania IT i zapewniamy najlepszych specjalistów - którzy pomagają przyspieszyć cyfrową transformację.

    Aktualnie poszukujemy kandydatów na stanowiska: Administrator Big Data (Projekt I) // DevOps - GCP or Azure (Projekt II)

    KONKRETY:

    • Stawka:

    PROJEKT I: PLN/h

    PROJEKT II: PLN/h

    • Miejsce pracy/praca zdalna: Zapewniamy swobodę pracy zdalnej, przy czym 1-2x w miesiącu zapraszamy do warszawskiego biura na PI planning/workshop.
    • Sektor: Money Services
    • Opis:

    PROJEKT I: Współpraca ze zróżnicowanymi departamentami w realizacji projektów z zakresu Money Services. Codzienna praca w środowisku Hadoop (Cloudera), R&D, projektowanie przetwarzania streaming/batch, wdrażanie modeli ML wraz z zespołem Data Science

    PROJEKT II: Działania R&D z wykorzystaniem nowych technologii w obszarze automatyzacji zadań w sektorze Money Services

    • Proces rekrutacji: 1-etapowy (techniczne spotkanie zdalne), sporadycznie może się zdarzyć krótkie dodatkowe spotkanie z Managerem połączone z decyzją
    • Szacowany czas trwania projektu: Długoterminowy/bezterminowy
    • Czas pracy/Strefa czasowa: Standardowe polskie godziny pracy (8->16 lub 9->17)
    • Zespół/Struktura:

    PROJEKT I: Zespół 10-osobowy (4x DevOps, 6x Developerów)

    • Technologie na projekcie:

    PROJEKT I: Hadoop (Cloudera), Kafka, Nifi, Kubeflow, Spark, Python, Scala

    PROJEKT II: GCP, Azure, Elastick Stack (Kibana, Logstash, Elastisearch), Hashicorp Stack (Terraform, Packer, Vault, Consul), Grafana, Checkmarx, Sonarqube, Gitlab, Jenkins, Ansible, Artifactory

    Do Twoich głównych obowiązków na tym stanowisku należeć będzie:

    PROJEKT I:

    • Zarządzanie infrastrukturą informatyczną powiązaną z klastrem Hadoop z Big Data
    • Codzienna praca z problemami związanymi z przetwarzaniem dużych zbiorów danych
    • Stałe wsparcie i współpraca z analitykami i użytkownikami narzędzi ekosystemu Big Data
    • Zapewnienie wsparcia przy projektach rozwoju platformy Big Data
    • Monitoring oraz zapewnienie wsparcia systemów Hadoop (Python, Spark, Hive, Impala)
    • Administracja systemem Linux

    PROJEKT II:

    • Współtworzenie procesów CI/CD dla rozwiązań informatycznych,
    • Współpracowanie z zespołami developerskimi oraz bezpieczeństwem IT
    • Otrzymywanie wsparcia mentorskiego od doświadczonych kolegów z zespołu
    • Zbieranie doświadczenia w obszarze Cloud, Terraform, DevOps, IaC
    • Realizowanie prac R&D z wykorzystaniem nowych technologii w obszarze automatyzacji zadań z zakresu Money Services

    Ta oferta będzie idealna dla Ciebie, jeśli posiadasz:

    PROJEKT I:

    • Minimum 3-letnie praktyczne doświadczenie z zakresu zarządzania infrastrukturą informatyczną
    • Znajomość architektury środowiska rozproszonego Hadoop
    • Minimum 3-lata doświadczenia w zakresie administracji środowiskiem Hadoop (Cloudera, Hortonworks)
    • Minimum 3-lata doświadczenia w monitoringu i wsparciu aplikacji wykorzystujących: Apache Spark, Hive, HBase, Impala, Kudu
    • Znajomość narzędzi do monitoringu (Zabbix, Grafana, SMM itp.)
    • Podstawowa znajomość baz relacyjnych (Oracle, MS SQL, Postgres)
    • Znajomość systemów Linux Red Hat w zakresie administracji

    Nice to have:

    • Wiedza w zakresie administracji: Informatica Big Data Managment, Apache Kafka, Apache Nifi, Kubernetes oraz automatyzacji CI/CD

    PROJEKT II:

    • Znajomość GCP i/lub Azure,
    • Doświadczenie w administracji serwerami działającymi pod kontrolą systemu operacyjnego Linux (zarówno w środowiskach produkcyjnych jak i rozwojowych),
    • Znajomość narzędzi typu: Elastick Stack (Kibana, Logstash, Elastisearch), Hashicorp Stack (Terraform, Packer, Vault, Consul), Grafana, Checkmarx, Sonarqube, GitLab, Jenkins, Ansible, Artifactory,
    • Doświadczenie w konteneryzacji aplikacji (Kubernetes, Docker, Podman, Openshift, GKE lub inne)
    • Umiejętność pisania kodu do celów automatyzacji (Bash/Python/Java/Groovy/Go/lub inne)
    • Wiedza na temat praktyk DevSecOps

    Warto do nas dołączyć, ponieważ oferujemy:

    • Dużą swobodę pracy zdalnej
    • Długofalowe stabilne zatrudnienie w oparciu o kontrakt B2B.
    • Dopłatę do karty MultiSport oraz ubezpieczenia.
    • Elastyczne godziny startu pracy.
    • Szansę na uczestniczenie w kluczowych projektach dla dużej firmy działającej w bardzo stabilnym sektorze.

    Przy aplikowaniu - napisz proszę w formularzu (pole: "Dodatkowe informacje dla Działu Rekrutacji") - który projekt/projekty wybierasz (I, II)

    W razie pytań pisz śmiało na Linkedin'ie do Kuby ;)