Big Data Developer

  • Kraków

Opis

Czekamy na Ciebie, jeśli:

  • Masz 1 rok doświadczenia komercyjnego w branży IT
  • Posiadasz min. 3-miesięczne doświadczenie we wdrażaniu rozwiązań w zakresie przyjmowania i przetwarzania danych na platformach Big Data (Spark, Sqoop, Kafka itp.) lub technologiach chmurowych (AWS, Google Cloud, Azure)
  • Potrafisz projektować zadania związane z równoległym przetwarzaniem danych
  • Masz doświadczenie w pracy z klastrami Apache Hadoop 
  • Potrafisz wykorzystać jeden z języków: Java, Python lub Scala do przetwarzania danych
  • Umiesz tworzyć i wprowadzać najlepsze praktyki przetwarzania dużych zbiorów danych, w tym standardy projektowania, kodowania, dokumentowania, testowania i wdrażania.
     

 

Z nami będziesz:

  • Rozwiązywać rzeczywiste wyzwania biznesowe poprzez wdrażanie aplikacji do przetwarzania Big Data
  • Wdrażać procesy ETL w celu integracji danych z różnych źródeł przy wykorzystaniu Hadoop
  • Projektować skalowalną architekturę z kilkoma usługami spełniającymi wymagania biznesowe
  • Budować, testować, udostępniać oraz monitorować usługi i aplikacje

 


Dowiedz się, jak skorzystasz, będąc w Onwelo:

  • Będziesz współpracować z doświadczonymi ekspertami
  • Weźmiesz udział w projektach dla międzynarodowych klientów
  • Rozwiniesz umiejętność pracy z wykorzystaniem najnowszych technologii
  • Otrzymasz możliwość korzystania z elastycznych godzin pracy
  • Dołączysz do zgranego zespołu pasjonatów IT
  • Będziesz pracować w komfortowych warunkach
  • Wpłyniesz na kierunek swojego rozwoju
  • Dostaniesz pakiet benefitów
  • Wybierzesz dowolną formę zatrudnienia
  • Otrzymasz propozycję pracy za granicą, jeśli jesteś mobilny zawodowo

Onwelo czytaj więcej

Big Data Developer

  • Kraków
  • Analityka
  • Dowolny rodzaj zatrudnienia
  • Dodano 9 dni temu
Aplikuj teraz

Wymagania

  • Hadoop
  • Kafka
  • Spark
  • Sqoop

Opis

Czekamy na Ciebie, jeśli:

  • Masz 1 rok doświadczenia komercyjnego w branży IT
  • Posiadasz min. 3-miesięczne doświadczenie we wdrażaniu rozwiązań w zakresie przyjmowania i przetwarzania danych na platformach Big Data (Spark, Sqoop, Kafka itp.) lub technologiach chmurowych (AWS, Google Cloud, Azure)
  • Potrafisz projektować zadania związane z równoległym przetwarzaniem danych
  • Masz doświadczenie w pracy z klastrami Apache Hadoop 
  • Potrafisz wykorzystać jeden z języków: Java, Python lub Scala do przetwarzania danych
  • Umiesz tworzyć i wprowadzać najlepsze praktyki przetwarzania dużych zbiorów danych, w tym standardy projektowania, kodowania, dokumentowania, testowania i wdrażania.
     

 

Z nami będziesz:

  • Rozwiązywać rzeczywiste wyzwania biznesowe poprzez wdrażanie aplikacji do przetwarzania Big Data
  • Wdrażać procesy ETL w celu integracji danych z różnych źródeł przy wykorzystaniu Hadoop
  • Projektować skalowalną architekturę z kilkoma usługami spełniającymi wymagania biznesowe
  • Budować, testować, udostępniać oraz monitorować usługi i aplikacje

 


Dowiedz się, jak skorzystasz, będąc w Onwelo:

  • Będziesz współpracować z doświadczonymi ekspertami
  • Weźmiesz udział w projektach dla międzynarodowych klientów
  • Rozwiniesz umiejętność pracy z wykorzystaniem najnowszych technologii
  • Otrzymasz możliwość korzystania z elastycznych godzin pracy
  • Dołączysz do zgranego zespołu pasjonatów IT
  • Będziesz pracować w komfortowych warunkach
  • Wpłyniesz na kierunek swojego rozwoju
  • Dostaniesz pakiet benefitów
  • Wybierzesz dowolną formę zatrudnienia
  • Otrzymasz propozycję pracy za granicą, jeśli jesteś mobilny zawodowo