데이터 처리를 위한 오픈 소스 기반 데이터 처리 플랫폼을 개발
-데이터 수집/가공을 통해 고객을 분석하기 위한 지표를 개발
-분산 환경의 대용량 데이터 처리 인프라 및 도구 개발
-마이크로 서비스 기반의 데이터 플랫폼을 구축하고 운영
-Hadoop, Spark, Kafka, MongoDB 등을 활용한 인프라 구축
경력 및 자격요건
-하둡 에코시스템 관련 업무 5년 이상, 혹은 분산 환경에서의 데이터 처리 관련 업무 5년 이상
-데이터 처리를 위한 오픈소스 (Spark, Flume, Kafka등) 경험 및 도구 (Jenkins, Jira, Git)에 익숙하신분 우대
-스스로 문제를 정의하고 적극적으로 솔루션을 제시하고 실행하는 역량
기타
- 원서 마감후 1차(서류) 합격자에 한하여 개별연락
- 이력서에 연락처, 희망연봉 게재
- 해외여행에 결격 사유가 없는 자