go to content go to menu

Login Information


Title 빅데이터 플랫폼 서비스 개발자 모집 (경력)
회사정보
Kakao Corp
직원유형
Full Time
영입마감일
Until the position is filled
근무지 정보
Pangyo

◆ Employment Type
Full Time

◆ No. of Vacancy
0 Persons

◆ Introduction of organization

우리는 이미 국내에서도 손꼽히는 규모의 카카오 공용 하둡을 비롯한 100여 개의 하둡 클러스터를 동시에 서비스할 수 있는 역량과 경험을 가지고 있습니다.
하지만 우리는 여기에 안주하지 않고, 페타 바이트(PB)급 데이터가 마구 소용돌이치더라도, 수천 명이 동시에 데이터 분석을 하더라도 끄떡없는 플랫폼을 만들기 위해 끝없이 도전하고 있습니다.


이 가슴 뛰는 일에 함께 하지 않으시겠습니까?
여러분이 서게 될 이곳이 바로, 카카오 빅데이터 플랫폼의 중심입니다.


◆ Description

아래 4개 분야 중 1개 분야를 선택하여 자기소개서에 작성해주세요.


분야 1. 하둡 클라이언트 서비스 개발


◆ 영입 인원
0 명


◆ 업무내용

  • multi-tenant 하둡 플랫폼을 편리하게 사용할 수 있는 다양한 사용자 지원 서비스 개발
  • 하둡 사용자 업무를 지원하는 하둡 사용자 포탈 서비스 개발
  • 대규모 사용자를 위한 하둡 데이터 분석 환경 제공
    . 하둡 데이터 분석 도구 제공
    . 하둡 데이터 Discovery 및 Catalog Service 개발
    . 하둡 클라이언트 도구 개발
  • 하둡 보안 기술 연구 및 적용

◆ 지원 자격
[최소 자격]

  • CS 학사 이상의 학위 또는 그에 준하는 경력
  • Hadoop platform 에 대한 기본 지식
  • Hadoop/ecosystem 활용/개발 경험 3년 이상
  • Java 필수, 그 외 Python, Ruby 중 1개 이상 언어로 개발 가능
  • Web framework를 이용한 서비스 개발 경험

[우대 자격]

  • Front-end 경험(React, Vue)
  • Docker, Kubernetes 환경에서의 CI/CD 경험
  • Amazon EMR, Athena 등의 클라우드 서비스 활용 경험
  • Technical writing 경험



분야 2. 하둡 데이터 파이프라인 플랫폼 개발


◆ 영입 인원
0 명


◆ 업무내용

  • 하둡 데이터 파이프라인 플랫폼 개발, 운영
  • 다양한 데이터 소스와 하둡 간의 데이터 이동을 편리하게 해주는 서비스 개발
  • 하둡 간 데이터 파이프라인 서비스 개발
  • 하둡 데이터 Lifecycle 관리 기능 개발
  • 구현에 사용하는 기술 : Hadoop, Hive, Spark, Kafka, Airflow, Web 등
  • Spark 전사 기술 서비스 제공 (Spark 개발, 트러블슈팅, 튜닝)
    . 하둡 데이터 파이프라인 플랫폼의 주요 엔진으로 Spark 활용
  • 수천 대 규모의 하둡 클러스터를 안정적이고 효율적으로 운영하기 위한 운영 자동화, 모니터링 환경 구축 및 개선

◆ 지원 자격
[최소 자격]

  • CS 학사 이상의 학위 또는 그에 준하는 경력
  • 2년 이상의 Java 또는 JVM 환경의 언어로 서버 애플리케이션 개발 경험
  • Linux 환경에서 소프트웨어 개발 및 운영 경험

[우대 자격]

  • 웹 서버 및 클라이언트 개발 및 운영 경험
  • 객체 지향 프로그래밍 및 DDD(도메인 주도 설계)에 대해 관심 있으신 분
  • Hive, Spark 등의 분산 쿼리 프로세싱 엔진을 이용한 서비스 개발 및 운영 경험
  • Kafka 등의 분산 메시지 큐를 이용한 서비스 개발 및 운영 경험
  • Airflow 등의 오픈소스 스케줄러(Workflow manager)를 이용한 서비스 개발 및 운영 경험
  • Kubernetes 등의 container 관련 기술을 활용한 시스템 개발 및 운영 경험



분야 3. 하둡 쿼리 서비스 및 하둡 데이터 분석 플랫폼 개발


◆ 영입 인원
0 명


◆ 업무내용

  • 카카오 데이터 분석가들이 편리하게 사용할 수 있는 하둡 쿼리 분석 플랫폼 설계 및 개발
  • Hive, Presto(Trino) 등의 하둡 쿼리 엔진 개발, 트러블슈팅, 튜닝
  • 하둡 쿼리 엔진을 보다 빠르게 사용하기 위한 다양한 아키텍처 연구 및 적용
  • 수천 대 규모의 하둡 클러스터를 안정적이고 효율적으로 운영하기 위한 운영 자동화, 모니터링 환경 구축 및 개선

◆ 지원 자격
[최소 자격]

  • CS 학사 이상의 학위 또는 그에 준하는 경력
  • 3년 이상의 Java 또는 JVM 환경의 언어로 서버 애플리케이션 개발 경험
  • Linux 환경에서 소프트웨어 개발 및 운영 경험

[우대 자격]

  • concurrent / multi thread programming에 익숙하신 분
  • JVM GC 튜닝 / 트러블슈팅 경험
  • Hive, Presto/Trino, Spark 등의 분산 쿼리 프로세싱 엔진을 이용한 서비스 개발 및 운영 경험
  • Kubernetes 등의 container 관련 기술을 활용한 시스템 개발 및 운영 경험
  • DBMS (NoSQL, RDBMS 등) 관련 기술에 관심이 많으신 분



분야 4. 하둡 코어 플랫폼 개발 및 운영


◆ 영입 인원
0 명


◆ 업무내용

  • 빅데이터 플랫폼 아키텍처 설계 및 구축
  • 카카오 공용하둡 외 다수 분석용 하둡 클러스터 운영
  • 빅데이터 플랫폼 중 분산 파일 시스템(HDFS), 분산 처리 시스템(YARN) 기술 연구 개발
  • 수천 대 규모의 하둡 클러스터를 안정적이고 효율적으로 운영하기 위한 운영 자동화, 모니터링 환경 구축 및 개선

◆ 지원 자격
[최소 자격]

  • CS 학사 이상의 학위 또는 그에 준하는 경력
  • Hadoop platform 에 대한 기본 지식
  • Hadoop/ecosystem 사용 경험 2~3년 이상
  • Java 필수, 그 외 Python, Ruby 중 1개 이상 언어로 개발 가능
  • Linux 환경에서 소프트웨어 개발 및 운영 경험
  • 분산 처리 시스템에 대한 기본 이해

[우대 자격]

  • Hadoop 플랫폼 운영 경험
  • 3년 이상의 Java 또는 JVM 환경의 언어로 서버 애플리케이션 개발 경험
  • JVM GC 튜닝 / 트러블슈팅 경험
  • Concurrent / multi thread programming에 익숙하신 분
  • Kubernetes 등의 container 관련 기술을 활용한 시스템 개발 및 운영 경험



◆ Qualification

공통 사항은 아래와 같습니다.


[우대 자격]

  • Ansible, Chef, Puppet 등의 provisioning tool을 활용한 운영 환경 구축 경험
  • JVM GC 튜닝 / 트러블슈팅 경험
  • (HDFS, YARN 등과 같은) 분산 시스템을 분석하고, 문제 해결 및 최적화하는 업무에 능숙하고, 이를 즐기시는 분
  • Grafana, Prometheus, Elasticsearch 등을 활용한 모니터링 시스템 구축 경험

[지원자 성향]

  • 동료들과 협업과 소통이 원활하신 분
  • 문제 해결 시 끈기 있게 분석하고 근본적인 해결책을 찾고자 하는 열정을 가지신 분
  • 수작업이나 반복적인 업무의 자동화를 시도하시는 분
  • 업무와 관련된 새로운 기술 트렌드에 관심을 가지고 지속적으로 학습하시는 분

◆ Job offer process

서류전형 -> 코딩테스트 -> 원격 전화 인터뷰 -> 1차 인터뷰 -> 2차 인터뷰


◆ 필독사항

    ※ 영입 포지션 직군 경력 1년 미만일 시 추가 역량 검증을 위해 정직원 최종 합격 전, 최대 3개월간 계약직으로 근무할 수 있습니다. (단, 신입공채 전형 합격자의 경우에는 관련 경력 1년 미만이라도 정규직으로 입사하게 됩니다.)


Job tags #Hadoop eco system #Server