[t'order Inc.] Data Analytics Engineer
직군
개발
경력사항
경력 3년 이상
고용형태
정규직
근무지
t'order Inc.대한민국 서울특별시 영등포구 여의대로 108, 파크원타워2 46층


저희 ​팀을 ​소개할게요 ​
  • DevOps Chapter는 ​서비스의 안정성과 효율성을 극대화하기 ​위한 ​플랫폼 엔지니어링 ​조직입니다. 단순히 배포 ​자동화를 넘어 ​코드로 ​인프라를 관리하고 ​운영을 ​자동화하며, ​비용 최적화와 지속적 ​관찰성을 ​통해 엔지니어링 생산성을 ​높이는 ​것을 ​목표로 합니다.
  • DevOps ​Chapter는 Infra ​unit과 ​Data unit으로 ​구성되어있으며, Data ​unit은 ​서비스 분석에 필요한 ​플랫폼 구축과 ​데이터 파이프라인 및 검증을 담당하고 있습니다.


기술 스택
  • Cloud: AWS 환경(S3, Athena, EMR 등)에서 데이터 인프라 구축 및 운영
  • Orchestration: Apache Airflow를 활용한 워크플로우 설계 및 관리 역량
  • Processing: PySpark 등 분산 처리 프레임워크를 활용한 대용량 데이터 처리
  • Lakehouse: Apache Iceberg 기반 Medallion Architecture 운영


이런 일을 하게 될 거예요
  • 데이터 마트 설계 및 운영
  • Medallion Architecture(Bronze, Silver, Gold) 기반 데이터를 활용한 이해관계자 요건별 데이터 마트 설계 및 구축
  • 비즈니스 요구사항의 데이터 구조화 및 재사용 가능한 형태로의 제공
  • QuickSight 등 BI 도구 연계 대시보드 구성 및 데이터 피드 설계
  • 데이터 자동화 및 품질 관리
  • 반복적인 데이터 요청의 Airflow 기반 배치 자동화 전환을 통한 운영 효율 확보
  • ETL 프로세스 내 정합성 검증 로직 통합 및 신뢰할 수 있는 데이터 환경 제공
  • 데이터 표준 적용, 처리 로직 관리, DQ 모니터링을 통한 데이터 품질 관리 체계 수립
  • 이해관계자 커뮤니케이션
  • 다양한 부서의 요구사항을 데이터 구조 관점에서 구체화하고 최적 방법 제안
  • 단순 요청 이행을 넘어 데이터 활용 기준 수립 및 조직 내 데이터 리터러시 향상 기여

이런 분을 찾고 있어요
  • 3년 이상의 데이터 엔지니어링 실무 경험이 있으신 분
  • AWS 환경(S3, Athena, EMR)에서 데이터 파이프라인을 직접 구축하고 운영해 본 경험이 있으신 분
  • Python/PySpark 기반으로 대용량 데이터를 처리해 본 경험이 있으신 분
  • Medallion Architecture를 이해하고 Bronze/Silver/Gold 레이어에 맞는 데이터 모델링을 해오신 분
  • Airflow 기반 워크플로우를 설계하고 배치 작업의 효율화를 경험해 보신 분
  • 단순 요청 이행에 그치지 않고, 요구사항의 맥락을 파악해 데이터 구조와 활용 기준을 스스로 정의하고 제안할 수 있으신 분
  • 여러 이해관계자의 요청을 데이터 요건으로 구체화하고 정의할 수 있는 커뮤니케이션 역량을 갖추신 분
  • 데이터 표준 적용, 처리 로직 관리, 정합성 검증, DQ 모니터링을 통해 도메인 배경 없이도 누구나 신뢰하고 활용할 수 있는 데이터 환경을 만들어 나갈 수 있으신 분


이런 분이면 더욱이 좋아요
  • Open Table Format: Apache Iceberg를 활용한 Lakehouse 구축 및 운영 경험이 있으신 분
  • Optimization: 분산 쿼리 엔진의 동작 원리를 이해하고 튜닝이 가능하신 분
  • Reliability: 데이터 백필(Backfill) 자동화 및 정합성 검증 시스템 구축 경험이 있으신 분
  • Visualization: QuickSight, Tableau 등 BI 도구를 활용한 대시보드 구성 경험이 있으신 분


이런 조건의 포지션이예요

근무 형태

  • 시용계약직(3개월)
  • 부서장의 요청에 따라 계약 기간이 조정될 수 있습니다.
  • 계약기간 종료 후 평가에 따라 (정규직 전환 / 계약 연장 / 계약 종료)가 진행됩니다.

근무 시간

  • 월요일부터 금요일까지, 주 40시간 근무합니다.
  • 유연근무제 적용으로, 상세한 근무 시간은 부서 상황에 따라 적용됩니다.

처우 조건

  • (신입) 회사 내규에 따른 처우가 적용됩니다.
  • (경력) 직전 계약 연봉을 참고하여 조정 협의가 진행됩니다.


채용 전형은 이렇게 진행돼요

① 서류 전형

  • 직무와 관련하여 어떠한 경험을 하셨고, 어떤 강점이 있으신지 저희에게 알려주세요.
  • 정해진 지원서 양식은 없으며, 지원자 님을 가장 잘 표현할 수 있는 형식으로 보내주세요.

② 실무 면접(+임원 면접)

  • 직무에 대한 경험과 지식, 일하는 방식에 대해 이야기 나누어보는 시간입니다.
  • 실무 면접의 내용에 따라 임원 면접이 추가 진행될 수 있습니다.

③ 처우 협의

  • 레퍼런스 체크가 필요할 경우, 사전 동의를 얻은 후 진행됩니다.

④ 최종 합격

  • 입사일자는 부서의 상황과 지원자 님의 일정을 고려하여 확정됩니다.


참고사항

  • 상기 전형은 상황 및 필요에 따라 추가/생략 등 변동될 수 있습니다.
  • 모든 전형의 결과는 합/불 여부와 관계없이 이메일을 통해 연락드립니다.
  • 결과 메일을 받지 못하셨을 경우, [email protected] 로 결과 문의 메일을 보내주세요.


지원하실 때 유의해주세요!
  • 지원 서류의 내용 중 허위 사실이 존재할 경우 채용이 확정된 이후라도 합격이 취소될 수 있습니다.
  • 전형, 결과 안내를 위해 등록 시 성명, 연락처, 이메일 주소를 정확하게 입력해주세요.
  • 국가등록 장애인, 국가보훈자 등 취업 보호 대상자는 관련 법령에 의거하여 우대합니다.
  • 해외 국적자의 경우, 한국어 의사소통이 원활하고 정규직 입사에 필요한 체류 자격을 갖추어야 합니다.


채용 전형 및 채용관련 FAQ를 알아보고 싶다면? 👉🏻채용전형 안내 및 FAQ

티오더의 팀문화가 궁금하다면? 👉🏻 팀문화 살펴보기

기타 채용 관련 문의는? 👉🏻 [email protected]

공유하기
[t'order Inc.] Data Analytics Engineer


저희 ​팀을 ​소개할게요 ​
  • DevOps Chapter는 ​서비스의 안정성과 효율성을 극대화하기 ​위한 ​플랫폼 엔지니어링 ​조직입니다. 단순히 배포 ​자동화를 넘어 ​코드로 ​인프라를 관리하고 ​운영을 ​자동화하며, ​비용 최적화와 지속적 ​관찰성을 ​통해 엔지니어링 생산성을 ​높이는 ​것을 ​목표로 합니다.
  • DevOps ​Chapter는 Infra ​unit과 ​Data unit으로 ​구성되어있으며, Data ​unit은 ​서비스 분석에 필요한 ​플랫폼 구축과 ​데이터 파이프라인 및 검증을 담당하고 있습니다.


기술 스택
  • Cloud: AWS 환경(S3, Athena, EMR 등)에서 데이터 인프라 구축 및 운영
  • Orchestration: Apache Airflow를 활용한 워크플로우 설계 및 관리 역량
  • Processing: PySpark 등 분산 처리 프레임워크를 활용한 대용량 데이터 처리
  • Lakehouse: Apache Iceberg 기반 Medallion Architecture 운영


이런 일을 하게 될 거예요
  • 데이터 마트 설계 및 운영
  • Medallion Architecture(Bronze, Silver, Gold) 기반 데이터를 활용한 이해관계자 요건별 데이터 마트 설계 및 구축
  • 비즈니스 요구사항의 데이터 구조화 및 재사용 가능한 형태로의 제공
  • QuickSight 등 BI 도구 연계 대시보드 구성 및 데이터 피드 설계
  • 데이터 자동화 및 품질 관리
  • 반복적인 데이터 요청의 Airflow 기반 배치 자동화 전환을 통한 운영 효율 확보
  • ETL 프로세스 내 정합성 검증 로직 통합 및 신뢰할 수 있는 데이터 환경 제공
  • 데이터 표준 적용, 처리 로직 관리, DQ 모니터링을 통한 데이터 품질 관리 체계 수립
  • 이해관계자 커뮤니케이션
  • 다양한 부서의 요구사항을 데이터 구조 관점에서 구체화하고 최적 방법 제안
  • 단순 요청 이행을 넘어 데이터 활용 기준 수립 및 조직 내 데이터 리터러시 향상 기여

이런 분을 찾고 있어요
  • 3년 이상의 데이터 엔지니어링 실무 경험이 있으신 분
  • AWS 환경(S3, Athena, EMR)에서 데이터 파이프라인을 직접 구축하고 운영해 본 경험이 있으신 분
  • Python/PySpark 기반으로 대용량 데이터를 처리해 본 경험이 있으신 분
  • Medallion Architecture를 이해하고 Bronze/Silver/Gold 레이어에 맞는 데이터 모델링을 해오신 분
  • Airflow 기반 워크플로우를 설계하고 배치 작업의 효율화를 경험해 보신 분
  • 단순 요청 이행에 그치지 않고, 요구사항의 맥락을 파악해 데이터 구조와 활용 기준을 스스로 정의하고 제안할 수 있으신 분
  • 여러 이해관계자의 요청을 데이터 요건으로 구체화하고 정의할 수 있는 커뮤니케이션 역량을 갖추신 분
  • 데이터 표준 적용, 처리 로직 관리, 정합성 검증, DQ 모니터링을 통해 도메인 배경 없이도 누구나 신뢰하고 활용할 수 있는 데이터 환경을 만들어 나갈 수 있으신 분


이런 분이면 더욱이 좋아요
  • Open Table Format: Apache Iceberg를 활용한 Lakehouse 구축 및 운영 경험이 있으신 분
  • Optimization: 분산 쿼리 엔진의 동작 원리를 이해하고 튜닝이 가능하신 분
  • Reliability: 데이터 백필(Backfill) 자동화 및 정합성 검증 시스템 구축 경험이 있으신 분
  • Visualization: QuickSight, Tableau 등 BI 도구를 활용한 대시보드 구성 경험이 있으신 분


이런 조건의 포지션이예요

근무 형태

  • 시용계약직(3개월)
  • 부서장의 요청에 따라 계약 기간이 조정될 수 있습니다.
  • 계약기간 종료 후 평가에 따라 (정규직 전환 / 계약 연장 / 계약 종료)가 진행됩니다.

근무 시간

  • 월요일부터 금요일까지, 주 40시간 근무합니다.
  • 유연근무제 적용으로, 상세한 근무 시간은 부서 상황에 따라 적용됩니다.

처우 조건

  • (신입) 회사 내규에 따른 처우가 적용됩니다.
  • (경력) 직전 계약 연봉을 참고하여 조정 협의가 진행됩니다.


채용 전형은 이렇게 진행돼요

① 서류 전형

  • 직무와 관련하여 어떠한 경험을 하셨고, 어떤 강점이 있으신지 저희에게 알려주세요.
  • 정해진 지원서 양식은 없으며, 지원자 님을 가장 잘 표현할 수 있는 형식으로 보내주세요.

② 실무 면접(+임원 면접)

  • 직무에 대한 경험과 지식, 일하는 방식에 대해 이야기 나누어보는 시간입니다.
  • 실무 면접의 내용에 따라 임원 면접이 추가 진행될 수 있습니다.

③ 처우 협의

  • 레퍼런스 체크가 필요할 경우, 사전 동의를 얻은 후 진행됩니다.

④ 최종 합격

  • 입사일자는 부서의 상황과 지원자 님의 일정을 고려하여 확정됩니다.


참고사항

  • 상기 전형은 상황 및 필요에 따라 추가/생략 등 변동될 수 있습니다.
  • 모든 전형의 결과는 합/불 여부와 관계없이 이메일을 통해 연락드립니다.
  • 결과 메일을 받지 못하셨을 경우, [email protected] 로 결과 문의 메일을 보내주세요.


지원하실 때 유의해주세요!
  • 지원 서류의 내용 중 허위 사실이 존재할 경우 채용이 확정된 이후라도 합격이 취소될 수 있습니다.
  • 전형, 결과 안내를 위해 등록 시 성명, 연락처, 이메일 주소를 정확하게 입력해주세요.
  • 국가등록 장애인, 국가보훈자 등 취업 보호 대상자는 관련 법령에 의거하여 우대합니다.
  • 해외 국적자의 경우, 한국어 의사소통이 원활하고 정규직 입사에 필요한 체류 자격을 갖추어야 합니다.


채용 전형 및 채용관련 FAQ를 알아보고 싶다면? 👉🏻채용전형 안내 및 FAQ

티오더의 팀문화가 궁금하다면? 👉🏻 팀문화 살펴보기

기타 채용 관련 문의는? 👉🏻 [email protected]