Who We Are
저희 팀은 최신 AI/ML 기술을 활용하여 쇼핑 검색 모델을 고도화하고, 사용자 경험을 혁신하는 AI 에이전트를 개발하고 있습니다.
대규모 사용자에게 가장
정확하고 만족스러운 AI 기반의 쇼핑 검색 서비스를 제공할 수 있도록, ML 모델의 개발부터 대규모
서빙 시스템 구축/운영에 이르는 전 과정을 담당할 MLOps 엔지니어를 새롭게 모십니다.
직무
소개 페이지
Link
What You'll Do
MLOps 엔지니어는 AI/ML 모델링에 대한 깊은 이해를
바탕으로 모델의 개발, 배포, 운영 전반에 걸쳐 시스템을 구축하고 최적화하는 핵심 역할을 수행합니다.
• 모델 학습, 검증, 배포 과정을 아우르는 MLOps 파이프라인 (CI/CD) 설계, 구축 및 운영
• Kubeflow, MLflow 등 ML 파이프라인 오케스트레이션
도구를 활용한 자동화 환경 조성
• 대규모 사용자 트래픽을
처리할 수 있는 고성능, 고가용성의 모델 서빙 시스템 설계 및 구축
• AI 모델의 경량화 및 추론 성능의 최적화
• K8s 기반 컨테이너 환경에서 안정적인 모델 학습/추론 인프라 구축
• 운영 중인 모델의 성능과
안정성을 감지하는 모니터링, 로깅, 알림 시스템 구축 및 운영
• ML 엔지니어, 데이터 엔지니어, 백엔드 개발자 등 다양한 직군과의 협업
Required Skills
• 5년 이상의 MLOps, DevOps, SRE 관련 실무 경험(또는 이에 준하는 역량)을 보유하신 분
• Python 포함, 하나 이상의 프로그래밍
언어(Java, Scala 등) 활용 능력을 보유하신 분
• Docker 컨테이너 기술 및 K8s 환경에 대한 깊은 이해와
구축/운영 경험을 보유하신 분
• CI/CD 파이프라인 (Jenkins,
Airflow, GitLab CI, GitHub Actions 등) 구축 및 운영 경험을 보유하신 분
• AI/ML 모델링에 대한 최신 지식 및 실무 개발 경험을 보유하신 분
Preferred Skills
• Feature Store, Model Registry, Vector DB 등 핵심 ML 플랫폼 구성 요소의 설계 및 구축 경험을 보유하신 분
• 대규모 데이터 처리 기술(Hadoop, Spark)에 대한 이해도 및 경험을 보유하신 분
• 모델 서빙 환경(Triton Inference Server, vLLM 등)을 활용한 최적화 경험을 보유하신 분
• ML 파이프라인 오케스트레이션 도구(Kubeflow, MLflow 등) 사용 및 운영 경험을 보유하신 분
- 전형절차 및 일정
- 서류전형&기업문화 적합도 검사 및 코딩테스트 > 직무 인터뷰 > 종합 인터뷰(&레퍼런스 체크) > (최종 인터뷰) > 결과 발표
- 지원서 접수 마감 : 2025.12.02(화) 18:00
- 서류전형&기업문화 적합도 검사 및 코딩테스트 : 12월 1주차 ~ 12월 2주차 중
- *** 기업문화 적합도 검사 및 코딩테스트 응시 기간 : 12.05(금) ~ 12.08(월) 예정 (온라인 진행)
- 직무 인터뷰 : 12월 3주차 ~ 4주차 중
- 종합 인터뷰 : 12월 4주차 ~ 1월 1주차 중
- 참고사항
- • 전형절차 및 일정은 상황에 따라 변동될 수 있으며, 전형별 결과에 따라 절차(추가 인터뷰 등)가 추가될 수 있습니다.
- • 본 공고는 인재 선발 완료 시 조기 마감될 수 있으며, 필요 시 모집 기간이 연장 될 수 있습니다.
- • 지원서 내용 중 허위사실이 있는 경우에는 합격이 취소될 수 있습니다.
- • 최근 1년 내 기업문화 적합도 검사를 응시하셨을 경우 추가 응시는 불필요하며, 이에 대해서는 개별 안내 드릴 예정입니다
- • 국가유공자 및 장애인 등 취업보호 대상자는 관계법령에 따라 우대합니다.
- • 국가유공자의 가산점 부여를 받기 위해서는 본인이 '취업지원 대상자 증명서'를 회사에 제출해야 합니다.
- • 남자의 경우 군필자 또는 면제자에 한해 지원 가능합니다.
- • 제출해 주신 지원서의 검토 결과 발표는 지원서에 등록하신 이메일로 개별 안내드립니다.
- • 문의사항은 페이지 우측 상단의 FAQ 참고 및 NAVER Careers 1:1 문의로 접수해주시기 바랍니다.