주소가 복사되었습니다.
원하는 곳에 붙여넣기(Ctrl+V)해 주세요.
입사지원은 PC를 이용해주세요.
저희 부서는 비디오 이해, 객체 인식, 영상 생성을 주제로 최신 AI 기술을 연구·개발하고 있으며, 이를 기반으로 한 다양한 비디오 기반 서비스의 고도화 및 신규 서비스 창출을 함께하고 있습니다.
Video Understanding, Perception, Generation의 세 분야를 중심으로, 최신 논문 기반 리서치는 물론 실제 서비스 적용을 위한 실험과 최적화까지 연구에서 서비스 적용까지 전 과정을 아우르는 End-to-End 연구조직입니다.
특히 Long-form Video, Multi-modal Reasoning, 3D Vision, Diffusion 등 빠르게 발전하는 연구 트렌드를 선도하며, Video-Language 모델, 객체 추적/분할, 제어 가능한 영상 생성과 같은 고난이도의 실제 문제에 도전할 수 있는 연구 환경을 제공합니다.
또한 연구 성과는 데모 수준에 머무르지 않고, 실제 유저 데이터를 기반으로 한 서비스 적용 및 고도화 과정에 직접 연결되어, 연구의 실질적인 임팩트를 만들어갈 수 있습니다.
비디오 기반 리서치에 관심 있는 분이라면, 다양한 도메인의 실데이터를 활용한 representation 학습, 생성 모델 설계, 인식 파이프라인 구성 등을 자유롭게 탐색해보실 수 있으며, 본인의 의사에 따라 모델 서빙 및 MLOps 관련 업무도 폭넓게 경험할 수 있습니다.
AI 기술로 비디오를 '이해하고, 인식하며, 창조하는' 기술에 관심 있으신 분들의 많은 지원 바랍니다.
아래의 2개의 모집 부문 중 1개 직무를 선택하여 지원하시기 바랍니다.
1) Video AI - Understanding
2) Video AI - Generation
[담당업무]
1. 최신 Video AI 모델 개발 및 검증
- Long-form Video, Temporal Reasoning, Representation Learning 등 Video Understanding을 위한 모델의 설계, 학습, 평가
- 최신 연구 트렌드를 반영한 논문 기반 모델 구현 및 성능 재현
2. Video AI 전용 ML 파이프라인 개발
- 다양한 실데이터 기반으로 한 대규모 학습 파이프라인 구성 및 자동화
- 학습 효율성과 반복 실험을 위한 MLOps 친화적 구조 설계
3. Video-Language 멀티모달 모델 개발
- 텍스트, 비디오, 오디오 간의 의미 연결을 다루는 VLM, VideoLLM 모델 연구 및 구현
- Instruction-tuning, Multimodal alignment, Retrieval-augmented generation 등의 최신 기법 적용
4. 대규모 비디오 데이터 전처리 및 활용
- 비디오 데이터셋의 수집, 클렌징, 멀티모달 라벨링, 효율적인 전처리 파이프라인 구축
- Self-supervised pretraining, noisy label 처리 등 데이터 기반 representation 학습 설계
5. Video Understanding 기반 AI 서비스 개발
- 실제 서비스를 위한 모델 경량화, 응답 시간 개선, 성능 고도화 등 End-to-End Model Engineering
- 사용자 피드백과 도메인 특성을 반영한 하이라이트 구간 추천 엔진 개발
[담당업무]
1. 최신 Video Diffusion 모델 연구 및 고도화
- 경쟁사 대비 차별화된 고품질 영상 생성 결과 확보를 위한 모델 설계 및 학습 전략 개발
- Preference Optimization, RLHF, Diffusion DPO, GRPO 등 사용자 선호 기반 성능 향상 기법 연구
- 영상 생성 모델의 정량/정성 평가를 위한 데이터셋 구축 및 지표 설계
2. Diffusion 모델의 고속화 및 경량화
- Inference 비용 절감을 위한 Distillation, Quantization, Token/Time-step Caching 등 효율화 기법 연구
- 실제 서비스 수준의 실시간성, 메모리 사용 최적화를 위한 구조 개선 및 모델 튜닝
3. Long Video Generation 기술 개발
- 수 초~수 분 단위의 길이 있는 자연스러운 영상을 생성하기 위한 기법 연구
4. Video 데이터셋 파이프라인 구축 및 엔지니어링
- 고품질 영상 생성을 위한 대규모 비디오 데이터셋 수집 및 정제
- 다양한 도메인에 맞춘 필터링/클렌징/어노테이션 자동화 파이프라인 구축 및 운영
5. 실서비스 적용을 위한 Video Generation 모델 엔지니어링
- 생성 모델의 실제 서비스 연동을 위한 모델 패키징, API 서빙, 배포 자동화 등 MLOps 업무 경험
- 도메인 피드백을 반영한 모델 성능 개선 및 커스터마이징, latency-performance trade-off 조정
- 기획·UX·프론트엔드·서버 개발자와 협업하여 생성 모델 기반 서비스 고도화
- 국내/외 정규대학 박사 학위 보유자 혹은 2년 이상의 유관 업무 경험이 있으신 분
- Computer Vision, Video Processing, Multimodal 관련 기술 개발 경험이 있으신 분
- PyTorch, Huggingface 등 AI Model 개발 및 추론을 위한 Framework에 익숙하신 분
- 대규모 분산 훈련 및 모델 가속화 관련 경험을 보유하신 분
- AI 기반 서비스 개발/프로젝트에 높은 기여도로 성공 경험을 보유하신 분
- Challenge 입상 또는 Top-tier 논문 경험을 보유하신 분
저는 컴퓨터 비전 전공으로 박사학위를 취득한 뒤, Video팀에 합류했습니다.
이곳에서는 최신 AI모델들을 연구개발하는 것은 물론, 실제 사용자들이 사용할 수 있도록 기획하고 서비스를 구현하는 경험도 할 수 있어 만족스럽습니다. 박사과정 동안에는 세상에 없는 기술을 개발한다는 점에서 보람을 느끼는 한편, 이러한 기술이 실제로 어떻게 활용될 수 있을지에 대한 고민도 컸는데요. 여기에서는 그 기술이 실제 서비스로 연결되는 과정을 직접 경험할 수 있어, 한층 더 성장할 수 있는 계기가 되었습니다. 또한, AI 모델 개발과 MLOps 등 다양한 분야에서 자극을 주는 훌륭한 팀원들과 함께 일하면서, 꾸준히 성장할 수 있는 동력을 얻을 수 있다는 점도 큰 장점이라고 생각합니다.
[전형절차]
서류 전형(기업문화적합도 검사 및 직무 테스트 포함) ▶ 1차 인터뷰 ▶ 레퍼런스체크 및 2차 인터뷰 ▶ 처우협의 ▶ 최종합격
※ 전형 절차는 일정 및 상황에 따라 변동 될 수 있으며, 전형 별 결과에 따라 절차(추가 인터뷰 등)가 추가될 수 있습니다.
※ 정해진 결과 발표 일정은 없으며, 지원서 검토 후 면접 일정은 대상자에게 개별로 안내 드릴 예정입니다.
[근무지]
경기 성남시 분당구 불정로 6 (그린팩토리)
※ 근무지는 회사 내부 사정에 따라 변동될 수 있습니다.
[기타사항]
- 본 공고는 타 공고와 중복지원이 불가능하며, 기진행한 포지션에 대한 전형이 모두 마무리 되면 다른 포지션으로 지원이 가능합니다.
- 해외 출장에 결격 사유가 없는 분만 지원 가능합니다.
- 병역 의무를 필한 자 혹은 면제된 자에 한 해 입사지원이 가능합니다.
- 지원서 상 허위 기재가 있거나 제출 서류가 허위인 경우 합격이 취소될 수 있습니다.
- 제출된 지원서는 [My page- 지원현황]에서 확인 가능하며, 공고 마감 전까지 홈페이지에서 수정 및 지원 철회가 가능합니다.
- 본 공고는 인재 선발 완료 시 조기 마감될 수 있으며, 필요 시 모집 기간이 연장 될 수 있습니다.
- 국가유공자 및 장애인 등 취업보호 대상자는 관계법령에 따라 우대합니다.
- 국가유공자의 가산점 부여를 받기 위해서는 본인이 '취업지원 대상자 증명서'를 회사에 제출해야 합니다.
- 제출해 주신 지원서의 검토 결과 발표는 지원서에 등록하신 이메일로 개별 안내 드립니다.
- 입사 후 3개월의 수습 기간을 적용하며 평가에 따라 수습 기간이 연장되거나 채용이 취소될 수 있습니다.
- 문의사항은 NAVER Cloud 채용 홈페이지 1:1 문의로 접수해주시기 바랍니다.