
MLOps Engineer
• ML 파이프라인 설계 및 구축
- 데이터 수집, 전처리, 학습, 평가, 배포에 이르는 엔드투엔드(End-to-End) 파이프 라인 자동화
•GPU 인프라 관리 및 최적화
- 자체 프라이빗 클라우드 내 GPU 자원 모니터링 및 효율적 배분 (K8s/K3s 기반) 모델 서빙 및 최적화
- Triton Inference Server, BentoML 등을 활용한 고성능 모델 서빙 환경 구축 및 대기 시간(Latency) 최적화
•LLMOps 환경 조성
- Dify 등 LLM 어플리케이션 플랫폼과 연동된 프롬프트 관리 및 모델 모니터링 체계 구축
•CI/CD/CT 구현
- ML 모델의 지속적 통합(CI), 배포(CD) 및 성능 저하 감지를 위한 지속적 학습 (CT) 환경 구축
• 2년 이상의 소프트웨어 엔지니어링 또는 MLOps 관련 실무 경험
• 대학원 재학 시 연구실 내 MLOps 운영 경험 또는 구체적 개별적 경험 인정
• 컨테이너 및 오케스트레이션 : Docker 및 Kubernetes(K8s, K3s) 환경에서의 서비스 운영 경험
• 프로그래밍 기술 : Python에 능숙하며, PyTorch 또는 TensorFlow 기반의 모델 배포 경험
• IaC 및 파이프라인 도구 : Terraform, Ansible, Kubeflow, MLflow, Airflow 중 1개 이상의 도구 활용 능력
• 문제 해결 능력 : 분산 컴퓨팅 환경에서 발생하는 병목 현상을 진단하고 해결할 수 있는 역량
• 의료 데이터에 대한 이해와 의료 데이터의 처리 이력
• 의료 AI관련 연구 과제 수행 이력
• 고용형태 : 정규직(수습 3개월), 계약직 12개월(정규직 전환 가능), 병역특례(전문연구요원)
• 급여 : 면접 후 결정
• 근무지 : 서울 중구 퇴계로 307 광희빌딩 4,5,6층 이지케어텍
• 근무요일/시간 : 주 5일 (월~금) 09:00~18:00
• 입사지원 서류에 허위사실이 발견될 경우, 채용확정 이후라도 채용이 취소될 수 있습니다.

MLOps Engineer
• ML 파이프라인 설계 및 구축
- 데이터 수집, 전처리, 학습, 평가, 배포에 이르는 엔드투엔드(End-to-End) 파이프 라인 자동화
•GPU 인프라 관리 및 최적화
- 자체 프라이빗 클라우드 내 GPU 자원 모니터링 및 효율적 배분 (K8s/K3s 기반) 모델 서빙 및 최적화
- Triton Inference Server, BentoML 등을 활용한 고성능 모델 서빙 환경 구축 및 대기 시간(Latency) 최적화
•LLMOps 환경 조성
- Dify 등 LLM 어플리케이션 플랫폼과 연동된 프롬프트 관리 및 모델 모니터링 체계 구축
•CI/CD/CT 구현
- ML 모델의 지속적 통합(CI), 배포(CD) 및 성능 저하 감지를 위한 지속적 학습 (CT) 환경 구축
• 2년 이상의 소프트웨어 엔지니어링 또는 MLOps 관련 실무 경험
• 대학원 재학 시 연구실 내 MLOps 운영 경험 또는 구체적 개별적 경험 인정
• 컨테이너 및 오케스트레이션 : Docker 및 Kubernetes(K8s, K3s) 환경에서의 서비스 운영 경험
• 프로그래밍 기술 : Python에 능숙하며, PyTorch 또는 TensorFlow 기반의 모델 배포 경험
• IaC 및 파이프라인 도구 : Terraform, Ansible, Kubeflow, MLflow, Airflow 중 1개 이상의 도구 활용 능력
• 문제 해결 능력 : 분산 컴퓨팅 환경에서 발생하는 병목 현상을 진단하고 해결할 수 있는 역량
• 의료 데이터에 대한 이해와 의료 데이터의 처리 이력
• 의료 AI관련 연구 과제 수행 이력
• 고용형태 : 정규직(수습 3개월), 계약직 12개월(정규직 전환 가능), 병역특례(전문연구요원)
• 급여 : 면접 후 결정
• 근무지 : 서울 중구 퇴계로 307 광희빌딩 4,5,6층 이지케어텍
• 근무요일/시간 : 주 5일 (월~금) 09:00~18:00
• 입사지원 서류에 허위사실이 발견될 경우, 채용확정 이후라도 채용이 취소될 수 있습니다.