hero
companies
Jobs

Senior Machine Learning Engineer, Embedding

Twelve Labs

Twelve Labs

Software Engineering, Data Science
Seoul, South Korea
Posted on Apr 10, 2026

Location

Seoul, South Korea

Employment Type

Full time

Location Type

Hybrid

Department

TechML Engineering

Who we are

영상 이해 AI의 글로벌 기준을 함께 만들어 갈 인재를 찾습니다!

트웰브랩스는 방대한 영상 데이터를 효과적으로 처리하여, 영상에 특화된 검색, 분석, 요약, 인사이트 생성 기능을 제공하는 세계 최고 수준의 영상 특화 AI 모델을 만들고 있습니다.

세계 최대 스포츠 리그에서는 트웰브랩스 모델을 활용해 방대한 경기 영상 속에서 빠르고 정확하게 하이라이트를 선별하여 초개인화된 시청 경험을 제공하고 있습니다. 국내 통합관제센터에서는 위기 상황에 신속히 대응하기 위해 트웰브랩스와 함께 CCTV 영상을 효율적으로 탐색하고 있으며, 전 세계 주요 방송사와 스튜디오들은 수십억 명의 시청자를 위한 콘텐츠 제작에 트웰브랩스 모델을 활용하고 있습니다.

트웰브랩스는 샌프란시스코와 서울에 오피스를 둔 Deep Tech 스타트업으로, 4년 연속 CB Insights 선정 세계 100대 AI 스타트업에 이름을 올렸습니다. NVIDIA, NEA, Index Ventures, Databricks, Snowflake 등 세계적인 VC와 기업들로부터 총 1억 1천만 달러 이상의 투자를 유치했으며, 한국에서 개발된 AI 모델 중 유일하게 Amazon Bedrock을 통해 서비스됩니다. 우리는 탁월한 동료들과 혁신적인 제품을 만들고 전 세계 고객들과 함께 성장하고 있습니다.

트웰브랩스는 다음과 같은 핵심 가치를 중심으로 일합니다.

  • 나와 팀에 대해 정직하고 성찰할 수 있는 태도

  • 실패와 피드백을 두려워하지 않는 끈기와 겸손

  • 끊임없는 학습을 통해 팀의 역량을 함께 높여 가는 자세

도전적인 문제를 함께 해결하며 성장하는 과정을 즐기는 분이라면, 그 기회가 여기 트웰브랩스에 있습니다.

About the Team

트웰브랩스의 멀티모달 표현 학습(Representation Learning)과 프로덕션 서빙을 담당하는 팀입니다. 비디오, 오디오, 텍스트 등 다양한 모달리티를 하나의 임베딩 공간(Embedding Space)에 통합하는 모델을 학습하고, 이를 전 세계 수천 고객이 사용하는 프로덕션 시스템으로 안정적으로 서빙합니다.

대규모 분산 학습 환경에서 멀티모달 임베딩 모델의 실험을 수행하고, 연구 결과를 실시간 추론 시스템으로 전환하는 End-to-End 과정을 책임집니다. NVIDIA B300 등 세계 최고 수준의 GPU 리소스에 대한 접근 권한을 바탕으로, 연구에서 프로덕션까지의 전환 주기를 최소화합니다.

연구 결과가 수개월 내에 전 세계 고객에게 제공되는 짧은 개발 사이클 속에서, Research, Product, Infrastructure 팀과 긴밀히 협업하며 기술적 임팩트를 만들어갑니다.

About the Role

As a Senior MLE on the Embedding & Search team, you will own and build key components of TwelvaLabs' search and retrieval platform — the systems that combine vector search, lexical retrieval, and reranking into fast, accurate, and scalable search experiences for our customers.

This is a systems-heavy ML engineering role at the intersection of information retrieval, ML serving, and distributed systems. We're looking for a strong engineer who can take well-scoped problems with moderate ambiguity, break them down into concrete milestones, and deliver reliable, performant solutions.

In this role, you will

  • Own and build core subsystems of our search platform on EKS — spanning vector indexing (ANN), lexical retrieval, hybrid fusion, reranking, and temporal (segment-level) search

  • Optimize retrieval performance at million to billion-scale across both vector and lexical paths

  • Develop and maintain production microservices across the search stack

  • Collaborate with the research/training team to co-evolve embeddings, reranking models, and retrieval strategies

  • Implement and maintain evaluation frameworks for search quality (recall, precision, latency, relevance)

  • Work cross-functionally with platform/infra and product teams to ship search capabilities end-to-end

You may be a good fit if you have

  • 6–8 years building production ML systems, with emphasis on search, retrieval, or recommendation

  • Strong software engineering skills in Python; Go experience is a plus

  • Hands-on experience with ML model serving and inference optimization in production (e.g., KServe, Triton, Ray Serve)

  • Experience with information retrieval systems — embedding-based search, lexical search (BM25/Elasticsearch), or hybrid retrieval

  • Proficiency with data pipelining and orchestration (Spark, Ray, Airflow, Kubeflow, or similar)

  • Strong Kubernetes experience and familiarity with databases, vector databases, and search engines

  • Solid distributed systems and async programming fundamentals

Preferred Qualifications

  • Good English communication skills (verbal and written)

  • Experience with multimodal or video search/retrieval systems

  • Familiarity with temporal indexing or segment-level retrieval (shot boundary detection, scene search)

  • Experience with hybrid retrieval strategies (rank fusion, reranking models, score normalization)

  • Experience with ANN index tuning at scale

  • Experience building services with high-demand SLAs