개요 GS SHOP은 대한민국을 대표하는 TV 홈쇼핑 비즈니스에서 출발하여, 이제는 고객의 라이프스타일을 함께 만들어 나가는 온라인 종합 쇼핑 플랫폼으로 자리잡고 있습니다. 기존의 TV 라이브 채널뿐 아니라 데이터 홈쇼핑, 모바일 라이브까지 운영하며 쇼핑 채널을 넓혀왔고, 콘텐츠와 커머스를 결합한 멀티채널 쇼핑 플랫폼으로 진화해 가고 있습니다. 이러한 변화의 흐름 속에서 GS SHOP 검색추천파트는 검색, 광고, 추천 영역 전반에 […] || 개요
GS SHOP은 대한민국을 대표하는 TV 홈쇼핑 비즈니스에서 출발하여, 이제는 고객의 라이프스타일을 함께 만들어 나가는 온라인 종합 쇼핑 플랫폼으로 자리잡고 있습니다. 기존의 TV 라이브 채널뿐 아니라 데이터 홈쇼핑, 모바일 라이브까지 운영하며 쇼핑 채널을 넓혀왔고, 콘텐츠와 커머스를 결합한 멀티채널 쇼핑 플랫폼으로 진화해 가고 있습니다.
이러한 변화의 흐름 속에서 GS SHOP 검색추천파트는 검색, 광고, 추천 영역 전반에 걸쳐 생성형 AI를 폭넓게 활용하고 있습니다. 검색에서는 고객이 원하는 상품을 더 잘 찾을 수 있도록 돕고, 광고·콘텐츠 영역에서는 더 빠르고 효율적으로 콘텐츠를 생성하며, 추천에서는 고객을 한층 풍부하게 이해해 개인화된 제안을 만들어 가고 있습니다. 생성형 AI는 이제 단순한 실험을 넘어, 실제 비즈니스 가치를 만들어내는 핵심 도구로 자리잡고 있습니다. 이 글에서 소개할 영상 기반 추천 역시 이러한 AI 활용 흐름 속에서 실제 서비스에 연결된 사례 중 하나입니다.
영상을 이해하는 추천으로의 전환
고객의 쇼핑 여정에서 영상 콘텐츠의 비중은 점점 커지고 있습니다. 짧고 임팩트 있는 영상이 상품 정보를 직관적으로 전달해, 자연스럽게 구매 행동으로 이어지기 때문입니다. GS SHOP이 운영하는 자사 숏폼 브랜드 ‘숏픽’은 상품의 핵심 포인트를 30초 내외로 담아낸 홈쇼핑 특화형 숏폼 콘텐츠로, 각 영상이 특정 상품과 매핑되어 모바일 앱의 개인화 추천 영역에 캐러셀(Carousel) 형태로 노출됩니다.
매일 수십 편의 숏픽이 추천 영역을 통해 고객에게 노출되고 있었지만, 그 영상들이 만들어지기까지의 과정은 결코 가볍지 않았습니다. 1시간 분량의 방송 영상을 PD가 처음부터 끝까지 다시 돌려보면서, 숏픽으로 쓸 만한 하이라이트를 골라내고 재방송에 부적합한 장면을 일일이 찾아 제거하는 작업이 매 방송마다 따라붙었기 때문입니다. GS SHOP 검색추천파트의 프로젝트는 바로 이 현장의 고충에서 출발했습니다.
“영상도 텍스트처럼 검색할 수는 없을까?”
처음에는 PD가 방송을 처음부터 끝까지 다시 돌려보는 시간을 어떻게든 줄여 보자는 작은 질문이었습니다. 그런데 그 답을 찾아가는 과정에서 ‘영상 이해’라는 전혀 다른 문이 함께 열렸고, 그동안 보이지 않던 추천 시스템의 한계까지 정면으로 마주하게 됐습니다.
“숏픽 추천 시스템은 영상을 이해하고 있는가?”
기존 숏픽 추천에 결함이 있었던 것은 아닙니다. 다만 추천 시스템이 다룰 수 있는 데이터는 상품 ID와 카테고리 같은 정형 정보뿐이었고, 영상 콘텐츠는 추천된 상품 옆에 따라 붙는 보조 자료에 가까웠습니다. 이름은 ‘숏픽 추천’이었지만, 실제로는 상품을 먼저 추천하고 그 상품에 영상이 있으면 함께 노출하는 구조였습니다.
그래서 GS SHOP 검색추천파트는 영상 자체를 추천 신호로 쓰는 방향으로 추천 시스템을 다시 짜기 시작했습니다. Amazon Bedrock에 탑재된 TwelveLabs의 Video Understanding 모델(Marengo, Pegasus)과 Anthropic Claude Sonnet 4, Cohere Embed Multilingual 모델을 조합하여 영상 속 맥락을 추천에 쓸 수 있는 형태로 구조화하고, 이를 기존 상품 추천 엔진 위에 Hybrid 방식으로 결합하여 숏픽 추천 시스템을 재편했습니다.
이 글에서는 그 출발점이 된 영상 검색의 첫 실험부터, 숏픽 추천 시스템을 다시 짜고 실제 서비스에 태우기까지의 여정을 차례로 풀어 보겠습니다.
직면한 과제: 영상은 있었지만