메타, 광고 추천 시스템에 거대언어모델 규모 적용 및 효율 개선
메타가 인스타그램 광고 추천 시스템에 거대언어모델(LLM) 규모의 적응형 랭킹 모델을 도입했습니다. 이 모델은 사용자 맥락에 따라 복잡성을 동적으로 조정하여 광고 성과를 높이고 시스템 효율을 극대화합니다.
주장메타는 광고 추천 시스템의 성능을 극대화하고자 모델의 복잡성을 거대언어모델(LLM) 수준으로 확장하는 전략을 추진합니다. 이는 사용자의 의도를 깊이 있게 이해하여 광고주에게 더 높은 성과를 제공하기 위한 조치입니다.
팩트메타가 개발한 적응형 랭킹 모델은 2025년 4분기 인스타그램에 적용되었습니다. 도입 이후 타겟 사용자 대상 광고 전환율은 3%, 광고 클릭률은 5% 증가했습니다.
주장메타는 모델 복잡성 증가와 시스템 효율 유지라는 추론의 난제를 해결하고자 적응형 랭킹 모델을 설계했습니다. 이 모델은 모든 요청에 동일한 방식을 적용하지 않고 사용자 맥락에 맞춰 복잡성을 동적으로 조정합니다.
교차검증거대언어모델 규모의 모델을 실시간 광고 추천에 적용하면 막대한 컴퓨팅 자원과 메모리가 필요합니다. 단순히 하드웨어 자원을 늘리는 방식은 비용 효율성 측면에서 지속 가능하지 않습니다.
팩트적응형 랭킹 모델은 1조 개 규모의 파라미터를 처리하며, 하드웨어 가속을 통해 모델 연산 효율(MFU)을 35%까지 높였습니다. 또한 100밀리초 수준의 지연 시간을 유지하며 거대언어모델급 복잡성을 구현했습니다.
팩트이 시스템은 요청 중심 아키텍처를 도입하여 기존의 선형적 확장 비용을 하위 선형적 비용으로 전환했습니다. 사용자 신호를 광고 후보마다 개별 계산하지 않고 요청당 한 번만 계산하여 중복 연산을 제거했습니다.
주장메타는 하드웨어와 모델을 공동 설계하여 이기종 하드웨어 환경에서의 활용도를 극대화했습니다. 이는 실리콘의 성능과 한계를 고려하여 모델 구조를 최적화한 결과입니다.
팩트오공 터보(Wukong Turbo)라 불리는 최적화된 런타임 아키텍처는 수치적 불안정성을 제거하고 네트워크 오버헤드를 줄였습니다. 이를 통해 파라미터 수를 늘리지 않고도 처리량을 높이는 구조적 개선을 달성했습니다.
교차검증광고 추천은 챗봇과 달리 1초 미만의 엄격한 지연 시간 제한을 준수해야 합니다. 따라서 모델의 깊이를 더하면서도 사용자 경험을 저해하지 않는 실시간 처리 기술이 필수적입니다.
출처https://engineering.fb.com/2026/03/31/ml-applications/meta-adaptive-ranking-model-bending-the-inference-scaling-curve-to-serve-llm-scale-models-for-ads/
본 기사는 전문가의 분석과 공개 자료를 기반으로 AI가 작성 후 다른 AI의 검증을 거쳐 작성됐으며 정보의 정확성과 완전성을 보장하지 않습니다. 기사 내용은 특정 투자·의사결정의 권유가 아니며, Wittgenhaus는 이를 근거로 한 행위의 결과에 책임을 지지 않습니다.