HANA : Have A Nice AI

모두를 위한, 하나를 위한 AI

task 2

추천 MTL - Progressive Layered Extraction(PLE)

Multi-task learning(MTL)은 다양한 추천 시스템에 성공적으로 활용되고 있습니다.추천 MTL 중 핵심 논문 중 하나 인 Progressive Layered Extraction(PLE)에 대해서 소개드리고자 합니다.종합 : ⭐⭐⭐⭐1. 논문 중요도 : 4 점2. 실용성 : 4 점설명 : 추천 Multi-Task Learning 분야에서 핵심 논문 - MMoE를 효과적으로 개선 - 공유 전문가와 작업별 전문가를 명확히 분리 - Task간의 안좋은 영향인 Negative transfer와 시소 현상 완화 - 효율적인 Shared Representation 학습 구현Multi-Task Learning의 기초가 되는 기술 MoE(Mixture of Experts)의 역사에서 PLE가..

Mixture-of-Experts 추천 시스템 개요 - ①

Mixture-of-Experts (MoE)는 1991년 Jacobs 등이 처음 제한한 고전적인 앙상블 기법입니다.MoE는 모델 용량을 크게 확장할 수 있으며, 계산 오버헤드 가능성이 크지 않습니다. 이러한 능력은 최근 딥러닝 분야에서 혁신적으로 결합되어, 다양한 분야에서 MoE를 광범위하게 사용하게 되었습니다. 특히, LLM(Large Language Model)와 같은 대규모 어플리케이션에 성공적으로 활용되고 있습니다. Mixture-of-Experts (MoE)에 대한 소개와 중요하게 개선된 히스토리를 소개하고자 합니다. ※ https://blog.reachsumit.com/posts/2023/04/moe-for-recsys/ Mixture-of-Experts based Recommender Sys..