발표 내용
애플리케이션 서비스에서 요구하는 성능 품질을 달성한 Large langauge model(LLM)을 성능 열화 없이 Small LLM으로 경량화하는 레시피를 소개합니다
목차
Episode 1: 서비스용 LLM 모델을 줄여야만 한다?
Episode 2: 고품질 제목 추천
Episode 3: 사물 키워드 추출
Episode 4: 마무리
대상
•
서비스 애플리케이션 요구사항을 두루 충족하는 LLM 기반 모델링에 관심 있으신 분
•
모델 경량화에 대해 고민하시는 분