학술논문

SMoP : Sparse Mixture-of-Prompts for Efficient Prompt Tuning
Document Type
Dissertation/ Thesis
Source
Subject
Language Model
Prompt Tuning
Mixture-of-Experts
Language
English
Abstract
Prompt tuning has been introduced as an alternative tuning method to the full fine-tuning of language models. However, prior research regarding prompt tuning has overlooked the inefficiency associated with extended input length due to long soft prompts, often utilizing soft prompts of lengths up to 100 tokens to enhance performance. In this thesis, we propose a novel prompt tuning method called SMoP (Sparse Mixture-of-Prompts), which alleviates the aforementioned inefficiency by employing short soft prompts while retaining performance gains typically elicited by longer soft prompts. To achieve this, SMoP utilizes a gating mechanism that selectively activates one soft prompt based on the input instance to facilitate simultaneous training of multiple short soft prompts. Experimental results illustrate that SMoP greatly reduces training and inference costs while outperforming prompt tuning baseline methods. Moreover, SMoP exhibits comparable performance to adapter-based methods, despite training significantly fewer model parameters.
프롬프트 튜닝은 언어 모델의 전체 미세 조정에 대한 성공적인 파라미터 효율적 대안으로써 대두되었다. 그러나 이전의 프롬프트 튜닝 연구들은 성능 향상을 위해 100개의 토큰에 달하는 긴 소프트 프롬프트를 사용하며, 이 과정에서 입력의 길이가 길어짐에 따라 발생하는 비효율성을 간과하였다. 본 논문에서, 우리는 짧은 소프트 프롬프트를 사용하여 효율적이면서도 일반적으로 긴 소프트 프롬프트로부터 얻어지는 성능 향상을 유지하는 새로운 프롬프트 튜닝 방법론 SMoP(Sparse Mixture-of-Prompts) 을 제안한다. SMoP은 전체 데이터를 다루는 한 개의 긴 소프트 프롬프트를 학습하는 대신, 게이팅 작용을 통해 데이터의 일부를 다루는 데에 특화된 짧은 소프트 프롬프트 여러 개를 학습한다. 우리는 실험을 통하여 SMoP이 기존 프롬프트 튜닝 방법론 대비 성능이 뛰어나면서도 학습 및 추론 비용을 절감함을 보인다. 또한, 어댑터 기반 방법론과 비교할 때 적은 수의 파라미터만을 학습하고도 대등한 성능을 나타냄을 입증한다.