거대모델은 pretrained 모델을 파인튜닝하는데 리소스가 많이 소요됩니다따라서 일부 파라미터만 파인튜닝합니다 또한 N개의 task별로 N개의 모델이 존재한다면 효율적이지 못합니다대부분의 파라미터는 유지한채로, 변경되는 부분만 바꾼다면 리소스를 효율적으로 사용할 수 있습니다 AdapterParameter-Efficient Transfer Learning for NLP : 2019https://arxiv.org/pdf/1902.00751 Task별로 adapter부분만 fine tuning합니다아래와 같이 단순히 맨 마지막 layer만 fine tuning 할때보다 더 성능이 좋습니다하지만 inference에서 추가적인 adapter에 따른 latency가 있습니다BitFithttps://arxiv.or..