LoRA를 활용한 언어 모델의 요약화 조정
카테고리
프로그래밍/소프트웨어 개발
서브카테고리
인공지능, 데이터 분석
대상자
NLP 개발자, 모델 최적화 연구자, AI 프로젝트 담당자
핵심 요약
- LoRA 기법은 T5 모델의 attention block에서 low-rank matrix를 적용하여 0.48%의 파라미터만 업데이트하면서도 성능 향상을 달성
- BERTScore F1 지표를 사용한 평가에서 LoRA 조정 모델이 기존 모델 대비 0.71% 향상
- T5-small 모델을 CNN/Daily Mail 데이터셋으로 조정, 1 epoch만으로도 효율적인 결과 도출
섹션별 세부 요약
1. 요약화의 두 가지 유형
- Extractive는 문장 단위로 선택하여 요약하지만, hallucination 없이 단순한 방법
- Abstractive는 의미를 재구성하여 새로운 문장을 생성하지만, Encoder-Decoder 아키텍처가 필요
2. LoRA 기법의 원리
- Low-Rank Adaptation (LoRA)은 attention block의 query/value 파라미터에만 low-rank matrix를 적용
- 전체 파라미터 업데이트 대비 0.48%만 학습하여 메모리/컴퓨팅 효율성 확보
3. 모델 조정 및 평가
- T5-small 모델을 Hugging Face 라이브러리로 조정, main.ipynb 노트북에서 실행
- BERTScore F1 지표 사용:
- Vanilla Model: 0.8594
- LoRA Fine-Tuned: 0.8665
4. 프로젝트의 제한 사항
- CNN/Daily Mail 데이터셋만 사용하여 도메인 전이 테스트 미비
- 1 epoch만 학습: A5000 GPU에서 $1의 클라우드 비용 발생
- 인프라 최적화 미 수행: ONNX, Accelerate 사용 가능
- 입력/출력 토큰 제한 (512/128)으로 장문 처리 시 분할 필요
결론
- LoRA 기법은 파라미터 효율성과 성능 향상을 동시에 달성하며, T5-small 모델에서 BERTScore F1 0.71% 향상
- 더 많은 epoch 또는 t5-base 모델 사용으로 개선 가능, 인프라 최적화는 별도로 수행 필요