I. 프로젝트 개요

1. 실험 개요

2. 주요 ROUGE 지표

3. 데이터

데이터 구조

대화 분석

4. 개인 업무 및 실험

II. 데이터 분석 및 전처리

1. EDA

2. Preprocessing: Validation Set

3. Tokenizer: Special Token 추가

III. 모델 개발 및 학습

1. 모델 유형별 접근

Hugging Face 모델 (Fine-tuning)

모델 구조 주요 특징
BART Seq2Seq (Encoder-Decoder) 요약 및 번역에 적합
T5 Seq2Seq (Encoder-Decoder) 한국어 요약 최적화
LLAMA Causal LM (Decoder-Only) 대화 기반 요약 가능

Fine-tuning 전략

Prompt Engineering 및 Few-shot Learning (API 활용)

IV. 모델 평가 및 성능 분석

1. Model 성능 및 속도 비교

2. Prediction 분석 및 Post-Training EDA

3. Loss Monitoring 및 학습 안정화

V. 추가 실험 및 최종 결과

1. 추가 실험: Dynamic Sampling & Parameter 조절

2. 최종 결과

VI. 회고 및 향후 개선점

1. Prompt Engineering과 Fine-tuning 전략의 혼합 실험 부족

2. 실험 설계 및 검증 프로세스 강화 필요

5. 시도 중 어떠한 실패를 경험했는가? 실패의 과정에서 어떠한 교훈을 얻었는가?

6. 협업 과정에서 잘된 점과 아쉬웠던 점은 무엇인가?

7. 이번 경진대회를 통해 얻은 깨달음과 앞으로의 계획

이러한 교훈을 바탕으로, 다음 프로젝트에서는 팀의 역량을 최대한 발휘할 수 있도록 아래와 같은 시도를 해볼 예정

#패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab #국비지원 #패스트캠퍼스업스테이지에이아이랩 #패스트캠퍼스업스테이지부트캠프