[NLP Paper Review] LLaMA: Open and Efficient Foundation Language Models
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: LLaMA: Open and Efficient Foundation Language Models저자 / 소속: Hugo Touvron, Thibaut Lavril, Gautier Izacard 외 / Meta AI출판 연도 / 학회: 2023년 2월 / arXiv링크: arXiv:2302.13971 ✍🏻 TL;DR – 한 줄 요약Meta는 공개 데이터만으로 훈련된 LLaMA 시리즈(7B~65B)를 제안하였으며, 13B는 GPT‑3보다, 65B는 PaLM‑540B나 C..