fine-tuning

AI/PAPER

[NLP PaperReview] LoRA: Low-Rank Adaptation of Large Language Models

이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: LoRA: Low-Rank Adaptation of Large Language Models저자 / 소속: Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen / Microsoft, University of Washington 등출판 연도 / 학회: 2021년 / arXiv, NeurIPS Workshop 2021 발표링크: arXi..

AI/PAPER

[NLP Paper Review] Improving Language Understandingby Generative Pre-Training

이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Improving Language Understanding by Generative Pre-Training (GPT-1)저자/소속: Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever / OpenAI출판 연도 / 학회: 2018년 / OpenAI Preprint링크: 논문 PDF ✍🏻 TL;DR – 한 줄 요약Transformer 기반 언어 모델을 대규모 비지도 학습으로 사전 훈련한 후, 소량의 지도 학..

개발자 만두
'fine-tuning' 태그의 글 목록