RLHF

AI/PAPER

[NLP Paper Review] Direct Preference Optimization: Your Language Model is Secretly a Reward Model

이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Direct Preference Optimization: Your Language Model is Secretly a Reward Model저자 / 소속: Rafael Rafailov, Archit Sharma, Eric Mitchell, Stefano Ermon, Christopher D. Manning, Chelsea Finn / Stanford 등출판 연도 / 학회: 2023년 / NeurIPS 2023링크: arXiv:2305.18290 ✍🏻 TL;DR – ..

AI/PAPER

[NLP Paper Revew] Training language models to follow instructions with human feedback

이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Training language models to follow instructions with human feedback저자 / 소속: Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida 외 / OpenAI출판 연도 / 학회: 2022년 arXiv 게재, NeurIPS 워크숍 발표링크: arXiv:2203.02155 ✍🏻 TL;DR – 한 줄 요약Supervised 학습과 RLHF(Reinforcement Learning from Hu..

개발자 만두
'RLHF' 태그의 글 목록