이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Unified Language Model Pre-training for Natural Language Understanding and Generation저자/소속: Li Dong, Nan Yang, Wenhui Wang, Furu Wei, Xiaodong Liu, Yu Wang, Jianfeng Gao, Ming Zhou,Hsiao‑Wuen Hon / Microsoft Research출판 연도 / 학회: 2019년 / NeurIPS 2019링크: arXiv:1905...
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Language Models are Unsupervised Multitask Learners저자/소속: Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever / OpenAI출판 연도 / 학회: 2019년 / OpenAI 기술 리포트 (arXiv 사전 공개)링크: PDF - OpenAI 공식 문서 ✍🏻 TL;DR – 한 줄 요약GPT-2는 대규모 비지도 학습만으로도 다양한 자연어 처리..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Multi-Task Deep Neural Networks for Natural Language Understanding저자/소속: Xiaodong Liu, Pengcheng He, Weizhu Chen, Jianfeng Gao / Microsoft Research & Microsoft Dynamics 365 AI출판 연도 / 학회: 2019년 / ACL 2019 (57th Annual Meeting of the Association for Computational L..
2025년 5월 26일부터 6월 20일까지 약 4주간, BDA에서 함께 활동 중인 조원들과 빅데이터 분석기사 실기 대비 스터디를 진행하게 되었습니다.한 번에 자격증을 취득할 수 있도록 체계적으로 준비하고 부족한 부분은 서로 도우며 최선을 다해 공부할 계획입니다.이 블로그에는 주차별 스터디 내용을 정리하며 배운 점을 차근차근 기록해보려 합니다. 📘 스터디 교재이번 스터디의 교재는 BDA와 영진닷컴에서 지원을 해주셔서 2025 이기적 빅데이터분석기사 실기 Python 도서로 진행하게 되었습니다. 📌 스터디 개요주차: 2주차날짜: 6월 7일 (토)범위: Part 03 머신러닝과 모델링 ~ Part 04 통계와 확률 📋 스터디 내용Part 03의 내용은 책을 한번 정독한 후 코드를 전부 따라서 작성해보고 ..
2025년 5월 26일부터 6월 20일까지 약 4주간, BDA에서 함께 활동 중인 조원들과 빅데이터 분석기사 실기 대비 스터디를 진행하게 되었습니다.한 번에 자격증을 취득할 수 있도록 체계적으로 준비하고 부족한 부분은 서로 도우며 최선을 다해 공부할 계획입니다.이 블로그에는 주차별 스터디 내용을 정리하며 배운 점을 차근차근 기록해보려 합니다. 📘 스터디 교재이번 스터디의 교재는 BDA와 영진닷컴에서 지원을 해주셔서 2025 이기적 빅데이터분석기사 실기 Python 도서로 진행하게 되었습니다. 📌 스터디 개요주차: 1주차날짜: 6월 2일 (월)범위: PART 01 Python 기초와 데이터 구조 ~ Part 02 데이터 처리 📋 스터디 내용이번 주는 Python, NumPy, Pandas 등 이미 ..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Universal Language Model Fine-tuning for Text Classification저자/소속: Jeremy Howard (fast.ai), Sebastian Ruder (Insight Centre, NUI Galway / Aylien Ltd.)출판 연도 / 학회: 2018년 / ACL (Association for Computational Linguistics)링크: 논문 링크 ✍🏻 TL;DR – 한 줄 요약ULMFiT는 사전 학습된 언어 ..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding저자/소속: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova / Google AI Language출판 연도 / 학회: 2019년 / NAACL (North American Chapter of the Association for Computational Linguist..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Improving Language Understanding by Generative Pre-Training (GPT-1)저자/소속: Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever / OpenAI출판 연도 / 학회: 2018년 / OpenAI Preprint링크: 논문 PDF ✍🏻 TL;DR – 한 줄 요약Transformer 기반 언어 모델을 대규모 비지도 학습으로 사전 훈련한 후, 소량의 지도 학..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Deep contextualized word representations저자/소속: Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer / Allen Institute for Artificial Intelligence (AI2), University of Washington출판 연도 / 학회: 2018년 / NAACL-HLT링크..