지난 6월 2일 ~ 6월 15일에 데이터 블로그 챌린지 4기에 참여했습니다. 해당 활동에 대한 후기를 작성해 보려고 합니다. ⁉️ 데이터 블로그 챌린지 4기 데이터 블로그 챌린지는 데이터 리차드님이 운영하는 Data/AI 인사이트 기반의 글쓰기 챌린지입니다. 6월 1일 OT를 시작으로, 6월 2일부터 15일까지 각자 선택한 플랫폼에 매일 Data/AI 관련 글을 업로드하고 단체 채팅방에 글을 공유하는 방식으로 진행되었습니다. 채팅방에 공유된 서로의 글을 보고 다른 참가자들의 글에 반응을 남기며 인사이트를 교류하고자 하는 목적을 가지고 있는 챌린지 입니다. 🎯 활동 참여 이유 그동안 데이터 분석, AI, 통계 관련 학습 내용을 정리해 티스토리 블로그에 업로드하려고 여러 카테고리와 주제를 계획했지만 혼자 ..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Llama 2: Open Foundation and Fine‑Tuned Chat Models저자 / 소속: Hugo Touvron, Louis Martin, Kevin Stone 외 / Meta AI출판 연도 / 학회: 2023년 7월 / arXiv링크: arXiv:2307.09288 ✍🏻 TL;DR – 한 줄 요약Meta는 7B부터 70B까지 다양한 크기의 LLM을 공개하고, 인간 피드백 기반 튜닝을 통해 Llama 2-Chat 모델이 오픈소스 챗 모델 중 최고 ..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: LLaMA: Open and Efficient Foundation Language Models저자 / 소속: Hugo Touvron, Thibaut Lavril, Gautier Izacard 외 / Meta AI출판 연도 / 학회: 2023년 2월 / arXiv링크: arXiv:2302.13971 ✍🏻 TL;DR – 한 줄 요약Meta는 공개 데이터만으로 훈련된 LLaMA 시리즈(7B~65B)를 제안하였으며, 13B는 GPT‑3보다, 65B는 PaLM‑540B나 C..
2025년 5월 26일부터 6월 20일까지 약 4주간, BDA에서 함께 활동 중인 조원들과 빅데이터 분석기사 실기 대비 스터디를 진행하게 되었습니다.한 번에 자격증을 취득할 수 있도록 체계적으로 준비하고 부족한 부분은 서로 도우며 최선을 다해 공부할 계획입니다.이 블로그에는 주차별 스터디 내용을 정리하며 배운 점을 차근차근 기록해보려 합니다. 🗣️ 스터디 후기 저는 BDAX영진닷컴 빅분기 실기 스터디 2조의 조장으로, 4주간 스터디를 진행했습니다. 조장이라는 역할을 맡은 만큼 스터디가 체계적으로 운영될 수 있도록 시작 전부터 노션 템플릿을 제작하고 학습 일정을 수립하였고 팀원들과 함께 합격이라는 길로 나아갈 수 있도록 더 열심히 노력할 수 있었습니다. 계획한 일정에 맞춰 각자 공부하고, 실시간 스..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Direct Preference Optimization: Your Language Model is Secretly a Reward Model저자 / 소속: Rafael Rafailov, Archit Sharma, Eric Mitchell, Stefano Ermon, Christopher D. Manning, Chelsea Finn / Stanford 등출판 연도 / 학회: 2023년 / NeurIPS 2023링크: arXiv:2305.18290 ✍🏻 TL;DR – ..
지난 6월 14일에 데이터야놀자 2025 행사에 참여했습니다. 해당 행사에 대한 후기를 작성해 보려고 합니다. ⁉️ 데이터야놀자 2025 데이터야놀자는 2016년부터 매년 개최되어 온 행사로, 인공지능과 데이터에 관심 있는 누구나 참여할 수 있는 공개 행사입니다.데이터 관련 업무 경험이 있는 연사들이 실제 사례와 인사이트를 공유하며, 다양한 후원사 부스에서 이벤트와 굿즈도 함께 즐길 수 있습니다. 2025년 행사는 6월 14일(금) 오전 10시부터 오후 6시까지, 연세대학교 백양누리 국제회의실 3관 무악로타리홀에서 진행되었습니다. AWS, 토스, Snowflake, 한빛미디어, QueryPie, Miraclare, BrainImpact, 플레이버튼, BRAND BOOST, Woka 등 다양한 기업이 후..
한빛미디어 서평단 활동을 위해서책을 협찬받아 작성된 서평입니다.📚 책 소개오늘 소개할 책은 ⌜러닝 랭체인 (메이오 오신, 누노 캄포스)⌟이다. 📍 책 선택 이유 LangChain과 LangGraph를 활용한 프로젝트를 여러 번 진행하면서 주어진 기능을 조합해 결과를 만드는 데에는 익숙해졌지만 점점 더 "이 라이브러리가 실제로 어떻게 동작하는가", "내가 쓰는 기능은 내부적으로 어떤 흐름으로 이어지는가"에 대한 궁금증이 생기기 시작했다. 단순히 도구로 활용하는 수준을 넘어서 라이브러리의 설계 의도와 구조를 깊이 있게 이해하고 싶다는 욕구가 생긴 시점에서 이 책을 발견했다. 특히 LangChain 초기 컨트리뷰터가 저자라는 점에서 단순 사용법을 넘어 라이브러리 내부 로직과 개념적 배경까지 짚어줄 수 ..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Training language models to follow instructions with human feedback저자 / 소속: Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida 외 / OpenAI출판 연도 / 학회: 2022년 arXiv 게재, NeurIPS 워크숍 발표링크: arXiv:2203.02155 ✍🏻 TL;DR – 한 줄 요약Supervised 학습과 RLHF(Reinforcement Learning from Hu..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: LoRA: Low-Rank Adaptation of Large Language Models저자 / 소속: Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen / Microsoft, University of Washington 등출판 연도 / 학회: 2021년 / arXiv, NeurIPS Workshop 2021 발표링크: arXi..