한빛미디어 서평단 활동을 위해서책을 협찬받아 작성된 서평입니다.📚 책 소개오늘 소개할 책은 코드 너머, 회사보다 오래 남을 개발자 (김상기, 배문교, 이동현, 이상아, 이수형, 차지현, 황성재) 이다. 📍 책 선택 이유 나는 지금 취업을 준비하는 과정에 있지만, 동시에 퍼스널 브랜딩에도 큰 관심을 가지고 있는 개발자 중 한 명이다. 단순히 ‘00회사 00부서 직원 000’이라는 타이틀에 머무르는 것이 아니라, 나라는 사람 자체가 개발자 시장에서 이름을 알리고 좋은 영향을 주고받으며 성장하고 싶다는 생각을 하고 있다. 유튜브나 링크드인에서는 내가 되고 싶은 모습의 개발자들을 자주 볼 수 있었다. 그러나 그분들이 어떻게 그런 삶을 만들어가고 있는지 그 과정은 쉽게 접할 방법이 없었기에 막연히 궁금증만 ..
한빛미디어 서평단 활동을 위해서책을 협찬받아 작성된 서평입니다.📚 책 소개오늘 소개할 책은 잘되는 머신러닝 팀엔 이유가 있다 (데이비드 탄, 에이다 양, 데이비드 콜스)이다. 📍 책 선택 이유 팀 프로젝트를 진행할 때 대부분 팀장 역할을 맡다 보니 팀을 효과적이고 효율적으로 이끄는 방법에 대해 자주 고민해왔다. 여러 프로젝트를 경험하며 사람을 관리하는 방식이나 일정 조율 등에 대해서는 나름 체계적인 방식을 갖추게 되었지만 기술적인 측면에서의 팀 운영에는 아직 경험이 부족하다는 점을 느꼈다. 특히 앞으로 회사 생활을 하게 된다면 이 부분이 팀의 성과에 큰 영향을 미칠 것이라고 생각하게 되었다. 그러던 중 '잘되는 머신러닝 팀엔 이유가 있다'라는 책을 접하게 되었고 제목부터 흥미를 끌어 읽어보게 되었다..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Transformer‑XL: Attentive Language Models Beyond a Fixed‑Length Context저자 / 소속: Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov출판 연도 / 학회: 2019년 / arXiv, ACL 2019링크: arXiv:1901.02860 ✍🏻 TL;DR – 한 줄 요약Transformer‑XL은 세그먼트 간..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks저자 / 소속: Nils Reimers, Iryna Gurevych / Technische Universität Darmstadt (UKP 연구실)출판 연도 / 학회: 2019년 / EMNLP링크: arXiv:1908.10084 ✍🏻 TL;DR – 한 줄 요약BERT의 비효율적인 유사도 계산 구조를 개선하기 위해 siamese BERT 구조를 활용한 Sen..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Sequence to Sequence Learning with Neural Networks저자 / 소속: Ilya Sutskever, Oriol Vinyals, Quoc V. Le / Google Brain 등출판 연도 / 학회: 2014년 / coRR링크: arXiv:1409.3215 ✍🏻 TL;DR – 한 줄 요약입력 시퀀스를 LSTM 인코더로 고정된 벡터로 압축하고 이를 바탕으로 디코더가 출력 시퀀스를 생성하는 end-to-end seq2seq 구조를 제안하여..
지난 6월 2일 ~ 6월 15일에 데이터 블로그 챌린지 4기에 참여했습니다. 해당 활동에 대한 후기를 작성해 보려고 합니다. ⁉️ 데이터 블로그 챌린지 4기 데이터 블로그 챌린지는 데이터 리차드님이 운영하는 Data/AI 인사이트 기반의 글쓰기 챌린지입니다. 6월 1일 OT를 시작으로, 6월 2일부터 15일까지 각자 선택한 플랫폼에 매일 Data/AI 관련 글을 업로드하고 단체 채팅방에 글을 공유하는 방식으로 진행되었습니다. 채팅방에 공유된 서로의 글을 보고 다른 참가자들의 글에 반응을 남기며 인사이트를 교류하고자 하는 목적을 가지고 있는 챌린지 입니다. 🎯 활동 참여 이유 그동안 데이터 분석, AI, 통계 관련 학습 내용을 정리해 티스토리 블로그에 업로드하려고 여러 카테고리와 주제를 계획했지만 혼자 ..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: Llama 2: Open Foundation and Fine‑Tuned Chat Models저자 / 소속: Hugo Touvron, Louis Martin, Kevin Stone 외 / Meta AI출판 연도 / 학회: 2023년 7월 / arXiv링크: arXiv:2307.09288 ✍🏻 TL;DR – 한 줄 요약Meta는 7B부터 70B까지 다양한 크기의 LLM을 공개하고, 인간 피드백 기반 튜닝을 통해 Llama 2-Chat 모델이 오픈소스 챗 모델 중 최고 ..
이 시리즈는 NLP 분야의 핵심 논문들을 정리하고 리뷰하는 글입니다.논문의 주요 기여와 핵심 개념을 개인적으로 이해한 관점에서 풀어내며실제 프로젝트나 연구에 어떻게 적용할 수 있을지에 대한 생각도 함께 담았습니다. 📌 논문 정보논문 제목: LLaMA: Open and Efficient Foundation Language Models저자 / 소속: Hugo Touvron, Thibaut Lavril, Gautier Izacard 외 / Meta AI출판 연도 / 학회: 2023년 2월 / arXiv링크: arXiv:2302.13971 ✍🏻 TL;DR – 한 줄 요약Meta는 공개 데이터만으로 훈련된 LLaMA 시리즈(7B~65B)를 제안하였으며, 13B는 GPT‑3보다, 65B는 PaLM‑540B나 C..
2025년 5월 26일부터 6월 20일까지 약 4주간, BDA에서 함께 활동 중인 조원들과 빅데이터 분석기사 실기 대비 스터디를 진행하게 되었습니다.한 번에 자격증을 취득할 수 있도록 체계적으로 준비하고 부족한 부분은 서로 도우며 최선을 다해 공부할 계획입니다.이 블로그에는 주차별 스터디 내용을 정리하며 배운 점을 차근차근 기록해보려 합니다. 🗣️ 스터디 후기 저는 BDAX영진닷컴 빅분기 실기 스터디 2조의 조장으로, 4주간 스터디를 진행했습니다. 조장이라는 역할을 맡은 만큼 스터디가 체계적으로 운영될 수 있도록 시작 전부터 노션 템플릿을 제작하고 학습 일정을 수립하였고 팀원들과 함께 합격이라는 길로 나아갈 수 있도록 더 열심히 노력할 수 있었습니다. 계획한 일정에 맞춰 각자 공부하고, 실시간 스..