일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- peft
- Fine-Tuning
- DP
- 플로이드와샬
- Lora
- 그래프이론
- 코딩테스트실력진단
- Coursera
- 이분탐색
- 코드트리
- 판다스
- 파이썬
- 스터디
- 완전탐색
- 최단경로
- 머신러닝
- Python
- bfs/dfs
- English
- Scaling Laws
- 코딩테스트
- 프로그래머스
- LLM
- speaking
- 데이터분석
- paper review
- Study
- 알고리즘
- Generative AI
- 파인튜닝
- Today
- Total
목록LLM (12)
생각하는 아져씨

LLM의 효율적인 파인튜닝인 PEFT 연구의 중요성과 현재까지의 흐름을 정리해보았다. 주로 공부할 땐 노션에 정리한 후 다듬어 블로그에 올리는데, 이번 포스팅은 양이 많아서 노션 링크를 공유한다. PEFT의 최신 연구 동향에 대해 대략적으로 파악할 수 있도록 요약해봤다. PEFT를 공부하는 분들께 조금이라도 도움이 되었으면 좋겠다. 부족한 부분은 계속해서 보완할 예정이다. https://www.notion.so/azeomi/LLM-PEFT-182685e9cfc447f7bbb651e7c80eef7d?pvs=4 LLM의 효율적인 파인튜닝, PEFT 연구는 어떻게 흘러왔을까?🤩 Why is the Fine-Tuning LLMs important? www.notion.so

앤드류 응 교수님의 강의를 듣고 정리 및 공부한 글임을 알려드립니다. Generative AI with LLMs In Generative AI with Large Language Models (LLMs), created in partnership with AWS, you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. LLM의 Full Fine-Tuning은 너무 많은 계산과 메모리가 소요됩니다. 학습 weights와 Optimizer States, Gradients, Forward Activations, Temp memory 등을 계산하고 저장하는데 많은 비용이 필요하..

앤드류 응 교수님의 강의를 듣고 정리 및 공부한 글임을 알려드립니다. Generative AI with LLMs In Generative AI with Large Language Models (LLMs), created in partnership with AWS, you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. 지금까지 Pre-training과 Fine-tuning을 통해 모델의 성능을 높이는 방법을 공부했습니다. 사전학습 모델을 파인튜닝하면 더 나은 성능을 얻을 수 있음을 확인했는데, 그렇다면 어떻게 “성능 향상”을 얻었다고 확인할 수 있을까요? 이를 위해서 L..

앤드류 응 교수님의 강의를 듣고 정리 및 공부한 글임을 알려드립니다. Generative AI with LLMs In Generative AI with Large Language Models (LLMs), created in partnership with AWS, you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. 오늘은 Single-Task와 Multiple-Task에서 Fine-tuning 하는 과정에 대해 공부해보려고 합니다. LLM은 다양한 Task에도 잘 동작하긴 하지만, 내가 관심 있는 분야 또는 아주 특정한 분야에 한해서 좀 더 좋은 성능을 내고 싶다면,..

앤드류 응 교수님의 강의를 듣고 정리 및 공부한 글임을 알려드립니다. Generative AI with LLMs In Generative AI with Large Language Models (LLMs), created in partnership with AWS, you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. 이번 주는 LLM의 Fine-tuning에 대해서 살펴보려고 합니다. 그중에서도 Instruction fine-tuning과 parameter fine-tuning 이렇게 2가지에 대해 공부해 보겠습니다. Instruction Fine-tuning LLM은..

오늘은 귀여운 친칠라 논문에 대해 리뷰해보겠습니다. 1. Introduction 최근 5000억개의 파라미터를 가지는 LLM이 많이 공개되었다. 또한 Large Autoregressive 트랜스포머 모델들은 Zero-shot, Few-shot, Fine-tuning 같은 프로토콜을 활용해 다양한 task에서도 좋은 성능을 보여주고 있다. 이런 LLM을 학습시키는데 상당한 컴퓨팅 예산이 들기 때문에, 모델 사이즈에 따른 컴퓨팅 비용을 고려해야 한다. 더군다나 이렇게 큰 모델은 현실적으로 1번 정도 학습할 수 있기 때문에 주어진 컴퓨팅 예산 안에서 최적의 모델을 정확하게 평가할 수 있는 것이 매우 중요하다. Kaplan et al.(2020)의 논문에서 이 문제에 대해 다뤘다. 모델의 파라미터 수와 성능의 ..