일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- 이분탐색
- Generative AI
- speaking
- LLM
- 그래프이론
- 완전탐색
- 판다스
- 알고리즘
- 코딩테스트
- 최단경로
- 코딩테스트실력진단
- bfs/dfs
- peft
- DP
- Lora
- English
- 프로그래머스
- 파이썬
- Fine-Tuning
- 플로이드와샬
- 머신러닝
- 데이터분석
- 파인튜닝
- Scaling Laws
- 스터디
- 코드트리
- paper review
- Python
- Study
- Coursera
- Today
- Total
목록파인튜닝 (2)
생각하는 아져씨

LLM의 효율적인 파인튜닝인 PEFT 연구의 중요성과 현재까지의 흐름을 정리해보았다. 주로 공부할 땐 노션에 정리한 후 다듬어 블로그에 올리는데, 이번 포스팅은 양이 많아서 노션 링크를 공유한다. PEFT의 최신 연구 동향에 대해 대략적으로 파악할 수 있도록 요약해봤다. PEFT를 공부하는 분들께 조금이라도 도움이 되었으면 좋겠다. 부족한 부분은 계속해서 보완할 예정이다. https://www.notion.so/azeomi/LLM-PEFT-182685e9cfc447f7bbb651e7c80eef7d?pvs=4 LLM의 효율적인 파인튜닝, PEFT 연구는 어떻게 흘러왔을까?🤩 Why is the Fine-Tuning LLMs important? www.notion.so

앤드류 응 교수님의 강의를 듣고 정리 및 공부한 글임을 알려드립니다. Generative AI with LLMs In Generative AI with Large Language Models (LLMs), created in partnership with AWS, you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. LLM의 Full Fine-Tuning은 너무 많은 계산과 메모리가 소요됩니다. 학습 weights와 Optimizer States, Gradients, Forward Activations, Temp memory 등을 계산하고 저장하는데 많은 비용이 필요하..