일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 코드트리
- paper review
- 최단경로
- Study
- 이분탐색
- 프로그래머스
- 판다스
- Scaling Laws
- Lora
- bfs/dfs
- 그래프이론
- 플로이드와샬
- Generative AI
- 스터디
- LLM
- Python
- peft
- Fine-Tuning
- speaking
- 완전탐색
- English
- DP
- 알고리즘
- 파이썬
- 코딩테스트실력진단
- 머신러닝
- 데이터분석
- 코딩테스트
- Coursera
- 파인튜닝
- Today
- Total
목록코세라 (2)
생각하는 아져씨

앤드류 응 교수님의 강의를 듣고 정리 및 공부한 글임을 알려드립니다. Generative AI with LLMs In Generative AI with Large Language Models (LLMs), created in partnership with AWS, you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. LoRA(Low Rank Adaptation) PEFT 중 Reparameterization 테크닉에 속하는 기법으로, 사전학습 모델에 학습이 가능한 Rank decomposition 행렬을 삽입한 것으로 파인튜닝 동안 학습되는 파라미터를 줄이는 전략 오리..

앤드류 응 교수님의 강의를 듣고 정리 및 공부한 글임을 알려드립니다. Generative AI with LLMs In Generative AI with Large Language Models (LLMs), created in partnership with AWS, you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. LLM의 Full Fine-Tuning은 너무 많은 계산과 메모리가 소요됩니다. 학습 weights와 Optimizer States, Gradients, Forward Activations, Temp memory 등을 계산하고 저장하는데 많은 비용이 필요하..