Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
Tags
- 코드트리
- 스터디
- DP
- Generative AI
- 판다스
- Coursera
- 머신러닝
- 플로이드와샬
- peft
- Python
- 이분탐색
- Lora
- speaking
- 코딩테스트
- Fine-Tuning
- 프로그래머스
- Study
- English
- LLM
- 데이터분석
- 알고리즘
- Scaling Laws
- 최단경로
- paper review
- bfs/dfs
- 파이썬
- 완전탐색
- 코딩테스트실력진단
- 그래프이론
- 파인튜닝
Archives
- Today
- Total
목록ZERO (1)
생각하는 아져씨
[Coursera] LLM에 필요한 효율적인 Multi-GPU 활용 전략
앤드류 응 교수님의 강의를 듣고 공부한 글임을 알려드립니다. Generative AI with LLMs In Generative AI with Large Language Models (LLMs), created in partnership with AWS, you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. 오늘은 효율적으로 Multi-GPU를 사용하는 전략에 대해 공부해 보겠습니다. 저번 공부에 따르면, Large Language Model(LLM)을 학습하려면 Multi-GPU 사용이 꼭 필요합니다. Single GPU로도 학습할 수 있는 작은 모델이더라도 Mult..
Machine & Deep Learning/Generative AI
2023. 9. 2. 19:49