본문 바로가기

잡동사니 블로그

검색하기
잡동사니 블로그
프로필사진 코딩부대찌개

  • 분류 전체보기 (75)
    • Python (16)
      • 백준 (31)
    • 회고 (8)
    • Jetson nano (1)
    • 공부용 (17)
    • R (1)
    • Ruby (1)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/04   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록2025/04 (1)

잡동사니 블로그

[Pytorch] DistributedDataParallel(DDP)

최근 딥러닝 모델들이 더욱 커지고 복잡해지면서 단일 GPU로는 학습이 어렵거나 시간이 오래 걸리게 되었기 때문에, 이를 해결하기 위한 효과적인 방법 중 하나가 PyTorch의 DistributedDataParallel(DDP) DDP(DistributedDataParallel)란?PyTorch의 DistributedDataParallel은 여러 GPU나 여러 컴퓨터(노드)에 학습을 분산시켜 병렬로 학습 속도를 높이는 방법이며, 모델의 파라미터를 동기화하면서 데이터 배치를 분산 처리하여 효율적으로 학습할 수 있게 도와줌. (1) 초기 설정import osimport torchimport torch.distributed as distimport torch.nn as nnimport torch.optim as..

Python 2025. 4. 5. 14:42
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바