JiunYi Yang
- NLP , Python , PyTorch , 資料科學
- 7 1 月, 2023
- 139 views
[PyTorch] 使用 torch.distributed 在單機多 GPU 上進行分散式訓練
Finetune 語言模型所需要的 GPU memory 比較多,往往會需要我們能夠利用到多顆 GPU 的資源。今天這篇文章會說明 DataParallel 和 DistributedDataParallel + DistributedSampler 兩種進行模型分散式訓練的方式。
JiunYi Yang
- 資料科學
- 24 6 月, 2020
- 70 views
【技術分享】tensorflow-gpu 安裝紀錄 (Windows Server 2016)
系統環境確認 Windows Server 2016 GeF…