App下載

PyTorch梯度裁剪怎么避免訓(xùn)練loss nan?

猿友 2021-07-15 14:31:16 瀏覽數(shù) (5106)
反饋

不知道小伙伴們在訓(xùn)練檢測網(wǎng)絡(luò)的時(shí)候有沒有出現(xiàn)loss為nan的情況。當(dāng)出現(xiàn)這種情況的時(shí)候需要中斷重新訓(xùn)練,會很麻煩。接下來小編介紹一種pytorch避免訓(xùn)練loss nan的方法,就是使用pytorch梯度裁剪來進(jìn)行限制,我們可以選擇使用PyTorch提供的梯度裁剪庫來對模型訓(xùn)練過程中的梯度范圍進(jìn)行限制。修改之后,不再出現(xiàn)loss為nan的情況。

PyTorch中采用torch.nn.utils.clip_grad_norm_來實(shí)現(xiàn)梯度裁剪,鏈接如下:

https://pytorch.org/docs/stable/_modules/torch/nn/utils/clip_grad.html

訓(xùn)練代碼使用示例如下:

from torch.nn.utils import clip_grad_norm_
outputs = model(data)
loss= loss_fn(outputs, target)
optimizer.zero_grad()
loss.backward()
# clip the grad
clip_grad_norm_(model.parameters(), max_norm=20, norm_type=2)
optimizer.step()

其中,max_norm為梯度的最大范數(shù),也是梯度裁剪時(shí)主要設(shè)置的參數(shù)。

備注:網(wǎng)上有同學(xué)提醒在(強(qiáng)化學(xué)習(xí))使用了梯度裁剪之后訓(xùn)練時(shí)間會大大增加。目前在我的檢測網(wǎng)絡(luò)訓(xùn)練中暫時(shí)還沒有碰到這個(gè)問題,以后遇到再來更新。

補(bǔ)充:pytorch訓(xùn)練過程中出現(xiàn)nan的排查思路

1、最常見的就是出現(xiàn)了除0或者log0這種

看看代碼中在這種操作的時(shí)候有沒有加一個(gè)很小的數(shù),但是這個(gè)數(shù)數(shù)量級要和運(yùn)算的數(shù)的數(shù)量級要差很多。一般是1e-8。

2、在optim.step()之前裁剪梯度

optim.zero_grad()
loss.backward()
nn.utils.clip_grad_norm(model.parameters, max_norm, norm_type=2)
optim.step()

max_norm一般是1,3,5。

3、前面兩條還不能解決nan的話

就按照下面的流程來判斷。

...
loss = model(input)
# 1. 先看loss是不是nan,如果loss是nan,那么說明可能是在forward的過程中出現(xiàn)了第一條列舉的除0或者log0的操作
assert torch.isnan(loss).sum() == 0, print(loss)
optim.zero_grad()
loss.backward()
# 2. 如果loss不是nan,那么說明forward過程沒問題,可能是梯度爆炸,所以用梯度裁剪試試
nn.utils.clip_grad_norm(model.parameters, max_norm, norm_type=2)
# 3.1 在step之前,判斷參數(shù)是不是nan, 如果不是判斷step之后是不是nan
assert torch.isnan(model.mu).sum() == 0, print(model.mu)
optim.step()
# 3.2 在step之后判斷,參數(shù)和其梯度是不是nan,如果3.1不是nan,而3.2是nan,
# 特別是梯度出現(xiàn)了Nan,考慮學(xué)習(xí)速率是否太大,調(diào)小學(xué)習(xí)速率或者換個(gè)優(yōu)化器試試。
assert torch.isnan(model.mu).sum() == 0, print(model.mu)
assert torch.isnan(model.mu.grad).sum() == 0, print(model.mu.grad)

小結(jié)

以上就是pytorch 梯度NAN異常如何解決的全部解決方法了。希望能給大家一個(gè)參考,也希望大家多多支持W3Cschool。


0 人點(diǎn)贊