在torch.nn.utils
中对PyTorch进行编码时,我看到两个函数,clip_grad_norm
和clip_grad_norm_
。
我想知道区别,所以我去查看了文档,但当我搜索时,我只找到了clip_grad_norm_
,而没有找到clip_grad_norm
。
所以我在这里问是否有人知道其中的区别。
Pytorch在就地操作中使用尾随下划线约定。所以区别在于,带下划线的一个修改了原来的张量,而另一个不修改原来的张量并返回一个新的张量。