比较与torch.autograd.enable_grad和torch.autograd.no_grad的功能差异
torch.autograd.enable_grad
torch.autograd.enable_grad()
更多内容详见torch.autograd.enable_grad。
torch.autograd.no_grad
torch.autograd.no_grad()
更多内容详见torch.autograd.no_grad。
mindspore.ops.stop_gradient
mindspore.ops.stop_gradient(input)
更多内容详见mindspore.ops.stop_gradient。
使用方式
PyTorch:使用torch.autograd.enable_grad
启用梯度计算,使用torch.autograd.no_grad
禁用梯度计算。
MindSpore:使用stop_gradient禁止网络内的算子对梯度的影响。