计算图是深度学习、自动微分、神经网络训练和人工智能框架中非常重要的一个术语。它用来描述把一次数学计算过程表示成由节点和边组成的图结构。换句话说计算图是在回答模型中的输入、参数、运算和输出之间到底是如何一步步连接起来的。如果说神经网络公式回答的是“模型算什么”那么计算图回答的就是“这些计算按什么顺序发生变量之间有什么依赖关系”。因此计算图常用于理解前向传播、反向传播、自动微分、PyTorch、TensorFlow、损失函数和神经网络训练是深度学习框架背后的核心机制之一。一、基本概念什么是计算图计算图Computational Graph是一种用图结构表示数学计算过程的方法。在计算图中• 节点表示变量、常量、参数或运算• 边表示数据流动方向或依赖关系例如有一个简单计算这个计算可以拆成两步u x × yz u b对应的计算图可以理解为x ─┐ × → u ─┐y ─┘ → zb ────────┘其中• x、y、b 是输入节点• × 是乘法运算节点• u 是中间结果• 是加法运算节点• z 是最终输出从通俗角度看计算图就是把一个复杂公式拆成一步步计算并画出每一步之间的依赖关系。图 1计算图的基本结构它不仅记录最终结果还记录• 这个结果从哪里来• 中间经过了哪些运算• 哪些变量影响了哪些变量• 反向传播时梯度应该沿哪些路径传回去因此计算图是深度学习框架能够自动求导的重要基础。二、为什么需要计算图计算图之所以重要是因为神经网络中的计算通常非常复杂。一个神经网络可能包含• 输入数据• 权重矩阵• 偏置向量• 矩阵乘法• 激活函数• 多层隐藏层• 损失函数• 正则化项• 优化器更新如果只看最终公式很难清楚知道每个参数如何影响最终损失。例如一个简单神经元可以写为其中• x 是输入• w 和 b 是参数• z 是线性输入• a 是激活输出• y 是真实标签• L 是损失训练模型时我们不仅要算出 L还要知道也就是损失对每个参数的梯度。计算图的作用就是记录前向计算过程并为反向传播提供求导路径。从通俗角度看前向传播需要一张“计算路线图”反向传播需要沿着这张路线图把误差信号传回去。如果没有计算图深度学习框架就很难自动知道• 哪些参数参与了计算• 梯度应该怎样传递• 哪些中间结果需要保存• 哪些运算需要应用链式法则因此计算图是自动微分和神经网络训练的结构基础。三、计算图的组成节点与边计算图的核心组成是节点和边。1、节点节点可以表示两类内容。第一类是数据节点例如• 输入数据 x• 权重 w• 偏置 b• 中间结果 z• 输出 a• 损失 L第二类是运算节点例如• 加法• 乘法• 矩阵乘法• ReLU• Sigmoid• Softmax• 均方误差• 交叉熵损失例如x → Linear → ReLU → Loss这里的 Linear、ReLU、Loss 都可以看作运算节点。2、边边表示节点之间的数据依赖关系。如果一个节点的输出会作为另一个节点的输入就在它们之间建立一条边。例如x → z → a → L表示• z 依赖 x• a 依赖 z• L 依赖 a从通俗角度看节点表示“算什么”边表示“谁依赖谁”。计算图通过节点和边把一个复杂计算过程组织成清晰结构。四、一个简单计算图示例假设有一个简单函数这是一个非常简单的回归损失。可以把它拆成多个步骤z wxa z be a - yL e²对应的计算图可以写为w ─┐ × → z ─┐x ─┘ → a ─┐b ────────┘ - → e → square → Ly ───────────────┘其中• w 和 x 先相乘得到 z• z 和 b 相加得到 a• a 和 y 相减得到误差 e• e 平方得到损失 L从通俗角度看这张计算图说明损失 L 不是凭空出现的它由预测值、真实值、权重、输入和偏置一步步计算得到。训练模型时我们希望调整 w 和 b让 L 变小。为此需要计算计算图会帮助我们沿着 L 到 w、b 的路径反向应用链式法则。五、计算图与前向传播前向传播Forward Propagation就是按照计算图中边的方向从输入一步步计算到输出。例如对于神经元前向传播过程是x, w, b → z → a → L具体来说• 输入 x、参数 w、b 参与线性计算• 得到 z• z 经过 ReLU 得到 a• a 与真实标签 y 计算损失 L从通俗角度看前向传播就是数据沿着计算图从前往后流动最终得到预测结果和损失。在深度学习框架中前向传播不仅计算结果还会记录中间运算。例如框架需要记住• 哪些张量参与了计算• 每一步用了什么运算• 中间结果是什么• 哪些参数需要梯度这些信息会在反向传播时使用。因此前向传播不只是“算答案”也是在为之后的求导保留线索。六、计算图与反向传播反向传播Backpropagation就是沿着计算图的反方向计算梯度。前向传播方向是输入 → 中间结果 → 输出 → 损失反向传播方向是损失 → 输出 → 中间结果 → 参数以简单计算为例设z wxa z be a - yL e²反向传播会从 L 开始依次计算这个过程依赖链式法则。例如其中• ∂L/∂e 表示损失对误差的影响• ∂e/∂a 表示误差对预测值的依赖• ∂a/∂z 表示加法结果对 z 的依赖• ∂z/∂w 表示乘法结果对权重的依赖从通俗角度看反向传播就是沿着计算图倒着追问最终损失的变化分别应该归因到哪些中间变量和参数上。计算图越清楚梯度传播路径就越清楚。图 2计算图中的前向传播与反向传播七、动态计算图与静态计算图深度学习框架中计算图主要有两种组织方式• 动态计算图• 静态计算图1、动态计算图动态计算图是在程序运行时即时构建的。也就是说每执行一次前向计算框架就根据实际执行过程生成一张计算图。PyTorch 采用的就是典型动态计算图机制。例如y x * w bloss (y - target) ** 2loss.backward()在执行这些语句时PyTorch 会自动记录计算过程。当调用 loss.backward() 时它会沿着这次计算生成的图反向求导。从通俗角度看动态计算图是“边运行边画图”。它的优势是• 写法直观• 调试方便• 控制流灵活• 更接近普通 Python 编程习惯2、静态计算图静态计算图是先定义完整计算结构再执行计算。早期 TensorFlow 更强调静态计算图。从通俗角度看静态计算图是“先画好图再运行图”。它的优势是• 便于全局优化• 适合部署和编译优化• 执行前可以分析完整结构不过对初学者来说动态计算图通常更直观因为它更符合“写一步、算一步”的思维方式。3、二者的直观区别可以简单理解为• 动态计算图运行时生成灵活易调试• 静态计算图先定义后执行便于优化部署现代深度学习框架中二者的边界也在逐渐融合。很多框架既支持动态图开发体验也支持图编译和优化执行。八、计算图与自动微分自动微分Automatic Differentiation是深度学习框架自动计算梯度的核心技术而计算图是自动微分的重要基础。自动微分并不是简单的数值差分也不是纯符号求导。它的基本思想是把复杂函数拆成许多基本运算然后在计算图上应用链式法则。例如一个复杂函数可能包含• 加法• 乘法• 除法• 指数• 对数• 矩阵乘法• 激活函数每个基本运算都有已知导数规则。计算图记录了这些基本运算如何连接起来。自动微分系统就可以沿着计算图反向传播梯度。从通俗角度看计算图告诉框架“怎么算出来的”自动微分根据这条路线反向计算“每个变量该负多少责任”。例如在 PyTorch 中• requires_gradTrue 表示需要记录梯度• 前向计算会自动构建计算图• loss.backward() 会触发反向传播• 参数的 .grad 中保存对应梯度因此计算图是理解 PyTorch 自动求导机制的关键。九、计算图的优势、局限与使用注意事项1、计算图的主要优势计算图最大的优势是结构清晰。它可以把复杂计算过程拆解为一系列基本运算并明确变量之间的依赖关系。其次计算图支持自动求导。深度学习框架不需要用户手动推导每个参数的梯度而是可以根据计算图自动完成反向传播。再次计算图便于优化。框架可以根据图结构进行内存管理、算子融合、并行执行和设备调度。从通俗角度看计算图的优势在于它把复杂模型计算变成一张可以追踪、求导和优化的路线图。2、计算图的主要局限计算图也有局限。首先复杂模型的计算图可能非常庞大。大型神经网络中图中可能包含大量节点和中间张量带来显存和计算开销。其次反向传播通常需要保存前向传播中的部分中间结果。这会增加内存占用。再次如果用户在代码中不小心切断了计算图梯度就无法正确传递。例如在 PyTorch 中某些操作可能导致梯度路径断开• 使用 .detach()• 错误使用 .data 绕过自动求导机制• 把张量转换成 NumPy 后再参与计算• 在不需要梯度的上下文中计算3、使用计算图时需要注意的问题使用计算图时需要注意• 只有参与计算图的张量才能自动求导• 参数通常需要 requires_gradTrue• 反向传播从标量损失开始最常见• 不要无意中使用 detach() 切断梯度• 推理阶段可使用 torch.no_grad() 节省内存• 多次反向传播同一张图时需要理解图释放机制• 原地操作可能影响梯度计算应谨慎使用从实践角度看计算图不是用户每天都要手动画出的东西但理解它能帮助我们解释很多深度学习框架中的现象。十、Python 示例下面给出几个简单示例用来帮助理解计算图的基本作用。示例 1用 PyTorch 自动构建计算图import torch # 创建需要梯度的张量标量x torch.tensor(2.0, requires_gradTrue) # 输入 x 2w torch.tensor(3.0, requires_gradTrue) # 权重 w 3b torch.tensor(1.0, requires_gradTrue) # 偏置 b 1 # 前向计算z w * x b # z w*x b 3*2 1 7loss z ** 2 # loss z² 49 # 反向传播自动计算 loss 对各变量的梯度loss.backward() print(z, z.item())print(loss, loss.item())print(x 的梯度, x.grad.item()) # ∂loss/∂x 2*z * w 2*7*3 42print(w 的梯度, w.grad.item()) # ∂loss/∂w 2*z * x 2*7*2 28print(b 的梯度, b.grad.item()) # ∂loss/∂b 2*z * 1 14这个例子中前向计算为PyTorch 会自动记录计算图。调用loss.backward()后会自动计算 loss 对 x、w、b 的梯度。示例 2观察 grad_fnimport torch # 创建需要梯度的张量 x 2.0x torch.tensor(2.0, requires_gradTrue) # 计算 y 3x乘法操作y x * 3 # 计算 z y 1加法操作z y 1 # 计算 loss z²幂运算loss z ** 2 # 查看各张量的梯度函数记录了反向传播所需操作print(y.grad_fn, y.grad_fn) # 乘法操作对应的函数print(z.grad_fn, z.grad_fn) # 加法操作对应的函数print(loss.grad_fn, loss.grad_fn) # 平方操作对应的函数这里的 grad_fn 表示该张量是由哪个运算生成的。例如• y 来自乘法• z 来自加法• loss 来自平方运算从通俗角度看grad_fn 就像计算图中记录的“上一道工序”。如果一个张量是用户直接创建的叶子张量通常没有 grad_fn但如果它设置了 requires_gradTrue就可以保存梯度。示例 3detach 会切断计算图import torch # 创建需要梯度的张量 x 2.0x torch.tensor(2.0, requires_gradTrue) # 计算 y 3xy 会记录计算历史y x * 3 # detach 会创建一个不再连接原计算图的新张量共享数据但 requires_gradFalsey_detached y.detach() # 对 detached 张量进行平方操作z 不会反向传播到 xz y_detached ** 2 # y 仍有 grad_fn乘法print(y.grad_fn, y.grad_fn)# detached 变量已经没有 grad_fn因为它与计算图断开print(y_detached.grad_fn, y_detached.grad_fn)# z 的 grad_fn 是平方操作但无法再追溯到 xprint(z.grad_fn, z.grad_fn)这个例子中• y 仍然连接着 x• y_detached 已经从计算图中分离• z 不再能把梯度传回 x从通俗角度看detach 相当于告诉框架从这里开始不要再往前追踪梯度。这在某些场景中是有用的例如冻结部分计算、停止梯度传播或避免不必要的内存开销。示例 4一个简单神经网络中的计算图import torch import torch.nn as nn # 神经网络模块 # 简单线性模型输入3维输出1维model nn.Linear(3, 1) # 一个输入样本批大小为1特征3x torch.tensor([[1.0, 2.0, 3.0]]) # 真实值标量y_true torch.tensor([[10.0]]) # 前向传播计算预测值y_pred model(x) # 均方误差损失函数loss_fn nn.MSELoss()loss loss_fn(y_pred, y_true) # 清空旧梯度防止累积model.zero_grad() # 反向传播自动计算梯度loss.backward() print(预测值, y_pred.item())print(损失, loss.item()) # 打印各参数的梯度for name, param in model.named_parameters(): print(name, 梯度, param.grad)这个例子中计算图包含输入 x → Linear 层 → 预测 y_pred → MSELoss → loss调用 loss.backward() 后PyTorch 会沿着计算图反向计算• loss 对权重的梯度• loss 对偏置的梯度这些梯度随后可以由优化器用于更新参数。 小结计算图是一种用节点和边表示数学计算过程的图结构。节点表示变量或运算边表示数据依赖关系。前向传播沿计算图从输入计算到输出反向传播沿计算图反方向计算梯度。深度学习框架通过计算图实现自动微分使模型参数能够根据损失自动更新。对初学者而言可以把计算图理解为模型计算过程的一张路线图前向时沿图算结果反向时沿图传梯度。“点赞有美意赞赏是鼓励”
AI 术语通俗词典:计算图
发布时间:2026/5/17 6:48:32
计算图是深度学习、自动微分、神经网络训练和人工智能框架中非常重要的一个术语。它用来描述把一次数学计算过程表示成由节点和边组成的图结构。换句话说计算图是在回答模型中的输入、参数、运算和输出之间到底是如何一步步连接起来的。如果说神经网络公式回答的是“模型算什么”那么计算图回答的就是“这些计算按什么顺序发生变量之间有什么依赖关系”。因此计算图常用于理解前向传播、反向传播、自动微分、PyTorch、TensorFlow、损失函数和神经网络训练是深度学习框架背后的核心机制之一。一、基本概念什么是计算图计算图Computational Graph是一种用图结构表示数学计算过程的方法。在计算图中• 节点表示变量、常量、参数或运算• 边表示数据流动方向或依赖关系例如有一个简单计算这个计算可以拆成两步u x × yz u b对应的计算图可以理解为x ─┐ × → u ─┐y ─┘ → zb ────────┘其中• x、y、b 是输入节点• × 是乘法运算节点• u 是中间结果• 是加法运算节点• z 是最终输出从通俗角度看计算图就是把一个复杂公式拆成一步步计算并画出每一步之间的依赖关系。图 1计算图的基本结构它不仅记录最终结果还记录• 这个结果从哪里来• 中间经过了哪些运算• 哪些变量影响了哪些变量• 反向传播时梯度应该沿哪些路径传回去因此计算图是深度学习框架能够自动求导的重要基础。二、为什么需要计算图计算图之所以重要是因为神经网络中的计算通常非常复杂。一个神经网络可能包含• 输入数据• 权重矩阵• 偏置向量• 矩阵乘法• 激活函数• 多层隐藏层• 损失函数• 正则化项• 优化器更新如果只看最终公式很难清楚知道每个参数如何影响最终损失。例如一个简单神经元可以写为其中• x 是输入• w 和 b 是参数• z 是线性输入• a 是激活输出• y 是真实标签• L 是损失训练模型时我们不仅要算出 L还要知道也就是损失对每个参数的梯度。计算图的作用就是记录前向计算过程并为反向传播提供求导路径。从通俗角度看前向传播需要一张“计算路线图”反向传播需要沿着这张路线图把误差信号传回去。如果没有计算图深度学习框架就很难自动知道• 哪些参数参与了计算• 梯度应该怎样传递• 哪些中间结果需要保存• 哪些运算需要应用链式法则因此计算图是自动微分和神经网络训练的结构基础。三、计算图的组成节点与边计算图的核心组成是节点和边。1、节点节点可以表示两类内容。第一类是数据节点例如• 输入数据 x• 权重 w• 偏置 b• 中间结果 z• 输出 a• 损失 L第二类是运算节点例如• 加法• 乘法• 矩阵乘法• ReLU• Sigmoid• Softmax• 均方误差• 交叉熵损失例如x → Linear → ReLU → Loss这里的 Linear、ReLU、Loss 都可以看作运算节点。2、边边表示节点之间的数据依赖关系。如果一个节点的输出会作为另一个节点的输入就在它们之间建立一条边。例如x → z → a → L表示• z 依赖 x• a 依赖 z• L 依赖 a从通俗角度看节点表示“算什么”边表示“谁依赖谁”。计算图通过节点和边把一个复杂计算过程组织成清晰结构。四、一个简单计算图示例假设有一个简单函数这是一个非常简单的回归损失。可以把它拆成多个步骤z wxa z be a - yL e²对应的计算图可以写为w ─┐ × → z ─┐x ─┘ → a ─┐b ────────┘ - → e → square → Ly ───────────────┘其中• w 和 x 先相乘得到 z• z 和 b 相加得到 a• a 和 y 相减得到误差 e• e 平方得到损失 L从通俗角度看这张计算图说明损失 L 不是凭空出现的它由预测值、真实值、权重、输入和偏置一步步计算得到。训练模型时我们希望调整 w 和 b让 L 变小。为此需要计算计算图会帮助我们沿着 L 到 w、b 的路径反向应用链式法则。五、计算图与前向传播前向传播Forward Propagation就是按照计算图中边的方向从输入一步步计算到输出。例如对于神经元前向传播过程是x, w, b → z → a → L具体来说• 输入 x、参数 w、b 参与线性计算• 得到 z• z 经过 ReLU 得到 a• a 与真实标签 y 计算损失 L从通俗角度看前向传播就是数据沿着计算图从前往后流动最终得到预测结果和损失。在深度学习框架中前向传播不仅计算结果还会记录中间运算。例如框架需要记住• 哪些张量参与了计算• 每一步用了什么运算• 中间结果是什么• 哪些参数需要梯度这些信息会在反向传播时使用。因此前向传播不只是“算答案”也是在为之后的求导保留线索。六、计算图与反向传播反向传播Backpropagation就是沿着计算图的反方向计算梯度。前向传播方向是输入 → 中间结果 → 输出 → 损失反向传播方向是损失 → 输出 → 中间结果 → 参数以简单计算为例设z wxa z be a - yL e²反向传播会从 L 开始依次计算这个过程依赖链式法则。例如其中• ∂L/∂e 表示损失对误差的影响• ∂e/∂a 表示误差对预测值的依赖• ∂a/∂z 表示加法结果对 z 的依赖• ∂z/∂w 表示乘法结果对权重的依赖从通俗角度看反向传播就是沿着计算图倒着追问最终损失的变化分别应该归因到哪些中间变量和参数上。计算图越清楚梯度传播路径就越清楚。图 2计算图中的前向传播与反向传播七、动态计算图与静态计算图深度学习框架中计算图主要有两种组织方式• 动态计算图• 静态计算图1、动态计算图动态计算图是在程序运行时即时构建的。也就是说每执行一次前向计算框架就根据实际执行过程生成一张计算图。PyTorch 采用的就是典型动态计算图机制。例如y x * w bloss (y - target) ** 2loss.backward()在执行这些语句时PyTorch 会自动记录计算过程。当调用 loss.backward() 时它会沿着这次计算生成的图反向求导。从通俗角度看动态计算图是“边运行边画图”。它的优势是• 写法直观• 调试方便• 控制流灵活• 更接近普通 Python 编程习惯2、静态计算图静态计算图是先定义完整计算结构再执行计算。早期 TensorFlow 更强调静态计算图。从通俗角度看静态计算图是“先画好图再运行图”。它的优势是• 便于全局优化• 适合部署和编译优化• 执行前可以分析完整结构不过对初学者来说动态计算图通常更直观因为它更符合“写一步、算一步”的思维方式。3、二者的直观区别可以简单理解为• 动态计算图运行时生成灵活易调试• 静态计算图先定义后执行便于优化部署现代深度学习框架中二者的边界也在逐渐融合。很多框架既支持动态图开发体验也支持图编译和优化执行。八、计算图与自动微分自动微分Automatic Differentiation是深度学习框架自动计算梯度的核心技术而计算图是自动微分的重要基础。自动微分并不是简单的数值差分也不是纯符号求导。它的基本思想是把复杂函数拆成许多基本运算然后在计算图上应用链式法则。例如一个复杂函数可能包含• 加法• 乘法• 除法• 指数• 对数• 矩阵乘法• 激活函数每个基本运算都有已知导数规则。计算图记录了这些基本运算如何连接起来。自动微分系统就可以沿着计算图反向传播梯度。从通俗角度看计算图告诉框架“怎么算出来的”自动微分根据这条路线反向计算“每个变量该负多少责任”。例如在 PyTorch 中• requires_gradTrue 表示需要记录梯度• 前向计算会自动构建计算图• loss.backward() 会触发反向传播• 参数的 .grad 中保存对应梯度因此计算图是理解 PyTorch 自动求导机制的关键。九、计算图的优势、局限与使用注意事项1、计算图的主要优势计算图最大的优势是结构清晰。它可以把复杂计算过程拆解为一系列基本运算并明确变量之间的依赖关系。其次计算图支持自动求导。深度学习框架不需要用户手动推导每个参数的梯度而是可以根据计算图自动完成反向传播。再次计算图便于优化。框架可以根据图结构进行内存管理、算子融合、并行执行和设备调度。从通俗角度看计算图的优势在于它把复杂模型计算变成一张可以追踪、求导和优化的路线图。2、计算图的主要局限计算图也有局限。首先复杂模型的计算图可能非常庞大。大型神经网络中图中可能包含大量节点和中间张量带来显存和计算开销。其次反向传播通常需要保存前向传播中的部分中间结果。这会增加内存占用。再次如果用户在代码中不小心切断了计算图梯度就无法正确传递。例如在 PyTorch 中某些操作可能导致梯度路径断开• 使用 .detach()• 错误使用 .data 绕过自动求导机制• 把张量转换成 NumPy 后再参与计算• 在不需要梯度的上下文中计算3、使用计算图时需要注意的问题使用计算图时需要注意• 只有参与计算图的张量才能自动求导• 参数通常需要 requires_gradTrue• 反向传播从标量损失开始最常见• 不要无意中使用 detach() 切断梯度• 推理阶段可使用 torch.no_grad() 节省内存• 多次反向传播同一张图时需要理解图释放机制• 原地操作可能影响梯度计算应谨慎使用从实践角度看计算图不是用户每天都要手动画出的东西但理解它能帮助我们解释很多深度学习框架中的现象。十、Python 示例下面给出几个简单示例用来帮助理解计算图的基本作用。示例 1用 PyTorch 自动构建计算图import torch # 创建需要梯度的张量标量x torch.tensor(2.0, requires_gradTrue) # 输入 x 2w torch.tensor(3.0, requires_gradTrue) # 权重 w 3b torch.tensor(1.0, requires_gradTrue) # 偏置 b 1 # 前向计算z w * x b # z w*x b 3*2 1 7loss z ** 2 # loss z² 49 # 反向传播自动计算 loss 对各变量的梯度loss.backward() print(z, z.item())print(loss, loss.item())print(x 的梯度, x.grad.item()) # ∂loss/∂x 2*z * w 2*7*3 42print(w 的梯度, w.grad.item()) # ∂loss/∂w 2*z * x 2*7*2 28print(b 的梯度, b.grad.item()) # ∂loss/∂b 2*z * 1 14这个例子中前向计算为PyTorch 会自动记录计算图。调用loss.backward()后会自动计算 loss 对 x、w、b 的梯度。示例 2观察 grad_fnimport torch # 创建需要梯度的张量 x 2.0x torch.tensor(2.0, requires_gradTrue) # 计算 y 3x乘法操作y x * 3 # 计算 z y 1加法操作z y 1 # 计算 loss z²幂运算loss z ** 2 # 查看各张量的梯度函数记录了反向传播所需操作print(y.grad_fn, y.grad_fn) # 乘法操作对应的函数print(z.grad_fn, z.grad_fn) # 加法操作对应的函数print(loss.grad_fn, loss.grad_fn) # 平方操作对应的函数这里的 grad_fn 表示该张量是由哪个运算生成的。例如• y 来自乘法• z 来自加法• loss 来自平方运算从通俗角度看grad_fn 就像计算图中记录的“上一道工序”。如果一个张量是用户直接创建的叶子张量通常没有 grad_fn但如果它设置了 requires_gradTrue就可以保存梯度。示例 3detach 会切断计算图import torch # 创建需要梯度的张量 x 2.0x torch.tensor(2.0, requires_gradTrue) # 计算 y 3xy 会记录计算历史y x * 3 # detach 会创建一个不再连接原计算图的新张量共享数据但 requires_gradFalsey_detached y.detach() # 对 detached 张量进行平方操作z 不会反向传播到 xz y_detached ** 2 # y 仍有 grad_fn乘法print(y.grad_fn, y.grad_fn)# detached 变量已经没有 grad_fn因为它与计算图断开print(y_detached.grad_fn, y_detached.grad_fn)# z 的 grad_fn 是平方操作但无法再追溯到 xprint(z.grad_fn, z.grad_fn)这个例子中• y 仍然连接着 x• y_detached 已经从计算图中分离• z 不再能把梯度传回 x从通俗角度看detach 相当于告诉框架从这里开始不要再往前追踪梯度。这在某些场景中是有用的例如冻结部分计算、停止梯度传播或避免不必要的内存开销。示例 4一个简单神经网络中的计算图import torch import torch.nn as nn # 神经网络模块 # 简单线性模型输入3维输出1维model nn.Linear(3, 1) # 一个输入样本批大小为1特征3x torch.tensor([[1.0, 2.0, 3.0]]) # 真实值标量y_true torch.tensor([[10.0]]) # 前向传播计算预测值y_pred model(x) # 均方误差损失函数loss_fn nn.MSELoss()loss loss_fn(y_pred, y_true) # 清空旧梯度防止累积model.zero_grad() # 反向传播自动计算梯度loss.backward() print(预测值, y_pred.item())print(损失, loss.item()) # 打印各参数的梯度for name, param in model.named_parameters(): print(name, 梯度, param.grad)这个例子中计算图包含输入 x → Linear 层 → 预测 y_pred → MSELoss → loss调用 loss.backward() 后PyTorch 会沿着计算图反向计算• loss 对权重的梯度• loss 对偏置的梯度这些梯度随后可以由优化器用于更新参数。 小结计算图是一种用节点和边表示数学计算过程的图结构。节点表示变量或运算边表示数据依赖关系。前向传播沿计算图从输入计算到输出反向传播沿计算图反方向计算梯度。深度学习框架通过计算图实现自动微分使模型参数能够根据损失自动更新。对初学者而言可以把计算图理解为模型计算过程的一张路线图前向时沿图算结果反向时沿图传梯度。“点赞有美意赞赏是鼓励”