反向传播 问答列表

pytroch 中的反向传播是如何完成的?何时使用torch.no_grad,以及何时何地计算梯度?

作者:Ahmed Gado 提问时间:8/26/2023

我在 pytorch 中有这个训练循环。和loss_fn = nn.CrossEntropyLoss()optim = torch.optim.Adam(net.parameters(), lr=lr...

通过 PyTorch 中非常复杂的函数反向传播时遇到问题 - 无法避免就地操作

作者:poisonDartFrog 提问时间:9/14/2023

我想基于神经网络输出的一系列复杂变换来定义一个损失函数。这些转换涉及一些复杂的逻辑,如果没有就地操作,这似乎是不可能的(请参阅注释): def get_X_torch(C, c_table): "...

通过串联批处理元素进行反向传播

作者:Hitul Desai 提问时间:9/15/2023

我有两个特征向量 V1(N, F1, 1) 和 V2(N, F2, 1)。我想将它们连接在维度 1 上以创建一个向量 V3(N, F1+F2, 1),并在批处理的元素(即跨 N)中应用自我注意力。为此...

如何计算 1D 卷积相对于 tensorflow 中输入的梯度?

作者:Prachi Sharma 提问时间:9/18/2023

我需要计算 1D 卷积相对于 tensorflow 中输入的梯度。我知道如果这是 2D 卷积,我可以使用tf.compat.v1.nn.conv2d_backprop_input。我想在 1D 卷积上...

神经网络中卷积的矩阵表示:反向传播和参数更新的挑战

作者:Blade 提问时间:9/28/2023

在神经网络中,卷积运算通常使用过滤器(或内核)执行,该过滤器在输入数据上滑动并计算每个位置的点积以生成输出特征图。这些运算通常以元素乘法和求和的形式实现,而不是显式矩阵乘法。但是,可以将卷积运算编写为...

鉴于 PyTorch 不允许多个可变引用,类似 PyTorch 的自动微分如何在 Rust 中工作?

作者:MWB 提问时间:10/3/2023

我主要是一个局外人,试图了解 Rust 是否适合我的项目。 在 Rust 中有一些框架可以进行自动区分。具体来说,根据他们的描述,我认为 candle 和其他一些项目以某种方式以类似于 PyTorc...

ONNX 运行时上的反向传播

作者:Haris Naveed 提问时间:10/9/2023

我想在 C++ 中的 ONNX 模型上实现反向传播。流程如下,我在 pytorch 中训练了模型,然后将其导出到 ONNX。我使用 ONNX 运行时导入模型,现在我的目标是在我导入的这个模型上实现反向...

使用自定义损失函数时,如何在 PyTorch 中执行内存高效的反向传播?

作者:utkutpcgl 提问时间:10/21/2023

简介: 我正在使用 PyTorch 进行一个大规模的深度学习项目,并在反向传播过程中遇到内存问题。我已经实现了一个自定义损失函数,我需要知道是否有一种更节省内存的方法来执行反向传播,而不会影响自定义...

具有 2 个输入的 XOR 逻辑门的反向传播算法

作者:ChevreFou 提问时间:10/24/2023

我很难理解我的代码出了什么问题,也许我不明白反向传播是如何工作的。我能得到一些提示吗? import numpy as np import matplotlib.pyplot as plt de...

CNN反向传播中的Mistmatched核和delta核形状

作者:Sshawarma 提问时间:10/22/2023

背景: 我按照这两个视频中的解释在CNN中进行反向传播。 https://www.youtube.com/watch?v=Pn7RK7tofPg&t=703 https://www.youtube....


共14条 当前第1页