张量是一个多维数组。它是许多计算库中的关键实体,例如tensorflow,torch,theano,caffe,mxnet,用于机器学习任务。如果您使用此标记,还要使用相应的库标记问题。
我正在尝试在 C# 中手动解码 Yolo 对象检测 ONNX 模型的输出。 Netron 描述输出如下: 类型:float32[1,3,80,80,19] 但是在 C# 代码中,我收到的模型输出...
在 PyTorch 中,给定一个长度为 n 的张量(向量),如何通过几个维度扩展它,将张量中的每个条目增加和复制到这些维度?例如,给定大小为 [3] ...
假设我有一个形状为 (21, 256, *) 的张量 x,我如何以编程方式获得 x[:, :48, ...] 的等价物?
我正在尝试为 PyTorch 中的 CelebA 数据集开发条件 DCGAN。目前,我正在尝试传递这两个张量: noise.shape = torch.Size([128, 100, 1, 1]) 条件.shape = torch.Siz...
Batchwise convolutions——对于每个 batch 元素不同的权重
给定输入 x,其形状为 (32, 4, 16)。对于此输入,应应用卷积 (conv1d)。请注意,有 4 个输入通道。这些通道中的每一个都有 16 个维度。 ...
t2 = tf.constant([[0, 11, 2, 3, 4], [5, 61, 7, 8, 9], [10, 11, 12, 13, 14], [15, 16, 17, 18, 19]]) 有效掩码 = t2 <= 10 validIndex = tf.w...
给出 a: 张量([[3., 5.], [1., 2.],[5., 7.],[4., 6.],[3., 5.]]) 指数:张量([0,0],[3,1]) 有什么方法可以得到 [index] 是 [3,6]
我有一些这样的数据: 张量([[0.9938+0.j, 0.1109+0.j], [1.0000+0.j, 0.0000+0.j], [0.9450+0.j, 0.3272+0.j], [0.9253+0.j, 0.3792+0.j], [0.9450+0.j, 0.3272+0.j],...
我的实际问题是在更高的维度上,但我将其发布在更小的维度上以使其易于可视化。 我有一个形状为 (2,3,4) 的张量: x = torch.randn(2, 3, 4) 张量([[[-0.9118, 1...
经过一些转置后,Eigen::Tensor contraction 会更快吗?比如提前将所有合约指数按特定顺序排列?
我有两个 Eigen::Tensor 数组,A,B。每个数组中的张量具有相同的等级。在我的程序中,我将根据一些规则收缩 A 数组中的一个张量和 B 数组中的一个张量(这......
使用ModuleDict,我有。输入类型(torch.cuda.FloatTensor)和权重类型(torch.FloatTensor)应该是一样的。
我试图在我的__init__函数中: self.downscale_time_conv = np.emp.empty(8, dtype=object) for i in range(8): self.downscale_time_conv[i] = torch.nn.ModuleDict({}) 但是在......
在 PyTorch 中,当我有 padding 时,我的 Conv1d 尺寸如何减少?
我的conv模块是: return torch.nn.Sequential( torch.nn.Conv1d( in_channels=in_channels, out_channels=in_channels, kernel_size=2, ...。
假设我有一个大小为 (a, b, c) 的张量 t1 和另一个大小为 (c, d) 的张量 t2。有没有一种方法可以在不使用 tf.transpose 的情况下,将它们相乘并得到大小为 (a, d, b) (不是 (a, b, d))的 tensor t3 ...
我正在训练一个多层感知器。我有两个问题,首先是K折叠如何防止过拟合,因为训练-测试-分裂也做同样的事情,把训练部分和验证... ...
我有两个腾博会登录x和y:x有形状。[21314, 3, 128, 128] y有形状: [21314] 我可以得到新的张量形状:[[21314, 3, 128, 128], [21314]],基本上是2的形状。
我有一个包含五个2x2矩阵的张量--形状(1,5,2,2),和一个包含5个元素的张量--形状([5])。我想将每个2x2矩阵(在前一个张量中)与相应的值相乘......。
RuntimeError: 堆栈期望每个张量大小相等,但在0条目处得到[32, 1],在1条目处得到[32, 0]。
我有一个非常大的形状张量(512,3,224,224)。我把它输入到32个批次的模型中,然后我保存对应于目标标签的分数,这是2。
在pytorch中,有没有一种内置的方法来提取给定索引的行?
假设我有一个火炬张量tensor([[1,2,3],[4,5,6],[7,8,9]])和一个列表[0,2]有没有一种内置方法可以提取0和2行,并把它们放到一个新的张量中:tensor([[1,...]])。
我在Pytorch中创建了一个全连接网络,输入层为形状(1,784),第一隐藏层为形状(1,256)。简而言之:nn.Linear(in_features=784, out_features=256, bias=True) ....