动手学习深度学习-记录
torch.arange
torch.arange(start, end, step=1, out=None) -> Tensor |
torch.zeros
torch.zeros(*sizes, out=None) -> Tensor |
torch.ones
torch.ones(*sizes, out=None) -> Tensor |
torch.randn
torch.randn(*sizes, out=None) -> Tensor |
torch.cat
torch.cat(inputs, dimension=0) -> Tensor |
torch.shape
#通过张量的shape属性来访问张量(沿每个轴的长度)的形状 |
torch.numel
torch.numel(input) -> int |
torch.reshape
#要想改变一个张量的形状而不改变元素数量和元素值,可以调用reshape函数。 |
torch.tensor
#可以通过提供包含数值的Python列表(或嵌套列表),来为所需张量中的每个元素赋予确定值。 |
在相同形状的两个张量上执行按元素操作
运算符
#例子 |
逻辑运算符构建二元张量
#通过逻辑运算符构建二元张量。 |
对张量所有元素求和
#对张量中的所有元素进行求和,会产生一个单元素张量 |
在不同形状的两个张量上执行按元素操作(广播机制)
广播机制工作方式如下:
- 通过适当复制元素来扩展一个或两个数组,以便在转换之后,两个张量具有相同的形状;
- 对生成的数组执行按元素操作。
torch.numel
#在大多数情况下,沿着数组中长度为1的轴进行广播 |
索引和切片
#像在任何其他Python数组中一样,张量中的元素可以通过索引访问。 |
#除读取外,还可以通过指定索引来将元素写入矩阵。 |
#如果我们想为多个元素赋值相同的值,我们只需要索引所有元素,然后为它们赋值。 |
节省内存
#运行一些操作可能会导致为新结果分配内存。 |
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
节省内存
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 SunnyALion!
评论