进口torch.nn。功能和F
进口火炬。神经网络是神经网络
<>强F。upsample(输入、大?没有scale_factor=None,模式=白罱?align_corners=None) 强>
" r " Upsamples要么给定的输入:attr:“大小”或给定的 :attr:“scale_factor” 该算法用于upsampling取决于:attr:“模式”。 目前时间、空间和体积upsampling支持,即。 预期的输入3 d、4 d或5 d的形状。 输入维度解读的形式: “mini-batch x频道(可选的深度)x(高度可选)宽度的。 upsampling可用的模式是:“最近”,“线性”(3 d), 双线性(4 d),“三线的”(5 d) 参数: 输入(张量):输入张量 大小(int或元组(int)或元组(int, int)或元组(int, int, int)): 输出空间的大小。 scale_factor (int):乘法器的空间大小。必须是一个整数。 模式(字符串)算法用于upsampling: “最近”|“线性”|“双线性”|“三线的”。默认值:“最近” align_corners (bool,可选):如果这是真的,角落里输入的像素 张量和输出是一致的,因此保留值 这些像素。这> ”“” 参数: in_channels (int)——输入的频道形象 out_channels (int)数目的信道产生的卷积 kernel_size (int或元组)-卷积核的大小 步(int或元组,可选)——卷积的步伐。默认值:1 填充(int或元组,可选)——kernel_size 1 -填充补零双方将被添加到每个维度的输入。默认值:0 output_padding (int或元组,可选)——附加尺寸添加到alt=" pytorch中的上采样以及各种反操作,求逆操作详解">
调用:
def向前(自我、输入指标,output_size=None): 返回F。max_unpool2d(输入、指数、自我。kernel_size self.stride, 自我。填充,output_size)" r "计算的部分逆:类:“MaxPool2d”。 类:“MaxPool2d”不完全可逆的,自非值丢失。 类:“MaxUnpool2d”以在作为输入的输出:类:“MaxPool2d” 包括指数最大的值和计算部分逆 所有非值设置为0。 . .注意::“MaxPool2d”可以映射几个输入大小相同的输出大小。 因此,反演过程可以得到模棱两可的。 为了适应这一点,您可以提供所需的输出大小 作为一个额外的参数“output_size”电话。 请参阅下面的输入和例子。 参数: kernel_size (int或元组):马克斯池窗口的大小。 步(int或元组):马克斯池窗口的步伐。 它被设置为“kernel_size默认' '。 填充(int或元组):添加到输入填充 输入: ——“输入”:输入张量转化 ——“指数”:由“MaxPool2d”给出的指标 ——“output_size”(可选):“火炬。大小的指定目标输出大小 形状: ——输入::数学:' (N、C、H_ {}, W_ {})” ——输出::数学:' (N、C、H_ {}, W_ {})” 计算公式:见下面 例如:见下面 ”“” >之前
见上面的用法一致。
def max_unpool2d(输入、指数kernel_size跨步=None,填充=0, output_size=None): " r "计算的部分逆:类:“MaxPool2d”。 看到:类:“~ torch.nn。MaxUnpool2d的细节。 ”“” 通过以上这篇pytorch中的上采样以及各种反操作,求逆操作详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
pytorch中的上采样以及各种反操作,求逆操作详解