news 2026/4/18 9:49:09

深度学习FCN代码查漏补缺笔记(一)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
深度学习FCN代码查漏补缺笔记(一)
  • torch.rand() 是均匀采样,采样范围为0~1,torhc.randn是正太分布,均值为0,方差为1

函数分布均值方差取值范围
torch.rand均匀分布 U(0,1)0.51/12 ≈ 0.083[0, 1)
torch.randn标准正态分布 N(0,1)01(−∞, +∞)
X=torch.rand(size=(1,3,320,480))

✅ 正确的部分:

  • 形状解释是对的:
    • 1:batch size(批量大小)
    • 3:通道数(例如 RGB 图像的 3 个通道)
    • 320:高度(height)
    • 480:宽度(width)
      所以这是一个典型的 单张彩色图像 的张量表示(batch=1)。

X = torch.rand(size=(1, 3, 320, 480)) 创建了一个形状为 (1, 3, 320, 480) 的张量,其中每个元素是独立地从 [0, 1) 区间上的均匀分布 中随机采样的。它常用于模拟一张 batch size 为 1、3 通道、高 320、宽 480 的图像数据,但像素值范围是 [0,1),而非标准正态分布。

  • 降低通道数量,不改变高宽的代码(增加1x1卷积网络层,)

net.add_module('final_conv',nn.Conv2d(512,num_classes,kernel_size=1))
  • 向网络 net 中添加了一个名为 ‘final_conv’ 的 1×1 卷积层。
  • 该层将 输入的 512 个通道 映射为 21 个输出通道(对应 21 个类别)。
  • 空间分辨率(H × W)保持不变,因为卷积核大小为 1×1 且默认无 padding/stride 改变尺寸。
  • 批量大小(batch size)由输入数据决定,不是卷积层的参数。

补充说明(应用场景):
这种结构常见于全卷积网络(FCN)用于语义分割:

  • 主干网络(如 ResNet)提取出 (B, 512, H, W) 的高层特征;

  • 最后的 1×1 卷积将通道数变为类别数,得到 logits (B, 21, H, W);

  • 后续通常接 softmax 或 cross_entropy_loss 进行像素级分类。

  • 转置卷积的代码

net.add_module('transpose_conv', nn.ConvTranspose2d(num_classes, num_classes, kernel_size=64, padding=16, stride=32))

nn.ConvTranspose2d(num_classes, num_classes, kernel_size=64, padding=16, stride=32)

  • 是一个通道数保持不变(in=out=num_classes)的转置卷积层;
  • 用于将空间分辨率放大 32 倍(高和宽都 ×32);
  • 参数经过精心设计,使得输出尺寸恰好为输入的 32 倍,常用于语义分割模型的最后一层上采样(如 FCN-32s);
  • 批量大小(batch size)仍然由输入决定,不是该层的参数。

📝 补充建议:
虽然这种大核转置卷积在早期 FCN 中使用,但现代方法(如 DeepLab、U-Net)更倾向于使用:

  • 双线性插值 + 小卷积

  • 或多个小步长转置卷积堆叠(如 stride=2 多次)
    以减少计算量和伪影。

  • 双线性插值核(初始化转置卷积核权重,节省训练时间)

这是一个 用于初始化转置卷积(ConvTranspose2d)权重的双线性插值核(bilinear upsampling kernel),常用于语义分割中替代随机初始化的上采样层,以实现平滑、可学习但初始为插值行为的上采样。

defbilinear_kernel(in_channels,out_channels,kernel_size):factor=(kernel_size+1)//2ifkernel_size%2==1:center=factor-1else:center=factor-0.5og=(torch.arange(kernel_size).reshape(-1,1),torch.arange(kernel_size).reshape(1,-1))filt=(1-torch.abs(og[0]-center)/factor)*\(1-torch.abs(og[1]-center)/factor)weight=torch.zeros((in_channels,out_channels,kernel_size,kernel_size))weight[range(in_channels),range(out_channels),:,:]=filtreturnweight
  • 这个函数生成一个双线性插值上采样核,用于初始化 ConvTranspose2d 的权重。
  • og 是坐标网格的行/列索引(用于构建二维位置)。
  • filt 是一个非负的、中心对称的、峰值在中心的二维核,值域为 [0, 1]。
  • 没有负数,不是 -1 到 1,也不是“先正后负”。因为先算括号里面的,再计算除法,再计算减法
  • 当用作转置卷积权重时,它能实现近似双线性插值的上采样效果(尤其当 stride = kernel_size / 2 时)。

📌 应用场景示例:
假设我们有一个 1/8 下采样的特征图,想上采样回原图尺寸

conv_trans = nn.ConvTranspose2d(21, 21, kernel_size=16, stride=8, padding=4, bias=False) conv_trans.weight.data = bilinear_kernel(21, 21, 16)

这样初始化后,该层初始行为就是双线性插值,训练时还可微调。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 17:27:36

特种电路板的认证体系有多严格?不同行业专属标准?

问:特种电路板为什么需要专门的认证?普通认证为什么不适用?特种电路板多用于关键领域,其性能直接关系到设备安全和运行可靠性,普通认证的标准无法覆盖其特殊需求。比如医疗设备的电路板若存在质量问题,可能…

作者头像 李华
网站建设 2026/4/18 3:31:08

书匠策AI:解锁文献综述的“时空折叠术”,让学术探索跨越维度

在学术研究的浩瀚星空中,文献综述如同指引方向的北斗,帮助研究者梳理过往、定位当下、预见未来。然而,传统文献综述的撰写过程往往耗时费力,如同在茫茫书海中手动绘制地图。而今,随着人工智能技术的崛起,书…

作者头像 李华
网站建设 2026/4/18 3:31:54

书匠策AI:文献综述写作的“时空穿梭机”,解锁学术新次元

在学术的浩瀚星空中,文献综述如同一座璀璨的灯塔,指引着研究者穿越知识的海洋,找到前行的方向。然而,面对海量的文献和复杂的研究脉络,如何高效、精准地完成一篇高质量的文献综述,成为了许多学者心中的难题…

作者头像 李华
网站建设 2026/4/18 3:33:48

学术星河的“导航仪”:书匠策AI如何重塑文献综述写作体验

在学术研究的浩瀚星河中,文献综述如同北斗星,为研究者指引方向。然而,传统文献综述的撰写过程往往像在迷雾中摸索——海量文献让人目不暇接,隐性关联难以捕捉,逻辑框架搭建耗时耗力。而今,一款名为书匠策AI…

作者头像 李华