About 231,000 results
Open links in new tab
  1. 吃透空洞卷积 (Dilated Convolutions) - 知乎

    吃透空洞卷积 (Dilated Convolutions) 玖零猴 收录于 · Deep Learning 452 人赞同了该文章

  2. 如何理解空洞卷积(dilated convolution)? - 知乎

    Dilated/Atrous Convolution 或者是 Convolution with holes 从字面上就很好理解,是在标准的 convolution map 里注入空洞,以此来增加 reception field。

  3. 空洞卷积(dilated Convolution) - 知乎

    一.why is dilated Convolution 引入空洞卷积不得不提的是感受野,感受野就是卷积神经网络的每一层输出的特征图 (feature map)上的像素点在原图像上映射的区域大小。

  4. UniRepLKnet - 知乎

    该网络结构使用 Dilated Reparam Block 和大核心指导原则,强调了高效的结构进行通道间通讯和空间聚合,以及使用带扩张的小核心进行重新参数化,该网络结构就是在LKNet基础上的一个升级版本。

  5. (即插即用模块-Convolution部分) 十八、 (2024 CVPR) FADConv 频率自 …

    Mar 13, 2025 · 传统的扩张卷积使用全局固定的扩张率,无法适应不同区域的频率特征,限制了模型的表达能力。 所以,这篇论文提出一种 频率自适应空洞卷积(Frequency Adaptive Dilated …

  6. 对Dilated Convolution理解 - 知乎

    在图像需要全局信息或者语音文本需要较长的sequence信息依赖的问题中,都能很好的应用dilated conv,比如图像分割、语音合成WaveNet、机器翻译ByteNet中。

  7. Dilated Convolutions 论文笔记 - 知乎

    即1-dilated、2-dilated、4-dilated堆叠起来就能达到15x15的感受野。 最重要的是,在这个过程中没有进行下采样。

  8. 扩张卷积 (dilated convolution) - 知乎

    扩张卷积 (Dilated Convolution)也被称为 空洞卷积 或者 膨胀卷积,是在标准的卷积核中注入空洞,以此来增加模型的感受野(reception field)。

  9. dilated convolution - 知乎

    此文记录如何使用pytorch的 nn.Conv2d API来做dilated convolution。 1. 输入数据的格式输入数据的shape为 : [batch, in_channels, high, width] 2. nn.Conv2d的初始化参数def __init__ (self, …

  10. 《Dilated Recurrent Neural Networks》论文及代码 - 知乎

    本文提出的Dilated RNN最显著的特点是 多分辨的扩张循环跳跃连接(dilated recurrent skip connections), 而且可以和各种RNN搭配使用。 此外,Dilated RNN在较少了参数的同时还有效地提 …