An explanation of the flip operation on convolution kernels during convolution operations
本文最后更新于138 天前,其中的信息可能已经过时,如有错误请发送邮件到xunixiyu@163.com

在平时进行的卷积运算过程中,都是以互相关进行的(不去管是否进行翻转操作),直接对inputkernel进行卷积运算。

但是在数学(物理)上,由于涉及到物理逻辑上的顺序,要进行翻转。


1. 卷积的数学定义

连续卷积公式:

(fg)(t)=f(τ)g(tτ)dτ

离散卷积公式:

(xh)[n]=k=x[k]h[nk]

关键点:卷积核 h 被翻转(h[nk])并平移后,与输入信号对齐相乘。


2. 为什么要翻转?

物理意义:时移不变性

翻转操作保证了:
系统的因果性:当前输出只与过去和当前输入有关
正确的时序对齐:当核在信号上滑动时,翻转使得核的"过去"(左侧)先与信号的"当前"相遇

示例说明

假设输入信号为 x = [1, 2, 3],卷积核为 h = [4, 5, 6]

不翻转的互相关(深度学习中的"卷积"):

4*1 + 5*2 + 6*3 = 4 + 10 + 18 = 32

翻转后的卷积(数学严格定义):

6*1 + 5*2 + 4*3 = 6 + 10 + 12 = 28

3. 与深度学习的联系

• 深度学习框架(如CNN)实际使用的是互相关(不翻转核)
• 因为权重参数可以通过训练自动调整,翻转与否不影响模型能力
• 但在数学定义和信号处理中,严格区分卷积与互相关

文末附加内容
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇