162. 网络的重参数化(3/4)
在这个大家才刚开始复现DreamNet,还没把残差的原理和一些变种搞明白的时间点,孟繁岐已经针对各种不同平台的其他运算设备,做了相当多的实验。
从而通过优化算子结构,调整特定计算过程的方式,将这个核心的骨干网络参数量减少了接近十倍。
运算快了这么多,性能却没什么变化,这已经非常不得了了。
马斯克有这一问,也是私下里的随口一提。
但他名头太大,以往自己做的事情又太疯狂,导致孟繁岐听着他那颇为低沉,有磁性的声音之时,当了真。
还真以为这是个非常严肃认真的需求。
“自动驾驶的热度确实也快起来了,我专门针对这方面做点优化工作,也不算亏。”
孟繁岐一边利用着重生优势开始抄底一些车企的股票,一边开始着手实现一个巧妙的加速并且节省内存的方式。
这个新的优化办法叫做网络结构的重参数化。
这半年来,视觉方法性能的突飞猛进来自于孟繁岐提出的残差方法,也就是将y=F(x)变为y=F(x)+x。
这里的写法比较简便,将一系列复杂的操作,抽象归纳为F(),在实际运算过程中,这个F()还是比较复杂的,往往需要算上好一会。
但在计算的时候,就有一个问题了,原本y=F(x)运算开始的时候,就不再需要继续存储x这个变量了,因为它已经在参与F(x)的运算。
在运算过程当中,它会变成其他的中间变量,然后最终变为我们所想要的y。
可在残差办法当中,y=F(x)+x,x这个原始的输入,是不能够舍弃的。
必须有空间一直被占用着,用来存放这个x,因为它还等着最后加上去呢。
本章未完,点击下一页继续阅读。