第14章 万事俱备(2/4)
这个时间点已近临近今年赛事快要开始的时刻,不过阿里克斯本人其实没有计划继续组队参与本次的赛事。
只是哥虽然不在江湖,江湖却到处都是哥的传说。
13年的微软研究院队伍,新加坡国立大学队伍,和贾扬清领衔的Decaf,UC伯克利等队伍,都深受阿里克斯去年思想的影响。
根据阿里克斯介绍的办法,孟繁岐很快调试完成,顺利将批归一化,Adam优化器等操作从自己实验的环境迁移到cuda-convnet框架上,做了一些调整和适配。
没过过久,便已经在CIFAR-10上运行了起来。
接下来便是本次参赛的最核心竞争力,残差网络在这个框架上的实现。
“今年的IMAGENET挑战赛其实没有什么太多的新想法,大家基本上都是以复现阿里克斯的算法为主。”
孟繁岐当然不准备和其他队伍一样,基于阿里克斯的框架去重新实现阿里克斯去年的参赛算法,早期的许多算法在参数量和计算量上都有很大的冗余。
“谷歌的GoogleNet和牛津的VGGNet原本要明年才能研究出来,不过我今年参赛之后,这两个AI历史上的重要网络恐怕就要胎死腹中了吧?”
别说是现在了,截止到14年末,多余的设计仍旧大量存在与谷歌和牛津大学的算法当中。
直到15年,那个男人以残差网络ResNet夺冠ImageNet-2015,铸就了深度学习时代的AI模型的神格。
残差思想是孟繁岐此时此刻的最佳选择,一方面它会成为深度学习时代的里程碑,因为它的核心思想,就是如何把深度网络做得更加‘深’。
另一方面,它的实现和结构简洁,抛弃了大量人类看来很有道理和价值,但实际上其实用处不大的设计。
本章未完,点击下一页继续阅读。