你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
没有找到相关结果
Paper - CaffeCN社区Paper主题站管理员
赞同来自:
要回复问题请先登录或注册
1 个回复
Paper - CaffeCN社区Paper主题站管理员
赞同来自:
Local Response Normalization这种归一化方法目前基本上每人在使用了。
许多测试表明LRN的实际效果不佳,有些时候甚至不如不在网络中加入LRN,而且LRN的使用会耗掉一部分显存,这使得它比较鸡肋。
虽然LRN不被广泛使用了,但是归一化仍然是非常重要的方法,尤其是在提升网络泛化性能方面,归一化非常重要。
目前使用的最普遍的是batch normalization方法,把每个层归一化到0均值和单位方差。