浅谈对dropout的理解

当数据太少时,模型泛化性太弱,线性太强,这是我们就需要使用一些随机函数来帮助我们随机打乱数据之间映射和计算,如此往复,给模型人为制作出多种情况,以原有数据人为制作出大量'数据',从而克服数据量少的缺点,上图:

让数组中每一个数据参与运算之前都去随机函数那里‘算一卦’,以随机数大小来决定此次运算(神经元与神经元之间映射)是不是要进行,从概率来讲,若取判断值为0.4,则一定有大约40%数据被淘汰出局,剩下‘运气好’数据开始计算,全部数据算完一次之后,所有数据初始化恢复如初开始下一次游戏抽签,如此循环往复,循环次数越多,所伪造出来的数据量越大,模型越好越精准。