学术解释资料很多,所以本回答只是个人理解,通俗解释:我们学过0.9999999……=1?这个问题。因为0.99……=0.33……*3=3*1/3=1。但事实上,0.99……与1是完全不同的两个实数。在引入极限理论以前,让二者兼容的方法,就是“忽略”0.99……与1之间那个无穷小,也就是1-0.9……等价于的1/无穷大近似于0,进而得到有理数/无理数在实数理论上的完整性,让模型成立(否则,两个有理数间一定存在无理数,两个无理数间一定存在有理数这个概念就无法成立)。深度学习中的dropout也起到类似的作用。纯粹使用训练集得到的训练model对训练集的效果很好,但是现实的测试集具有更加复杂的真实特征,只要两个存在不同,以一概全的数学判定方法就会存在误差,进而影响判断的准确性。所以通过引入dropout的方法,忽略测试数据内真实存在但目前模型无法涵盖理解并不影响其在模型范围归类的部分,从而让模型在“相对真理”的概念层面实现更高的精度。以“相对真理”解释“绝对真理”总会有遗漏或者偏差,但是这些偏差在一定程度上不影响“相对真理”对某些物理层面的真实反映和作用,从而在数字化过程中将其忽略。这就是我理解的dropout的物理意义。dropout通常采用0.5,可以理解为“四舍五入”的处理方法。如:五个判定结果,3个为0.9,两个为0.3,如果平均法,则大大削减了其中的可信度,但是通过dropout忽略掉其中影响判定的0.3,以少数服从多数的理念,则能尽可能获得更符合逻辑的判定结果。当然,这个值也可以是“60分及格线”的0.4,“80分优秀率”的0.2等等。dropout的出现让深度学习更加符合了少数服从多数的判决,从而使深度学习更加的数字化。不过也有“真理掌握在少数人手中”的情况存在。所以,只要思考的次元维度足够高,善于创造奇迹的人的思维从根本上还是强过深度学习的思维方式。