问题导读
1.误差有哪两大来源?
2.偏差和方差有什么区别?
3.处理偏差和方差问题最简单的形式有哪些?
4.偏差和方差间如何权衡?
5.如何减少方差?
上一篇
吴恩达《Machine_Learning_Yearning》中文版 第17-19章误差分析
http://www.aboutyun.com/forum.php?mod=viewthread&tid=24575
20 偏差和方差:误差的两大来源
假设你的训练集、开发集和测试集都来自相同的分布,那你应该每次都试图去获取更多的训练数据,因为这样能单独提高性能,对吗? 有更多的数据是无害的,然而它并不总是如我们期望的那样有帮助。有时获取更多的数据可能在浪费时间。那么应该在何时决定添加数据呢? 机器学习中有两个主要的误差来源:偏差和方差。理解它们将有助于你决定是否要添加数据,以及利用好时间去执行其它的策略来提升性能。 假设你希望构建一个误差为 5% 的猫识别器。而目前的训练集错误率为 15%,开发集错误率为 16%。在这种情况下,添加数据可能不会有太多帮助。你应该关注其他改变。实际上,在你的训练集上添加更多的样本只会让你的算法难以在训练集上做的更好。(我们在后面章节中解释了原因) 如果你在训练集上的错误率是 15%(即 85% 的精度),但你的目标是 5% 错误率(95% 精度),那么第一个要解决的问题是提高算法在训练集上的性能。算法在开发/测试集上的性能通常比在训练集上要差。所以,如果算法在已知样本上达到 85% 的精度,那么是不可能在未知的样本上达到 95% 精度的。 如上所述,假设你的算法在开发集上有 16% 的错误率(84% 精度),我们将这 16% 的错误率分为两部分:
在统计学领域有着更多关于偏差和方差的正式定义,但不必担心。粗略地说,偏差指的是算法在大型训练集上的错误率;方差指的是算法在测试集上的表现低于训练集的程度。当你使用均方误差(MSE)作为误差度量指标时,你可以写下偏差和方差对应的两个公式,并且证明总误差=偏差+方差。但在处理机器学习问题时,此处给出的偏差和方差的非正式定义已经足够。
一些学习算法的改变能解决误差来源的第一个部分——偏差,并且提高算法在训练集上的性能;而一些改变能解决第二个部分——方差,并帮助算法从训练集到开发/测试集上更好地泛化。为了选择最有成效的改变,了解二者哪一方更需解决是很有用的。
还有一些方法能够对系统架构做出较大改变,同时减少偏差和方差。但是这些方法往往难以鉴定和实现。
建立对偏差和方差的良好直觉将帮助你为算法选择有效的改变。
21 偏差和方差举例
考虑我们的猫分类任务:一个“理想的”分类器(比如人类)在这个任务中可能取得近乎完美的表现。 假设你的算法表现如下: 存在什么问题呢?根据前一章的定义,我们估计偏差为 1%,方差为 10%(=11%-1%)。因此,它有一个很高的方差(high variance)。虽然分类器训练误差非常低,但是没能成功泛化到开发集上。这也被叫做过拟合(overfitting)。 现在,考虑如下情况: 我们估计偏差为 15%,方差为 1%。该分类器的错误率为 15%,没有很好地拟合训练集,但它在开发集上的误差不比在训练集误差高多少。因此,该分类器具有较高的偏差(high bias),但是较低的方差。我们称该算法是欠拟合(underfitting)的。 现在,考虑如下情况: 我们估计偏差为 15%,方差为 15%。该分类器有高偏差和高方差(high bias and high variance):它在训练集上表现得很差,因此有较高的偏差,而它在开发集上表现更差,因此具有较高的方差。由于分类器同时过拟合和欠拟合,所以过拟合/欠拟合术语很难应用与此。 最后,考虑如下情况: 该分类器做的很好,它具有低偏差和低方差。恭喜获得这么好的表现!
22 与最优错误率比较
在我们猫识别的例子中,“理想”错误率——即一个“最优”分类器可达到的值——接近 0%。人类几乎总是可以识别出图片中的猫。因此,我们希望机器能够做得同样好。 换作其他问题这将更难:假设你正在构建一个语音识别系统,并发现 14% 的音频片段有太多的背景噪声,或者太难以理解,导致即使是人类也无法识别出所说的内容。在这种情况下,即使是“最优”的语音识别系统也可能有约为 14% 的误差。 假设在这个语音识别问题上,你的算法达到: 算法在训练集上的表现已经接近最优错误率 14%,因此在偏差上或者说在训练集表现上没有太大的提升空间。然而,算法没有很好地泛化到开发集上,在方差造成的误差上还有很大的提升空间。 这个例子和前一章的第三个例子类似,都有 15% 的训练错误率和 30% 的开发错误率。如果最优错误率接近 0%,那么 15% 的训练错误率则留下了很大的提升空间,这表明降低偏差可能有益。但如果最优错误率是 14%,那么 15% 的训练错误率表现告诉我们,在分类器的偏差方面几乎没有改进的余地。 对于最佳错误率远超过零的问题,有一个对算法误差更详细的分解。继续使用上面我们语音识别的例子,可以将总的 30% 的开发集误差分解如下(类似的分析可以应用于测试集误差):
如果可避免偏差值是负的,即你在训练集上的表现比最优错误率要好。这意味着你正在过拟合训练集,并且算法已经过度记忆(over-memorized)训练集。你应该专注于减少方差的方法,而不是进一步减少偏差的方法。
为了将这与我们之前的定义联系起来,偏差和可避免偏差关系如下:
偏差 = 最佳误差率(“不可避免偏差”)+ 可避免的偏差
使用这些定义是为了更好地传达关于如何改进学习算法的理解。这些定义与统计学家定义偏差和方差不同。从技术角度上说,这里定义的“偏差”应该叫做“我们认为是偏差的误差”;另外“可避免偏差”应该叫做“我们认为学习算法的偏差超过最优错误率的误差”。
这个“可避免偏差”反映了算法在训练集上的表现比“最优分类器”差多少。 方差的概念和之前保持一致。理论上来说,我们可以通过训练一个大规模训练集将方差减少到接近零。因此只要拥有足够大的数据集,所有的方差都是可以“避免的”,所以不存在所谓的“不可避免方差”。 再考虑一个例子,该例子中最优错误率是 14%,我们有: 我们在前一章称之为高偏差分类器,现在可避免偏差的误差是 1%,方差误差约为 1%。因此,算法已经做的很好了,几乎没有提升的空间。它只比最佳错误率差 2%。
从这些例子中我们可以看出,了解最优错误率有利于指导我们的后续步骤。在统计学上,最优错误率也被称为贝叶斯错误率(Bayes error rate),或贝叶斯率。
如何才能知道最优错误率是多少呢?对于人类擅长的任务,例如识别图片或转录音频剪辑,你可以让普通人提供标签,然后测量这些人为标签相对于训练集标签的精度,这将给出最优错误率的估计。如果你正在解决甚至人也很难解决的问题(例如预测推荐什么电影,或向用户展示什么广告),这将很难去估计最优错误率。
在“与人类表现比较”(第33~35章)这一节中,我将更详细地讨论学习算法的表现和人类表现相比较的过程。 在前面几个章节中,你学习了如何通过查看训练集和开发集的错误率来估计可避免/不可避免的偏差和方差。下一章将讨论如何根据对此的理解来考虑优先减少偏差还是减少方差。项目当前的问题是高偏差(可避免偏差)还是高方差,将导致你应用截然不同的技术。请继续阅读。
23 处理偏差和方差
下面是处理偏差和方差问题最简单的形式: 如果你可以加大神经网络的规模且无限制地增加训练集数据,那么在很多学习问题上都可以做的很好。 实际上,加大网络的模型规模终将导致你遇到计算力问题,因为训练大的模型很慢。另外你也有可能会耗尽获取更多训练数据的能力。(即使在网上,也只有有限数量的猫图片)
不同的模型架构(例如不同的神经网络架构)对于你的问题将有不同的偏差/方差值。近期不少深度学习研究已经开发出很多新的模型架构。所以,如果你在使用神经网络,学术文献可能会是一个很好的灵感来源,在 Github 上也有很多较好的开源实现。但尝试新架构的结果要比简单地加大模型规模和添加数据的形式更难以预测。
加大模型的规模通常可以减少偏差,但也可能会增加方差和过拟合的风险。然而这种过拟合问题通常只在你不使用正则化技术的时候出现。如果你的算法含有了一个精心设计的正则化方法,通常可以安全地加大模型的规模,而不会增加过拟合风险。 假设你正在应用深度学习,使用了 L2 正则化和 dropout 技术,并且设置了在开发集上表现最好的正则化参数。如果你加大模型规模,算法的表现往往会保持不变或提升;它不太可能明显地变差。避免使用更大模型的唯一原因就是这将使得计算代价变大。
24 偏差和方差间的权衡
你可能听过“偏差和方差间的权衡”。大部分对学习算法进行的更改中,有一些能够减少偏差,但代价是增大方差,反之亦然。于是在偏差和方差之间就产生了“权衡”。
例如,加大模型的规模(在神经网络中增加神经元/层,或增加输入特征),通常可以减少偏差,但可能会增加方差。另外,加入正则化一般会增加偏差,但是能减少方差。
在现代,我们往往能够获取充足的数据,并且可以使用非常大的神经网络(深度学习)。因此,这种权衡的情况比较少,并且现在有更多的选择可以在不损害方差的情况下减少偏差,反之亦然。
例如,你通常可以增加神经网络的规模大小,并调整正则化方法去减少偏差,而不会明显的增加方差。通过增加训练数据,你通常也可以在不影响偏差的情况下减少方差。
如果你选择了一个很适合你任务的模型架构,那么你也可以同时减少偏差和方差。只是选择这样的架构可能有点难度。 在接下来的几个章节中,我们将讨论处理偏差和方差的其它特定技术。
25减少可避免偏差的技术
如果你的学习算法存在着很高的可避免偏差,你可能会尝试下面的技术: 加大模型规模(例如神经元/层的数量):这项技术能够使算法更好地拟合训练集,从而减少偏差。当你发现这样做会增大方差时,加入正则化,这可以抵消方差的增加。 根据误差分析结果修改输入特征:假设误差分析的结果鼓励你创建额外的特征,从而帮助算法消除某个特定类别的误差。(我们会在接下来的章节深入讨论这个话题。)这些新的特征对处理偏差和方差都有所帮助。理论上,添加更多的特征将增大方差;然而当你发现这种情况时,加入正则化,这可以抵消方差的增加。 减少或者去除正则化(L2 正则化,L1 正则化,dropout):这将减少可避免偏差,但会增大方差。 修改模型架构(比如神经网络架构)使之更适用于你的问题:这项技术将同时影响偏差和方差。
有一种方法并不能奏效:
26 训练集误差分析
你的算法必须在训练集上表现得很好,才能期望它在开发集和测试集上能够有着良好的表现。
除了先前提到的用于处理高偏差的技术外,我通常也会在训练数据上进行误差分析,处理方式类似于在开发集上设置一个 Eyeball 开发集。当你的算法有着高偏差时(例如算法没有很好拟合训练集的时候)这将有所帮助。
举个例子,假设你正在为一个应用程序构建一个语音识别系统,并收集了一组志愿者的音频片段。如果系统在训练集上表现不佳,你可能会考虑以约 100 个算法处理得很差的样本作为一组并人为去听它们,从而知道训练集误差的主要种类。类似于开发集上的误差分析,你可以计算不同类别的错误样本数量:
音频片段 | 背景噪音很大 | 语速太快 | 距离麦克风太远 | 备注 | 1 | √ |
|
| 汽车噪音 | 2 | √ |
| √ | 餐馆噪音 | 3 |
| √ | √ | 在起居室里喊叫? | 4 | √ |
|
| 咖啡厅 | 占全体比例 | 75% | 25% | 50% |
|
在本例中,你可能会发现算法在面对具有大量背景噪音的训练样本时遇到了特别困难的情况。因此你可能会关注一些技术,使其能够更好地适应背景噪音的训练样本。
你也可以仔细检查正常人是否能转录这些音频片段,这些音频应该与你的学习算法的输入音频相同。如果背景噪音过于嘈杂,导致任何人都不能理解音频里说了什么,那么期望算法正确地识别这样的话语就不太合理。我们将在后面的章节中讨论将算法的性能与人类水平进行比较的好处。
27 减少方差的技术
如果你的学习算法存在着高方差,则可以尝试下面的技术: 添加更多的训练数据:这是最简单也是最可靠的一种方式来处理方差,只要你能访问大量的数据并有足够的计算能力来处理它们。 加入正则化(L2 正则化,L1 正则化,dropout):这项技术可以降低方差,但却增大了偏差。 加入提前终止(比如根据开发集误差提前终止梯度下降):这项技术可以降低方差但却增大了偏差。提前终止(Early stopping)有点像正则化理论,一些学者认为它是正则化技术之一。 通过特征选择减少输入特征的数量和种类:这种技术可能有助于解决方差问题,但也可能增加偏差。稍微减少特征的数量(比如从 1000 个特征减少到 900 个)不太可能会对偏差产生很大的影响,但显著地减少它们(比如从 1000 个特征减少到 100 个,10 倍地降低)则很有可能产生很大的影响,你可能排除了太多有用的特征。在现代深度学习中,当数据充足时,特征选择的比重就有所改变,现在我们更有可能将拥有的所有特征提供给算法,并让算法根据数据来确定哪些特征可以使用。但当你的训练集很小的时候,特征选择是非常有用的。 减小模型规模(比如神经元/层的数量):谨慎使用。这种技术可以减少方差,同时可能增加偏差。然而我不推荐这种处理方差的方法,添加正则化通常会提供更好的分类性能。 减少模型规模的好处是降低了计算成本,从而加快了你对模型进行训练的速度。如果加速模型训练是有用的,那么无论如何都要考虑减少模型的规模。但如果你的目标是减少方差,并且不关心计算成本,那么考虑添加正则化会更好。
下面是两种额外的策略,和解决偏差问题章节所提到的方法重复:
原文链接
|