另一方面,正是在连接主义学习技术的局限性凸显之后,人们才把目光转向了以统计学习理论为直接支撑的统计学习技术,事实上,统计学习与连接主义学习有密切的联系,在支持向量机被普遍接受后,核技巧(kernel trick)被人们用到了机器学习的几乎每一个角落,核方法也逐渐成为机器学习的基本内容之一.有趣的是,二十一世纪初,连接主义学习又卷土重来,掀起了以“深度学习”为名的热潮.所谓深度学习,狭义地说就是“很多层”的神经网络,在若干测试和竞赛上,,尤其是涉及语音、图像等复杂对象的应用中,深度学习技术取得了优越性能.以往机器学习技术在应用中要取得好性能,对使用者的要求较高;而深度学习技术涉及的模型复杂度非常高,以至于只要下工夫“调参”,把参数调节好,性能往往就好,因此,深度学习虽缺乏严格的理论基础,但它显著降低了机器学习应用者的门槛,为机器学习技术走向工程实践带来了便利.那么,它为什么此时才热起来呢?有两个基本原因:数据大了、计算能力强了,深度学习模型拥有大量参数,若数据样本少,则很容易“过拟合”;如此复杂的模型、如此大的数据样本,若缺乏强力计算设备,根本无法求解.恰由于人类进入了“大数据时代”,数据储量与计算设备都有了大发展,才使得连接主义学习技术焕发又一春.有趣的是,神经网络在二十世纪八十年代中期走红,与当时Intel x86系列微处理器与内存条技术的广泛应用所造成的计算能力、数据访存效率比七十年代有显著提高不无关联,深度学习此时的状况,与彼时的神经网络何其相似,需说明的是,机器学习现在已经发展成为一个相当大的学科领域,本节仅是管中窥豹,很多重要技术都没有谈及,耐心的读者在读完本书后会有更全面的了解.?