前面我们介绍了一种重要的适用于0-1型因变量的回归分析模型:逻辑回归。从理论上讲,逻辑回归是广义线性回归模型的一个特例。从名字上就可以感受到,这个模型的本质就是某种线性模型。线性模型有很多优良的性质。例如:非常简单,而且参数个数少,因此能够支持相对比较小的样本估计。同时,因为模型结构简单,参数估计结果也很好解读。这些都是线性模型的优点。但是,天下没有免费的午餐,在统计模型的构建过程中,凡是优点就一定伴随着缺点。各种线性模型(包括广义线性模型)的主要缺点是什么呢?答:不灵活。因为这是一个线性模型,因此它的函数形式单一,难以描述更加灵活的函数形态(例如:非单调的相关关系)。而现实生活中碰到的问题,可能非常复杂。当面对复杂问题的时候,其实我们仍然会优先考虑相对简单的线性模型,为什么?因为样本量常常不够大。但是,随着计算机技术的进步,人们能够采集到越来越多的样本,这就为建立更加复杂的非线性模型提供了可能,而各种各样的非线性模型,成就了机器学习(或者统计学习)这个特定的领域。