朴素贝叶斯分类器,在机器学习中是一系列以假设特征之间强独立下运用贝叶斯定理为基础的简单概率分类器。
Logistic 逻辑回归是属于机器学习里面的监督学习,它是以回归的思想来解决分类问题的一种非常经典的二分类分类器。由于其训练后的参数有较强的可解释性,在诸多领域中,逻辑回归通常用作 baseline 模型,以方便后期更好的挖掘业务相关信息或提升模型性能。
Softmax 回归是一种基于逻辑回归的分类方法,适用于多分类问题。它的核心思想是将多个分类的概率映射到 0-1 之间,使得概率之和为 1。
训练 softmax 回归循环模型与训练线性回归模型非常相似:先读取数据,再定义模型和损失函数,然后使用优化算法训练模型。
Softmax 回归是逻辑回归在多分类问题上的推广。它将每个类别的线性函数的输出映射到 (0,1) 之间,并且所有类别的输出概率之和为 1。