问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

逻辑回归算法详解:从原理到代码实现

创作时间:
作者:
@小白创作中心

逻辑回归算法详解:从原理到代码实现

引用
CSDN
1.
https://m.blog.csdn.net/goTsHgo/article/details/143381731

逻辑回归是一种广泛使用的分类算法,特别适用于二分类问题。尽管名字中有“回归”二字,逻辑回归实际上是一种分类方法。本文将从底层原理、数学模型、优化方法以及源代码层面详细解析逻辑回归。

1. 基本原理

1.1 数学模型

逻辑回归的核心思想是将线性回归的输出通过一个逻辑函数(sigmoid函数)转化为概率值。给定输入特征向量,逻辑回归模型可以表示为:

这里,是截距项,是特征对应的权重。

然后通过 sigmoid 函数将转化为概率:

其中,表示给定输入特征预测为正类的概率。

整体的流程结果类似于:

1.2 目标函数

逻辑回归的目标是最大化似然函数(Likelihood Function),其形式为:

这里,是第个样本的标签,是样本数量。通过取对数得到对数似然函数:

2. 优化方法

为了找到最佳的参数 β,通常使用梯度下降或牛顿法等优化算法来最小化负的对数似然函数。

2.1 梯度下降法

更新参数的公式为:

梯度下降例子图示:

这里,是学习率,是对数似然函数的梯度,可以通过链式法则计算:

2.2 牛顿法

牛顿法利用二阶导数信息(Hessian矩阵)来更快收敛:

其中,g 是梯度,H 是 Hessian 矩阵。牛顿法的优势在于收敛速度快,但计算复杂度较高。

绿色为梯度下降,红色为牛顿法,牛顿法的路径更加直接

3. 源代码层面

下面是使用 Python 的 scikit-learn 库实现逻辑回归的示例代码:

import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score

# 加载数据
data = load_iris()
X = data.data
y = (data.target == 0).astype(int)  # 将目标转换为二分类

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建逻辑回归模型
model = LogisticRegression(solver='liblinear')

# 拟合模型
model.fit(X_train, y_train)

# 预测
y_pred = model.predict(X_test)

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print(f'Accuracy: {accuracy:.2f}')

4. 逻辑回归的优缺点

优点

  • 简单易理解:模型结构简单,便于解释和实现。
  • 计算效率高:相比复杂模型,逻辑回归的计算开销较小。
  • 适用性广:可以处理线性可分的二分类问题,且经过适当变换后可应用于多分类问题。

缺点

  • 线性假设:假设特征与输出之间是线性关系,对复杂非线性关系表现不佳。
  • 对异常值敏感:逻辑回归对异常值比较敏感,可能会影响模型性能。
  • 特征独立性假设:逻辑回归假设特征之间是独立的,特征间的相关性可能会影响预测准确性。

总结

逻辑回归是一种强大而有效的分类算法,能够通过概率的方式对输入数据进行建模。其底层原理基于线性模型和逻辑函数的组合,优化过程使用梯度下降等方法来调整模型参数。尽管有其局限性,但在许多实际应用中依然表现优越,尤其在特征数量较少且具有线性可分性的情况下。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号