问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

从零开始认识AI:梯度下降法详解与实践

创作时间:
作者:
@小白创作中心

从零开始认识AI:梯度下降法详解与实践

引用
CSDN
1.
https://blog.csdn.net/u014147522/article/details/139933573

梯度下降法是机器学习和深度学习中最重要的优化算法之一。它通过迭代更新模型参数,使得损失函数最小化。本文将从原理到实践,带你全面理解梯度下降法的核心思想,并通过一个具体的代码示例,展示如何使用梯度下降法求解函数的最小值。

原理介绍

梯度下降法(Gradient Descent)是一种用于优化函数的迭代算法,广泛应用于机器学习和深度学习中,用来最小化一个目标函数。该目标函数通常代表模型误差或损失。

基本思想是从一个初始点出发,通过不断沿着目标函数的负梯度方向更新参数,逐步逼近函数的局部最小值(或者全局最小值)。梯度是目标函数相对于参数的导数,因此,负梯度方向是函数值下降最快的方向。

具体步骤如下:

  1. 初始化参数:随机选择模型初始参数 ( \theta_0 )。
  2. 计算梯度:计算目标函数关于当前参数的梯度 ( \nabla J(\theta) ),这里 ( J(\theta) ) 是目标函数。
  3. 更新参数:根据梯度和学习率 ( \alpha ) 更新参数:
    [
    \theta := \theta - \alpha \nabla J(\theta)
    ]
    其中,学习率 ( \alpha ) 是一个预先设置的超参数,决定了每一步更新的大小。
  4. 重复:重复步骤 2 和 3 直到收敛,即参数不再发生显著变化或者达到预设的迭代次数。

变种

梯度下降法有几种常见变种:

  1. 批量梯度下降(Batch Gradient Descent):每一步更新使用整个训练数据集计算梯度。这对于大规模数据集可能会非常耗时。
  2. 随机梯度下降(Stochastic Gradient Descent, SGD):每一步更新使用单个样本计算梯度,通过不断地用单个样本更新,效率较高但引入了较大的波动。
  3. 小批量梯度下降(Mini-batch Gradient Descent):每一步更新使用一个小批量的样本来计算梯度,结合了批量梯度下降和随机梯度下降的优点。

优化

为了提高梯度下降的效率和效果,可以结合一些优化方法,如:

  • 动量法:在每一步更新中添加动量,帮助跳出局部最小值。
  • AdaGradRMSpropAdam:这些算法通过自适应调整学习率,以适应不同参数和不同迭代阶段。

梯度下降法是机器学习和深度学习中的关键技术之一,通过梯度下降可以有效地训练模型并优化目标函数。

代码实现

以下用梯度下降法求解函数的最小值:

import numpy as np
import matplotlib.pyplot as plt

def f(x):
    return x ** 2 + 5 * np.sin(x)

def df(x):
    return 2 * x + 5 * np.cos(x)

# initialize parameter and learning rate
x = 4
lr = 0.1
epochs = 1000
history = [x]

for _ in range(epochs):
    x = x - lr * df(x)
    history.append(x)
    
xs = np.linspace(-5, 5, 200)
ys = f(xs)
plt.plot(xs, ys, label="f(x)")
plt.xlabel("x")
plt.ylabel("f(x)")
plt.scatter(history, f(np.array(history)), c="g", alpha=0.5, label="Gradient Descent Point")
plt.scatter(history[-1], f(history[-1]), c="r", label="Minimal Point")
plt.legend()
plt.show()  

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号