从零开始认识AI:梯度下降法详解与实践
创作时间:
作者:
@小白创作中心
从零开始认识AI:梯度下降法详解与实践
引用
CSDN
1.
https://blog.csdn.net/u014147522/article/details/139933573
梯度下降法是机器学习和深度学习中最重要的优化算法之一。它通过迭代更新模型参数,使得损失函数最小化。本文将从原理到实践,带你全面理解梯度下降法的核心思想,并通过一个具体的代码示例,展示如何使用梯度下降法求解函数的最小值。
原理介绍
梯度下降法(Gradient Descent)是一种用于优化函数的迭代算法,广泛应用于机器学习和深度学习中,用来最小化一个目标函数。该目标函数通常代表模型误差或损失。
基本思想是从一个初始点出发,通过不断沿着目标函数的负梯度方向更新参数,逐步逼近函数的局部最小值(或者全局最小值)。梯度是目标函数相对于参数的导数,因此,负梯度方向是函数值下降最快的方向。
具体步骤如下:
- 初始化参数:随机选择模型初始参数 ( \theta_0 )。
- 计算梯度:计算目标函数关于当前参数的梯度 ( \nabla J(\theta) ),这里 ( J(\theta) ) 是目标函数。
- 更新参数:根据梯度和学习率 ( \alpha ) 更新参数:
[
\theta := \theta - \alpha \nabla J(\theta)
]
其中,学习率 ( \alpha ) 是一个预先设置的超参数,决定了每一步更新的大小。 - 重复:重复步骤 2 和 3 直到收敛,即参数不再发生显著变化或者达到预设的迭代次数。
变种
梯度下降法有几种常见变种:
- 批量梯度下降(Batch Gradient Descent):每一步更新使用整个训练数据集计算梯度。这对于大规模数据集可能会非常耗时。
- 随机梯度下降(Stochastic Gradient Descent, SGD):每一步更新使用单个样本计算梯度,通过不断地用单个样本更新,效率较高但引入了较大的波动。
- 小批量梯度下降(Mini-batch Gradient Descent):每一步更新使用一个小批量的样本来计算梯度,结合了批量梯度下降和随机梯度下降的优点。
优化
为了提高梯度下降的效率和效果,可以结合一些优化方法,如:
- 动量法:在每一步更新中添加动量,帮助跳出局部最小值。
- AdaGrad、RMSprop、Adam:这些算法通过自适应调整学习率,以适应不同参数和不同迭代阶段。
梯度下降法是机器学习和深度学习中的关键技术之一,通过梯度下降可以有效地训练模型并优化目标函数。
代码实现
以下用梯度下降法求解函数的最小值:
import numpy as np
import matplotlib.pyplot as plt
def f(x):
return x ** 2 + 5 * np.sin(x)
def df(x):
return 2 * x + 5 * np.cos(x)
# initialize parameter and learning rate
x = 4
lr = 0.1
epochs = 1000
history = [x]
for _ in range(epochs):
x = x - lr * df(x)
history.append(x)
xs = np.linspace(-5, 5, 200)
ys = f(xs)
plt.plot(xs, ys, label="f(x)")
plt.xlabel("x")
plt.ylabel("f(x)")
plt.scatter(history, f(np.array(history)), c="g", alpha=0.5, label="Gradient Descent Point")
plt.scatter(history[-1], f(history[-1]), c="r", label="Minimal Point")
plt.legend()
plt.show()
热门推荐
连云港冬日自驾游打卡圣地推荐
花果山:美猴王的故乡,江苏最高峰
连云港自驾游:夏秋最美时节攻略
电动汽车电池最常见的三大问题
电动观光车充电系统故障排查与解决指南
电源适配器指示灯不亮:原因分析与解决策略
冬季抱枕清洗小窍门,让你温暖又健康!
用Blender设计你的专属抱枕:从入门到成品的完整指南
冬季自制花朵心形抱枕,温暖你的家
鬼金羊:揭秘二十八星宿的神秘传说
鬼金羊2025年运势前瞻:事业财运双丰收?
水中银检测:近半数速溶咖啡存在安全风险,选购指南来了!
速溶咖啡与健康:最新研究解读与饮用指南
GDP增6.8%、CPI涨0.8%:最新数据如何影响你的股票投资?
标普500指数暴跌:是市场触底还是反弹乏力?
营运车辆能否改回非营运?办理流程详解
千万人口城市破17座,竟有2座人口负增长
西园寺和寒山寺哪个更值得去?全方位对比分析
江阴美食攻略:从江阴炖鸡到顾山烧饼,必吃的11种特色美食
物理学中的群论:从纯数学到宇宙奥秘
如何直观地理解群论?群论中一些主要的概念究竟是为什么、怎么样引入的?
南京一中杰出校友:从院士到明星的辉煌之路
双十一前夕,一场特别的同学聚会
数字经济浪潮下,残疾人就业的新机遇
全国助残日:用法律为残疾人就业撑起一片天
回家:一段寻找心灵归宿的旅程
克里希那穆提:回家的哲学
何浩楠回家过节,你的心理准备好了吗?
火柴人沙盒:搞笑场景大集合!
如何直观地理解群论?群论中一些主要的概念究竟是为什么、怎么样引入的?