不懂微积分,如何精准调参和高效训练AI?
本文将从
极限与导数
、函数求导、函数最优化:梯度下降法
三个方面,带 您一文搞懂人工智能数学基础(上): 微积分。
微积分
一、 极限与导数
极限的本质: 无限靠近而永远不能到达 。
极限的本质
- 极限的定义:
极限的定义
- 极限的性质:
- 唯一性: 极限存在则唯一。
- 有界性: 收敛数列必有界。
- 保号性: 极限大于(或小于)0,则数列或函数值在极限点附近也大于(或小于)0。
- 极限的应用:
- 梯度下降算法: 通过迭代更新参数,使损失函数趋近于极限最小值。
- 神经网络收敛性: 极限理论用于分析神经网络训练是否达到预期效果。
- 概率论与统计: 大数定律和中心极限定理描述了随机变量的极限性质。
导数的本质 :
反映了函数在某一点附近的局部性质,特别是函数图像的切线斜率和函数值的变化趋势。
导数的本质
- 导数的定义:
导数的定义
- 常用函数求导:
常用函数求导
- 导数的四则运算:
导数的四则运算
- 导数的链式法则:
导数的链式法则
二、
函数求导
一元函数求导 : 求解函数在某点处切线的斜率或函数值随自变量变化的速率的过程。
一元函数求导
激活函数sigmoid是一种常用的非线性函数,可以将任何实数映射到0到1之间。它通常用于将不归一化的预测值转换为概率分布。
sigmoid函数公式
sigmoid函数公式
sigmoid函数图像
sigmoid函数图像
sigmoid求导过程
sigmoid函数求导过程
二元函数求导 : 求解函数在某一点处关于两个自变量的偏导数,反映函数在该点附近沿不同方向的变化率。
二元函数求导
二元函数偏导数的计算是分别固定其中一个自变量,对另一个自变量求导,得到函数在该点处关于该自变量的偏导数。
二元函数偏导数的计算
三、
函数最优化:梯度下降法
数学上可以证明,梯度方向是函数值增长最快的方向,而负梯度方向则是函数值下降最快的方向。
梯度的定义
一元函数梯度下降法 : 通过不断沿函数下降方向调整参数,以寻找函数的最小值点或局部最优解。
一元函数梯度下降法
使用梯度下降法求y=f(x)极小值的步骤如下:
一元函数求解极小值
二元函数梯度下降法 : 涉及处理多个变量,需计算每个变量的偏导数来确定下降方向,计算过程复杂,还需考虑变量间的相互影响,以实现全局或局部最小值。
二元函数梯度下降法
使用梯度下降法求z=f(x, y)极小值的步骤如下:
二元函数求解极小值
