
本文共 4269 字,大约阅读时间需要 14 分钟。
这里写目录标题
一、一维正态分布
f ( x ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} f(x)=2πσ1e−2σ2(x−μ)2 记作 X ∼ N ( μ , σ 2 ) X \sim N(\mu,\sigma^2) X∼N(μ,σ2)。
可以将一般正态分布转化为标准正态分布:若 X ∼ N ( μ , σ 2 ) , Y = X − μ σ ∼ N ( 0 , 1 ) X \sim N(\mu,\sigma^2),Y=\frac{X-\mu}{\sigma} \sim N(0,1) X∼N(μ,σ2),Y=σX−μ∼N(0,1)
二、径向基函数
径向基函数(Radial Basis Function,RBF)是一个取值仅取决于到原点距离的实值函数,记作 ϕ ( x ) = ϕ ( ∣ ∣ x ∣ ∣ ) \phi(x)=\phi(||x||) ϕ(x)=ϕ(∣∣x∣∣),也可以是到任意一中心点 c c c的距离,即 ϕ ( x , c ) = ϕ ( ∣ ∣ x − c ∣ ∣ ) \phi(x,c)=\phi(||x-c||) ϕ(x,c)=ϕ(∣∣x−c∣∣)。任何一个满足上述特性的函数都可以称为RPF。
ϕ ( x , c ) = e − ( x − c ) 2 r 2 \phi(x,c)=e^{-\frac{(x-c)^2}{r^2}} ϕ(x,c)=e−r2(x−c)2

- a a a:曲线高度
- b b b:即 μ \mu μ,指曲线在 x x x轴的中心
- c c c:即 σ \sigma σ,指width(与半峰全框有关)
三、径向基函数解决插值问题
- 每个蓝色的点是一个样本
- 绿色虚线对应一个训练样本,对应一个高斯函数(高斯函数中心就是样本点)
- 蓝色实线表示真实拟合这些训练数据的曲线
(1)样本点 ( x n , y n ) ∈ D , n = 1 , 2 , . . . , N (x_n,y_n) \in D ,n=1,2,...,N (xn,yn)∈D,n=1,2,...,N
(2)完全内插法要求插值函数经过每个样本点,即 F ( x n ) = y n F(x_n)=y_n F(xn)=yn,样本点共有 N N N个
(3)RBF的方法是选择 N N N个奇函数 φ ( ∣ ∣ x − x n ∣ ∣ ) \varphi(||x-x_n||) φ(∣∣x−xn∣∣) φ ( ∣ ∣ x − x n ∣ ∣ ) = e − 1 2 σ 2 ∣ ∣ x − x n ∣ ∣ 2 \varphi(||x-x_n||)=e^{-\frac{1}{2\sigma^2}||x-x_n||^2} φ(∣∣x−xn∣∣)=e−2σ21∣∣x−xn∣∣2(4)基于径向基函数的插值函数为: F ( x ) = ∑ n = 1 N w n φ n ( ∣ ∣ x − x n ∣ ∣ ) = w 1 φ 1 ( ∣ ∣ x − x 1 ∣ ∣ ) + w 2 φ 2 ( ∣ ∣ x − x 2 ∣ ∣ ) + . . . + w n φ n ( ∣ ∣ x − x n ∣ ∣ ) F(x)=\sum_{n=1}^{N}w_n\varphi_n(||x-x_n||)=w_1\varphi_1(||x-x_1||)+w_2\varphi_2(||x-x_2||)+...+w_n\varphi_n(||x-x_n||) F(x)=n=1∑Nwnφn(∣∣x−xn∣∣)=w1φ1(∣∣x−x1∣∣)+w2φ2(∣∣x−x2∣∣)+...+wnφn(∣∣x−xn∣∣)
四、RBF神经网络简介
RBF神经网络的结构与多层前向网络类似,是一种具有单隐层的三层前向神经网络。
- 输入层:由信号源结点组成
- 隐含层:单神经元层,但神经元数可视所描述问题的需要而定
- 输出层:对输入的作用做出响应 从输入层到隐含层空间的变换是非线性的
从输入层空间到隐含层空间的变换是非线性的,而从隐含层空间到输出层空间的变换是线性的。隐含层神经元的变换函数是RBF,它是一种局部分布的中心径向对称衰减的非负非线性函数。
BP神经网络用于函数逼近时,权值的调节采用负梯度下降法,这种权值调节的方法存在着收敛速度慢和局部极小等局限性。同时,BP 神经网络在训练过程中需要对网络中的所有权值和阈值进行修正,属于全局逼近的神经网络。
而RBF 神经网络在逼近能力、分类能力和学习速度等方面均优于BP神经网络。另外,尽管RBF神经网络比BP 神经网络需要更多的神经元,但是它能够按时间片来优化训练网络。因此,RBF神经网络是一种局部逼近性能非常好的神经网络结构,有学者证明它能以任意精度逼近任一连续函数。
RBF人工神经网络以其独特的信息处理能力在许多领域得到了成功的应用,它不仅具继承了神经网络强大的非线性映射能力,而且具有自适应、自学习和容错性等,能够从大量的历史数据中进行聚类和学习,进而得到某些行为变化的规律。同时,RBF神经网络是一种新颖有效的前馈式神经网络,具有最佳局部逼近和全局最优的性能,且训练方法快速易行,这些优点使得RBF神经网络在非线性时间序列预测中得到了广泛的应用。
- 全局逼近: 当神经网络的一个或多个可调参数(权值和阈值)对任何一个输出都有影响,则称该神经网络为全局逼近网络
- 局部逼近:对网络输入空间的某个局部区域只有少数几个连接权值影响网络的输出,则称该网络为局部逼近网络
另外,RBF神经网络能够逼近任意的非线性函数,可以处理系统内难以解析的规律性,具有良好的泛化能力,并有很快的学习收敛速度。当有很多的训练向量时,这种网络很有效果。目前,RBF神经网络已在非线性函数逼近、时间序列分析、数据分类、模式识别、信息处理、图像处理、系统建模、控制和故障诊断等多种场合得到了成功应用。
五、RBF神经元模型
净输入 n n n为RBF神经元的中间运算结果 n = ∣ ∣ w − x ∣ ∣ b n=||\boldsymbol{w-x}||b n=∣∣w−x∣∣b
RBF神经元模型的输出 y y y为: y = r b f ( n ) = r b f ( ∣ ∣ w − x ∣ ∣ b ) y=rbf(n)=rbf(||\boldsymbol{w-x}||b) y=rbf(n)=rbf(∣∣w−x∣∣b)
r b f ( x ) rbf(x) rbf(x)为径向基函数,常见形式有: r b f ( x ) = e − ( x σ ) 2 rbf(x)=e^{-(\frac{x}{\sigma})^2} rbf(x)=e−(σx)2 r b f ( x ) = 1 ( σ 2 + x 2 ) α , α > 0 rbf(x)=\frac{1}{(\sigma^2+x^2)^{\alpha}},\alpha>0 rbf(x)=(σ2+x2)α1,α>0
六、RBF神经网络结构
RBF神经网络由输入层、单隐含层、输出层三层组成,如下图所示:

RBF神经网络隐含层的输出 y 1 \boldsymbol{y^1} y1为: y 1 = r b f ( n 1 ) \boldsymbol{y^1}=rbf(\boldsymbol{n^1}) y1=rbf(n1) n 2 \boldsymbol{n^2} n2为RBF输出层的中间运算结果,表示为: n 2 = W 2 y 1 + b 2 \boldsymbol{n^2}=\boldsymbol{W^2y^1+b^2} n2=W2y1+b2 RBF神经网络的输出 y 2 \boldsymbol{y^2} y2为: y 2 = p u r e l i n ( n 2 ) \boldsymbol{y^2}=purelin(\boldsymbol{n^2}) y2=purelin(n2) 隐含层节点中的径向基函数对输入信号在局部产生响应,即当输入信号靠近该函数的中央范围时,隐含层节点将产生较大的输出。因此,RBF神经网络具有局部逼近能力,RBF神经网络也被称为局部感知场网络
发表评论
最新留言
关于作者
