R语言快速深度学习进行回归预测(转)
发布日期:2021-08-21 13:18:09 浏览次数:20 分类:技术文章

本文共 3856 字,大约阅读时间需要 12 分钟。

深度学习在过去几年,由于卷积神经网络的特征提取能力让这个算法又火了一下,其实在很多年以前早就有所出现,但是由于深度学习的计算复杂度问题,一直没有被广泛应用。

一般的,卷积层的计算形式为:

Clipboard Image.png

其中、x分别表示当前卷积层中第j个特征、前一层的第i个特征;k表示当前层的第j个特征与前一层的第i个特征之间的卷积核;M表示需要卷积的前一层的特征的集合,b表示当前卷积层中第j个卷积核对应的偏置。f为激活函数。

卷积层中的权值与阈值通过随机梯度下降法得到:

Clipboard Image.png                                

式中,a为学习率。

损失函数对卷积层参数的梯度可通过链式求导来得到,如下:

Clipboard Image.png       

式中,Clipboard Image.png表示前一层的梯度。          

卷积神经网络中的激活函数有多种形式:

Clipboard Image.png                     

             

式中a为固定的参数。

Clipboard Image.png   

式中Clipboard Image.png,每个batch训练样本中的都随机采样自均值分布,在测试中取Clipboard Image.png

 

Clipboard Image.png

从上述卷积神经网络看出,学习过程中需要进行梯度迭代,真正在实现工业检测等实际应用时时间复杂度极高,因此学术界进行了优化,优化后的一种单层神经网络极限学习机解决了此问题,在过去应用十分广泛。

为解决上述问题,出现了极限学习机。

用最小二乘法解决的一种特殊结果为,等价为一种矩阵求逆的形式

Clipboard Image.png

Clipboard Image.png为的Moore-Penrose广义逆。

1)由于极限学习机求取权值的时候只是计算一个广义逆,因此训练速度比基于梯度的学习算法快很多;

2)基于梯度的学习算法存在很多问题,比如学习速率难以确定、局部网络最小化等,极限学习机有效的改善了此类问题,在分类过程中取得了更好的效果;

3)与其他神经网络算法不同,极限学习机在训练过程中,选择激活函数过程中可以选择不可微函数。;

4)极限学习机算法训练过程并不复杂。极限学习机只需要三步就可以完成整个的学习过程。

以下用R代码讲解一下极限学习机

###训练过程如下:

训练过程4步即可。

elmtrain.default <- function(x,y,nhid,actfun,...) {

  require(MASS) if(nhid < 1) stop("ERROR: number of hidden neurons must be >= 1") ########1.选择数据,X与Y T <- t(y) P <- t(x) ########2.随机产生权值,目的在于将X值进行变化 inpweight <- randomMatrix(nrow(P),nhid,-1,1) tempH <- inpweight %*% P biashid <- runif(nhid,min=-1,max=1) biasMatrix <- matrix(rep(biashid, ncol(P)), nrow=nhid, ncol=ncol(P), byrow = F) tempH = tempH + biasMatrix ########3.将变化后的X值进行高维映射,最常用是sig函数 if(actfun == "sig") H = 1 / (1 + exp(-1*tempH)) else { if(actfun == "sin") H = sin(tempH) else { if(actfun == "radbas") H = exp(-1*(tempH^2)) else { if(actfun == "hardlim") H = hardlim(tempH) else { if(actfun == "hardlims") H = hardlims(tempH) else { if(actfun == "satlins") H = satlins(tempH) else { if(actfun == "tansig") H = 2/(1+exp(-2*tempH))-1 else { if(actfun == "tribas") H = tribas(tempH) else { if(actfun == "poslin") H = poslin(tempH) else { if(actfun == "purelin") H = tempH else stop(paste("ERROR: ",actfun," is not a valid activation function.",sep="")) } } } } } } } } } ########4.拟合出模型系数,即Y=AX中的A outweight <- ginv(t(H), tol = sqrt(.Machine$double.eps)) %*% t(T) Y <- t(t(H) %*% outweight) model = list(inpweight=inpweight,biashid=biashid,outweight=outweight,actfun=actfun,nhid=nhid,predictions=t(Y)) model$fitted.values <- t(Y) model$residuals <- y - model$fitted.values model$call <- match.call() class(model) <- "elmNN" model }

测试过程,过程4步即可。

function (object, newdata = NULL, ...) {

if (is.null(newdata))
 predictions <- fitted(object) else {
  if (!is.null(object$formula)) {
 x <- model.matrix(object$formula, newdata)
 } else { x <- newdata } ########1.获取训练模型中的参数 inpweight <- object$inpweight biashid <- object$biashid outweight <- object$outweight actfun <- object$actfun nhid <- object$nhid TV.P <- t(x) ########2.通过参数将X值进行变化 tmpHTest = inpweight %*% TV.P biasMatrixTE <- matrix(rep(biashid, ncol(TV.P)), nrow = nhid, ncol = ncol(TV.P), byrow = F) tmpHTest = tmpHTest + biasMatrixTE ########3.高维度映射,通常选择sig函数 if (actfun == "sig") HTest = 1/(1 + exp(-1 * tmpHTest)) else { if (actfun == "sin") HTest = sin(tmpHTest) else { if (actfun == "radbas") HTest = exp(-1 * (tmpHTest^2)) else { if (actfun == "hardlim") HTest = hardlim(tmpHTest) else { if (actfun == "hardlims") HTest = hardlims(tmpHTest) else { if (actfun == "satlins") HTest = satlins(tmpHTest) else { if (actfun == "tansig") HTest = 2/(1 + exp(-2 * tmpHTest)) - 1 else { if (actfun == "tribas") HTest = tribas(tmpHTest) else { if (actfun == "poslin") HTest = poslin(tmpHTest) else { if (actfun == "purelin") HTest = tmpHTest else stop(paste("ERROR: ", actfun, " is not a valid activation function.", sep = "")) } } } } } } } } } ########4.进行预测的值计算,即Y(预测)=AX TY = t(t(HTest) %*% outweight) predictions <- t(TY) } predictions }

通过R讲述了极限学习机的内部构造,以下是R自带的示例:通过极限学习机预测

library(elmNN) set.seed(1234) Var1 <- runif(50, 0, 100) sqrt.data <- data.frame(Var1, Sqrt=sqrt(Var1)) model <- elmtrain.formula(Sqrt~Var1, data=sqrt.data, nhid=10, actfun="sig") new <- data.frame(Sqrt=0,Var1 = runif(50,0,100)) p <- predict(model,newdata=new) 转自:

转载于:https://www.cnblogs.com/payton/p/5743128.html

转载地址:https://blog.csdn.net/weixin_33720078/article/details/93727545 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:老手萌新学习composer的使用
下一篇:Weka算法介绍

发表评论

最新留言

关注你微信了!
[***.104.42.241]2023年03月16日 01时29分56秒

关于作者

    喝酒易醉,品茶养心,人生如梦,品茶悟道,何以解忧?唯有杜康!
-- 愿君每日到此一游!

最新文章

猛犸代码助手开通官网,最新版本实现程序自动更新升级 2019-11-29 14:27:53
PHP代码生成器,PHP三层模式项目演示源码 2019-11-29 14:27:53
发布Silverlight项目自动生成模板,自动生成Silverlight调用RIA Service实现数据增删查改 2019-11-29 14:27:53
发布新Java Andriod 项目模板组件,生成Java Andriod 项目源代码 2019-11-29 14:27:53
VC 数据类型 BYTE WORD DWORD 2019-11-29 14:27:53
不同层次的程序员对"C#判断奇偶数的函数"的不同写法 2019-11-29 14:27:53
C#代码片段 导入一个txt文本,快速过滤重复行 2019-11-29 14:27:51
在线增加/修改/删除Flash轮换图片,很实用哦 2019-11-29 14:27:51
C#代码片段 在工作线程中刷新主界面线程的进度条显示 2019-11-29 14:27:51
猛犸代码助手V3.0 最新版代码生成器 可以生成C#Winform \VC++MFC代码 2019-11-29 14:27:51
unzip 解压中文文件名乱码解决办法 2019-11-29 14:27:52
asp代码生成器,运用三层模式,分层情况为MODEL,BLL,DAL和Web 2019-11-29 14:27:52
SL项目 web.g.s 实体从 ComplexObject 继承改为从Entity 继承了 2019-11-29 14:27:52
CString/string 区别及其转化 2019-11-29 14:27:50
使用BackgroundWorker组件 2019-11-29 14:27:50
猛犸代码助手V3.6版发布 2019-11-29 14:27:50
猛犸Winform分页控件 2019-11-29 14:27:50
EF增删查改,获取翻页及一对多关系保存与读取的通用示例代码 2019-11-29 14:27:51
ASP调用存储过程,并获取异常信息 2019-11-29 14:27:51
LC.exe 已退出 错误解决方法 2019-11-29 14:27:51