机器学习面试(二)
发布日期:2021-05-06 11:07:48 浏览次数:28 分类:精选文章

本文共 504 字,大约阅读时间需要 1 分钟。

  1. Batch Normalization
    使用顺序
    在这里插入图片描述
    训练
    把数据分为若干组,按组来更新参数,一组中的数据共同决定了本次梯度的方向,下降时候减少了随机性。假设神经网络某层一个batch的输入为X=[x1,x2,…xn],其中xi代表一个样本,n为batch_size。
    首先需要求得mini-batch里面的元素的均值:
    在这里插入图片描述
    接下来,求取mini-batch的方差:
    在这里插入图片描述
    这样就可以对每个元素进行归一化。
    在这里插入图片描述
    最后进行尺度缩放和偏移操作,这样可以变换回原始的分布,实现恒等变换,这样的目的是为了补偿网络的非线性表达能力,因为经过标准化之后,偏移量丢失。
    在这里插入图片描述
    BN的好处
    在这里插入图片描述
  2. 孤立森林

异常检测算法,又称为“离群点检测”,一般异常数据有两个特点:

1.异常数据跟样本中大多数据不太一样
2.异常数据在整体数据样本中占比比较小

这些特性使得SVM,逻辑回归等分算法在此背景下不是用。

孤立森林:假设我们用随机一个超平面来切割数据空间,切一次可分为两个子空间。之后我们再继续用一个随机超平面来切割每个子空间,循环下去,直到每个子空间只有一个数据点为止。
直观上看密度很低的点很容易很早的就停止到一个子空间中了,密度很高的簇可以被分割多次。

在这里插入图片描述

在这里插入图片描述

上一篇:机器学习面试(三)
下一篇:45. 跳跃游戏 II

发表评论

最新留言

路过按个爪印,很不错,赞一个!
[***.219.124.196]2025年04月13日 16时48分42秒