文章目录
- 前言
- 1.深度学习概论
- 2.神经网络
- 1.基础原理
- 2.损失函数
- 3.SoftMax
- 4.前向传播
- 5.反向传播
- 1.反向传播介绍
- 6 卷积神经网络应用
- 1.检测任务
- 2.超分辨率重构
- 3.医学检测
- 4.无人驾驶
- 5. 人脸识别
- 6.卷积网络和传统区别
- 7.卷积神经网络
- 1.卷积做了什么?
- 2.节点网络
- 1.Alexnet
- 2.Vgg
- 2.卷积网络反向传播详细介绍
前言
本章主要介绍深度学习基础
AI深度学习-卷积神经网络000
1.深度学习概论
深度学习是真正能学习什么样的特征是最重要的,它解决了怎么样提取特征。
特征是非常重要的,特征的数量级决定了结果。
换脸对于神经网络很简单
识别绿色圆圈属于什么类别。
它周围什么多,就属于什么。
CIFAR-10数据集
2.神经网络
1.基础原理
f(x,W),其中x是像素点
<img src="https://img-blog.csdnimg.cn/f8f92629c526460c8fc40c3f0588822e.png width=700>
W是权重,X是像素,每个像素有一个权重,因为不同像素对结果影响不一样,一个类别一类权重。
还要加上一个偏置,每个类别
下图是三个类别,四个像素点,w正值代表促进,负值代表抑制作用。
W矩阵最开始是随机值,迭代过程中不断改进这些参数,最后
2.损失函数
损失函数用来衡量当前你的权重矩阵的好坏,如果损失函数值越大,代表权重矩阵不好,越小,代表好。
图片下面的数字是得分。
Sj-Sy=其它类别减去正确类别,+1 代表加了一个偏置,正确类别至少比错误类别高1以上,才是没有损失的。
损失函数为0的时候,代表没有损失。
权重参数会不会产生过拟合。
3.SoftMax
把得分转换成一个概率值,把所有值都压缩到0-1
如何理解这个公式?
为什么要使用log,数字越接近1,损失越小,其余越来越大
4.前向传播
回归任务(预测一个得分,计算损失)
多次变换,增加了多层,每一层关注不同的点
5.反向传播
加入,结果变小,改那个之最好?
w让损失函数变换最快。
求偏导数,发现z的变换能让整个函数变换最大
实际神经网络中,从后往前传播
逐层,从后往前传播
下图中x就是我们的像素点,绿色的是我们的输入值,红色的是梯度值
门单元介绍
训练的过程就是求权重
解决过拟合是随机的杀死一些神经元
深度学习-偏导数复习
1.反向传播介绍
下面是激活函数
继续求输出层
继续求输出层
反向求导
求导后结果
换算后
最后求出新的权重,下面参数是学习率也就是步长
6 卷积神经网络应用
Y轴是错误率
1.检测任务
分类与检索,淘宝图片同类查找
2.超分辨率重构
3.医学检测
4.无人驾驶
5. 人脸识别
6.卷积网络和传统区别
左边传统网络,右边卷积网络
7.卷积神经网络
下面注意全连接层,全连接就是全部链接的层
1.卷积做了什么?
卷积做特征提取
不要忘了偏置项1
需要做多次卷积
堆叠的卷积
常规卷积网络
卷积计算结果
计算案例
卷积参数共享
池化层,下采样
最大池化
有多少层,7层。
想要得到结果,还是要全连接层,
需要把323210拉成一维向量,110240,拉长操作其实还是卷积,比如323210拉长,那么就需要32321010240个权重
特征图变换
2.节点网络
1.Alexnet
2.Vgg
![在这里插入图片描述](https://img-blog.csdnimg.cn/b4a260768ffa459fa449936a6c45347d.png)文章来源:https://uudwc.com/A/BvaXd
2.卷积网络反向传播详细介绍
相比传统神经网络,卷积神经网络,特征图就是卷积核了文章来源地址https://uudwc.com/A/BvaXd