学习pytorch12 神经网络-线性层

神经网络-线性层

  • 官方文档
    • 自行了解的网络层
      • 归一化层 Normalization
      • 循环层 Recurrent
      • Transformer
      • Alphafold
      • Dropout
      • Sparse 稀疏层
      • Distence 距离函数
      • Loss 损失函数
    • 线性层

官方文档

https://pytorch.org/docs/stable/nn.html#normalization-layers

自行了解的网络层

归一化层 Normalization

百度 弹幕 都说Normalization是归一化层【标准化层】,regulation才是正则化层

https://blog.csdn.net/weixin_40895135/article/details/130651226

在这里插入图片描述

循环层 Recurrent

多用于文字识别
在这里插入图片描述

Transformer

在这里插入图片描述

Alphafold

https://zhuanlan.zhihu.com/p/393699764?utm_medium=social&utm_oi=1144761973647597568

Dropout

目的: 防止过拟合
在这里插入图片描述
在这里插入图片描述

Sparse 稀疏层

https://blog.csdn.net/qq_51870267/article/details/126413057

只计算非零特征,对输入图像降维
在这里插入图片描述

Distence 距离函数

计算两个值的距离 衡量两个值之间的误差
在这里插入图片描述

Loss 损失函数

根据损失函数 可以判断模型的好坏,也可以以此去调整模型
损失函数越小,模型越好 L(f(x), Y)
在这里插入图片描述

线性层

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述文章来源地址https://uudwc.com/A/zkrvO

原文地址:https://blog.csdn.net/weixin_42831564/article/details/133087761

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请联系站长进行投诉反馈,一经查实,立即删除!

上一篇 2023年09月24日 00:12
jsp+ssm计算机毕业设计个人信息管理系统【附源码】
下一篇 2023年09月24日 00:12