token,Batch,Patch解释

参考文献:https://blog.csdn.net/wills798/article/details/97974617

token是指文本中的一个最小单位。通常,一个token可以是一个单词、一个标点符号、一个数字、一个符号等。
Batch是批量的大小,就是你训练的时候每次输入多少张图片。
Patch是图像块的大小,比如说原图1024x1024,随机从图中裁剪出256x256大小的块,就是patch。更准确来说:“patch”, 指一个二维图片中的其中一个小块, 即一张二维图像中有很多个patch. 正如在神经网络的卷积计算中, 图像并不是一整块图像直接同卷积核进行运算, 而是被分成了很多很多个patch分别同卷积核进行卷积运算, 这些patch的大小取决于卷积核的size. 卷积核每次只查看一个patch, 然后移动到另一个patch, 直到图像分成的所有patch都参与完运算。文章来源地址https://uudwc.com/A/Mx335

原文地址:https://blog.csdn.net/qq_46527915/article/details/133219238

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请联系站长进行投诉反馈,一经查实,立即删除!

h
上一篇 2023年09月23日 23:13
Texlive2020 for win10 宏包更新
下一篇 2023年09月23日 23:13