ChatGLM Pytorch从0编写Transformer算法

预备工作

th76iX文章来源地址https://uudwc.com/A/gVy4w

# !pip install http://download.pytorch.org/whl/cu80/torch-0.3.0.post4-cp36-cp36m-linux_x86_64.whl numpy matplotlib spacy torchtext seaborn 
import numpy as np
import torch
import torch.nn as nn
import torch.nn.functional as F
import math, copy, time
from torch.autograd import Variable
import matplotlib.pyplot as plt
import seaborn
seaborn.set_context(context="talk")
%matplotlib inline

背景

大部分序列到序列(seq2seq)模型都使用编码器-解码器结构 (引用)。编码器把一个输入序列( x 1 , . . . x n ) (x_{1},...x_{n})(x 
1
​
 ,...x 
n
​
 )映射到一个连续的表示z = ( z 1 , . . . z n ) z=(z_{1},...z_{n})z=(z 
1
​
 ,...z 
n
​
 )中。解码器对z中的每个元素,生成输出序列( y 1 , . . . y m ) (y_{1},...y_{m})(y 
1
​
 ,...y 
m
​
 )。解码器一个时间步生成一个输出。在每一步中,模型都是自回归的(引用),在生成下一个结果时,会将先前生成的结果加入输入序列来一起预测。现在我们先构建一个EncoderD

原文地址:https://blog.csdn.net/qq_19734597/article/details/132988355

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请联系站长进行投诉反馈,一经查实,立即删除!

h
上一篇 2023年09月25日 13:54
机器学习(18)---朴素贝叶斯
下一篇 2023年09月25日 13:55