news 2026/4/22 13:27:34

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 前馈神经网络(Feed-Forward Neural Network)详解以及算法实现

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 前馈神经网络(Feed-Forward Neural Network)详解以及算法实现

锋哥原创的Transformer 大语言模型(LLM)基石视频教程:

https://www.bilibili.com/video/BV1X92pBqEhV

课程介绍

本课程主要讲解Transformer简介,Transformer架构介绍,Transformer架构详解,包括输入层,位置编码,多头注意力机制,前馈神经网络,编码器层,解码器层,输出层,以及Transformer Pytorch2内置实现,Transformer基于PyTorch2手写实现等知识。

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 前馈神经网络(Feed-Forward Neural Network)详解以及算法实现

每个编码器层还包含一个前馈神经网络。这个网络通常由两个全连接层(线性变换)构成,中间有一个非线性激活函数(例如ReLU)。

  • 功能:进一步对每个位置的表示进行处理,以增强模型的表达能力,防止过拟合

  • 结构:首先是一个全连接层,然后是一个激活函数(如ReLU),最后是另一个全连接层。该操作是对每个位置独立进行的。

代码实现:

# 前馈神经网络 class FeedForward(nn.Module): def __init__(self, d_model, d_ff, dropout=0.1): # d_model输入维度 512 d_ff 输出维度 2048 super().__init__() self.linear1 = nn.Linear(d_model, d_ff) # 线性变换1 self.linear2 = nn.Linear(d_ff, d_model) # 线性变换2 self.dropout = nn.Dropout(dropout) # 创建dropout层 def forward(self, x): """ 前向传播 参数: x: 输入张量 [batch_size, seq_len, d_model] 返回: 前馈神经网络输出 """ x = self.dropout(F.relu(self.linear1(x))) x = self.linear2(x) return x

测试代码:

if __name__ == '__main__': vocab_size = 2000 # 词表大小 embedding_dim = 512 # 词嵌入维度大小 embeddings = Embeddings(vocab_size, embedding_dim) embed_result = embeddings(torch.tensor([[1999, 2, 99, 4, 5], [66, 2, 3, 22, 5], [66, 2, 3, 4, 5]])) print(embed_result.shape) print(embed_result) positional_encoding = PositionalEncoding(embedding_dim) result = positional_encoding(embed_result) print('result=', result) print('result.shape=', result.shape) # 测试自注意力机制层 # query = key = value = result # mask = create_sequence_mask(5) # dropout = nn.Dropout(0.1) # attention_output, attention_weights = self_attention(query, key, value, mask, dropout) # print("attention_output.shape:", attention_output.shape) # [3, 5, 512] # print("attention_weights.shape:", attention_weights.shape) # [3, 5, 5] mha = MultiHeadAttention(d_model=512, num_heads=8) mask = create_sequence_mask(5) result = mha(result, result, result, mask) print('result:', result.shape) # 测试前馈神经网络 ffn = FeedForward(d_model=512, d_ff=2048) ffn_result = ffn(result) print('ffn_result:', ffn_result.shape)

运行输出:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 20:20:34

C语言中static修斯局部变量,全局变量和函数时分别由什么特性

C语言中static关键字的详细解析一、static修饰局部变量特性:延长生命周期:从函数执行期间延长到整个程序运行期间保持值不变:函数调用结束后,变量的值不会被销毁作用域不变:仍然只在定义它的函数内部可见只初始化一次&…

作者头像 李华
网站建设 2026/4/20 6:35:14

react中useReducer的使用

// 导入React核心库及所需的类型和Hooks // FC: FunctionComponent 函数组件类型,用于约束组件类型 // useReducer: 用于复杂状态管理的Hook,替代useState处理多状态/复杂逻辑 // useState: 基础状态管理Hook(本示例未实际使用,保…

作者头像 李华
网站建设 2026/4/18 9:56:56

springboot基于vue的博物馆藏品管理系统 博物馆参观预约系统_w106j1mv

目录 已开发项目效果实现截图开发技术系统开发工具: 核心代码参考示例1.建立用户稀疏矩阵,用于用户相似度计算【相似度矩阵】2.计算目标用户与其他用户的相似度系统测试总结源码文档获取/同行可拿货,招校园代理 :文章底部获取博主联系方式&am…

作者头像 李华
网站建设 2026/4/19 4:43:11

springboot基于vue的商场百货零售业务系统 小程序_h5cz5i65

目录已开发项目效果实现截图开发技术系统开发工具:核心代码参考示例1.建立用户稀疏矩阵,用于用户相似度计算【相似度矩阵】2.计算目标用户与其他用户的相似度系统测试总结源码文档获取/同行可拿货,招校园代理 :文章底部获取博主联系方式&…

作者头像 李华
网站建设 2026/4/17 15:22:10

springboot基于vue的城市宠物医院管理系统的设计与实现_420759zx

目录已开发项目效果实现截图开发技术系统开发工具:核心代码参考示例1.建立用户稀疏矩阵,用于用户相似度计算【相似度矩阵】2.计算目标用户与其他用户的相似度系统测试总结源码文档获取/同行可拿货,招校园代理 :文章底部获取博主联系方式&…

作者头像 李华