news 2026/4/23 16:13:56

C++:多层神经网络(附带源码)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
C++:多层神经网络(附带源码)

项目背景详细介绍

随着人工智能与机器学习的快速发展,神经网络(Neural Network)已经成为现代计算机科学中不可或缺的核心技术之一。

在工业级项目中,人们往往直接使用:

  • TensorFlow

  • PyTorch

  • ONNX Runtime

  • 各类推理框架

但对于C++ 学习者和算法初学者来说,如果一开始就依赖这些“黑盒框架”,往往会产生几个严重问题:

  • 不清楚神经网络内部到底做了什么

  • 不了解前向传播与反向传播的本质

  • 无法将数学公式与代码建立对应关系

  • 难以在底层系统、嵌入式、游戏引擎中灵活应用

而在很多真实工程场景中,例如:

  • 游戏 AI

  • 智能决策系统

  • 嵌入式设备推理

  • 算法教学与科研验证

  • 面试与基础能力考察

从零手写一个多层神经网络,反而是一项极具价值的能力。

因此,本项目将以教学与理解为第一目标,在不使用任何第三方机器学习库的前提下,完整实现一个:

支持多层结构、前向传播、反向传播、梯度下降训练的 C++ 神经网络

该项目非常适合作为博客长文、人工智能课程、算法与 C++ 综合训练项目


项目需求详细介绍

本项目的目标需求如下:

1. 功能需求

  1. 使用 C++ 实现多层前馈神经网络

  2. 支持输入层、隐藏层、输出层

  3. 支持 Sigmoid 激活函数

  4. 支持前向传播(Forward Propagation)

  5. 支持反向传播(Backpropagation)

  6. 支持基于梯度下降的权重更新

  7. 能够完成简单监督学习任务

2. 网络结构要求

  • 全连接网络(Fully Connected)

  • 任意层数(示例使用 1 个隐藏层)

  • 使用矩阵 / 向量计算(手动实现)

3. 教学与工程要求

  1. 数学概念与代码一一对应

  2. 代码结构清晰,便于逐层理解

  3. 不追求极致性能,追求可读性

  4. 可扩展为更复杂网络结构


相关技术详细介绍

1. 神经网络基本组成

一个典型的前馈神经网络由以下部分组成:

  1. 神经元(Neuron)

  2. 权重(Weight)

  3. 偏置(Bias)

  4. 激活函数(Activation Function)

数学表达式为:

y = f( Σ(wi * xi) + b )


2. 前向传播(Forward Propagation)

前向传播是指:

从输入层开始,逐层计算,直到输出层得到预测结果

这是**推理(Inference)**的核心过程。


3. 反向传播(Backpropagation)

反向传播是神经网络学习的核心算法,其本质是:

  • 利用链式法则

  • 从输出层向前逐层计算误差

  • 更新权重和偏置


4. 梯度下降(Gradient Descent)

权重更新公式为:

weight = weight - learning_rate * gradient

这是神经网络“学习”的本质。


实现思路详细介绍

整体实现思路如下:

  1. 封装神经网络类

    • 保存权重矩阵与偏置

    • 管理网络层结构

  2. 实现前向传播

    • 输入 → 隐藏层 → 输出层

  3. 实现反向传播

    • 输出层误差

    • 隐藏层误差

    • 权重与偏置更新

  4. 训练循环

    • 输入样本

    • 前向计算

    • 反向更新

    • 多轮迭代收敛

该结构与所有深度学习框架的底层原理完全一致


完整实现代码

/**************************************************** * File: NeuralNetwork.h ****************************************************/ #pragma once #include <vector> class NeuralNetwork { public: NeuralNetwork(int input, int hidden, int output, double lr); std::vector<double> predict(const std::vector<double>& input); void train(const std::vector<double>& input, const std::vector<double>& target); private: double learningRate; std::vector<std::vector<double>> weightsIH; std::vector<std::vector<double>> weightsHO; std::vector<double> biasH; std::vector<double> biasO; static double sigmoid(double x); static double dsigmoid(double y); }; /**************************************************** * File: NeuralNetwork.cpp ****************************************************/ #include "NeuralNetwork.h" #include <cmath> #include <cstdlib> static double randomWeight() { return ((double)rand() / RAND_MAX) * 2.0 - 1.0; } NeuralNetwork::NeuralNetwork(int input, int hidden, int output, double lr) : learningRate(lr) { weightsIH.resize(hidden, std::vector<double>(input)); weightsHO.resize(output, std::vector<double>(hidden)); biasH.resize(hidden); biasO.resize(output); for (auto& row : weightsIH) for (auto& w : row) w = randomWeight(); for (auto& row : weightsHO) for (auto& w : row) w = randomWeight(); for (auto& b : biasH) b = randomWeight(); for (auto& b : biasO) b = randomWeight(); } double NeuralNetwork::sigmoid(double x) { return 1.0 / (1.0 + exp(-x)); } double NeuralNetwork::dsigmoid(double y) { return y * (1.0 - y); } std::vector<double> NeuralNetwork::predict(const std::vector<double>& input) { std::vector<double> hidden(biasH); for (size_t i = 0; i < hidden.size(); i++) for (size_t j = 0; j < input.size(); j++) hidden[i] += weightsIH[i][j] * input[j]; for (auto& h : hidden) h = sigmoid(h); std::vector<double> output(biasO); for (size_t i = 0; i < output.size(); i++) for (size_t j = 0; j < hidden.size(); j++) output[i] += weightsHO[i][j] * hidden[j]; for (auto& o : output) o = sigmoid(o); return output; } void NeuralNetwork::train(const std::vector<double>& input, const std::vector<double>& target) { // 前向传播 std::vector<double> hidden(biasH); for (size_t i = 0; i < hidden.size(); i++) for (size_t j = 0; j < input.size(); j++) hidden[i] += weightsIH[i][j] * input[j]; for (auto& h : hidden) h = sigmoid(h); std::vector<double> output(biasO); for (size_t i = 0; i < output.size(); i++) for (size_t j = 0; j < hidden.size(); j++) output[i] += weightsHO[i][j] * hidden[j]; for (auto& o : output) o = sigmoid(o); // 输出层误差 std::vector<double> outputErrors(output.size()); for (size_t i = 0; i < output.size(); i++) outputErrors[i] = target[i] - output[i]; // 隐藏层误差 std::vector<double> hiddenErrors(hidden.size(), 0.0); for (size_t i = 0; i < hidden.size(); i++) for (size_t j = 0; j < output.size(); j++) hiddenErrors[i] += weightsHO[j][i] * outputErrors[j]; // 更新权重 HO for (size_t i = 0; i < weightsHO.size(); i++) for (size_t j = 0; j < weightsHO[i].size(); j++) weightsHO[i][j] += learningRate * outputErrors[i] * dsigmoid(output[i]) * hidden[j]; // 更新偏置 O for (size_t i = 0; i < biasO.size(); i++) biasO[i] += learningRate * outputErrors[i] * dsigmoid(output[i]); // 更新权重 IH for (size_t i = 0; i < weightsIH.size(); i++) for (size_t j = 0; j < weightsIH[i].size(); j++) weightsIH[i][j] += learningRate * hiddenErrors[i] * dsigmoid(hidden[i]) * input[j]; // 更新偏置 H for (size_t i = 0; i < biasH.size(); i++) biasH[i] += learningRate * hiddenErrors[i] * dsigmoid(hidden[i]); } /**************************************************** * File: main.cpp ****************************************************/ #include "NeuralNetwork.h" #include <iostream> int main() { NeuralNetwork nn(2, 4, 1, 0.1); // 训练 XOR for (int i = 0; i < 5000; i++) { nn.train({0, 0}, {0}); nn.train({0, 1}, {1}); nn.train({1, 0}, {1}); nn.train({1, 1}, {0}); } std::cout << "0 XOR 0 = " << nn.predict({0, 0})[0] << std::endl; std::cout << "0 XOR 1 = " << nn.predict({0, 1})[0] << std::endl; std::cout << "1 XOR 0 = " << nn.predict({1, 0})[0] << std::endl; std::cout << "1 XOR 1 = " << nn.predict({1, 1})[0] << std::endl; return 0; }
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 12:03:07

C++:FTP文件上传下载(附带源码)

项目背景详细介绍在传统企业系统、工业控制、内网工具以及大量遗留系统中&#xff0c;FTP&#xff08;File Transfer Protocol&#xff09; 依然被广泛用于文件传输任务&#xff0c;例如&#xff1a;自动化日志上传程序更新文件分发服务器配置同步内网设备文件交换嵌入式系统文…

作者头像 李华
网站建设 2026/3/30 19:26:26

Windows远程桌面多用户破解:RDP Wrapper Library实战手册

Windows远程桌面多用户破解&#xff1a;RDP Wrapper Library实战手册 【免费下载链接】rdpwrap RDP Wrapper Library 项目地址: https://gitcode.com/gh_mirrors/rd/rdpwrap 你是否遇到过这样的困境&#xff1a;家人需要同时远程访问家庭电脑&#xff0c;或者团队成员需…

作者头像 李华
网站建设 2026/4/17 23:56:04

C++:DLL注入(附带源码)

项目背景详细介绍在 Windows 平台的系统级开发、安全研究、调试工具、游戏引擎以及反作弊/反外挂领域中&#xff0c;DLL 注入&#xff08;DLL Injection&#xff09; 是一个极其重要、同时也非常经典的技术。所谓 DLL 注入&#xff0c;本质上是&#xff1a;让目标进程在其自身地…

作者头像 李华
网站建设 2026/4/23 14:43:53

C++:无锁链表(附带源码)

项目背景详细介绍在现代高并发系统中&#xff0c;锁&#xff08;mutex / spinlock&#xff09;并不是免费的。随着 CPU 核心数不断增加&#xff0c;传统“加锁保护共享数据”的方式&#xff0c;会逐渐暴露出一系列问题&#xff1a;线程频繁阻塞、唤醒&#xff0c;系统调用开销巨…

作者头像 李华
网站建设 2026/4/23 14:41:46

BooruDatasetTagManager:从图片标注小白到高手的进阶指南

BooruDatasetTagManager&#xff1a;从图片标注小白到高手的进阶指南 【免费下载链接】BooruDatasetTagManager 项目地址: https://gitcode.com/gh_mirrors/bo/BooruDatasetTagManager 还在为海量图片标注而头疼吗&#xff1f;传统手工标注不仅效率低下&#xff0c;还容…

作者头像 李华
网站建设 2026/4/23 15:54:18

2025零基础实战:三步搞定视频字幕智能提取

2025零基础实战&#xff1a;三步搞定视频字幕智能提取 【免费下载链接】video-subtitle-extractor 视频硬字幕提取&#xff0c;生成srt文件。无需申请第三方API&#xff0c;本地实现文本识别。基于深度学习的视频字幕提取框架&#xff0c;包含字幕区域检测、字幕内容提取。A GU…

作者头像 李华