神经网络知识点总结

神经网络知识点总结

绪论

  1. 神经网络,深度学习和人工智能的关系:

    神经网络和深度学习是人工智能的一个子领域,神经网络是一种以神经元为基本单位的模型,深度学习是一类机器学习问题,主要解决贡献度分配问题。

  2. 人工智能发展的三个阶段:

    符号主义(规则驱动)——>联结主义(数据驱动)——>行为主义(交互驱动)

  3. 机器学习和深度学习步骤的区别:

    输入——>特征工程——>分类——>输出

    输入——>特征工程+分类——>输出

  4. 什么是表示学习:通过深度模型学习特征(底层特征——>中层特征——>高层特征)

  5. 什么是深度学习:构建具有一定深度的模型,可以让模型来自动学习好的特征表示,最终提升预测或识别的准确性。

  6. 人工神经网络三部分:

    神经元激活规则、网络拓扑结构、学习算法

机器学习概述

  1. 什么是机器学习:

    通过算法使得机器能从大量数据中学习规律从而对新样本做决策

  2. 机器学习的分类:

    有监督学习、无监督学习、(半监督学习)、强化学习

  3. 机器学习四要素:

    数据、模型、学习准则、优化方法

  4. 风险函数:

    经验风险:只考虑了损失

    结构风险:损失+惩罚项

线性模型

  1. 交叉熵损失

    二分类:$-\frac{1}{N}\sum_{i=1}^{N}(y^ilog(\hat{y}^i) + (1-y^i)log(1-\hat{y}^i ))$

  2. 均方误差:

    二分类:$-\frac{1}{N}\sum_{i=1}^N (y^i - \hat{y}^i)^2$

前馈神经网络

  1. 感知机模型的功能:

    单计算节点感知机能实现逻辑运算“与”,“或“问题,却无法解决线性不可分问题

    两计算层感知机能解决线性不可分问题,实现逻辑运算”异或“

    双隐层感知器足以解决任何复杂分类问题

  2. 激活函数的性质:

    (1)连续可导的非线性函数

    (2)单增

    (3)函数值和其导数值在一个合适范围内

  3. 常见的激活函数:

    (1)S型:$\sigma(x)$, $tanh(x)$ 都是饱和函数,会出现梯度消失现象

    (2)斜坡函数:ReLU (在一定程度上缓解梯度消失), LeakyReLU, PReLU, ELU, softplus(x)

    (3)符合函数:$swish(x) = x \sigma(\beta x) $, $GELU (x )= xP(X \leq x)$

  4. 前馈神经网络的结构:

    (1)层内无连接

    (2)两层之间两两神经元相连

    (3)网络无反馈,信号从输入向输出单向传播,无反馈

  5. 前馈计算:

  6. 万能逼近定理:对任意一个函数,可以使用两层网络来近似实现。

  7. 反向传播计算:

    step1: 正向传播,计算每一层的净输入和激活后的值

    step2:反向传播,计算每一层的误差

    step3:计算参数的导数,更新每一层的参数

卷积神经网络

  1. 卷积类型:

    窄卷积:步长为1,无填充,输出:

    宽卷积:步长为1,两侧填充,输出:

    等宽卷积:步长为1,两端填充,输出:

  2. 二维卷积的定义

  3. 卷积神经网络的结构

    卷积:局部特征提取,参数学习,每个卷积核提取特定模式的特征

    池化:降维,增强感受野,提高平移不变性

    全连接:特征提取到分类的桥梁

  4. 卷积神经网络的结构特性:

    局部连接、权重共享、空间或时间上的次采样

  5. 多个卷积核的卷积结构的计算

  6. 整个卷积网络的结构组织方式

  7. resnet结构

循环神经网络

  1. 递归神经网络的结构
  2. 递归神经网络正向传播
  3. RNN梯度消失和梯度爆炸的原因
  4. LSTM结构
  5. LSTM能解决梯度消失和梯度爆炸的原因

网络优化

  1. BGD
  2. SGD
  3. mini-batch GD

深度生成模型

  1. 生成模型定义
  2. 生成模型和判别模型的区别
  3. GAN结构(生成器和判别器)

神经网络知识点总结
https://wendyflv.github.io/2024/06/11/神经网络知识点总结/
作者
Wendyflv
发布于
2024年6月11日
许可协议