全连接层:最基础的神经网络层,每个节点接收上一层的全部节点作为输入,计算代价较大。
卷积层:由多个卷积核生成而来,采用了局部视野、权值共享的思想。
池化层:缩减输入数据规模,增强鲁棒性
激活层:传统是softmax,带来梯度消失于梯度爆炸问题,增加ReLU激活函数后,更多层次的深度学习才可进行。
RNN层:考虑时间、顺序特征,每个神经元的当前状态也被其上一个时间的状态所影响。
LSTM层:在RNN的基础上增加输入门、遗忘门、输出门的概念、可以支持更远距离的信息保留。
GRU层:在LSTM层上作了约束,只有更新门与重置门,也因为参数更少因此更容易收敛,但是数据集很大的情况下,LSTM表达性能更好
Dropout层:是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃
Batch Normalization层:批规范化,在每次SGD时,通过mini-batch来对相应的activation做规范化操作,使得结果(输出信号各个维度)的均值为0,方差为1. 而最后的“scale and shift”操作则是为了让因训练所需而“刻意”加入的BN能够有可能还原最初的输入解决了反向传播过程中的梯度问题(梯度消失和爆炸),同时使得不同scale的 整体更新步调更一致。