深度学习——图像识别原理
三种常用的激活函数:relu、relu优于sigmoid和tanh
隐含层的函数肯定是非线性的函数,
多个隐藏层会好在哪里?
参数多,
多一次非线性变换
卷积神经网络
CNN:卷积神经网络
感受野
卷积层好处(局部连接的好处):参数少、泛化能力强、准确率高
局部连接的好处:更好地提取有效特征
卷积核
一个卷积核对应一个截距项
一个卷积核得到一个feature map
三种常用的激活函数:relu、relu优于sigmoid和tanh
隐含层的函数肯定是非线性的函数,
多个隐藏层会好在哪里?
参数多,
相关推荐