深度学习——原理与进阶

三种常见的激活函数    网络拓扑结构    优化算法   

激活函数:将神经元的净输入信号转换为单一的输出信号activetion function
                1.sigmoid函数,s型曲线,值域为0~1,
                2.tanh函数(双切曲线),也是s曲线,值域是-1~1,
                
                前两种是比较多用的激活函数,tanh在RNN里边用的比较多
                3.relu函数,横线加4°斜线,分界点是0,
拓扑结构:topology,描述了模型中神经元的数量以及层数和他们的连接方式。
训练算法:指定如何设置权重

网络拓扑结构——单层网络

inputlayer(输入层)——outputlayer(输出层)
输入层没有什么运算,只是传入数据
有线性回归网络
逻辑回归做多分类使用的思想是OVR,神经网络可以把独立的二分类模型组合在一起

神经网络中,多个二分类的调参是独立的,互不影响

用神经网络理解Softmax回归

softmax回归做多分类,会有一个约束
数学假设,多项式分布(本质就是属于k个类别里边的某一个,加起来概率为1)
softmax做多分类的时候

网络拓扑层——多层结构

输入层——隐藏层——输出层
隐藏层是为了进一步推理演绎提取更高的特征,隐藏层可能会有很多,多大几百层
隐藏层多了,效率会降低,但是越准确。隐藏层过多可能就过拟合了 
隐藏层里边的节点,多和少取决于做什么,无关多少
浅层模型:输入层——输出层
多层网络:输入层——隐藏层——输出层

PCA降维,是找到一个新的维度,进行降维,不会保留原来的维度!

多节点网络输出

TensorFlow概要

由Google开源,设计初衷加速机器学习,现在用来深度学习,当然也可以很好的实现机器学习
API就是接口,就是通道,负责一个程序和其他软件的沟通,本质是预先定义的函数。

















































全部评论

相关推荐

点赞 收藏 评论
分享
牛客网
牛客企业服务