李宏毅深度学习-卷积神经网络CNN
本文记录的是台湾大学李宏毅老师对CNN卷积神经网络的讲解,图解非常易懂。涉及到的知识点:
- 卷积神经网络如何运用到图片分类问题
- 感受野 Receptive Field
- 步长Stride
- 填充Padding
- 参数共享share parameter
- (最大)池化MaxPooling
- CNN全过程
Stay Foolish Stay Hungry
本文记录的是台湾大学李宏毅老师对CNN卷积神经网络的讲解,图解非常易懂。涉及到的知识点:
如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出实际上都是上层输入的线性函数。
这样就使得无论神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,模型的表达力仍然不够。
我们决定引入非线性函数作为激励函数,这样深层神经网络才有意义(不再是输入的线性组合)。
本文是针对kaggle上面一份肾脏疾病数据的建模,包含: