- 积分
- 3638
- 贡献
-
- 精华
- 在线时间
- 小时
- 注册时间
- 2014-10-21
- 最后登录
- 1970-1-1
|
楼主 |
发表于 2019-7-2 23:41:37
|
显示全部楼层
术语集(上)
------------------------------------
“人工神经元”
NN中执行接收、处理、输出的基本单元。
------------------------------------
“权重”
如果一个神经元有3个“输入”:a,b,c,
它们进入神经元时会被分别乘以"关联权重":x,y,z
通过节点后输出就是a*x,b*y,c*z
权重的初始化是随机的,在训练过程中,权重会更新。
------------------------------------
“偏置”
用于改变[输入]*[权重]的值范围,使用方法是相加:
[输出]=[输入]*[权重]+[偏置]
------------------------------------
“激活函数”
作用是加入非线性因素,弥补线性模型之不足。
NN要求在数学上处处可微,所以激活函数的输入输出也必须可微。
常用激活函数有4个:sigmoid,tanh,ReLU,softmax
激活函数将非线性变换置于线性组合,该线性组合会生成输出,激活的神经元的组合会给出输出值。
------------------------------------
“输入层”“输出层”“隐藏层”
“输入层”=网络的第一层,可见;
“输出层”=网络的最终层,可见;
剩下的二者之间的就是“隐藏层”了,是网络中的“处理层”,不可见。
(这么说,NN是逐层处理的?)
|
|