softmax:对输入数据的最后一维进行softmax,输入数据应形如
(nb_samples, nb_timesteps, nb_dims)
或(nb_samples,nb_dims)
elu
selu: 可伸缩的指数线性单元(Scaled Exponential Linear Unit),参考Self-Normalizing Neural Networks
softplus
softsign
relu
tanh
sigmoid
Sigmoid函数由下列公式定义hard_sigmoid
linear
Keras 激活函数 Activation
最新推荐文章于 2024-02-18 20:24:46 发布