在xor这章中,这里为什么第一层激活函数用的relu
来源:7-3 定义模型结构:多层神经网络

西北莫
2021-12-26
model.add(tf.layers.dense({
units: 4,
inputShape: [2],
activation: ‘relu’
}));
model.add(tf.layers.dense({
units: 1,
activation: ‘sigmoid’
}));
写回答
1回答
-
lewis
2021-12-27
也可以用sigmoid,只是为了把线性变成非线性
042022-05-04
相似问题