在xor这章中,这里为什么第一层激活函数用的relu

来源:7-3 定义模型结构:多层神经网络

西北莫

2021-12-26

model.add(tf.layers.dense({
units: 4,
inputShape: [2],
activation: ‘relu’
}));
model.add(tf.layers.dense({
units: 1,
activation: ‘sigmoid’
}));

写回答

1回答

lewis

2021-12-27

也可以用sigmoid,只是为了把线性变成非线性

0
4
lewis
机器学习就跟做菜是一样的,放酱油和盐都可以得到咸味,所以大家也戏称“调参侠”,不过学术界一直也在研究深度学习的可解释性
2022-05-04
共4条回复

JavaScript玩转机器学习-Tensorflow.js项目实战

机器学习理论知识+Tensorflow.js实战开发

644 学习 · 189 问题

查看课程