全连接层的input_shape问题

来源:2-7 实战回归模型

遇到算法就懵逼

2019-05-30

老师,为什么第一个Dense Layer的input_shape是(8,)?
官网里这样描述

Input shape:
N-D tensor with shape: (batch_size, …, input_dim). The most common situation would be a 2D input with shape (batch_size, input_dim).

我理解这里的input_dim就是这个8个维度,但为什么在代码里需要把它放在tuple的第二个位置?
我们这里没有设置batch size,如果要设置batch size=100,这个input_shape要写成(8,100)吗?
还是我理解的(8,)有误?
不懂,烦请老师仔细讲一下,谢谢!

写回答

1回答

正十七

2019-05-30

在keras的layers里面,是要把batch_size给省掉的,所以只有8。 具体文档https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/layers/InputLayer

input_shape: Shape tuple (not including the batch axis), or TensorShape instance (not including the batch axis).


0
0

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程