老师,batch_size的大小是输入层的个数吗?
来源:7-10 超参数定义
Shuren_Yu
2021-01-28
然后隐含层按照老师的代码是2层,每层32个神经元,接下来经过32个神经元的全连接层,最后的输出问文本的分类?是这样理解吗?
写回答
1回答
-
正十七
2021-02-10
batch_size的大小是数据上样本的个数,跟模型无关。
输入层的个数是每个样本的维度,跟batch_size的大小没有关系。
隐含层的理解没有问题。
00
相似问题
老师,为什么输入输出是一样的大小
回答 1
批归一化的参数量
回答 1