batch_size、batch_len问题整理
来源:4-26 动手实现RNN-LSTM循环神经网络(三):编写实用方法(中)
慕沐5575308
2020-02-18
在LSTM章节中,始终有两个问题想不明白?
1、batch_len是代表总批次的长度吗?(batch_size代表一个批次的样本数)另外算出batch_len=data_len//batch_size后,tf.reshap(raw_data[0:batch_size * batch_len], [batch_size, batch_len]),为什么是batch_sizebatch_len而不是batch_lenbatch_size呀。
2、另外batch_len = data_len // batch_size
而epoch_size = (batch_len - 1) // num_steps
epoch_size不是便利全部样本数据吗,难道一个批次的数据长度就是全部样本数据了吗?
3、我看您对别人的回答有说,batch_size是20 num_steps是35,代表一个批次有20组35个输入的数据,那epoch_size =((len(data) // batch_size) - 1) // num_steps怎么解释呢,不知道是哪理解错了,感觉越想越懵
写回答
1回答
-
Oscar
2020-02-20
我认为代码中的注释已经把这块讲过了呀。
你应该结合幻灯片中的原理图再理解一下。
122020-02-20
相似问题