batch_size和batch_len

来源:4-26 动手实现RNN-LSTM循环神经网络(三):编写实用方法(中)

慕沐5575308

2020-02-18

在LSTM章节中,始终有两个问题想不明白?
1、batch_len是代表总批次的长度吗?(batch_size代表一个批次的样本数)
2、另外算出batch_len=data_len//batch_size后,tf.reshap(raw_data[0:batch_size * batch_len], [batch_size, batch_len]),为什么是batch_sizebatch_len而不是batch_lenbatch_size呀

写回答

1回答

慕沐5575308

提问者

2020-02-18

另外batch_len = data_len // batch_size

而epoch_size = (batch_len - 1) // num_steps
epoch_size不是便利全部样本数据吗,难道一个批次的数据长度就是全部样本数据了吗

0
1
慕沐5575308
我看您对别人的回答有说,batch_size是20 num_steps是35,代表一个批次有20组35个输入的数据,那epoch_size =((len(data) // batch_size) - 1) // num_steps怎么解释呢,不知道是哪理解错了,感觉越想越懵
2020-02-18
共1条回复

基于Python玩转人工智能最火框架 TensorFlow应用实践

机器学习入门,打牢TensorFlow框架应用是关键!

2214 学习 · 688 问题

查看课程