batch_size、batch_len问题整理

来源:4-26 动手实现RNN-LSTM循环神经网络(三):编写实用方法(中)

慕沐5575308

2020-02-18

在LSTM章节中,始终有两个问题想不明白?
1、batch_len是代表总批次的长度吗?(batch_size代表一个批次的样本数)另外算出batch_len=data_len//batch_size后,tf.reshap(raw_data[0:batch_size * batch_len], [batch_size, batch_len]),为什么是batch_sizebatch_len而不是batch_lenbatch_size呀。

2、另外batch_len = data_len // batch_size
而epoch_size = (batch_len - 1) // num_steps
epoch_size不是便利全部样本数据吗,难道一个批次的数据长度就是全部样本数据了吗?

3、我看您对别人的回答有说,batch_size是20 num_steps是35,代表一个批次有20组35个输入的数据,那epoch_size =((len(data) // batch_size) - 1) // num_steps怎么解释呢,不知道是哪理解错了,感觉越想越懵

写回答

1回答

Oscar

2020-02-20

我认为代码中的注释已经把这块讲过了呀。

你应该结合幻灯片中的原理图再理解一下。

1
2
慕沐5575308
我知道我的误区是哪了,不好意思
2020-02-20
共2条回复

基于Python玩转人工智能最火框架 TensorFlow应用实践

机器学习入门,打牢TensorFlow框架应用是关键!

2214 学习 · 688 问题

查看课程