dataset的repeat

来源:7-6 文本生成之数据处理

wxz123

2019-12-21

老师这节课的dataset不用做repeat()的处理吗,还是有什么机制能保证数据肯定够用呢?

写回答

1回答

正十七

2019-12-22

同学你好,很高兴你发现了这个问题,我测试了一下,发现seq_dataset大概一次遍历包含了170个batch。所以我理解是在训练的时候,每个epoch重新初始化了这个dataset。所以才导致了数据一直够用。但是不是所有的dataset都有这样的性质。初步怀疑是只有from_tensor_slices的数据可以这样。

但是很遗憾我没有找到文档上对这个观点的支撑。你可以先暂时这样理解。

1
1
wxz123
非常感谢!
2019-12-22
共1条回复

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程