seq_dataset为什么变成一个batch?
来源:7-6 文本生成之数据处理
战战的坚果
2020-05-07
batch_size = 64
buffer_size = 10000
seq_dataset = seq_dataset.shuffle(buffer_size).batch(
batch_size, drop_remainder=True)
老师,这段代码的作用是什么呢?
写回答
1回答
-
为什么要用batch我们在另一门课里有详细的讲解,你可以在翻翻。
关键是,用batch数据可以加快训练又不超内存。
00
相似问题