seq_dataset为什么变成一个batch?

来源:7-6 文本生成之数据处理

战战的坚果

2020-05-07

batch_size = 64
buffer_size = 10000

seq_dataset = seq_dataset.shuffle(buffer_size).batch(
    batch_size, drop_remainder=True)

老师,这段代码的作用是什么呢?

写回答

1回答

正十七

2020-05-07

为什么要用batch我们在另一门课里有详细的讲解,你可以在翻翻。

关键是,用batch数据可以加快训练又不超内存。

0
0

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程