看了前几章的疑问
来源:3-9 函数签名与图结构
CuteHero
2019-07-11
首先感谢老师,通过上一门实战课CNN RNN GAN实战,我学到了很多,算是入门了,老师讲的非常好。
然后是这门课的一些疑问,对于第二章后半部分和第三章前半部分的安排疑问。
假如学员会使用TF1.x,那么学员最想要的可能是如何快速使用TF2.0搭建常用模型。
假如学员没有使用过tf1.x,想直接通过tf2入门,前几章的知识会让他们更混乱,应该由简单到复杂,先讲解宏观使用,再细致深入。
现在前几章的内容更像是一些补充知识。对于快速入门并没有帮助。
反而在纠结constant和variable的区别,ragged tensor和普通tensor的区别,还引入了sklearn超参数搜索,还有tf.function等,这些当然要学,但是可以放到后面几章作为补充。
相比上一个实战课CNN RNN GAN实战,只见树木不见森林,这门课确实不如上一门课有条理。
1回答
-
正十七
2019-07-21
同学您好,感谢你细致的反馈。
对于tensorflow这门课来说,细碎的知识点相对来说比较多,不如上一门课中的知识点的连接那么紧密。在上一门课中,课程架构更像是基础+几个相对独立的分项形式。几个分项知识点都基于基础知识点(梯度下降等)但相互来说比较独立。而tensorflow这门课则是分-总的形式,后面的章节会依赖于前面的几个基础的知识点。比如dataset,比如tf.function。
课程也依然考虑了快速入门,即第二章中的keras实战,而课程的大部分网络结构的搭建也是使用keras的。
另外,之所以把超参数搜索放在第二章,其实是因为它跟后续的内容都不太有联系,而独立成章又太小。然后开始这门课的时候有点想专门开一门autoML的课程,所以就迫不及待的讲了这个。
同意你的意见,这门课确实不如上一门课有条理,感觉语言类的课程就是这样,比如之前学C++在学到指针,if else, for/while的时候也不知所云,得到最后学快排,图结构等的时候才知道用途是什么。
再次感谢。
012019-07-21
相似问题