绿林网

Deep Learning经典读后感有感

Deep Learning经典读后感有感

《Deep Learning》是一本由Ian Goodfellow / Yoshua Bengio /著作,The MIT Press出版的Hardcover图书,本书定价:USD 72.00,页数:800,特精心收集的读后感,希望对大家能有帮助。

《Deep Learning》读后感(一):此领域最佳著作,没有之一

我只想说,good,very good。真正的世界大师确实不一样,比起国内号称大师的人好了不止一百倍。 比如国内焦李成大神(网上貌似还有不少负面消息)的 深度学习 优化与识别,书薄,贵,内容太过精炼,就像一本上课笔记,完全不适合学习者。号称有代码,找了半天原来是引用了国外几个网址

《Deep Learning》读后感(二):价格感人

书很好,虽然价格感人,但是绝对是值得的。

唉,豆瓣必须140字。这本书亚马逊有卖,就不要去淘宝买了,说多了都是泪。

本书的文献比较多,如果有时间不妨去看看,大神使用的文献也是相当经典的。数了一下,页数也不少,如果没有耐心,直接看deep learningnet 的入门文献。

相当感动的一点是目录之后的感谢名单,里面不少是中国人,虽然也不是很多,还是感谢你们。

《Deep Learning》读后感(三):《Deep Learning》完结撒花!

第一部分讲数学基础;第二部分讲神经网络;第三部分讲进阶模型及处理方法,处理方法有马尔可夫采样、配分函数的计算、近似推断等,模型主要是各种深度生成模型。 本书风格类似于大号文献综述(ps,书后参考文献列了6、70页,emm~),语言精炼,信息密度很高,作者能把很复杂的原理用很简单的几句话精准地表述出来(比如概率图模型的介绍),这种表述能力不得不令人佩服。但这也就导致有些地方若是不了解背景或没有一定基础,读起来会觉得云里雾里,还有些地方需要找对相应的paper读一下,所以显然不适合新手入门,而适合有一定基础的人想要系统学习一下深度学习。 推荐直接读英文版,中文版貌似是张志华老师团队的学生翻译的,不同人负责不同的章节,有些章节翻译的还行,还能指出作者的错误,有些章节完全就是机翻,意思都是错的,越到后面的章节越是如此。不过翻译本来就吃力不讨好,有些英文读起来很顺的句子中文翻译出来就是很别扭,所以有免费的中文版作一下参考也很不错了。另外,中文版的排版倒是做得不错。

就是这些,看欧洲杯去了,意大利加油!Forza Azzurri!

《Deep Learning》读后感(四):笔记与练习

关于这本书的笔记和练习,我放在 Github 上了,欢迎阅读。另外,这本书的网页版是完全免费的,地址:http://www.deeplearningbook.org/。

本书的首作者 Ian Goodfellow 正是 GANs 之父。

如果想深入了解深度学习领域,这里有一个详细的阅读路径:https://github.com/songrotek/Deep-Learning-Papers-Reading-Roadmap。

《Deep Learning》读后感(五):推荐章节

年初收到,闭关两周终于是从头到尾读完了,读的不算很精,好在做了不少笔记与注释,二刷三刷肯定是要的。 现在市面上系统讲解Deep Learning的书不多,出版的更少,毕竟像CNN这种东西本身就没人真懂,在这领域经验主义远强于逻辑主义。这本书是我目前读过讲DL最好的一本(虽然我读过的并不多,有其他好书还请推荐)。这里推荐几个写的很好的章节。

第一部分:

这部分其实没什么好说的,基本就是统计学习最基础的线性代数,概率论等,第4章值得一读,讲了些数值分析里常涉及的几个概念(Poor Conditioning, Optimization method)。当然如果系统的上过Numerical Analysis或Computational Physics的话这章基本可以无视。第5章介绍了非玄学领域的Machine Learning各个算法。鉴于本书名字是Deep Learning,这章内容基本都是粗略介绍,严格的数学推导较少,建议只要读5.10与5.11就可以。想仔细研究ML的话这里顺道推荐3本ML好书:

An Introduction to Statistical Learning by Daniela Witten, Gareth James, Robert Tibshirani, and Trevor Hastie

The Elements of Statistical Learning by Jerome H. Friedman, Robert Tibshirani, and Trevor Hastie

Foundations of Machine Learning by Afshin Rostamizadeh, Ameet Talwalkar, and Mehryar Mohri

第二部分:

从这部分开始正式进入玄学领域!7,8,11章重点推荐,第二部分的精髓也是本书的精髓!DP领域各种花样层出不穷,无非就是变着法子定义与连接神经元,各种模型淘汰更新的很快,但是第7章讲的正则化(Regularization),第8章的优化方法(Optimization)和11章的方法论却是任何模型都离不开的。今天学到的模型可能下周就被超越了,但是这三章的内容永远有用,嗯,至少现阶段的深度学习框架下永远有用。这三章也是集中了三位作者个人知识与经验的地方,比如就正则化来说,所有关于ML或DP的教材都会涉及几种方法,但是唯有本书将(基本)所有正则化方法放到一起讲解并做横向比较。作者们还根据个人经验详细阐述了各种情况下对应方法选择,简直就是面试圣经(大雾)。

9,10,12章讲的是现在比较成熟的模型及其应用,这方面在明白原理的情况下自己写个模型做实验或读读大牛的code都是更高效的学习方法。这三章里推荐9.5(CNN的改进与变体), 10.8-10.12(Long-Term Dependencies的几种解决方案)。吐槽下虽然12章起名叫Application,但是介绍的诸如Neural Turing Machine, Reasoning and Question Answering还远未成熟。

第三部分:

本部分讲的是深度学习领域比较活跃的科研问题。对于应用者可以说没有章节推荐,对于科研者可以挑感兴趣的读。从这部分里判别式模型(discriminative model)减少而生成式模型(generative model)增多就可以看出主流的研究方向。14章的Autoencoders很重要也很有应用前景。16,17章的Probability Model与Monte Carlo Method具有普适性也值得一读。19章讲的EM算法,MAP,Sparse Coding都是Inference里重中之重。20章的各种Deep Generative Model是本书最难,也是装逼吹牛不可或缺的资本。其实对于这部分,更有价值的是书里推荐的各种paper。本书16年末才出版,书中引用推荐的paper都是最近比较新也很有影响力的。真正做科研的不妨跟着书里引用paper的顺序跟着慢慢读下去。

注:

以上推荐的章节都是针对我个人的知识储备,纯属一家之言,并不具有普适性,如果不确定该读什么就全读吧!

不知为何一提这本书默认作者就是Bengio,明明Goodfellow也很有名的!

GitHub上有中文翻译了,我没读过不知道翻得如何。

https://github.com/exacity/deeplearningbook-chinese

本文由作者上传并发布(或网友转载),绿林网仅提供信息发布平台。文章仅代表作者个人观点,未经作者许可,不可转载。
点击查看全文
相关推荐
热门推荐