绿林网

《深度学习的数学》读后感精选

《深度学习的数学》读后感精选

《深度学习的数学》是一本由[日]涌井良幸 / [日]涌井贞美著作,人民邮电出版社出版的平装图书,本书定价:69.00元,页数:236,特精心收集的读后感,希望对大家能有帮助。

《深度学习的数学》读后感(一):日本人的数学书写的通俗易懂,值得学习

从事着跟计算机没什么大关系的行业,纯粹为了了解下AI的基本知识,这本书很合适,以前看了数学女孩的系列书,感觉日本的数学方面还是很有底蕴的,至少有些一些人致力于这个方面,能把复杂的知识用简单的方式讲清楚,一定对其有着很深的认识,把握关键点通过比喻类比之类的方式让读者更容易的理解其中的本质,写书的目的就是为了读者的理解,目标纯粹,值得读一下。

《深度学习的数学》读后感(二):摘要笔记

偏导。链式法则。

梯度下降法求多元函数的最小值。拉格朗日乘数法。

误差反向传播法确定神经网络的权重和偏置。特点是将繁杂的导数计算替换为数列的递推关系式,而提供这些递推关系式的就是名为神经单元误差(error)的变量。

利用代价函数求最优化问题。

卷积神经网络。隐藏层是多个由卷积层和池化层组成的子层。

《深度学习的数学》读后感(三):笔记,便于自己记忆

1. 链式求导法则 2. 矩阵或者线性代数是求方程组的解的数学工具 3. 但是最优化是求约束条件最小值的参数解的数学工具,特别是凸优化4. 拉格朗日乘数法是最优化中的一个常用工具,本质上转化为求目标函数对参数的导数,导数为零则求得最优值 5. 但是神经网络的直接解析表达式难以写出,无法通过解析方式直接获得求解,因此需要用梯度下降法来解决,梯度下降法的根本出发点是,通过迭代的方式,每次改变参数,使得改变后目标函数更靠近最优点。6. 这种迭代不能随意,计算目标函数的梯度,在偏移半径固定时,那么目标函数的偏移向量是梯度向量和分量偏移向量的内积,从而只有梯度向量和分量向量方向相反时,内积最小,从而目标函数的偏移向量的长度最短,这迫使偏移朝着最优点移动。7. 直接计算目标函数关于参数的梯度依然不能直接进行,因此推导出在神经网络的每一层梯度等于目标函数对该层输出向量的梯度乘该层激活函数对输入向量的梯度,后者是在一层内就可以计算确定的,前者在每l层的值都等于l+1层对应值使用参数加权平均后再乘l层激活函数关于输入向量的导数,这就获得了递推。8.神经网络的基本形态就是全连接层。9多个全连接层可以构成深度神经网络。10.卷积层和池化层已经是在有多层全连接神经网络的基础上,对全连接的结构的变化,同时有对应的几何意义,理论上卷积,池化是对神经网络结构的“激活”函数,正如通常激活函数是对单点输出值的改变。

《深度学习的数学》读后感(四):深度学习的小小思考

《深度学习的数学》,入门书,如果忽略公式章节,大约一两天就能读完。比较有趣的两段是“用小恶魔来讲解卷积神经网络的结构”和“用excel体验卷积神经网络”。

深度学习是机器学习的技术子集,它使用连接系统或神经网络进行机器学习,通过学习提取分类问题的特征执行自动化的多层数据提取,而不需要手动标记特征。卷积神经网络(Convolutional Neural Network, CNN)是一种源于人工神经网络的深度学习的代表算法之一,近年来在图像识别领域取得了巨大的成功。

一个经典的神经网络包含输入层,输出层,隐藏层三个层次,而与普通神经网络相比,卷积神经网络增加了卷积层和池化层,也就是说卷积神经网络的隐含层包含卷积层、池化层和全连接层3类常见构筑,在一些现代算法中可能有更加复杂构筑。美国斯坦福大学教授李飞飞团队创立的ImageNet图像数据集项目所举办的大规模视觉识别挑战赛2015年夺冠的深度神经网络其隐含层结构已经达到了152层(越高隐含层层数的神经网络越能够表现出高超的预测和识别能力)。

人工智能方向有个词语叫做奇点(singularity),这是被用来表示AI超过人类智能的时间点。据预测是2030年至2045年,也有不少人预测这个时间点会更早到来,霍金和马斯克都曾放言AI 将取代人类。且不论这种说法的可靠性,就我们现在观测到的深度学习的发展前景以及深度模型在现如今海量数据支撑下越来越高的准确率,就很使得人类又欣慰又担忧。

其实我想表达的是,我们对创建高质量的标准化数据库平台和提升算法性能有信心,但同时,关于人工智能在伦理方面的政策指标尚没有平衡。AI离不开大量用于训练的数据集,但机器学习“不可解释性”让算法“黑箱”问题成为公众焦点和科学家们今后主要关注的方向。今年,腾讯研究院、腾讯天衍实验室、腾讯优图实验室、腾讯AI Lab团队联合发布主题研究报告《可解释AI发展报告2022》,科学家和产业⼤咖们一起探讨AI 的未来。

本文由作者上传并发布(或网友转载),绿林网仅提供信息发布平台。文章仅代表作者个人观点,未经作者许可,不可转载。
点击查看全文
相关推荐
热门推荐