出版社: 人民邮电出版社
出品方: 图灵教育
原作名: Neural Networks and Deep Learning
译者: 朱小虎
出版年: 2020-8-17
页数: 227
定价: 89.00元
装帧: 平装
丛书: 图灵程序设计丛书
ISBN: 9787115542090
内容简介 · · · · · ·
本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的MNIST手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够编写Python代码解决复杂的模式识别问题。
这是一本非常好的深度学习入门书,相信一定会得到大家的喜爱。
——李航
字节跳动科技有限公司人工智能实验室总监、ACL会士、IEEE会士、ACM杰出科学家
这本书从神经网络和深度学习的基本原理入手,详细地解释了神经网络和深度学习的核心概念,兼顾理论和实践,是深入了解神经网络和深度学习的一本好书。
——马少平
清华大学计算机系教授、博士生导师
我从看完第1章开始就被其深入浅出的文字以及清晰的代码实现所吸引。我相信,这本书的正式出版一定会让更多的读者受益...
本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的MNIST手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够编写Python代码解决复杂的模式识别问题。
这是一本非常好的深度学习入门书,相信一定会得到大家的喜爱。
——李航
字节跳动科技有限公司人工智能实验室总监、ACL会士、IEEE会士、ACM杰出科学家
这本书从神经网络和深度学习的基本原理入手,详细地解释了神经网络和深度学习的核心概念,兼顾理论和实践,是深入了解神经网络和深度学习的一本好书。
——马少平
清华大学计算机系教授、博士生导师
我从看完第1章开始就被其深入浅出的文字以及清晰的代码实现所吸引。我相信,这本书的正式出版一定会让更多的读者受益。
——车万翔
哈尔滨工业大学计算机科学与技术学院信息检索研究中心教授、博士生导师
这是一本独特且有趣的神经网络入门书,其细致程度基本上做到了手把手教学,非常适合初学者。我期待这本书能照亮更多人的人工智能之路。
——俞扬
南京大学人工智能学院教授、博士生导师
这是一位物理学家写的机器学习书,内容清晰易懂,对神经网络的描述也直观形象,非常适合用来入门神经网络和深度学习。
——邱锡鹏
复旦大学计算机学院教授、博士生导师
这是一本关于神经网络和深度学习的“亲近”易读的书,它将带领你轻松入门人工智能世界。
——张伟楠
上海交通大学计算机科学与工程系副教授、博士生导师
这本不可多得的好书通过丰富的示例和代码实践做到了知行合一。
——王昊奋
同济大学特聘研究员、OpenKG联合创始人
这本量子物理学家笔下的好书以一个个生动的实例驱动你恨不得一口气读完!
——徐涵
华为欧洲研究院高级战略规划经理
作者简介 · · · · · ·
【作者简介】
迈克尔·尼尔森(Michael Nielsen)
计算机科学家、量子物理学家、科普作家,Y Combinator Research的研究Fellow,曾受邀在哈佛大学、斯坦福大学、麻省理工学院、剑桥大学、牛津大学等高校以及谷歌和微软等公司做主题演讲,另著有高分作品《重塑发现》和《量子计算和量子信息》。
【译者简介】
朱小虎
University AI创始人兼首席科学家、Center for Safe AGI创始人、谷歌开发者机器学习专家、百度深度学习布道者。和团队核心成员一起创建了TASA、DL Center(深度学习知识中心全球价值网络)和AI Growth(行业智库培训)等。举办过多场国际性人工智能峰会和活动。在多个技术平台写下了近百万字的人工智能精品技术内容。曾受邀为多所国内高校制定人工智能学习规划和教授人工智能前沿课程,也曾为多...
【作者简介】
迈克尔·尼尔森(Michael Nielsen)
计算机科学家、量子物理学家、科普作家,Y Combinator Research的研究Fellow,曾受邀在哈佛大学、斯坦福大学、麻省理工学院、剑桥大学、牛津大学等高校以及谷歌和微软等公司做主题演讲,另著有高分作品《重塑发现》和《量子计算和量子信息》。
【译者简介】
朱小虎
University AI创始人兼首席科学家、Center for Safe AGI创始人、谷歌开发者机器学习专家、百度深度学习布道者。和团队核心成员一起创建了TASA、DL Center(深度学习知识中心全球价值网络)和AI Growth(行业智库培训)等。举办过多场国际性人工智能峰会和活动。在多个技术平台写下了近百万字的人工智能精品技术内容。曾受邀为多所国内高校制定人工智能学习规划和教授人工智能前沿课程,也曾为多家世界500强企业提供人工智能方面的战略布局建议及落地实施等方面的咨询建议。
目录 · · · · · ·
译者序
前言
第1章 使用神经网络识别手写数字 1
1.1 感知机 2
1.2 sigmoid神经元 7
1.3 神经网络的架构 11
1.4 一个简单的神经网络:分类手写数字 13
1.5 利用梯度下降算法进行学习 17
1.6 实现分类数字的神经网络 25
1.7 迈向深度学习 37
第2章 反向传播算法工作原理 41
2.1 热身:使用矩阵快速计算输出 41
2.2 关于代价函数的两个假设 43
2.3 阿达马积s⊙t 45
2.4 反向传播的4个基本方程 45
2.5 基本方程的证明(选学) 50
2.6 反向传播算法 51
2.7 反向传播代码 53
2.8 就何而言,反向传播算快 55
2.9 反向传播:全局观 56
第3章 改进神经网络的学习方法 60
3.1 交叉熵代价函数 60
3.1.1 引入交叉熵代价函数 64
3.1.2 使用交叉熵来对MNIST数字进行分类 71
3.1.3 交叉熵的含义与起源 72
3.1.4 softmax 74
3.2 过拟合和正则化 78
3.2.1 正则化 84
3.2.2 为何正则化有助于减轻过拟合 89
3.2.3 其他正则化技术 93
3.3 权重初始化 102
3.4 复探手写识别问题:代码 106
3.5 如何选择神经网络的超参数 116
3.6 其他技术 126
3.6.1 随机梯度下降算法的变化形式 126
3.6.2 其他人工神经元模型 129
3.6.3 有关神经网络的故事 132
第4章 神经网络可以计算任何函数的可视化证明 134
4.1 两个预先声明 136
4.2 一个输入和一个输出的普遍性 137
4.3 多个输入变量 146
4.4 不止sigmoid神经元 154
4.5 修补阶跃函数 156
4.6 小结 159
第5章 为何深度神经网络很难训练 160
5.1 梯度消失问题 163
5.2 梯度消失的原因 168
5.2.1 为何出现梯度消失 170
5.2.2 梯度爆炸问题 171
5.2.3 梯度不稳定问题 172
5.2.4 梯度消失问题普遍存在 172
5.3 复杂神经网络中的梯度不稳定 173
5.4 深度学习的其他障碍 174
第6章 深度学习 175
6.1 卷积神经网络入门 176
6.1.1 局部感受野 178
6.1.2 共享权重和偏置 180
6.1.3 池化层 182
6.2 卷积神经网络的实际应用 184
6.2.1 使用修正线性单元 188
6.2.2 扩展训练数据 189
6.2.3 插入额外的全连接层 191
6.2.4 集成神经网络 192
6.3 卷积神经网络的代码 195
6.4 图像识别领域近期的进展 208
6.4.1 2012年的LRMD论文 208
6.4.2 2012年的KSH论文 209
6.4.3 2014年的ILSVRC竞赛 211
6.4.4 其他活动 212
6.5 其他深度学习模型 214
6.5.1 循环神经网络 214
6.5.2 长短期记忆单元 216
6.5.3 深度信念网络、生成模型和玻尔兹曼机 216
6.5.4 其他想法 217
6.6 神经网络的未来 217
6.6.1 意图驱动的用户界面 217
6.6.2 机器学习、数据科学和创新的循环 218
6.6.3 神经网络和深度学习的作用 218
6.6.4 神经网络和深度学习将主导人工智能 219
附录 是否存在关于智能的简单算法 222
版权声明
· · · · · · (收起)
原文摘录 · · · · · · ( 全部 )
-
那么有一个较为可信的理由可以解释为什么用10个输出而非4个:如果有4个输出,那么第1个神经元将设法判断数字的最高有效位是什么。数字的最高有效位于数字形状不容易联系到一起。 (查看原文) —— 引自章节:1.4 一个简单的神经网络:分类手写数字 13 -
With that said, this idea of preferring simpler explanation should make you nervous. People sometimes refer to this idea as "Occam's Razor", and will zealously apply it as though it has the status of some general scientific principle. But, of course, it's not a general scientific principle. There is no a priori logical reason to prefer simple explanations over more complex explanations. Indeed, sometimes the more complex explanation turns out to be correct. (查看原文) —— 引自章节:improving the way neural netwo
> 全部原文摘录
丛书信息
· · · · · ·
喜欢读"深入浅出神经网络与深度学习"的人也喜欢的电子书 · · · · · ·
喜欢读"深入浅出神经网络与深度学习"的人也喜欢 · · · · · ·
深入浅出神经网络与深度学习的书评 · · · · · · ( 全部 3 条 )

Show me the code or math

神经网络和深度学习最好的入门书之一
> 更多书评 3篇
论坛 · · · · · ·
在这本书的论坛里发言这本书的其他版本 · · · · · · ( 全部2 )
-
未知出版社 (2016)9.6分 240人读过
以下书单推荐 · · · · · · ( 全部 )
谁读这本书? · · · · · ·
二手市场
· · · · · ·
- 在豆瓣转让 有1345人想读,手里有一本闲着?
订阅关于深入浅出神经网络与深度学习的评论:
feed: rss 2.0
0 有用 读万卷书 2024-02-25 18:21:42 北京
非常棒的书,快速看了一遍,有个大概了解,准备带着电脑再看一遍
7 有用 平凡的老鱼 2021-04-02 23:51:09
虽然翻译的略有瑕疵,但是本身无法掩盖大师深入浅出的描述功底,想要深入理解最好的入门书,没有之一,搞技术的话, show me code or math,这本书都做得非常棒。纸上得来终觉浅,要知此事须躬行
0 有用 涅卡奇维奇 2025-03-10 07:34:02 四川
极好的神经网络入门教材,把核心概念和思想讲得极其清楚,没有一句空话和废话,而且具体到「齿轮如何咬合」。同时,这本书甚至并不要求很高的数学和编程背景——作者经常在给出数学公式后立刻加一句「其实技术细节没那么重要,不熟也没事」,仿佛怕读者被吓跑似的。(不过我觉得读者至少还是得知道「导数」是什么,最好还能知道「链式法则」是什么,不过这些也就是微积分前三课的内容。)讲理论的同时,作者给出了完整的代码,所以... 极好的神经网络入门教材,把核心概念和思想讲得极其清楚,没有一句空话和废话,而且具体到「齿轮如何咬合」。同时,这本书甚至并不要求很高的数学和编程背景——作者经常在给出数学公式后立刻加一句「其实技术细节没那么重要,不熟也没事」,仿佛怕读者被吓跑似的。(不过我觉得读者至少还是得知道「导数」是什么,最好还能知道「链式法则」是什么,不过这些也就是微积分前三课的内容。)讲理论的同时,作者给出了完整的代码,所以也可以边学边实践。前两章是最核心的内容:第一章讲了神经网络到底是什么以及它到底怎么「学习」;第二章讲了「学习」过程中最核心的「反向传播」算法。后面的章节都是一些补充和拓展。作者绝对是聪明人,非常注重「真正」理解,所以一直能用关键而极具启发性的问题来引导讨论。竟然是十年前的教材了,真希望作者能继续写! (展开)
0 有用 Salooloo 2021-02-11 09:33:42
看了电子版,反向传播的公式推导写的很好,代码是基于numpy,没有用到框架,非常棒。
0 有用 圣母峰 2023-08-05 23:20:00 广东
不是对原书的评价,翻译太差,中文表达能力这么差就不要糟蹋大师作品了,一堆title还拉了大佬赞他花了力气给代码注释,估计大佬看的都是原文,其中车万翔就是这么说的,就当他们重磅推荐的是原著吧