深度學習入門

深度學習入門 pdf epub mobi txt 电子书 下载 2025

[ 日] 齋藤康毅
圖書標籤:
想要找书就要到 求知書站
立刻按 ctrl+D收藏本页
你会得到大惊喜!!
译者序  xiii
前言  xv
第1章 Python入门  1
1.1 Python是什么  1
1.2 Python的安装  2
1.2.1 Python版本  2
1.2.2 使用的外部库  2
1.2.3 Anaconda发行版  3
1.3 Python解释器  4
1.3.1 算术计算  4
1.3.2 数据类型  5
1.3.3 变量  5
1.3.4 列表  6
1.3.5 字典  7
1.3.6 布尔型  7
1.3.7 if 语句  8
1.3.8 for 语句  8
1.3.9 函数  9
1.4 Python脚本文件  9
1.4.1 保存为文件  9
1.4.2 类  10
1.5 NumPy  11
1.5.1 导入NumPy  11
1.5.2 生成NumPy数组  12
1.5.3 NumPy 的算术运算  12
1.5.4 NumPy的N维数组  13
1.5.5 广播  14
1.5.6 访问元素  15
1.6 Matplotlib  16
1.6.1 绘制简单图形  16
1.6.2 pyplot 的功能  17
1.6.3 显示图像  18
1.7 小结  19
第2章 感知机  21
2.1 感知机是什么  21
2.2 简单逻辑电路  23
2.2.1 与门  23
2.2.2 与非门和或门  23
2.3 感知机的实现  25
2.3.1 简单的实现  25
2.3.2 导入权重和偏置  26
2.3.3 使用权重和偏置的实现  26
2.4 感知机的局限性  28
2.4.1 异或门  28
2.4.2 线性和非线性  30
2.5 多层感知机  31
2.5.1 已有门电路的组合  31
2.5.2 异或门的实现  33
2.6 从与非门到计算机  35
2.7 小结  36
第3章 神经网络  37
3.1 从感知机到神经网络  37
3.1.1 神经网络的例子  37
3.1.2 复习感知机  38
3.1.3 激活函数登场  40
3.2 激活函数  42
3.2.1 sigmoid 函数  42
3.2.2 阶跃函数的实现  43
3.2.3 阶跃函数的图形  44
3.2.4 sigmoid 函数的实现  45
3.2.5 sigmoid 函数和阶跃函数的比较  46
3.2.6 非线性函数  48
3.2.7 ReLU函数  49
3.3 多维数组的运算  50
3.3.1 多维数组  50
3.3.2 矩阵乘法  51
3.3.3 神经网络的内积  55
3.4  3 层神经网络的实现  56
3.4.1 符号确认  57
3.4.2 各层间信号传递的实现  58
3.4.3 代码实现小结  62
3.5 输出层的设计  63
3.5.1 恒等函数和softmax 函数  64
3.5.2 实现softmax 函数时的注意事项  66
3.5.3 softmax 函数的特征  67
3.5.4 输出层的神经元数量  68
3.6 手写数字识别  69
3.6.1 MNIST数据集  70
3.6.2 神经网络的推理处理  73
3.6.3 批处理  75
3.7 小结  79
第4章 神经网络的学习  81
4.1 从数据中学习  81
4.1.1 数据驱动  82
4.1.2 训练数据和测试数据  84
4.2 损失函数  85
4.2.1 均方误差  85
4.2.2 交叉熵误差  87
4.2.3 mini-batch 学习  88
4.2.4 mini-batch 版交叉熵误差的实现  91
4.2.5 为何要设定损失函数  92
4.3 数值微分  94
4.3.1 导数  94
4.3.2 数值微分的例子  96
4.3.3 偏导数  98
4.4 梯度  100
4.4.1 梯度法  102
4.4.2 神经网络的梯度  106
4.5 学习算法的实现  109
4.5.1 2 层神经网络的类  110
4.5.2 mini-batch 的实现  114
4.5.3 基于测试数据的评价  116
4.6 小结  118
第5章 误差反向传播法  121
5.1 计算图  121
5.1.1 用计算图求解  122
5.1.2 局部计算  124
5.1.3 为何用计算图解题  125
5.2 链式法则  126
5.2.1 计算图的反向传播  127
5.2.2 什么是链式法则  127
5.2.3 链式法则和计算图  129
5.3 反向传播  130
5.3.1 加法节点的反向传播  130
5.3.2 乘法节点的反向传播  132
5.3.3 苹果的例子  133
5.4 简单层的实现  135
5.4.1 乘法层的实现  135
5.4.2 加法层的实现  137
5.5 激活函数层的实现  139
5.5.1 ReLU层  139
5.5.2 Sigmoid 层  141
5.6 AffineSoftmax层的实现  144
5.6.1 Affine层  144
5.6.2 批版本的Affine层  148
5.6.3 Softmax-with-Loss 层  150
5.7 误差反向传播法的实现  154
5.7.1 神经网络学习的全貌图  154
5.7.2 对应误差反向传播法的神经网络的实现  155
5.7.3 误差反向传播法的梯度确认  158
5.7.4 使用误差反向传播法的学习  159
5.8 小结  161
第6章 与学习相关的技巧  163
6.1 参数的更新  163
6.1.1 探险家的故事  164
6.1.2 SGD  164
6.1.3 SGD的缺点  166
6.1.4 Momentum  168
6.1.5 AdaGrad  170
6.1.6 Adam  172
6.1.7 使用哪种更新方法呢  174
6.1.8 基于MNIST数据集的更新方法的比较  175
6.2 权重的初始值  176
6.2.1 可以将权重初始值设为0 吗  176
6.2.2 隐藏层的激活值的分布  177
6.2.3 ReLU的权重初始值  181
6.2.4 基于MNIST数据集的权重初始值的比较  183
6.3 Batch Normalization  184
6.3.1 Batch Normalization 的算法  184
6.3.2 Batch Normalization 的评估  186
6.4 正则化  188
6.4.1 过拟合  189
6.4.2 权值衰减  191
6.4.3 Dropout  192
6.5 超参数的验证  195
6.5.1 验证数据  195
6.5.2 超参数的最优化  196
6.5.3 超参数最优化的实现  198
6.6 小结  200
第7章 卷积神经网络  201
7.1 整体结构  201
7.2 卷积层  202
7.2.1 全连接层存在的问题  203
7.2.2 卷积运算  203
7.2.3 填充  206
7.2.4 步幅  207
7.2.5 3 维数据的卷积运算  209
7.2.6 结合方块思考  211
7.2.7 批处理  213
7.3 池化层  214
7.4 卷积层和池化层的实现  216
7.4.1 4 维数组  216
7.4.2 基于im2col 的展开  217
7.4.3 卷积层的实现  219
7.4.4 池化层的实现  222
7.5 CNN的实现  224
7.6 CNN的可视化  228
7.6.1 第1 层权重的可视化  228
7.6.2 基于分层结构的信息提取  230
7.7 具有代表性的CNN  231
7.7.1 LeNet  231
7.7.2 AlexNet  232
7.8 小结  233
第8章 深度学习  235
8.1 加深网络  235
8.1.1 向更深的网络出发  235
8.1.2 进一步提高识别精度  238
8.1.3 加深层的动机  240
8.2 深度学习的小历史  242
8.2.1 ImageNet  243
8.2.2 VGG  244
8.2.3 GoogLeNet  245
8.2.4 ResNet  246
8.3 深度学习的高速化  248
8.3.1 需要努力解决的问题  248
8.3.2 基于GPU的高速化  249
8.3.3 分布式学习  250
8.3.4 运算精度的位数缩减  252
8.4 深度学习的应用案例  253
8.4.1 物体检测  253
8.4.2 图像分割  255
8.4.3 图像标题的生成  256
8.5 深度学习的未来  258
8.5.1 图像风格变换  258
8.5.2 图像的生成  259
8.5.3 自动驾驶  261
8.5.4 Deep Q-Network(强化学习)  262
8.6 小结  264
附录A Softmax-with-Loss 层的计算图  267
A.1 正向传播  268
A.2 反向传播  270
A.3 小结  277
参考文献  279
· · · · · · (收起)

具体描述

本書是深度學習真正意義上的入門書,深入淺齣地剖析瞭深度學習的原理和相關技術。書中使用Python3,盡量不依賴外部庫或工具,從基本的數學知識齣發,帶領讀者從零創建一個經典的深度學習網絡,使讀者在此過程中逐步理解深度學習。書中不僅介紹瞭深度學習和神經網絡的概念、特徵等基礎知識,對誤差反嚮傳播法、捲積神經網絡等也有深入講解,此外還介紹瞭深度學習相關的實用技巧,自動駕駛、圖像生成、強化學習等方麵的應用,以及為什麼加深層可以提高識彆精度等“為什麼”的問題。

用户评价

评分

评分

##19年初拿起来读,然后去干活去了断了一段时间,20年2月在家读完。 总的来说,是比较基础的介绍,基于Python手把手教实现代码非常良心,作为入门深度学习的书可以学到不少东西。即使是在看完比较高阶的课程,自己做了些实例,回过头看也学到了不少东西,斋藤桑对于深度学习的理解非常深度! 最后对于深度学习的历史发展和未来方向的介绍非常简明扼要,值得结合参考文献好好研究!

评分

##这本书写得通俗易懂很好,算是入门有个大概方向了!

评分

评分

##太棒了,力荐想在自己专业引入机器学习或深度学习算法的朋友们阅读,这简直是《三天了解深度学习》《小白的深度学习入门书》表演,从没见过一本书讲梯度还从求导开始,很对得起前言中对书的定位,承诺的都做到了(爱死了能实现承诺的作者)。私以为写得特别好的部分非反向传播莫属,第五章读了4遍,不是因为第一次没看懂,就是单纯太喜欢了;其次是第七章,很友好但确实还是需要一点基础才会更有价值;再次是第六章,权重初始值设置部分算亮点,但正则化部分还可以更好些。想来近一年看来最可爱的编程算法书大多出自日本学者之手(不知是不是也有翻译因素),图灵丛书居多,以后选书方向更明确了,开心。

评分

评分

##现在再回来翻看,这本书应该是非框架书里最强的了,日本人还是有一套的,pytorch里许多地方都是从日本人的chainer里学来的。书里面对计算图反传和im2col的讲解都非常好。

评分

##佩服至极!这本书真的是不来虚的,一上来就是手把手教你一步步搭建出一个神经网络,还能把每一步的出处讲明白。现在看来神经网络和数字通信里面的均衡有异曲同工之妙。对我这种通信工程师来说,理解神经网络倒是不用费什么功夫,通过这本书,很容易就能入门。

评分

本站所有內容均為互聯網搜索引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 tushu.tinynews.org All Rights Reserved. 求知書站 版权所有