《神经网络与深度学习》印刷版勘误表
作者:邱锡鹏 知乎:@邱锡鹏
2020年4月第1版第1次印刷
- P38 公式2.59后,"结构方法最小化"→"结构风险最小化"
- P72 公式3.86上加了一句话“由于同时缩放和不会改变样本到分割超平面的距离”
- P86 "很小的梯度𝜆"→"很小的梯度𝛾"
- P89 边注:"也就做Maxout网络"→"也叫作Maxout网络"
- P231 公式9.43 h→H
- P333 "接近于0"→"接近于0"
- 调整配图的颜色
2020年5月第1版第2次印刷
- P10 最后一段 ”特征“→”样本“
- P93 公式(4.36) 去掉多余右括号
- P93 定理4.1 "对于任何" → "对于任意给定的"
- P96 公式(4.51)旁边注 "列行向量" → "列向量"
- P292 第2行, "第i维" → "第m维"
- P310 "在生成样本时,首先在最顶两层进行足够多次的吉布斯采样," → "在生成样本时,首先运行最顶层的受限玻尔兹曼机进行足够多次的吉布斯采样,在达到热平衡时生成样本"
- P312 修改“作为生成模型的精调”一节的多处描述
- P351 算法14.3 “初始化策略” → "根据Q函数构建策略"
- P352 算法14.4 “初始化策略” → "根据Q函数构建策略"
- P416 C.2.2 第4行, "梯度方法" → "梯度方向"
- 调整配图的颜色
2020年6月第1版第3次印刷-2021年1月第1版第7次印刷
- 修改多处typo:)
- P8 "经过数据的预处理,如去除噪声等。比如在文本分类中,去除停用词等"→"对数据的原始形式进行初步的数据清理..."
- P27 "Independent and Identically Distributed"
- P57 →
- P97 “其中⊙是向量的点积运算符,表示每个元素相乘.”→“其中⊙是向量的Hadamard积运算符,表示每个元素相乘.”