《神经网络与深度学习》印刷版勘误表

作者:邱锡鹏 知乎:@邱锡鹏

2020年4月第1版第1次印刷

  1. P38 公式2.59后,"结构方法最小化"→"结构风险最小化"
  2. P72 公式3.86上加了一句话“由于同时缩放不会改变样本到分割超平面的距离”
  3. P86 "很小的梯度𝜆"→"很小的梯度𝛾"
  4. P89 边注:"也就做Maxout网络"→"也叫作Maxout网络"
  5. P231 公式9.43 h→H
  6. P333 "接近于0"→"接近于0"
  7. 调整配图的颜色

2020年5月第1版第2次印刷

  1. P10 最后一段 ”特征“→”样本“
  2. P93 公式(4.36) 去掉多余右括号
  3. P93 定理4.1 "对于任何" → "对于任意给定的"
  4. P96 公式(4.51)旁边注 "列行向量" → "列向量"
  5. P292 第2行, "第i维" → "第m维"
  6. P310 "在生成样本时,首先在最顶两层进行足够多次的吉布斯采样," → "在生成样本时,首先运行最顶层的受限玻尔兹曼机进行足够多次的吉布斯采样,在达到热平衡时生成样本"
  7. P312 修改“作为生成模型的精调”一节的多处描述
  8. P351 算法14.3 “初始化策略” → "根据Q函数构建策略"
  9. P352 算法14.4 “初始化策略” → "根据Q函数构建策略"
  10. P416 C.2.2 第4行, "梯度方法" → "梯度方向"
  11. 调整配图的颜色

2020年6月第1版第3次印刷-2021年1月第1版第7次印刷

  1. 修改多处typo:)
  2. P8 "经过数据的预处理,如去除噪声等。比如在文本分类中,去除停用词等"→"对数据的原始形式进行初步的数据清理..."
  3. P27 "Independent and Identically Distributed"
  4. P57
  5. P97 “其中⊙是向量的点积运算符,表示每个元素相乘.”→“其中⊙是向量的Hadamard积运算符,表示每个元素相乘.”