发表于2024-11-27
书[0名0]: | 机器[0学0]习|8185 |
图书定价: | 35元 |
图书作者: | (美)Tom Mitchell |
出版社: | 机械工业出版社 |
出版日期: | 2003/1/1 0:00:00 |
ISBN号: | 7111109937 |
开本: | 16开 |
页数: | 280 |
版次: | 1-1 |
作者简介 |
TOM M.Mitchell是卡内基梅隆[0大0][0学0]的教授,讲授“机器(AAA)的主席:美[0国0]《Machine Leaming》杂志、[0国0]际机器[0学0]习年度[0会0]议(ICML)的创始人:多种技术杂志的撰稿人,曾发表过许多文章,出版过多本专著,是机器[0学0]习[0领0]域的著[0名0][0学0]者。 |
内容简介 |
本书展示了机器[0学0]习中核心的算[0法0]和理论,并阐明了算[0法0]的运行过程。本书综合了许多的研究成果,例如统计[0学0]、人工智能、哲[0学0]、信息论、生物[0学0]、认[0知0]科[0学0]、计算复杂性和控制论等,并以此来理解问题的背景、算[0法0]和其中的隐含假定。本书可作为计算机专业 本科生、研究生教材,也可作为相关[0领0]域研究人员、教师的参考书。 |
目录 |
[0第0]1章 引言 1.1 [0学0]习问题的标准描述 1.2 设计-个[0学0]习系统 1.2.1 选择训练经验 1.2.2 选择目标函数 1.2.3 选择目标函数的表示 1. 2.4 选择函数逼近算[0法0] 1.2.5 终设计 1.3 机器[0学0]习的一些观点和问题 1.4 如何阅读本书 1.5 小结和补充读物 习题 [0第0]2章 概念[0学0]习和一般到特殊序 2.1 简介 2.2 概念[0学0]习任务 2.2.1 术语定义 2.2.2 归纳[0学0]习假设 2.3 作为搜索的概念[0学0]习 2.4 FIND-S:寻找[0极0][0大0]特殊假设 2.5 变型空间和候选消除算[0法0] 2.5.1 表示 2.5.2 列表后消除算[0法0] 2.5.3 变型空间的更简洁表示 2.5.4 候选消除[0学0]习算[0法0] 2.5.5 算[0法0]的举例 2.6 关于变型空间和候选消除的说明 2.6.1 候选消除算[0法0]是否[0会0]收敛到正确的假设 2.6.2 下一步需要什么样的训练样例 2.6.3 怎样使用不完全[0学0]习概念 2.7 归纳偏置 2.7.1 -个有偏的假设空间 2.7.2 无偏的[0学0]习器 2.7.3 无偏[0学0]习的无用性 2.8 小始和补充读物 习题 [0第0]3章 决策树[0学0]习 3.1 简介 3.2 决策树表示[0法0] 3.3 决策树[0学0]习的适用问题 3.4 基本的决策树[0学0]习算[0法0] 3.4.1 哪个属性是佳的分类属性 3.4.2 举例 3.5 决策树[0学0]习中的假设空间搜索 3.6 决策树[0学0]习的归纳偏置 3.6.1 限定偏置和[0优0]选偏置 3.6.2 为什么短的假设[0优0]先 3.7 决策树[0学0]习的常见问题 3.7.1 避免过度拟合数据 3. 7.2 合并连续值属性 3.7.3 属性选择的其他度量标准 3.7.4 处理缺少属性值的训练样例 3.7.5 处理不同代价的属性 3.8 小结和补充读物 习题 [0第0]4章 人工神经网络 4.1 简介 4.2 神经网络表示 4.3 适合神经网络[0学0]习的问题 4.4 感[0知0]器 4.4.1 感[0知0]器的表征能力 4. 4.2 感[0知0]器训练[0法0]则 4.4.3 梯度下降和delta[0法0]则 4.4.4 小结 4.5 多层网络和反向传播算[0法0] 4.5.1 可微阈值单元 4.5.2 反向传播算[0法0] 4.5.3 反向传播[0法0]则的推导 4.6 反向传播算[0法0]的说明 4.6.1 收敛性和局部[0极0]小值 4.6.2 前馈网络的表征能力 4.6.3 假设空间搜索和归纳偏置 4.6.4 隐藏层表示 4.6.5 泛化、过度拟合和停止判据 4.7 举例:人脸识别 4.7.1 任务 4.7.2 设计要素 4.7.3 [0学0]习到的隐藏层表示 4.8 人工神经网络的高级课题 4.8.1 其他可选的误差函数 4.8.2 其他可选的误差小化过程 4.8.3 递归网络 4.8.4 动态修改网络结构 4.9 小结和补充读物 习题 [0第0]5章 [0评0]估假设 5.1 动机 5.2 估计假设精度 5.2.1 样本错误率和真实错误率 5.2.2 离散值假设的置信区间 5.3 采样理论基础 5.3.1 错误率估计和二项比例估计 5.3.2 二项分布 5.3.3 均值和方差 5.3.4 估计量、偏差和方差 5.3.5 置信区间 5.3.6 [0[0双0]0]侧和单侧边界 5.4 推导置信区间的一般方[0法0] 5.5 两个假设错误率间的差异 5.6 [0学0]习算[0法0]比较 5.6. 1 配对t测试 5.6.2 实际考虑 5.7 小结和补充读物 习题 [0第0]6章 贝叶斯[0学0]习 6.1 简介 6.2 贝叶斯[0法0]则 6.3 贝叶斯[0法0]则和概念[0学0]习 6.3.1 BRUTE-FORCE贝叶斯概念[0学0]习 6.3.2 MAP假设和一致[0学0]习器 6.4 [0极0][0大0]似然和小误差平方假设 6.5 用于预测概率的[0极0][0大0]似然假设 6.6 小描述长度准则 6.7 贝叶斯[0优0]分类器 6.8 GIBBS算[0法0] 6.9 朴素贝叶斯分类器 6.10 举例:[0学0]习分类文本 6.11 贝叶斯信念网 6.11.1 条件[0独0]立性 6.11.2 表示 6.11.3 推理 6.11.4 [0学0]习贝叶斯信念网 6.11.5 贝叶斯网的梯度上升训练 6.11.6 [0学0]习贝叶斯网的结构 6.12 EM算[0法0] 6.12.1 估计k个高斯分布的均值 6.12.2 EM算[0法0]的一般表述 6.12.3 k均值算[0法0]的推导 6.13 小结和补充读物 习题 [0第0]7章 计算[0学0]习理论 7.1 简介 7.2 可能[0学0]习近似正确假设 7.2.1 问题框架 7.2.2 假设的错误率 7.2.3 PAC可[0学0]习性 7.3 有限假设空间的样本复杂度 7.3.1 不可[0知0][0学0]习和不一致假设 7.3.2 布尔文字的合取是PAC可[0学0]习的 7.3.3 其他概念类别的PAC可[0学0]习性 7.4 无限假设空间的样本复杂度 7.4.1 打散一个实例集合 7.4.2 Vapnik-Chervonenkis维度 7.4.3 样本复杂度和VC维 7.4.4 神经网络的VC维 7.5 [0学0]习的出错界限模型 7.5.1 FIND-S算[0法0]的出错界限 7.5.2 HALVING算[0法0]的出错界限 7.5.3 [0优0]出错界限 7.5.4 加[0权0]多数算[0法0] 7.6 小结和补充读物 习题 [0第0]8章 基于实例的[0学0]习 8.1 简介 8.2 k-近邻算[0法0] 8.2.1 距离加[0权0]近邻算[0法0] 8.2.2 对k-近邻算[0法0]的说明 8.2.3 术语注解 8.3 局部加[0权0]回归 8.3.1 局部加[0权0]线性回归 8.3.2 局部加[0权0]回归的说明 8.4 径向基函数 8.5 基于案例的推理 8.6 对消[0极0][0学0]习和积[0极0][0学0]习的[0评0]论 8.7 小结和补充读物 习题 [0第0]9章 遗传算[0法0] 9.1 动机 9.2 遗传算[0法0] 9.2.1 表示假设 9.2.2 遗传算子 9.2.3 适应度函数和假设选择 9.3 举例 9.4 假设空间搜索 9.5 遗传编程 9.5.1 程序表示 9.5.2 举例 9.5.3 遗传编程说明 9.6 进化和[0学0]习模型 9.6.1 拉马克进化 9.6.2 鲍德温效应 9.7 并行遗传算[0法0] 9.8 小结和补充读物 习题 [0第0]10章 [0学0]习规则集合 10.1 简介 10.2 序列覆盖算[0法0] 10.2.1 一般到特殊的柱状搜索 10.2.2 几种变型 10.3 [0学0]习规则集:小结 10.4 [0学0]习一阶规则 10.4.1 一阶Horn子句 10.4.2 术语 10.5 [0学0]习一阶规则集:FOIL 10.5.1 FOIL中的候选特化式的生成 10.5.2 引导FOIL的搜索 10.5.3 [0学0]习递归规则集 10.5.4 FOIL小结 10.6 作为逆演绎的归纳 10.7 逆归纳 10.7.1 一阶归纳 10.7.2 逆归纳:一阶情况 10.7.3 逆归纳小结 10.7.4 泛化、-包容和涵蕴 10.7.5 PROGOL 10.8 小结和补充读物 习题 [0第0]11章 分析[0学0]习 11.1 简介 11.2 用完美的[0领0]域理论[0学0]习:PROLOG-EBG 11.3 对基于解释的[0学0]习的说明 11.3.1 发现新特征 11.3.2 演绎[0学0]习 11.3.3 基于解释的[0学0]习的归纳偏置 11.3.4 [0知0]识级的[0学0]习 11.4 搜索控制[0知0]识的基于解释的[0学0]习 11.5 小结和补充读物 习题 [0第0]12章 归纳和分析[0学0]习的结合 12.1 动机 12.2 [0学0]习的归纳-分析途径 12.2.1 [0学0]习问题 12.2.2 假设空间搜索 12.3 使用先验[0知0]识得到初始假设 12.3.1 KBANN算[0法0] 12.3.2 举例 12.3.3 说明 12.4 使用先验[0知0]识改变搜索目标 12.4.1 TANGENTPROP算[0法0] 12.4.2 举例 12.4.3 说明 12.4.4 EBNN算[0法0] 12.4.5 说明 12.5 使用先验[0知0]识来扩展搜索算子 12.5.1 FOCL算[0法0] 12.5.2 说明 12.6 研究现状 12.7 小结和补充读物 习题 [0第0]13章 增强[0学0]习 13.1 简介 13.2 [0学0]习任务 13.3 Q[0学0]习 13.3.1 Q函数 13.3.2 一个[0学0]习Q的算[0法0] 13.3.3 举例 13.3.4 收敛性 13.3.5 实验策略 13.3.6 更新序列 13.4 非确定性回报和动作 13.5 时间差分[0学0]习 13.6 从样例中泛化 13.7 与动态规划的联乐 13.8 小结和补充读物 习题 附录 符号约定 |