机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径。它的应用已遍及人工智能的各个分支,如专家系统、自动推理、自然语言理解、模式识别、计算机视觉、智能机器人等领域。其中尤其典型的是专家系统中的知识获取瓶颈问题,人们一直在努力试图采用机器学习的方法加以克服。
机械学习_机器学习 -研究意义
学习是人类具有的一种重要智能行为,但究竟什么是学习,长期以来却众说纷纭。社会学家、逻辑学家和心理学家都各有其不同的看法。
比如,Langley(1996) 定义的机器学习是“机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能”。(Machine learning is a science of the artificial. The field's main objects of study are artifacts, specifically algorithms that improve their performance with experience.')
Tom Mitchell的机器学习(1997)对信息论中的一些概念有详细的解释,其中定义机器学习时提到,“机器学习是对能通过经验自动改进的计算机算法的研究”。(Machine Learning is the study of computer algorithms that improve automatically through experience.)
Alpaydin(2004)同时提出自己对机器学习的定义,“机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。”(Machine learning is programming computers to optimize a performance criterion using example data or past experience.)
尽管如此,为了便于进行讨论和估计学科的进展,有必要对机器学习给出定义,即使这种定义是不完全的和不充分的。顾名思义, 机器学习是研究如何使用机器来模拟人类学习活动的一门学科。稍为严格的提法是:机器学习是一门研究机器获取新知识和新技能,并识别现有知识的学问。这里所说的“机器”,指的就是计算机,电子计算机,中子计算机、光子计算机或神经计算机等等。
机器能否象人类一样能具有学习能力呢?1959年美国的塞缪尔(Samuel)设计了一个下棋程序,这个程序具有学习能力,它可以在不断的对弈中改善自己的棋艺。4年后,这个程序战胜了设计者本人。又过了3年,这个程序战胜了美国一个保持8年之久的常胜不败的冠军。这个程序向人们展示了机器学习的能力,提出了许多令人深思的社会问题与哲学问题。
机器的能力是否能超过人的,很多持否定意见的人的一个主要论据是:机器是人造的,其性能和动作完全是由设计者规定的,因此无论如何其能力也不会超过设计者本人。这种意见对不具备学习能力的机器来说的确是对的,可是对具备学习能力的机器就值得考虑了,因为这种机器的能力在应用中不断地提高,过一段时间之后,设计者本人也不知它的能力到了何种水平。
机器学习有下面几种定义: “机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能”。 “机器学习是对能通过经验自动改进的计算机算法的研究”。 “机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。” 一种经常引用的英文定义是:A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E.
机器学习已经有了十分广泛的应用,例如:数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人运用。
机械学习_机器学习 -代码示例
本程序将根据您的评价判断执行结果 "1+1=2"实际上仅用了最简单的 if else for 语句这就是一个机器学习的例子,通过环境影响来进行学习。通过本例我们不难看出,在人工错误的引导下,机器会给出错误的答案 1+1不等于2。所以此类学习方法,一定要在正确引导下实践,否则会得到最坏的结果。学习完毕后,计算机会记录本次学习结果,存入数据库,下次执行相应任务时,再将结果调出执行。
机器学习
机器学习
机械学习_机器学习 -分类
基于学习策略的分类
学习策略是指学习过程中系统所采用的推理策略。一个学习系统总是由学习和环境两部分组成。由环境(如书本或教师)提供信息,学习部分则实现信息转换,用能够理解的形式记忆下来,并从中获取有用的信息。在学习过程中,学生(学习部分)使用的推理越少,他对教师(环境)的依赖就越大,教师的负担也就越重。学习策略的分类标准就是根据学生实现信息转换所需的推理多少和难易程度来分类的,依从简单到复杂,从少到多的次序分为以下六种基本类型:
1)机械学习 (Rote learning)
学习者无需任何推理或其它的知识转换,直接吸取环境所提供的信息。如塞缪尔的跳棋程序,纽厄尔和西蒙的LT系统。这类学习系统主要考虑的是如何索引存贮的知识并加以利用。系统的学习方法是直接通过事先编好、构造好的程序来学习,学习者不作任何工作,或者是通过直接接收既定的事实和数据进行学习,对输入信息不作任何的推理。
2)示教学习 (Learning from instruction或Learning by being told)
学生从环境(教师或其它信息源如教科书等)获取信息,把知识转换成内部可使用的表示形式,并将新的知识和原有知识有机地结合为一体。所以要求学生有一定程度的推理能力,但环境仍要做大量的工作。教师以某种形式提出和组织知识,以使学生拥有的知识可以不断地增加。这种学习方法和人类社会的学校教学方式相似,学习的任务就是建立一个系统,使它能接受教导和建议,并有效地存贮和应用学到的知识。不少专家系统在建立知识库时使用这种方法去实现知识获取。示教学习的一个典型应用例是FOO程序。
3)演绎学习 (Learning by deduction)
学生所用的推理形式为演绎推理。推理从公理出发,经过逻辑变换推导出结论。这种推理是"保真"变换和特化(specialization)的过程,使学生在推理过程中可以获取有用的知识。这种学习方法包含宏操作(macro-operation)学习、知识编辑和组块(Chunking)技术。演绎推理的逆过程是归纳推理。
4)类比学习 (Learning by analogy)
利用二个不同领域(源域、目标域)中的知识相似性,可以通过类比,从源域的知识(包括相似的特征和其它性质)推导出目标域的相应知识,从而实现学习。类比学习系统可以使一个已有的计算机应用系统转变为适应于新的领域,来完成原先没有设计的相类似的功能。
类比学习需要比上述三种学习方式更多的推理。它一般要求先从知识源(源域)中检索出可用的知识,再将其转换成新的形式,用到新的状况(目标域)中去。类比学习在人类科学技术发展史上起着重要作用,许多科学发现就是通过类比得到的。例如著名的卢瑟福类比就是通过将原子结构(目标域)同太阳系(源域)作类比,揭示了原子结构的奥秘。
5)基于解释的学习 (Explanation-based learning, EBL)
学生根据教师提供的目标概念、该概念的一个例子、领域理论及可操作准则,首先构造一个解释来说明为什该例子满足目标概念,然后将解释推广为目标概念的一个满足可操作准则的充分条件。EBL已被广泛应用于知识库求精和改善系统的性能。
著名的EBL系统有迪乔恩(G.DeJong)的GENESIS,米切尔(T.Mitchell)的LEXII和LEAP, 以及明顿(S.Minton)等的PRODIGY。
6)归纳学习 (Learning from induction)
归纳学习是由教师或环境提供某概念的一些实例或反例,让学生通过归纳推理得出该概念的一般描述。这种学习的推理工作量远多于示教学习和演绎学习,因为环境并不提供一般性概念描述(如公理)。从某种程度上说,归纳学习的推理量也比类比学习大,因为没有一个类似的概念可以作为"源概念"加以取用。归纳学习是最基本的,发展也较为成熟的学习方法,在人工智能领域中已经得到广泛的研究和应用。
基于所获取知识的表示形式分类
学习系统获取的知识可能有:行为规则、物理对象的描述、问题求解策略、各种分类及其它用于任务实现的知识类型。
对于学习中获取的知识,主要有以下一些表示形式:
1)代数表达式参数
学习的目标是调节一个固定函数形式的代数表达式参数或系数来达到一个理想的性能。
2)决策树
用决策树来划分物体的类属,树中每一内部节点对应一个物体属性,而每一边对应于这些属性的可选值,树的叶节点则对应于物体的每个基本分类。
3)形式文法
在识别一个特定语言的学习中,通过对该语言的一系列表达式进行归纳,形成该语言的形式文法。
4)产生式规则
产生式规则表示为条件―动作对,已被极为广泛地使用。学习系统中的学习行为主要是:生成、泛化、特化(Specialization)或合成产生式规则。
5)形式逻辑表达式
形式逻辑表达式的基本成分是命题、谓词、变量、约束变量范围的语句,及嵌入的逻辑表达式。
6)图和网络
有的系统采用图匹配和图转换方案来有效地比较和索引知识。
7)框架和模式(schema)
每个框架包含一组槽,用于描述事物(概念和个体)的各个方面。
8)计算机程序和其它的过程编码
获取这种形式的知识,目的在于取得一种能实现特定过程的能力,而不是为了推断该过程的内部结构。
9)神经网络
这主要用在联接学习中。学习所获取的知识,最后归纳为一个神经网络。
10)多种表示形式的组合
有时一个学习系统中获取的知识需要综合应用上述几种知识表示形式。
根据表示的精细程度,可将知识表示形式分为两大类:泛化程度高的粗粒度符号表示、?泛化程度低的精粒度亚符号(sub-symbolic)表示。像决策树、形式文法、产生式规则、形式逻辑表达式、框架和模式等属于符号表示类;而代数表达式参数、图和网络、神经网络等则属亚符号表示类。
按应用领域分类
最主要的应用领域有:专家系统、认知模拟、规划和问题求解、数据挖掘、网络信息服务、图象识别、故障诊断、自然语言理解、机器人和博弈等领域。
从机器学习的执行部分所反映的任务类型上看,大部分的应用研究领域基本上集中于以下两个范畴:分类和问题求解。
(1)分类任务要求系统依据已知的分类知识对输入的未知模式(该模式的描述)作分析,以确定输入模式的类属。相应的学习目标就是学习用于分类的准则(如分类规则)。
(2)问题求解任务要求对于给定的目标状态,?寻找一个将当前状态转换为目标状态的动作序列;机器学习在这一领域的研究工作大部分集中于通过学习来获取能提高问题求解效率的知识(如搜索控制知识,启发式知识等)。
综合分类
综合考虑各种学习方法出现的历史渊源、知识表示、推理策略、结果评估的相似性、研究人员交流的相对集中性以及应用领域等诸因素。将机器学习方法
区分为以下六类:
1)经验性归纳学习 (empirical inductive learning)
经验性归纳学习采用一些数据密集的经验方法(如版本空间法、ID3法,定律发现方法)对例子进行归纳学习。其例子和学习结果一般都采用属性、谓词、关系等符号表示。它相当于基于学习策略分类中的归纳学习,但扣除联接学习、遗传算法、加强学习的部分。
2)分析学习(analytic learning)
分析学习方法是从一个或少数几个实例出发,运用领域知识进行分析。其主要特征为:
・推理策略主要是演绎,而非归纳;
・使用过去的问题求解经验(实例)指导新的问题求解,或产生能更有效地运用领域知识的搜索控制规则。
分析学习的目标是改善系统的性能,而不是新的概念描述。分析学习包括应用解释学习、演绎学习、多级结构组块以及宏操作学习等技术。
3)类比学习
它相当于基于学习策略分类中的类比学习。在这一类型的学习中比较引人注目的研究是通过与过去经历的具体事例作类比来学习,称为基于范例的学习(case_based learning),或简称范例学习。
4)遗传算法(genetic algorithm)
遗传算法模拟生物繁殖的突变、交换和达尔文的自然选择(在每一生态环境中适者生存)。它把问题可能的解编码为一个向量,称为个体,向量的每一个元素称为基因,并利用目标函数(相应于自然选择标准)对群体(个体的集合)中的每一个个体进行评价,根据评价值(适应度)对个体进行选择、交换、变异等遗传操作,从而得到新的群体。遗传算法适用于非常复杂和困难的环境,比如,带有大量噪声和无关数据、事物不断更新、问题目标不能明显和精确地定义,以及通过很长的执行过程才能确定当前行为的价值等。同神经网络一样,遗传算法的研究已经发展为人工智能的一个独立分支,其代表人物为霍勒德(J.H.Holland)。
5)联接学习
典型的联接模型实现为人工神经网络,其由称为神经元的一些简单计算单元以及单元间的加权联接组成。
6)增强学习(reinforcement learning)
增强学习的特点是通过与环境的试探性(trial and error)交互来确定和优化动作的选择,以实现所谓的序列决策任务。在这种任务中,学习机制通过选择并执行动作,导致系统状态的变化,并有可能得到某种强化信号(立即回报),从而实现与环境的交互。强化信号就是对系统行为的一种标量化的奖惩。系统学习的目标是寻找一个合适的动作选择策略,即在任一给定的状态下选择哪种动作的方法,使产生的动作序列可获得某种最优的结果(如累计立即回报最大)。
在综合分类中,经验归纳学习、遗传算法、联接学习和增强学习均属于归纳学习,其中经验归纳学习采用符号表示方式,而遗传算法、联接学习和加强学习则采用亚符号表示方式;分析学习属于演绎学习。
实际上,类比策略可看成是归纳和演绎策略的综合。因而最基本的学习策略只有归纳和演绎。
从学习内容的角度看,采用归纳策略的学习由于是对输入进行归纳,所学习的知识显然超过原有系统知识库所能蕴涵的范围,所学结果改变了系统的知识演绎闭包, 因而这种类型的学习又可称为知识级学习;而采用演绎策略的学习尽管所学的知识能提高系统的效率,但仍能被原有系统的知识库所蕴涵,即所学的知识未能改变系统的演绎闭包,因而这种类型的学习又被称为符号级学习。
学习形式分类
1)监督学习(supervised learning)
监督学习,即在机械学习过程中提供对错指示。一般实在是数据组中包含最终结果(0,1)。通过算法让机器自我减少误差。这一类学习主要应用于分类和预测 (regression & classify)。监督学习从给定的训练数据集中学习出一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学习的训练集要求是包括输入和输出,也可以说是特征和目标。训练集中的目标是由人标注的。常见的监督学习算法包括回归分析和统计分类。
2)非监督学习(unsupervised learning)
非监督学习又称归纳性学习(clustering)利用K方式(Kmeans),建立中心(centriole),通过循环和递减运算(iteration&descent)来减小误差,达到分类的目的。
机械学习_机器学习 -相关图书1
基本信息
作者:(美)Tom Mitchell语种:简体中文ISBN:7-111-10993-7开本:16开定价:35.00元原书名:Machine Learning页数:280属性分类:教材出版日期:2003-01-01所属丛书:计算机类丛书译者:曾华军 张银奎 等试用专业:计算机图书分类:计算机>人工智能>综合包含CD:否原出版社:无出版社:机械工业出版社绝版:否图书摘要
本书展示了机器学习中核心的算法和理论,并阐明了算法的运行过程。本书综合了许多的研究成果,例如统计学、人工智能、哲学、信息论、生物学、认知科学、计算复杂性和控制论等,并以此来理解问题的背景、算法和其中的隐含假定。本书可作为计算机专业
本科生、研究生教材,也可作为相关领域研究人员、教师的参考书。
图书特色
TOM M.Mitchell是卡内基梅隆大学的教授,讲授“机器(AAA)的主席:美国《Machine Learning》杂志、国际机器学习年度会议(ICML)的创始人:多种技术杂志的撰稿人,曾发表过许多文章,出版过多本专着,是机器学习领域的著名学者。
图书前言
机器学习这门学科所关注的问题是:计算机程序如何随着经验积累自动提高性能。机器学习已经被成功地应用于很多领域,从检测信用卡交易欺诈的数据挖掘程序,到获取户阅读兴趣的信息过滤系统,再到能在高速公路上自动行驶的汽车。同时,这个学科的基理论和算法也有了重大进展。
这本教材的目标是展现机器学习中核心的算法和理论。机器学习从很多学科吸收了成果和概念,包括统计学、人工智能、哲学、信息论、生物学、认知科学、计算复杂性和控制等。笔者相信,研究机器学习的最佳途径是从这些学科的观点看待机器学习,并且以此来理解问题的背景、算法以及其中隐含的假定。这些在以往很难做到,因为在这一领域缺少包容广泛的原始资料,本书的主要目的就是提供这样的一份资料。
由于素材的多学科性,本书不要求读者具有相应的知识背景,而是在必要时介绍其他一些学科的基本概念,如统计学、人工智能、信息论等。介绍的重点是与机器学习关系最密切甲那些概念。本书可以作为计算机科学与工程、统计学和社会科学等专业的大学生或研究生的教材,也可作为软件研究人员或从业人员的参考资料。
指导本书写作的两条原则为:第一,它是在校大学生可以理解的;第二,它应该包含我希望我自己的博士生在开始他们的器学习研究前要掌握的内容。
指导本书写作的第三条原则是:它应该体现理论和实践间的均衡。机器学习理论致力于回答这样的问题“学习性能是怎样随着给定的训练样例的数量而变化的?”和“对于各种同类型的学习任务:哪个学习算法最适合?”利用来自统计学、计算复杂性和贝叶斯分析的理论成果,这本书讨论了这一类理论问题。同时本书也涵盖很多实践方面的内容:介绍了这一领域的主要算法,阐明了算法的运行过程。
其中一些算法的实现和数据可以在因特网上通过网址http://www.cs.cmu.edu/-tom/mlbook.html得到,包括用于人脸识别的神经网络的源代码和数据、用于信贷分析的决策树学习的源代码和数据及分析文本文档的贝叶分类器的源代码和数据。我很感谢那些帮助我创建这些在线资源的同事,他们是:Jason Rennie、Paul Hsiung、Jeff Shufelt、Matt Glickman、Scott Davies、Joseph O’Sullivan、Ken LangAndrew McCallum和Thorsten Joachims。
图书目录
第1章引言
1.1学习问题的标准描述
1.2设计-个学习系统
1.2.1选择训练经验
1.2.2选择目标函数
1.2.3选择目标函数的表示
1. 2.4选择函数逼近算法
1.2.5最终设计
1.3机器学习的一些观点和问题
1.4如何阅读本书
1.5小结和补充读物
习题
第2章概念学习和一般到特殊序
2.1简介
2.2概念学习任务
2.2.1术语定义
2.2.2归纳学习假设
2.3作为搜索的概念学习
2.4FIND-S:寻找极大特殊假设
2.5变型空间和候选消除算法
2.5.1表示
2.5.2列表后消除算法
2.5.3变型空间的更简洁表示
2.5.4候选消除学习算法
2.5.5算法的举例
2.6关于变型空间和候选消除的说明
2.6.1候选消除算法是否会收敛到正确的假设
2.6.2下一步需要什么样的训练样例
2.6.3怎样使用不完全学习概念
2.7归纳偏置
2.7.1-个有偏的假设空间
2.7.2无偏的学习器
2.7.3无偏学习的无用性
2.8小始和补充读物
习题
第3章决策树学习
3.1简介
3.2决策树表示法
3.3决策树学习的适用问题
3.4基本的决策树学习算法
3.4.1哪个属性是最佳的分类属性
3.4.2举例
3.5决策树学习中的假设空间搜索
3.6决策树学习的归纳偏置
3.6.1限定偏置和优选偏置
3.6.2为什么短的假设优先
3.7决策树学习的常见问题
3.7.1避免过度拟合数据
3. 7.2合并连续值属性
3.7.3属性选择的其他度量标准
3.7.4处理缺少属性值的训练样例
3.7.5处理不同代价的属性
3.8小结和补充读物
习题
第4章人工神经网络
4.1简介
4.2神经网络表示
4.3适合神经网络学习的问题
4.4感知器
4.4.1感知器的表征能力
4. 4.2感知器训练法则
4.4.3梯度下降和delta法则
4.4.4小结
4.5多层网络和反向传播算法
4.5.1可微阈值单元
4.5.2反向传播算法
4.5.3反向传播法则的推导
4.6反向传播算法的说明
4.6.1收敛性和局部极小值
4.6.2前馈网络的表征能力
4.6.3假设空间搜索和归纳偏置
4.6.4隐藏层表示
4.6.5泛化、过度拟合和停止判据
4.7举例:人脸识别
4.7.1任务
4.7.2设计要素
4.7.3学习到的隐藏层表示
4.8人工神经网络的高级课题
4.8.1其他可选的误差函数
4.8.2其他可选的误差最小化过程
4.8.3递归网络
4.8.4动态修改网络结构
4.9小结和补充读物
习题
第5章评估假设
5.1动机
5.2估计假设精度
5.2.1样本错误率和真实错误率
5.2.2离散值假设的置信区间
5.3采样理论基础
5.3.1错误率估计和二项比例估计
5.3.2二项分布
5.3.3均值和方差
5.3.4估计量、偏差和方差
5.3.5置信区间
5.3.6双侧和单侧边界
5.4推导置信区间的一般方法
5.5两个假设错误率间的差异
5.6学习算法比较
5.6. 1配对t测试
5.6.2实际考虑
5.7小结和补充读物
习题
第6章贝叶斯学习
6.1简介
6.2贝叶斯法则
6.3贝叶斯法则和概念学习
6.3.1BRUTE-FORCE贝叶斯概念学习
6.3.2MAP假设和一致学习器
6.4极大似然和最小误差平方假设
6.5用于预测概率的极大似然假设
6.6最小描述长度准则
6.7贝叶斯最优分类器
6.8GIBBS算法
6.9朴素贝叶斯分类器
6.10举例:学习分类文本
6.11贝叶斯信念网
6.11.1条件独立性
6.11.2表示
6.11.3推理
6.11.4学习贝叶斯信念网
6.11.5贝叶斯网的梯度上升训练
6.11.6学习贝叶斯网的结构
6.12EM算法
6.12.1估计k个高斯分布的均值
6.12.2EM算法的一般表述
6.12.3k均值算法的推导
6.13小结和补充读物
习题
第7章计算学习理论
7.1简介
7.2可能学习近似正确假设
7.2.1问题框架
7.2.2假设的错误率
7.2.3PAC可学习性
7.3有限假设空间的样本复杂度
7.3.1不可知学习和不一致假设
7.3.2布尔文字的合取是PAC可学习的
7.3.3其他概念类别的PAC可学习性
7.4无限假设空间的样本复杂度
7.4.1打散一个实例集合
7.4.2Vapnik-Chervonenkis维度
7.4.3样本复杂度和VC维
7.4.4神经网络的VC维
7.5学习的出错界限模型
7.5.1FIND-S算法的出错界限
7.5.2HALVING算法的出错界限
7.5.3最优出错界限
7.5.4加权多数算法
7.6小结和补充读物
习题
第8章基于实例的学习
8.1简介
8.2k-近邻算法
8.2.1距离加权最近邻算法
8.2.2对k-近邻算法的说明
8.2.3术语注解
8.3局部加权回归
8.3.1局部加权线性回归
8.3.2局部加权回归的说明
8.4径向基函数
8.5基于案例的推理
8.6对消极学习和积极学习的评论
8.7小结和补充读物
习题
第9章遗传算法
9.1动机
9.2遗传算法
9.2.1表示假设
9.2.2遗传算子
9.2.3适应度函数和假设选择
9.3举例
9.4假设空间搜索
9.5遗传编程
9.5.1程序表示
9.5.2举例
9.5.3遗传编程说明
9.6进化和学习模型
9.6.1拉马克进化
9.6.2鲍德温效应
9.7并行遗传算法
9.8小结和补充读物
习题
第10章学习规则集合
10.1简介
10.2序列复盖算法
10.2.1一般到特殊的柱状搜索
10.2.2几种变型
10.3学习规则集:小结
10.4学习一阶规则
10.4.1一阶Horn子句
10.4.2术语
10.5学习一阶规则集:FOIL
10.5.1FOIL中的候选特化式的生成
10.5.2引导FOIL的搜索
10.5.3学习递归规则集
10.5.4FOIL小结
10.6作为逆演绎的归纳
10.7逆归纳
10.7.1一阶归纳
10.7.2逆归纳:一阶情况
10.7.3逆归纳小结
10.7.4泛化、-包容和涵蕴
10.7.5PROGOL
10.8小结和补充读物
习题
第11章分析学习
11.1简介
11.2用完美的领域理论学习:PROLOG-EBG
11.3对基于解释的学习的说明
11.3.1发现新特征
11.3.2演绎学习
11.3.3基于解释的学习的归纳偏置
11.3.4知识级的学习
11.4搜索控制知识的基于解释的学习
11.5小结和补充读物
习题
第12章归纳和分析学习的结合
12.1动机
12.2学习的归纳-分析途径
12.2.1学习问题
12.2.2假设空间搜索
12.3使用先验知识得到初始假设
12.3.1KBANN算法
12.3.2举例
12.3.3说明
12.4使用先验知识改变搜索目标
12.4.1TANGENTPROP算法
12.4.2举例
12.4.3说明
12.4.4EBNN算法
12.4.5说明
12.5使用先验知识来扩展搜索算子
12.5.1FOCL算法
12.5.2说明
12.6研究现状
12.7小结和补充读物
习题
第13章增强学习
13.1简介
13.2学习任务
13.3Q学习
13.3.1Q函数
13.3.2一个学习Q的算法
13.3.3举例
13.3.4收敛性
13.3.5实验策略
13.3.6更新序列
13.4非确定性回报和动作
13.5时间差分学习
13.6从样例中泛化
13.7与动态规划的联乐
13.8小结和补充读物
习题
附录符号约定
机械学习_机器学习 -相关图书2
基本信息
原作名:Machine Learning for Hackers
作者:(美)Drew Conway/John Myles White
译者:陈开江/刘逸哲/孟晓楠/罗森林 审校
出版社:机械工业出版社
页数:320
定价:69.00
ISBN:9787111417316
内容简介
这本书为机器学习技术提供了一些非常棒的案例研究。它并不想成为一本关于机器学习的工具书或者理论书籍,它注重的是一个学习的过程,因而对于任何有一些编程背景和定量思维的人来说,它都是不错的选择。
――Max Shron OkCupid
机器学习
机器学习是计算机科学和人工智能中非常重要的一个研究领域,机器学习不但在计算机科学的众多领域中大显身手,而且成为一些交叉学科的重要支撑技术。本书比较全面系统地介绍了机器学习的方法和技术,不仅详细阐述了许多经典的学习方法,还讨论了一些有生命力的新理论、新方法。
全书案例既有分类问题,也有回归问题;既包含监督学习,也涵盖无监督学习。本书讨论的案例从分类讲到回归,然后讨论了聚类、降维、最优化问题等。这些案例包括分类:垃圾邮件识别,排序:智能收件箱,回归模型:预测网页访问量,正则化:文本回归,最优化:密码破解,无监督学习:构建股票市场指数,空间相似度:用投票记录对美国参议员聚类,推荐系统:给用户推荐R语言包,社交网络分析:在Twitter上感兴趣的人,模型比较:给你的问题找到最佳算法。各章对原理的叙述力求概念清晰、表达准确,突出理论联系实际,富有启发性,易于理解。在探索这些案例的过程中用到的基本工具就是R统计编程语言。R语言非常适合用于机器学习的案例研究,因为它是一种用于数据分析的高水平、功能性脚本语言。
本书主要内容:
开发一个朴素贝叶斯分类器,仅仅根据邮件的文本信息来判断这封邮件是否是垃圾邮件;
使用线性回归来预测互联网排名前1000网站的PV;
利用文本回归理解图书中词与词之间的关系;
通过尝试破译一个简单的密码来学习优化技术;
利用无监督学习构建股票市场指数,用于衡量整体市场行情的好坏;
根据美国参议院的投票情况,从统计学的角度对美国参议员聚类;
通过K近邻算法构建向用户推荐R语言包;
利用Twitter数据来构建一个“你可能感兴趣的人”的推荐系统;
模型比较:给你的问题找到最佳算法。
作者简介
Drew Conway 机器学习专家,拥有丰富的数据分析与处理工作经验。主要利用数学、统计学和计算机技术研究国际关系、冲突和恐怖主义等。他曾作为研究员在美国情报和国防部门供职数年。他拥有纽约大学政治系博士学位,曾为多种杂志撰写文章,是机器学习领域的著名学者。
John Myles White 机器学习专家,拥有丰富的数据分析与处理工作经验。主要从理论和实验的角度来研究人类如何做出决定,同时还是几个流行的R语言程序包的主要维护者,包括ProjectTemplate和log4r。他拥有普林斯顿大学哲学系博士学位,曾为多家技术杂志撰稿,发表过许多关于机器学习的论文,并在众多国际会议上发表演讲。
译者简介
罗森林
博士,教授,博导。现任北京理工大学信息系统及安全对抗实验中心主任、专业责任教授。国防科技工业局科学技术委员会成员;《中国医学影像技术杂志》、《中国介入影像与治疗学》编委会委员;全国大学生信息安全技术专题邀请赛专家组副组长;中国人工智能学会智能信息安全专业委员会委员等。主要研究方向为信息安全、数据挖掘、媒体计算、中文信息处理等。负责或参加完成国家自然科学基金、国家科技支撑计划、863计划、国家242计划等省部级以上项目40余项。已发表学术论文90余篇,出版着作8部,出版译着1部,获授权专利3项。
陈开江
新浪微博搜索部研发工程师,曾独立负责微博内容反垃圾系统、微博精选内容挖掘算法、自助客服系统(包括自动回复、主动挖掘、舆情监测)等项目,主要从事社交挖掘、推荐算法研究、机器学习、自然语言处理相关工作,研究兴趣是社交网络的个性化推荐。
刘逸哲
阿里巴巴,CBU基础平台部搜索与推荐团队核心技术与query分析方向负责人,机器学习技术领域及圈子负责人。曾任中国雅虎相关性团队、自然语言处理团队算法工程师;AvePoint.inc开发工程师,从事企业级搜索引擎开发。研究兴趣是机器学习、自然语言处理及个性化推荐等算法在大规模数据上的应用。
孟晓楠
一淘广告技术,阿里非搜索广告算法负责人,负责用户行为分析、建模与细分,RTB竞价算法,展示广告CTR预估与SEM优化。曾工作于网易杭州研究院,参与过分布式全文检索系统和网易博客产品的数据挖掘算法开发。研究兴趣是计算广告技术、机器学习、大数据技术、信息检索等。