机器学习笔记-8(应用机器学习的建议)

这里是课程第九部分的内容,上面咱学习了好几种机器学习算法,基本涵盖了当前机器学习水平的大概情况。然后,下一步是什么?

事实上,或许你现在已经理解了上面所学习的几种算法,但是却不知道如何去应用它们,OK,这里就是为了机器学习应用的情况而进行的讨论。

很多时候,当你使用一个机器学习算法用某一集合的数据训练完之后,在加入新数据进行预测时,会突然发现误差很大,这就说明H函数的泛化不行,对新数据适应力不足。然后,在这种情况下,咱该怎么办呢 ?一般来说,你可以参考下列清单:

  • 获取更多的训练集
  • 尝试特征的一个小集
  • 尝试使用更多的特征
  • 尝试加入多项式特征
  • 尝试减小λ(正则参数)
  • 尝试增大λ(正则参数)

下面咱分别分析每个条目具体的应用情况。 继续阅读“机器学习笔记-8(应用机器学习的建议)”

机器学习笔记-7(神经网络的实现)

第九部分终于出来了,迅速看完。总算了解些许神经网络的实现和运作流程。

Neural Network (Classification)

神经网络/分类

按照自己的理解是,神经网络一般用于特征规模比较大或者是特征粒度特别细的情况下,也就是用微粒去寻找内在的模式。比如,前面提到的汽车识别的问题。像素在特征粒度来看是非常细密的,单看像素信息,是没法看出内禀模式的,所以多层结构的神经网络在这种情况下,就变得比较厉害。隐层内的逻辑处理单元对应这神经结构中的神经元,同层中的多个逻辑单元其实就是对上一层的输入进行不同组合的操作(配以不同的参数/权重),这样子通过对像素信息的不同组合,就能抽象出其中的不同模式(例如,图片区域方向/材质之类的信息)。层数越多,寻找到的模式就有可能越抽象,能实现的东西就会越强大。 继续阅读“机器学习笔记-7(神经网络的实现)”

机器学习笔记-6(神经网络的表示)

神经网络,哟呵呵~ 一看上去就很高端大气上档次 XD

最近很火的概念“Deep Learning”(深度学习),就是缘于神经网络,在上个世界70~90年代,这个概念曾经火过一段时间,但是后面发现在处理当时的问题(当时的计算机需要处理的问题,咳咳~ 是有其时代局限性的,要求不高。现在的计算机介么强大,配合“大数据”这一流弊的概念,神经网络终于再一次展现出其强大的潜力)效果居然还不如其他的一般机器学习算法,便沉寂了下来。不过时至今日,这个概念由于神经科学研究的深入,神经网络的升级版本“深度学习”开始展现出其强大的威力。神经网络由于基于生理学上的科学研究,所以跟人工智能的联系非常密切。当年吴恩达教授在刚进入大学接触到人工智能这个观念时,甚至根本就不看好人工智能的发展,还劝学生放弃这个“不切实际的梦想”,另一方面吴恩达教授从小的梦想就是发明能像人类一样思考的机器(笑)。不过直到他接触到了霍金斯(Jeff Hawikins,有神经科学研究背景的人工智能专家)的”单一演算法”假说,他重新拾起儿时的梦想。 继续阅读“机器学习笔记-6(神经网络的表示)”