机器学习笔记-16(应用范例:照片OCR)

这里是第十八部分,应用范例:照片OCR。

OCR是啥? 全称为Optical character recognition(光学字符识别),也就是一项从图像的光学信息进行字符识别的技术。

那么,就直接进行问题描述吧。咱们现在的问题是如果从一个照片中提取出含字符的区域,并进行识别。

The Photo OCR problem

照片OCR问题

为了解决这个问题,咱构建了一个流水线结构。把整个处理过程依次分为了 文本检测->字符切分->字符分类 三个部分。每一模块的输出作为下一个模块的输入,也就形成了流水线一般的处理结构。下图给出了每一模块的具体处理任务。 继续阅读“机器学习笔记-16(应用范例:照片OCR)”

机器学习笔记-15(大规模机器学习)

这部分主要是讲超大规模数据下的机器学习优化方法。之前就说过了一个结论”大数据下,各算法差异不明显。”

Machine learning and data

大数据集下的机器学习情况

关于评估机器学习的效果,也就是之前的学习曲线,在这就不多说了,直接说这部分的内容了,这部分东西总的来说不多,也很容易理解。

Learning with large datasets

大规模数据下的学习曲线

课程一共介绍了四个关于大规模机器学习的优化方法,首先来讲第一个Stochastic gradient descent(随机梯度下降法)。 继续阅读“机器学习笔记-15(大规模机器学习)”

机器学习笔记-12(降维)

上部分讲到了非监督学习算法一种类型”聚类”,并了解到了K平均算法。

这一部分,咱开始讨论非监督学习中的另一类型问题:降维

为什么要对数据进行降维?论动机的话,主要有两个:1、压缩数据 2、利于视觉化数据分析 而且通常情况,对数据进行降维后,还有利于大幅度提升机器学习算法的运行速度。下面,咱来具体讨论。

扯些可能”题外话”。数据降维的处理其实有点类似咱人类的做法,因为人天生就有提取重要特征的能力。其实在课程里Andrew Ng教授给出国家GDP等数据的例子里,便可以看出(从N多的特征中,抽象出几个重要的新特征)。降维其实是一种提取重要特征的方法。

在很多情况下,机器学习算法中使用的特征,数量通常都不会很小。大量的特征配合大数量样本数就产生数量巨大的数据,数据越多,算法运行起来也有可能更慢。此时,咱首先想到的方法是对数据进行压缩。但是具体该使用何种方法呢?这里,咱使用的就是对数据进行降维。 继续阅读“机器学习笔记-12(降维)”