37分治算法:谈一谈大规模计算框架MapReduce中的分治思想

首先,该文章来自于极客时间网站,王争的专栏——《数据结构与算法之美》,我这里只是做简单的解释、记录并添加自己的见解,只是作为个人笔记,若侵权,马上删除。最后建议直接去该网站上购买该课程看原作者的讲解,一来是支持作者,二来是作者写的确实不错。

MapReduce、GFS 和 Bigtable并列为Google大数据处理的三驾马车。其中MapReduce在倒排索引、PageRank 计算、网页分析等搜索引擎相关的技术中都有大量的应用。实际上,它的本质就是今天我们要学的算法思想——分治算法。

如何理解分治算法

分治算法(divide and conquer)的核心思想就是分而治之。也就是将原问题划分成 n 个规模较小,并且结构与原问题相似的子问题,递归地解决这些子问题,然后再合并其结果,就得到原问题的解。

这个定义看起来有点类似于递归。区别在于分治算法是一种处理问题的思想,递归是一种编程技巧。实际上,分治算法一般都比较适合用递归来实现。分层算法的递归实现中,每一层递归都会涉及这样的三个操作:

  • 分解:将原问题分解成一系列子问题;
  • 解决:递归地求解各个子问题,若子问题足够小,则直接求解;
  • 合并:将子问题的结果合并成原问题。

分治算法能解决的问题,一般要满足下面几个条件:

  • 原问题与分解成的小问题具有相同的模式;
  • 原问题分解成的子问题可以独立求解,子问题之间没有相关性,这一点是分治算法跟动态规划的明显区别;
  • 具有分解终止条件,也就是说,当问题足够小时,可以直接求解;
  • 可以将子问题合并成原问题,而这个合并操作的复杂度不能太高,否则就起不到减小算法总体复杂度的效果了。

分治算法应用举例分析

分治算法的难点在于灵活应用。之前我们在排序算法中讲过数据的有序度、逆序度的概念。即用有序度来表示一组数据的有序程度,用逆序度表示一组数据的无序程度。

假设我们有 n 个数据,我们期望数据从小到大排列,那完全有序的数据的有序度就是 n(n-1)/2,逆序度等于 0;相反,倒序排列的数据的有序度就是 0,逆序度是 n(n-1)/2。除了这两种极端情况外,可以通过计算有序对或者逆序对的个数,来表示数据的有序度或逆序度。如下所示:

img

现在问题是如何编程求出一组数据的有序对个数或者逆序对个数呢?因为有序对和逆序对个数的求解方式是类似的,所以可以只思考逆序对个数的求解方法。

最笨的方法是,拿每个数字跟它后面的数字比较,看有几个比它小的。求和后即可得到逆序对个数。不过,这样操作的时间复杂度是 $O(n^2)$。有没有更加高效的处理方法呢?

我们可以用分治算法来试试,套用分治的思想来求数组 A 的逆序对个数。我们可以将数组分成前后两半 A1 和 A2,分别计算 A1 和 A2 的逆序对个数 K1 和 K2,然后再计算 A1 与 A2 之间的逆序对个数 K3。那数组 A 的逆序对个数就等于 K1+K2+K3。

分治算法有一个要求——子问题合并的代价不能太大,否则不能降低时间复杂度。那么如何快速计算出两个子问题 A1 与 A2 之间的逆序对个数呢?这就需要借助于归并排序算法。归并排序中有一个非常关键的操作——将两个有序的小数组,合并成一个有序的数组。每次合并之后的操作中,都计算逆序对个数并求和,就是这个数组的逆序对个数了。

img

对应的代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
private int num = 0; // 全局变量或者成员变量

public int count(int[] a, int n) {
num = 0;
mergeSortCounting(a, 0, n-1);
return num;
}

private void mergeSortCounting(int[] a, int p, int r) {
if (p >= r) return;
int q = (p+r)/2;
mergeSortCounting(a, p, q);
mergeSortCounting(a, q+1, r);
merge(a, p, q, r);
}

private void merge(int[] a, int p, int q, int r) {
int i = p, j = q+1, k = 0;
int[] tmp = new int[r-p+1];
while (i<=q && j<=r) {
if (a[i] <= a[j]) {
tmp[k++] = a[i++];
} else {
num += (q-i+1); // 统计p-q之间,比a[j]大的元素个数
tmp[k++] = a[j++];
}
}
while (i <= q) { // 处理剩下的
tmp[k++] = a[i++];
}
while (j <= r) { // 处理剩下的
tmp[k++] = a[j++];
}
for (i = 0; i <= r-p; ++i) { // 从tmp拷贝回a
a[p+i] = tmp[i];
}
}

分治算法还有两个经典问题:

  • 二维平面上有 n 个点,如何快速计算出两个距离最近的点对?
  • 有两个 n*n 的矩阵 A,B,如何快速求解两个矩阵的乘积 C=A*B?

分治思想在海量数据处理中的应用

前面我们讲过的数据结构和算法,大部分都是基于内存存储和单机处理。但若处理的数据量非常大,没法一次性放到内存中,这些数据结构和算法就失效了。

比如给10GB的订单文件按照金额排序,但内存可能只有2、3GB,无法全部装到内存,也就无法单纯使用快排、归并等基础算法了。这时需要借助分治的思想。可以将海量的数据集合根据某种方法,划分为几个小的数据集合,每个小的数据集合单独加载到内存来解决,然后再将小数据集合合并成大数据集合。实际上,利用这种分治的处理思路,不仅仅能克服内存的限制,还能利用多线程或者多机处理,加快处理的速度。

比如对于10GB的订单,可以先扫描一遍订单,根据订单金额,将10GB的文件划分为几个金额区间。比如订单金额1到100、101到200的分别放到一个小文件夹等。这样可以将这些小文件分别加载到内存中排序,再合并这些有序的小文件。这样就就完成了10GB订单的排序任务。另外,将大文件被分割成各个小文件之后,可以采用分布式系统,并行处理这些文件。

解答开篇

为什么说 MapReduce 的本质就是分治思想?

面对类似于100T这样的海量数据,一台机器的处理效率肯定很低,需要借助到集群并行处理。将任务拆分到多台机器上处理,拆分之后的小任务之间互不干扰,独立计算,最后再将结果合并。这就是分治思想。

实际上,MapReduce 框架只是一个任务调度器,底层依赖 GFS 来存储数据,依赖 Borg 管理机器。它从 GFS 中拿数据,交给 Borg 中的机器执行,并且时刻监控机器执行的进度,一旦出现机器宕机、进度卡壳等,就重新从 Borg 中调度一台机器执行。

内容小结

分治算法用四个字概括就是“分而治之”,将原问题划分成 n 个规模较小而结构与原问题相似的子问题,递归地解决这些子问题,然后再合并其结果,就得到原问题的解。这个思想非常简单、好理解。

今天我们学习了两种分治算法的典型的应用场景,一个是用来指导编码,降低问题求解的时间复杂度,另一个是解决海量数据处理问题。比如 MapReduce 本质上就是利用了分治思想。

------ 本文结束------
坚持原创技术分享,您的支持将鼓励我继续创作!

欢迎关注我的其它发布渠道