首先,该文章来自于极客时间网站,王争的专栏——《数据结构与算法之美》,我这里只是做简单的解释、记录并添加自己的见解,只是作为个人笔记,若侵权,马上删除。最后建议直接去该网站上购买该课程看原作者的讲解,一来是支持作者,二来是作者写的确实不错。
“堆”(Heap)是一种特殊的树,其最常用的场景为堆排序。堆排序是一种原地的、时间复杂度为 $O(nlogn)$ 的排序算法。
快速排序,平均情况下,它的时间复杂度为 $O(nlogn)$。尽管这两种排序算法的时间复杂度都是 $O(nlogn)$,甚至堆排序比快速排序的时间复杂度还要稳定,但是,在实际中,快速排序的性能要比堆排序好,这是为什么呢?
如何理解“堆”?
堆是一种特殊的树,需要满足下面两点:
- 堆是一个完全二叉树:除了最后一层,其他层的节点个数都是满的,最后一层的节点都靠左排列。
- 堆中每一个节点的值都必须大于等于(或小于等于)其子树中每个节点的值:堆中每个节点的值都大于等于(或者小于等于)其左右子节点的值。
对于每个节点的值都大于等于子树中每个节点值的堆,我们叫作“大顶堆”。对于每个节点的值都小于等于子树中每个节点值的堆,我们叫作“小顶堆”。
如下图所示,第1个和第2个是大顶堆,第3个是小顶堆,第4个不是堆。从第1个和第2个对比可以发现,我们可以构建多种不同形态的堆。
如何实现一个堆?
要先实现一个堆,首先要明白堆都支持哪些操作以及如何存储一个堆。
之前说过,完全二叉树比较适合用数组存储,不需要存储左右子节点的指针,单纯地通过数组的下标,就可以找到一个节点的左右子节点和父节点,所以非常节省存储空间。如下所示:
从图中可以看出,下标为0的数组并没有存储任何数据。数组中下标为 $i$ 的节点的左子节点,就是下标为 $i∗2$ 的节点,右子节点就是下标为 $i∗2+1$ 的节点,父节点就是下标为 $\frac{i}{2}$ 的节点。由此可通过下标知道节点的左右子节点和父节点。
对于堆上的操作,非常核心的有往堆中插入一个元素和删除堆顶元素。以下以大顶堆来说明。
往堆中插入一个元素
往堆中插入一个元素后,我们需要继续满足堆的两个特性。
若将新插入的元素放到堆最后,如下图所示,其并不符合堆的定义。对其进行堆化(heapify),让其重新满足堆的特性。堆化实际上有两种,从下往上和从上往下。这里先讲从下往上的堆化方法。
所谓堆化,就是顺着节点所在的路径,向上或者向下,对比,然后交换。如下所示,让新插入的节点与父节点对比大小。如果不满足子节点小于等于父节点的大小关系,我们就互换两个节点。一直重复这个过程,直到父子节点之间满足刚说的那种大小关系。
对应的代码如下:
1 | public class Heap { |
删除堆顶元素
根据堆的定义,堆顶元素存储的就是堆中数据的最大值或者最小值。
假设构造的是大顶堆,堆顶元素就是最大的元素。当我们删除堆顶元素之后,就需要把第二大的元素放到堆顶,那第二大元素肯定会出现在左右子节点中。然后我们再迭代地删除第二大节点,以此类推,直到叶子节点被删除。如下所示,可以看出这种方法有点问题,最后堆化出来的堆并不满足完全二叉树的特性。
换个思路,如下图所示,我们把最后一个节点放到堆顶,然后利用同样的父子节点对比方法。对于不满足父子节点大小关系的,互换两个节点,并且重复进行这个过程,直到父子节点之间满足大小关系为止。这就是从上往下的堆化方法。
因为我们移除的是数组中的最后一个元素,而在堆化的过程中,都是交换操作,不会出现数组中的“空洞”,所以这种方法堆化之后的结果,肯定满足完全二叉树的特性。
对应的代码如下:
1 | public void removeMax() { |
一个包含 $n$ 个节点的完全二叉树,树的高度不会超过 $log_2n$。堆化的过程是顺着节点所在路径比较交换的,所以堆化的时间复杂度跟树的高度成正比,也就是 $O(logn)$。插入数据和删除堆顶元素的主要逻辑就是堆化,所以,往堆中插入一个元素和删除堆顶元素的时间复杂度都是 $O(logn)$。
如何基于堆实现排序?
基于堆结构实现的排序算法称为堆排序,它时间复杂度非常稳定为$O(logn)$,并且它还是原地排序算法。其过程可以大致分解为两个大的步骤:建堆和排序。
建堆
首先将数组原地建成一个堆。所谓“原地”就是,不借助另一个数组,就在原数组上操作。建堆的过程,有两种思路。
第一种:借助前面讲的堆中插入元素的思路。假设堆中只包含一个下标为1的数据。然后调用前面讲的插入操作,将下标从 2 到 $n$ 的数据依次插入到堆中。这样就将这 $n$ 个数据的数组,组织成了堆。
第二种:第一种建堆思路的处理过程是从前往后处理数组数据,并且每个数据插入堆中时,都是从下往上堆化。而第二种实现思路,是从后往前处理数组,并且每个数据都是从上往下堆化。
如下所示画了一个第二种实现思路的建堆分解步骤图。因为叶子节点往下堆化只能自己跟自己比较,所以我们直接从第一个非叶子节点开始,依次堆化就行了。
对应的代码如下:
1 | private static void buildHeap(int[] a, int n) { |
该代码中,对下标从$\frac{n}{2}$开始到1的数据进行堆化,而下标为$\frac{n}{2}+1$到$n$的节点为叶子节点,不需要堆化。
每个节点堆化的时间复杂度为$O(logn)$,那$\frac{n}{2}+1$个节点堆化总时间是不是就是$O(nlogn)$呢?这个值还不够精确。下面进行详细分析。
因为叶子节点不需要堆化,所以需要堆化的节点从倒数第二层开始。每个节点堆化的过程中,需要比较和交换的节点个数,跟这个节点的高度 $k$ 成正比。
如下图为每一层的节点个数和对应的高度,只需要将每个节点的高度求和,得到的就是建堆的时间复杂度。
将每个非叶子节点的高度求和,如下所示:
把公式左右都乘以 2,就得到另一个公式 $S2$,其中$S2=2\times S1$。我们将 $S2$ 错位对齐,并且用 $S2$ 减去 $S1$,可以得到 $S$。
S 的中间部分是一个等比数列,所以最后可以用等比数列的求和公式来计算,最终的结果如下所示:
因为 $h=log_2n$,代入公式 $S$,就能得到 $S=O(n)$,所以,建堆的时间复杂度就是 $O(n)$。
排序
建堆结束后,数组中的数据已经是按照大顶堆的定义组织。数组中的第一个元素就是堆顶,也就是最大的元素。
将栈顶与最后一个元素互换位置,那最大元素就放到了下标为 $n$ 的位置。类似上面的“删除栈顶元素”的操作,下标为 $n$ 的原数据被移动到了堆顶,然后按照堆化的方法,将剩下的 $n-1$ 个元素重新构建成堆。堆完成之后,再拿堆顶的元素和下标为 $n - 1$的元素互换位置,一直重复这个过程,直到最后堆中只剩下标为 1 的一个元素,排序工作就完成了。
对应的代码如下:
1 | // n表示数据的个数,数组a中的数据从下标1到n的位置。 |
整个堆排序的过程,都只需要极个别临时存储空间,所以堆排序是原地排序算法。堆排序包括建堆和排序两个操作,建堆过程的时间复杂度是 $O(n)$,排序过程的时间复杂度是 $O(nlogn)$,所以,堆排序整体的时间复杂度是 $O(nlogn)$。
堆排序不是稳定的排序算法,因为在排序的过程,存在将堆的最后一个节点跟堆顶节点互换的操作,所以就有可能改变值相同数据的原始相对顺序。
值得注意的是,若你堆中的数据是从下标为0开始存储的,那么在实现代码过程中,计算子节点和父节点的下标的公式改变了。
如果节点的下标是 $i$,那左子节点的下标就是 $2∗i+1$,右子节点的下标就是 $2∗i+2$,父节点的下标就是 $\frac{i-1}{2}$。
解答开篇
实际中,为什么快读排序要比堆排序性能好?
主要有以下两个方面的原因:
第一点,堆排序数据访问的方式没有快速排序友好。
对于快速排序来说,数据是顺序访问的。而对于堆排序来说,数据是跳着访问的。 比如,堆排序中,最重要的一个操作就是数据的堆化。比如下面这个例子,对堆顶节点进行堆化,会依次访问数组下标是 1,2,4,8 的元素,而不是像快速排序那样,局部顺序访问,所以,这样对 CPU 缓存是不友好的。
第二点,对于同样的数据,在排序过程中,堆排序算法的数据交换次数要多于快速排序。
排序中有两个概念:有序度和逆序度。对于基于比较的排序算法来说,整个排序过程就是由两个基本的操作组成的,比较和交换(或移动)。快速排序数据交换的次数不会比逆序度多。
但是堆排序的第一步是建堆,建堆的过程会打乱数据原有的相对先后顺序,导致原数据的有序度降低。比如,对于一组已经有序的数据来说,经过建堆之后,数据反而变得更无序了。
内容小结
堆是一种完全二叉树。它最大的特性是:每个节点的值都大于等于(或小于等于)其子树节点的值。因此,堆被分成了两类,大顶堆和小顶堆。
堆中比较重要的两个操作是插入一个数据和删除堆顶元素。这两个操作都要用到堆化。插入一个数据的时候,我们把新插入的数据放到数组的最后,然后从下往上堆化;删除堆顶数据的时候,我们把数组中的最后一个元素放到堆顶,然后从上往下堆化。这两个操作时间复杂度都是 $O(logn)$。
堆排序包含两个过程,建堆和排序。我们将下标从$\frac{n}{2}$ 到 1 的节点,依次进行从上到下的堆化操作,然后就可以将数组中的数据组织成堆这种数据结构。接下来,我们迭代地将堆顶的元素放到堆的末尾,并将堆的大小减一,然后再堆化,重复这个过程,直到堆中只剩下一个元素,整个数组中的数据就都有序排列了。
课后思考
在讲堆排序建堆的时候,我说到,对于完全二叉树来说,下标从 $\frac{n}{2}$ 到 n 的都是叶子节点,这个结论是怎么推导出来的呢?
答:使用数组存储表示完全二叉树时,从数组下标为1开始存储数据,数组下标为i的节点,左子节点为2i, 右子节点为2i + 1. 这个结论很重要(可以用数学归纳法证明),将此结论记为『原理1』,以下证明会用到这个原理。
为什么,对于完全二叉树来说,下标从n/2 + 1 到 n的节点都是叶子节点? 使用反证法证明即可:
如果下标为n/2 + 1的节点不是叶子节点,即它存在子节点,按照『原理1』,它的左子节点为:2(n/2 + 1) = n + 2,大家明显可以看出,这个数字已经大于n + 1,超出了实现完全二叉树所用数组的大小(数组下标从1开始记录数据,对于n个节点来说,数组大小是n + 1),左子节点都已经超出了数组容量,更何况右子节点。以此类推,很容易得出:下标大于n/2 + 1的节点肯定都是也叶子节点了,故而得出结论:对于完全二叉树来说,下标从n/2 + 1 到 n的节点都是叶子节点。