堆排序( Heap Sort )由威尔士-加拿大计算机科学家 J. W. J. Williams 在 1964 年发明,它利用了二叉堆 (A binary heap) 的性质实现了排序,并证明了二叉堆数据结构的可用性。同年,美国籍计算机科学家 R. W. Floyd 在其树排序研究的基础上,发布了一个改进的更好的原地排序的堆排序版本。
堆排序属于选择类排序算法。
一、优先队列
优先队列是一种能完成以下任务的队列:插入一个数值,取出最小或最大的数值(获取数值,并且删除)。
优先队列可以用二叉树来实现,我们称这种结构为二叉堆。
最小堆和最大堆是二叉堆的一种,是一棵完全二叉树(一种平衡树)。
最小堆的性质:
- 父节点的值都小于左右儿子节点。
- 这是一个递归的性质。
最大堆的性质:
- 父节点的值都大于左右儿子节点。
- 这是一个递归的性质。
最大堆和最小堆实现方式一样,只不过根节点一个是最大的,一个是最小的。
1.1. 最大堆特征
最大堆实现细节(两个操作):
- push:向堆中插入数据时,首先在堆的末尾插入数据,如果该数据比父亲节点还大,那么交换,然后不断向上提升,直到没有大小颠倒为止。
- pop:从堆中删除最大值时,首先把最后一个值复制到根节点上,并且删除最后一个数值,然后和儿子节点比较,如果值小于儿子,与儿子节点交换,然后不断向下交换, 直到没有大小颠倒为止。在向下交换过程中,如果有两个子儿子都大于自己,就选择较大的。
最大堆有两个核心操作,一个是上浮,一个是下沉,分别对应 push 和 pop。
这是一个最大堆:
用数组表示为:[11 5 8 3 4]
1.2. 上浮操作
我们要往堆里 push 一个元素 15,我们先把 X = 15 放到树最尾部,然后进行上浮操作。
因为 15 大于其父亲节点 8,所以与父亲替换:
这时 15 还是大于其父亲节点 11,继续替换:
操作一次 push 的最好时间复杂度为:O(1),因为第一次上浮时如果不大于父亲,那么就结束了。最坏的时间复杂度为: O(logn),相当于每次都大于父亲,会一直往上浮到根节点,翻转次数等于树的高度,而树的高度等于元素个数的对数:log(n)。
1.3. 下沉操作
我们现在要将堆顶的元素 pop 出。如图我们要移除最大的元素 11:
我们先将根节点移除,然后将最尾部的节点 4 放在根节点上:
接着对根节点 4 进行下沉操作,与其两个儿子节点比较,发现较大的儿子节点 8 比 4 大,那么根节点 4 与其儿子节点 8 交换位置,向下翻转:
这样一直向下翻转就维持了最大堆的特征。
操作一次 pop 最好的时间复杂度也是:O(1),因为第一次比较时根节点就是最大的。最坏时间复杂度仍然是树的高度:O(logn)。
1.4. 时间复杂度分析
构建一个最大堆,从空堆开始,每次添加元素到尾部后,需要向上翻转,最坏翻转次数是:
第一次添加元素翻转次数:log1第二次添加元素翻转次数:log2第三次添加元素翻转次数:不大于log3的最大整数第四次添加元素翻转次数:log4第五次添加元素翻转次数:不大于log5的最大整数...第N次添加元素翻转次数:不大于logn的最大整数近似 = log(1)+log(2)+log(3)+...+log(n) = log(n!)
从一个最大堆,逐一移除堆顶元素,然后将堆尾元素置于堆顶后,向下翻转恢复堆特征,最坏翻转次数是:
第一次移除元素恢复堆时间复杂度:logn第二次移除元素恢复堆时间复杂度:不大于log(n-1)的最大整数第三次移除元素恢复堆时间复杂度:不大于log(n-2)的最大整数...第N次移除元素恢复堆时间复杂度:log1近似 = log(1)+log(2)+log(3)+...+log(n) = log(n!)
根据斯特林公式:
可以进行证明 log(n!) 和 nlog(n) 是同阶的:
所以构建一个最大堆的最坏时间复杂度是:O(nlogn)。
从堆顶一个个移除元素,直到移完,整个过程最坏时间复杂度也是:O(nlogn)。
从构建堆到移除堆,总的最坏复杂度是:O(nlogn)+O(nlogn),我们可以认为是:O(nlogn)。
如果所有的元素都一样的情况下,建堆和移除堆的每一步都不需要翻转,最好时间复杂度为:O(n),复杂度主要在于遍历元素。
如果元素不全一样,即使在建堆的时候不需要翻转,但在移除堆的过程中一定会破坏堆的特征,导致恢复堆时需要翻转。比如一个 n 个元素的已排好的序的数列,建堆时每次都满足堆的特征,不需要上浮翻转,但在移除堆的过程中最尾部元素需要放在根节点,这个时候导致不满足堆的特征,需要下沉翻转。因此,在最好情况下,时间复杂度仍然是:O(nlog)。
因此,最大堆从构建到移除,总的平均时间复杂度是:O(nlogn)。
1.5. 最大堆实现
// 一个最大堆,一棵完全二叉树// 最大堆要求节点元素都不小于其左右孩子type Heap struct {// 堆的大小Size int// 使用内部的数组来模拟树// 一个节点下标为 i,那么父亲节点的下标为 (i-1)/2// 一个节点下标为 i,那么左儿子的下标为 2i+1,右儿子下标为 2i+2Array []int}// 初始化一个堆func NewHeap(array []int) *Heap {h := new(Heap)h.Array = arrayreturn h}// 最大堆插入元素func (h *Heap) Push(x int) {// 堆没有元素时,使元素成为顶点后退出if h.Size == 0 {h.Array[0] = xh.Size++return}// i 是要插入节点的下标i := h.Size// 如果下标存在// 将小的值 x 一直上浮for i > 0 {// parent为该元素父亲节点的下标parent := (i - 1) / 2// 如果插入的值小于等于父亲节点,那么可以直接退出循环,因为父亲仍然是最大的if x <= h.Array[parent] {break}// 否则将父亲节点与该节点互换,然后向上翻转,将最大的元素一直往上推h.Array[i] = h.Array[parent]i = parent}// 将该值 x 放在不会再翻转的位置h.Array[i] = x// 堆数量加一h.Size++}// 最大堆移除根节点元素,也就是最大的元素func (h *Heap) Pop() int {// 没有元素,返回-1if h.Size == 0 {return -1}// 取出根节点ret := h.Array[0]// 因为根节点要被删除了,将最后一个节点放到根节点的位置上h.Size--x := h.Array[h.Size] // 将最后一个元素的值先拿出来h.Array[h.Size] = ret // 将移除的元素放在最后一个元素的位置上// 对根节点进行向下翻转,小的值 x 一直下沉,维持最大堆的特征i := 0for {// a,b为下标 i 左右两个子节点的下标a := 2*i + 1b := 2*i + 2// 左儿子下标超出了,表示没有左子树,那么右子树也没有,直接返回if a >= h.Size {break}// 有右子树,拿到两个子节点中较大节点的下标if b < h.Size && h.Array[b] > h.Array[a] {a = b}// 父亲节点的值都大于或等于两个儿子较大的那个,不需要向下继续翻转了,返回if x >= h.Array[a] {break}// 将较大的儿子与父亲交换,维持这个最大堆的特征h.Array[i] = h.Array[a]// 继续往下操作i = a}// 将最后一个元素的值 x 放在不会再翻转的位置h.Array[i] = xreturn ret}
以上为最大堆的实现。
三、普通堆排序
根据最大堆,堆顶元素一直是最大的元素特征,可以实现堆排序。
先构建一个最小堆,然后依次把根节点元素 pop 出即可:
func main() {list := []int{5, 9, 1, 6, 8, 14, 6, 49, 25, 4, 6, 3}// 构建最大堆h := NewHeap(list)for _, v := range list {h.Push(v)}// 将堆元素移除for range list {h.Pop()}// 打印排序后的值fmt.Println(list)}
输出:
1 3 4 5 6 6 6 8 9 14 25 49
根据以上最大堆的时间复杂度分析,从堆构建到移除最坏和最好的时间复杂度:O(nlogn),这也是堆排序的最好和最坏的时间复杂度。
这样实现的堆排序是普通的堆排序,性能不是最优的。
因为一开始会认为堆是空的,每次添加元素都需要添加到尾部,然后向上翻转,需要用 Heap.Size 来记录堆的大小增长,这种堆构建,可以认为是非原地的构建,影响了效率。
美国籍计算机科学家 R. W. Floyd 改进的原地自底向上的堆排序,不会从空堆开始,而是把待排序的数列当成一个混乱的最大堆,从底层逐层开始,对元素进行下沉操作,一直恢复最大堆的特征,直到根节点。
将构建堆的时间复杂度从 O(nlogn) 降为 O(n),总的堆排序时间复杂度从 O(2nlogn) 改进到 O(n+nlogn)。
三、自底向上堆排序
自底向上堆排序,仅仅将构建堆的时间复杂度从 O(nlogn) 改进到 O(n),其他保持不变。
这种堆排序,不再每次都将元素添加到尾部,然后上浮翻转,而是在混乱堆的基础上,从底部向上逐层进行下沉操作,下沉操作比较的次数会减少。步骤如下:
- 先对最底部的所有非叶子节点进行下沉,即这些非叶子节点与它们的儿子节点比较,较大的儿子和父亲交换位置。
- 接着从次二层开始的非叶子节点重复这个操作,直到到达根节点最大堆就构建好了。
从底部开始,向上推进,所以这种堆排序又叫自底向上的堆排序。
为什么自底向上构建堆的时间复杂度是:O(n)。证明如下:
第 k 层的非叶子节点的数量为 n/2^k,每一个非叶子节点下沉的最大次数为其子孙的层数:k,而树的层数为 logn 层,那么总的翻转次数计算如下:
因为如下的公式是成立的:
所以翻转的次数计算结果为:2n 次。也就是构建堆的时间复杂度为:O(n)。
我们用非递归的形式来实现,非递归相对容易理解:
package mainimport "fmt"// 先自底向上构建最大堆,再移除堆元素实现堆排序func HeapSort(array []int) {// 堆的元素数量count := len(array)// 最底层的叶子节点下标,该节点位置不定,但是该叶子节点右边的节点都是叶子节点start := count/2 + 1// 最后的元素下标end := count - 1// 从最底层开始,逐一对节点进行下沉for start >= 0 {sift(array, start, count)start-- // 表示左偏移一个节点,如果该层没有节点了,那么表示到了上一层的最右边}// 下沉结束了,现在要来排序了// 元素大于2个的最大堆才可以移除for end > 0 {// 将堆顶元素与堆尾元素互换,表示移除最大堆元素array[end], array[0] = array[0], array[end]// 对堆顶进行下沉操作sift(array, 0, end)// 一直移除堆顶元素end--}}// 下沉操作,需要下沉的元素时 array[start],参数 count 只要用来判断是否到底堆底,使得下沉结束func sift(array []int, start, count int) {// 父亲节点root := start// 左儿子child := root*2 + 1// 如果有下一代for child < count {// 右儿子比左儿子大,那么要翻转的儿子改为右儿子if count-child > 1 && array[child] < array[child+1] {child++}// 父亲节点比儿子小,那么将父亲和儿子位置交换if array[root] < array[child] {array[root], array[child] = array[child], array[root]// 继续往下沉root = childchild = root*2 + 1} else {return}}}func main() {list := []int{5, 9, 1, 6, 8, 14, 6, 49, 25, 4, 6, 3}HeapSort(list)// 打印排序后的值fmt.Println(list)}
输出:
[1 3 4 5 6 6 6 8 9 14 25 49]
