第2章 算法

2.1 开场白

2.2 数据结构与算法之间的关系

在“数据结构”课程中,就算谈到算法,也是为了帮助理解好数据结构,并不会详细谈及算法的方方面面。

2.3 两种算法的比较

2.4 算法的定义

算法是解决特定问题求解步骤的描述,在计算机中表现为指令的有限序列,并且每条指令表示一个或多个操作。

现实世界中的问题千奇百怪,算法当然也就千变万化,没有通用的算法可以解决所有的问题。

算法定义中,提到了指令,指令能被人或机器等计算装置执行。它可以是计算机指令,也可以是我们平时的语言文字。

2.5 算法的特性

算法具有五个基本特性:输入、输出、有穷性、确定性和可行性。

2.5.1 输入输出

算法具有零个或多个输入

算法至少有一个或多个输出

2.5.2 有穷性

有穷性:指算法在执行有限的步骤之后,自动结束而不会出现无限循环,并且每一个步骤在可接受的时间内完成。

2.5.3 确定性

确定性:算法的每一步骤都具有确定的含义,不会出现二义性。

算法在一定条件下,只有一条执行路径,相同的输入只能有唯一的输出结果。算法的每个步骤被精确定义而无歧义。

2.5.4 可行性

可行性:算法的每一步都必须是可行的,也就是说,每一步都能够通过执行有限次数完成。

可行性意味着算法可以转换为程序上机运行,并得到正确的结果。

2.6 算法设计的要求

算法不是唯一的,尽管算法不唯一,相对好的算法还是存在的。

那么什么才叫好的算法呢?

2.6.1 正确性

正确性:算法的正确性是指算法至少应该具有输入、输出和加工处理无歧义性、能正确反映问题的需求、能够得到问题的正确答案。

但是算法的“正确”通常在用法上有很大的差别,大体分为以下四个层次。

(1)算法程序没有语法错误。

(2)算法程序对于合法的输入数据能够产生满足要求的输出结果

(3)算法程序对于非法的输入数据能够得出满足规格说明的结果。

(4)算法程序对于精心选择的,甚至刁难的测试数据都有满足要求的输出结果。

层次(1)要求最低,但是仅仅没有语法错误实在谈不上是好算法

层次(4)是最困难的,我们几乎不可能逐一验证所有的输入都得到正确的结果。

因此算法的正确性在大部分情况下都不可能用程序来证明,而是用数学方法证明的。证明一个复杂算法在所有层次上都是正确的,代价非常昂贵。所以一般情况下,我们把层次(3)作为一个算法是否正确的标准。

2.6.2 可读性

可读性:算法设计的另一目的是为了便于阅读、理解和交流。

2.6.3 健壮性

健壮性:当输入数据不合法时,算法也能做出相关处理,而不是产生异常或莫名其妙的结果。

2.6.4 时间效率高和存储量低

时间效率指的是算法的执行时间,对于同一个问题,如果有多个算法能够解决,执行时间短的算法效率高,执行时间长的效率低。存储量需求指的是算法在执行过程中需要的最大存储空间,主要指算法程序运行时所占用的内存或外部硬盘存储空间。设计算法应该尽量满足时间效率高和存储量低的需求。

综上,好的算法,应该具有正确性、可读性、健壮性、高效率和低存储量的特征。

2.7 算法效率的度量方法

2.7.1 事后统计方法

事后统计方法:这种方法主要是通过设计好的测试程序和数据,利用计算机计时器对不同算法编制的程序的运行时间进行比较,从而确定算法效率的高低。

但这种方法显然是有很大缺陷的:

  • 必须依据算法事先编制好程序,这通常需要花费大量的时间和精力。如果编制出来发现它根本是很糟糕的算法,不是竹篮打水一场空吗?
  • 时间的比较依赖计算机硬件和软件等环境因素,有时会掩盖算法本身的优劣。要知道,现在的一台四核处理器的计算机,跟当年286、386、486等老爷爷辈的机器相比,在处理算法的运算速度上,是不能相提并论的;而所用的操作系统、编译器、运行框架等软件的不同,也可以影响它们的结果;就算是同一台机器,CPU使用率和内存占用情况不一样,也会造成细微的差异。
  • 算法的测试数据设计困难,并且程序的运行时间往往还与测试数据的规模有很大关系,效率高的算法在小的测试数据面前往往得不到体现。比如10个数字的排序,不管用什么算法,差异几乎是零。而如果有一百万个随机数字排序,那不同算法的差异就非常大了。那么我们为了比较算法,到底用多少数据来测试,这是很难判断的问题。

基于事后统计方法有这样那样的缺陷,我们考虑不予采纳。

2.7.2 事前分析估算方法

事前分析估算方法:在计算机程序编制前,依据统计方法对算法进行估算。

一个用高级程序语言编写的程序在计算机上运行时所消耗的时间取决于下列因素:

一个程序的运行时间,依赖于算法的好坏和问题的输入规模。所谓问题输入规模是指输入量的多少。

不计那些循环索引的递增和循环终止条件、变量声明、打印结果等操作

最终,在分析程序的运行时间时,最重要的是把程序看成是独立于程序设计语言的算法或一系列步骤。 

我们在分析一个算法的运行时间时,重要的是把基本操作的数量与输入规模关联起来,即基本操作的数量必须表示成输入规模的函数

 随着n值的越来越大,它们在时间效率上的差异也就越来越大

2.8 函数的渐近增长

函数的渐近增长:给定两个函数f(n)和g(n),如果存在一个整数N,使得对于所有的n>N,f(n)总是比g(n)大,那么,我们说f(n)的增长渐近快于g(n)。

可以忽略这些加法常数

与最高次项相乘的常数并不重要

最高次项的指数大的,函数随着n的增长,结果也会增长更快

判断一个算法的效率时,函数中的常数和其他次要项常常可以忽略,而更应该关注主项(最高阶项)的阶数

如果我们可以对比这几个算法的关键执行次数函数的渐近增长性,基本就可以分析出:某个算法,随着n的增大,它会越来越优于另一算法,或者越来越差于另一算法。

2.9 算法时间复杂度

2.9.1 算法时间复杂度定义

在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。

这样用大写O( )来体现算法时间复杂度的记法,我们称之为大O记法。
一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。

2.9.2 推导大O阶方法

推导大O阶:
(1)用常数1取代运行时间中的所有加法常数。

(2)在修改后的运行次数函数中,只保留最高阶项。

(3)如果最高阶项存在且其系数不是1,则去除与这个项相乘的系数。
得到的结果就是大O阶。

2.9.3 常数阶

这种与问题的大小(n的大小)无关,执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶。

注意:不管这个常数是多少,我们都记作O(1),而不能是O(3)、O(12)等其他任何数字,这是初学者常常犯的错误。

对于分支结构而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)。

2.9.4 线性阶

线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。

下面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码须要执行n次。
int  i;

for  (i  =  0;  i  <  n;  i++)

{

        /*  时间复杂度为O(1)的程序步骤序列  */

}

2.9.5 对数阶

int  count  =  1;

while  (count  <  n)

{

        count  =  count  *  2;

        /*  时间复杂度为O(1)的程序步骤序列  */

}

由于每次count乘以2之后,就距离n更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由2x=n得到x=log2n。所以这个循环的时间复杂度为O(logn)。

2.9.6 平方阶

int  i,  j;

for  (i  =  0;  i  <  n;  i++)

{

        for  (j  =  0;  j  <  n;  j++)

        {

                /*  时间复杂度为O(1)的程序步骤序列  */

        }

}

这段代码的时间复杂度为O(n2)。

如果外循环的循环次数改为了m,时间复杂度就变为O(m×n)。

循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数。

int  i,  j;

for  (i  =  0;  i  <  n;  i++)

{

        /*  注意j  =  i  而不是0  */

        for  (j  =  i;  j  <  n;  j++)    

        {

                /*  时间复杂度为O(1)的程序步骤序列  */

        }

}

由于当i=0时,内循环执行了n次,当i=1时,执行了n-1次,……当i=n-1时,执行了1次。所以总的执行次数为:
 

用我们推导大O阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项,因此保留n2/2;第三条,去除这个项相乘的常数,也就是去除1/2,最终这段代码的时间复杂度为O(n2)。

理解大O推导不算难,难的是对数列的一些相关运算,这更多的是考察你的数学知识和能力

int  i,  j;

for  (i  =  0;  i  <  n;  i++)

{

        function(i);

}

void  function(int  count)

{

        print(count);

}
函数体是打印count这个参数。其实这很好理解,function函数的时间复杂度是O(1)。所以整体的时间复杂度为O(n)。

void  function(int  count)

{

        int  j;for  (j  =  count;  j  <  n;  j++)

        {

                /*  时间复杂度为O(1)的程序步骤序列  */

        }

}
事实上,这和刚才举的例子是一样的,只不过把嵌套内循环放到了函数中,所以最终的时间复杂度为O(n2)。

n++;                                              /*  执行次数为1  */

function(n);                              /*  执行次数为n  */

int  i,  j;

for  (i  =  0;  i  <  n;  i++)        /*  执行次数为n2*/

{

        function  (i);

}

for  (i  =  0;  i  <  n;  i++)        /*  执行次数为n(n  +  1)/2  */

{

        for  (j  =  i;  j  <  n;  j++)

        {

                /*  时间复杂度为O(1)的程序步骤序列  */

        }

}

它的执行次数f(n)=1+n+n2+n(n+1)/2=3/2·n2+3/2·n+1,根据推导大O阶的方法,最终这段代码的时间复杂度也是O(n2)。

2.10 常见的时间复杂度

常见的时间复杂度

常用的时间复杂度所耗费的时间从小到大依次是:

而像O(n3),过大的n都会使得结果变得不现实。同样指数阶O(2
n)和阶乘阶O(n!)等除非是很小的n值,否则哪怕n只是100,都是噩梦般的运行时间。所以这种不切实际的算法时间复杂度,一般我们都不去讨论它。 

2.11 最坏情况与平均情况

最坏情况运行时间是一种保证,那就是运行时间将不会再坏了。在应用中,这是一种最重要的需求,通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间。

而平均运行时间也就是从概率的角度看,这个数字在每一个位置的可能性是相同的,所以平均的查找时间为n/2次后发现这个目标元素。

平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。

可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。

对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度。另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度。一般在没有特殊说明的情况下,都是指最坏时间复杂度。

2.12 算法空间复杂度

这是以存储空间来换取计算时间的小技巧。到底哪一个好,其实要看你用在什么地方。

算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作:S(n)=O(f(n)),其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。

一般情况下,一个程序在机器上执行时,除了需要存储程序本身的指令、常数、变量和输入数据外,还需要存储对数据操作的存储单元。若输入数据所占空间只取决于问题本身,和算法无关,这样只需要分析该算法在实现时所需的辅助单元即可。若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作,空间复杂度为O(1)。

通常,我们都使用“时间复杂度”来指运行时间的需求,使用“空间复杂度”指空间需求。当不用限定词地使用“复杂度”时,通常都是指时间复杂度。文章来源地址https://uudwc.com/A/9djej

2.13 总结回顾

2.14 结尾语

原文地址:https://blog.csdn.net/weixin_64800741/article/details/133364399

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请联系站长进行投诉反馈,一经查实,立即删除!

上一篇 2023年10月07日 07:14
下一篇 2023年10月07日 08:14