对于算法的复杂度,一种直观感知方法是测量一定数量级数据的算法运行时间。
以C语言提供的qsort为例子,以100万数据量测试其计算时间,可感知O(nlg(n))的时间代价:
C代码如下:
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#define N 1000000
//int (*Comp)(const void *,const void *)
int compare(const void *p1, const void *p2) {
return *(float*)p1 > *(float*)p2;
}
int main()
{
float x[N];
srand( time(NULL) );
clock_t t1 = clock();
for(int j = 0; j < 10; j++) {
for(long i = 0; i < N; i++)
x[i] = (float)rand()/RAND_MAX;
qsort(x, N, sizeof(float), compare);
}
for(int i = 0; i < 10; i++)
printf("%f ", x[i]);
printf("n");
clock_t t2 = clock();
printf("浮点数排序算法用时:%f 秒n", (double)(t2 - t1)/ CLOCKS_PER_SEC);
return 0;
}
在笔记本上用gcc qsort_test.c编译和运行,10次100万数据随机生成和排序用时结果为:
~/tmp$ ./a.out
0.000000 0.000001 0.000001 0.000002 0.000002 0.000004 0.000004 0.000005 0.000006 0.000006
浮点数排序算法用时:2.236941 秒