它们分别是使用clock, times, gettimeofday, getrusage来实现的.
下面就来逐一介绍,并比较它们的优劣点.
系统测试环境:
例程如下:
只要修改第11行的定义值,就可以使用不同的测量方法了.
#include sys/time.h
#include sys/resource.h
#include unistd.h
#include stdio.h
#include time.h
#define TEST_BY_CLOCK (char)(0x00)
#define TEST_BY_TIMES (char)(0x01)
#define TEST_METHOD (TEST_BY_GETTIMEOFDAY)
static int g_Matrix[COORDINATION_X][COORDINATION_Y];
double getTimeval()
{
struct rusage stRusage;
struct timeval stTimeval;
if (TEST_METHOD == TEST_BY_GETTIMEOFDAY)
gettimeofday(stTimeval, NULL);
}
else if (TEST_METHOD == TEST_BY_GETRUSAGE)
getrusage(RUSAGE_SELF, stRusage);
stTimeval = stRusage.ru_utime;
int main()
int i, j;
int n = 0;
if (TEST_METHOD == TEST_BY_CLOCK)
clockT1 = clock();
else if (TEST_METHOD == TEST_BY_TIMES)
times(clockT1);
else if (TEST_METHOD == TEST_BY_GETTIMEOFDAY)
doubleT1 = getTimeval();
for (i = 0; i COORDINATION_X; i++)
for (j = 0; j COORDINATION_Y; j++)
g_Matrix[i][j] = i * j;
return 0;
① 使用clock的方法:
clock是ANSI C的标准库函数,关于这个函数需要说明几点.
首先,它返回的是CPU耗费在本程序上的时间.也就是说,途中sleep的话,由于CPU资源被释放,那段时间将不被计算在内.
其次,得到的返回值其实就是耗费在本程序上的CPU时间片的数量,也就是Clock Tick的值.该值必须除以CLOCKS_PER_SEC这个宏值,才
能最后得到ss.mmnn格式的运行时间.在POSIX兼容系统中,CLOCKS_PER_SEC的值为1,000,000的,也就是
①.MHz.
最后,使用这个函数能达到的精度大约为10ms.
times的用法基本和clock类似,同样是取得CPU时间片的数量,所不同的是要除以的时间单位值为sysconf(_SC_CLK_TCK).
用gettimeofday直接提取硬件时钟进行运算,得到的结果的精度相比前两种方法提高了很多.
但是也正由于它提取硬件时钟的原因,这个方法只能计算程序开始时间和结束时间的差值.而此时系统中如果在运行其他的后台程序,可能会影响到最终结果的值.如果后台繁忙,系统dispatch过多的话,并不能完全真实反映被测量函数的运行时间.
getrusage得到的是程序对系统资源的占用信息.只要指定了RUSAGE_SELF,就可以得到程序本身运行所占用的系统时间.
C/C++中的计时函数是clock(),而与其相关的数据类型是clock_t.在MSDN中,查得对clock函数定义如下:
clock_t clock( void );
这个函数返回从"开启这个程序进程"到"程序中调用clock()函数"时之间的CPU时钟计时单元(clock tick)数,在MSDN中称之为挂钟时间(wal-clock).其中clock_t是用来保存时间的数据类型,在time.h文件中,我们可以找到对它的定义:
#ifndef _CLOCK_T_DEFINED?
typedef long clock_t;?
#define _CLOCK_T_DEFINED?
#endif
很明显,clock_t是一个长整形数.在time.h文件中,还定义了一个常量CLOCKS_PER_SEC,它用来表示一秒钟会有多少个时钟计时单元,其定义如下:
#define CLOCKS_PER_SEC ((clock_t)1000)? //CLOCKS_PER_SEC为系统自定义的
可以看到每过千分之一秒(1毫秒),调用clock()函数返回的值就加1.下面举个例子,你可以使用公式clock()/CLOCKS_PER_SEC来计算一个进程自身的运行时间:
void elapsed_time()?
{?
printf("Elapsed time:%u secs./n",clock()/CLOCKS_PER_SEC);?
当然,你也可以用clock函数来计算你的机器运行一个循环或者处理其它事件到底花了多少时间:
#include "stdio.h"?
#include "stdlib.h"?
#include "time.h"
int main( )?
long i = 10000000L;
clock_t start, finish;
double Total_time;
/* 测量一个事件持续的时间*/
printf( "Time to do %ld empty loops is ", i );
start = clock();
while( i--) ;
finish = clock();
Total_time = (double)(finish-start) / CLOCKS_PER_SEC;
printf( "%f seconds/n", Total_time);
在笔者的机器上,运行结果如下:
上面我们看到时钟计时单元的长度为1毫秒,那么计时的精度也为1毫秒,那么我们可不可以通过改变CLOCKS_PER_SEC的定义,通过把它定义的大一些,从而使计时精度更高呢?通过尝试,你会发现这样是不行的.在标准C/C++中,最小的计时单位是一毫秒.
参考资料
可以通过计算时间差的方法来计算一个函数调用了多久.
具体细节如下:
计算函数执行时间是评价程序效率的一种常用方法.
可以在调用一个函数之间获取当前时间,在调用之后再次获取当前时间,然后计算二者的时间差.
但是如果一个函数执行时间非常短,会得到两个时间差为0的情况,此时可以修改程序为调用该函数1000次,然后把时间差除以1000.
得到当前时间的方法是:首先程序最前面添加头文件#includetime.h,然后通过调用time(NULL)获取当前时间.
以上就是土嘎嘎小编为大家整理的c语言函数执行时间测试相关主题介绍,如果您觉得小编更新的文章只要能对粉丝们有用,就是我们最大的鼓励和动力,不要忘记讲本站分享给您身边的朋友哦!!