话说有日公司一台服务器上运行的系统的一个功能突然不work了,而同样的程序在别的服务器都非常正常,无论如何重启这个程序都不管用。在本地调试,这个方法一点问题都没有,代码也看不出有任何问题,没办法,加了很多log在代码里,到服务器上去跑。
这个功能大致是这样,进行一项比较耗时的计算,为了提高性能,将计算结果缓存住,如果请求时间在5s内,直接返回,否则重新计算。
检查log,发现程序始终返回,没有重新计算过。发现如下代码:
long t1 = GetTickCount();
if (t1 - m_Block_Inteval < 5000)//判断时间是否超过5s,m_Block_Inteval 初始为0
{
CHqDataBuffer* tempBuffer;
//如果有该缓冲数据就直接返回,
if (BlockKindBuffer->Lookup(szBlockKind,(void*&)tempBuffer)){
Send(BlockBuffer->m_lpszBuffer,BlockBuffer->m_cbBuffer,lMask);
return;
}
}
在这里始终返回,突然想起GetTickCount是取得系统从开机到现在的毫秒数,难道是溢出了?打了一下log,果然溢出了,而m_Block_Inteval初始为零,所以这里永远小于5000。
知道问题了,解决就很简单,将t1/1000,得到秒数就ok。
GetTickCount常常用来判断某个方法执行的时间,常常是方法开始得到t1,方法执行完得到t2,相减得到时间差。所以不存在这个问题。但是使用GetTickCount的时候一定要注意溢出的问题。
本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/soft_ice/archive/2009/01/12/3763268.aspx