红联Linux门户
Linux帮助

Linux内核系统定时器TIMER实现过程分析

发布时间:2014-11-23 15:19:37来源:linux网站作者:yyplc

Linux系统定时器,在内核中扮演着重要角色。内核的许多重要实现如任务调度,工作队列等均以系统定时器关系密切。系统定时器能以可编程的频率中断处理,这一中断叫做软中断。此频率即为每秒的定时器节拍数HZ。HZ的越大,说明定时器节拍越小,线程调度的准确性会越高。但HZ设得过大,对一个系统来说并不好,会导CPU开销过大,反而造成任务调度效率降低。滴答jiffies 变量记录系统启动以来,系统定时器已经触发的次数。也就是说每过一秒jiffies的增量为HZ,一般HZ=100,HZ是可以配置的,在S3C2440 arm linux中配置为200.


下面基于Linux2.6.30.4源码来探讨其实现原理及其过程。

要理解系统定时器实现原理,先来看看关系到系统定时器的各种数据结构,其具体的描述参数。

结构体structtimer_list来描述timer的参数,其数据结构如下:

struct timer_list { 
structlist_head entry;  //timer双向链表  
unsignedlong expires; //timer超时变量  
  
void(*function)(unsigned long);   //timer超时回调函数
unsignedlong data;  //传递给回调函数的数据,也就是定时器数据  
struct tvec_base *base;//timer base向量表用于timer_list的挂载和链表管理  
//timer的一些扩展参数  
#ifdef CONFIG_TIMER_STATS 
void*start_site; 
charstart_comm[16]; 
intstart_pid; 
#endif  
#ifdef CONFIG_LOCKDEP  
structlockdep_map lockdep_map; 
#endif  
}; 


其中:
list_entry结构: 
struct list_head { 
structlist_head *next, *prev; 
}; 
tevc_base的结构: 
struct tvec_base { 
spinlock_tlock; //自旋锁lock  
structtimer_list *running_timer;   //指向已经挂载进来的timer_list  
unsignedlong timer_jiffies;  //timer jiffies用于记录定时器当前jiffies  
structtvec_root tv1;  //5组tvec_base,从tv1~tv5,成员数各不相同  
structtvec tv2;//其成员数TVR_SIZE,TVN_SIZE决定  
structtvec tv3; 
structtvec tv4; 
structtvec tv5; 
} ____cacheline_aligned; 
 
#define TVN_BITS (CONFIG_BASE_SMALL ? 4 :6)  
#define TVR_BITS (CONFIG_BASE_SMALL ? 6 :8)  
#define TVN_SIZE (1 << TVN_BITS)  
#define TVR_SIZE (1 << TVR_BITS)  
#define TVN_MASK (TVN_SIZE - 1)  
#define TVR_MASK (TVR_SIZE - 1)  
  
struct tvec { 
structlist_head vec[TVN_SIZE];   // tv2~t5个数为64的数组  
}; 
  
struct tvec_root { 
structlist_head vec[TVR_SIZE];  //tv1个数为256的数组  
};


可见涉及到系统定时器的数据结构并不多,那么:对于一个linux系统中,定时器个数可能会很多,而且每个定时器的超时事件时间并不相同,所以如何管理和处理定时器超时事件,关系到内核性能的高低。它根据不同的定时事件,按时间间分组,将新增的timer定时器建成双向链表,然后按照一定方式存放于5组tv1~tv5变量中称为tec_base。对于对称式多理器(SMP)系统还考虑到了TIMER从一个CPU迁移到另一个CPU的情况,相应的tev_base也跟着更改。那它在系统是怎样实现的呢?现在先从一个简单的系统定时器应用例子来看看它的实现过程:


#include <linux/init.h>  
#include <linux/module.h>  
#include <linux/timer.h>  
  
struct  timer_list   my_timer; 
  
static void my_function(unsigned   long  data) 

static int i = 0; 
printk( "timer’s callback function\n"); 
printk( "timer’s data = %lu\n",data); 
return; 

  
static int my_timer_init(void) 

  printk(“timerinit…\n”); 
   my_timer.data = 0xff; 
   my_timer.function = my_function; 
   my_timer.expires = jiffies + 3*HZ; 
   init_timer(&my_timer); 
   add_timer(&my_timer); 
   return  0; 

  
static void my_timer_exit(void) 

  printk( "timer exit…\n"); 

  
module_init(my_timer_init); 
module_exit(my_timer_exit); 
MODULE_AUTHOR( "itspy"); 
MODULE_LICENSE( "GPL"); 
MODULE_DESCRIPTION("linux kernel timerprogramming"); 


上面例子,实现了一个定时器事件,将在3 HZ(秒)发生。my_imer_init函数中调用到的定时器API只有:

init_timer(&my_timer);   //用于定时器初始化

add_timer(&my_timer);//增加一个新的定时器到tev_base向量表中

其中init_timer中调用了__init_timer(),这个函数才是真正初始化定时器的:
static void __init_timer(struct timer_list*timer, 
  const char *name, 
  struct lock_class_key *key) 

   timer->entry.next= NULL;   //对于新增的timer实例,其下一各总是指向NULL。  
   timer->base= __raw_get_cpu_var(tvec_bases); //SMP中,获得当前处理器的tev_base  
   //这个tev_bases是根据一定规律变化的,稍后会将到  
… 


新增的定时器初始化,就是完成了一个timer_list结构初始化过程。

add_timer()  --> mod_timer()  -->  __mod_timer()
其中:

static inline int 
__mod_timer(struct timer_list *timer,unsigned long expires, bool pending_only) 

   structtvec_base *base, *new_base; 
   unsignedlong flags; 
   intret; 
  
   ret= 0; 
   BUG_ON(!timer->function); // BUG检测,确保回调函数为非空NULL  
   base= lock_timer_base(timer, &flags); //获取本地cpu的tev_base,这是一   临  
  //界资源,里边是一个for(;;)循环,如果找不到说明已经迁移到了别的CPU  
   if (timer_pending(timer)) {  //当已挂载的timer 定时超时发生后,会被卸载摘除  
  detach_timer(timer,0);
  ret= 1; 
   }else { 
  if(pending_only)//新增一个定时器时,pending_only 为 false  
 gotoout_unlock; 
   } 
  
… 
   new_base= __get_cpu_var(tvec_bases);   //获取本地cpu中的tevc_bases  
   if(base != new_base) { //由于之前base 可能已被迁移到其他CPU的 tev_base向量表,会造成 base != new_base  
  if(likely(base->running_timer != timer)) { //由于在timer正在运行时,我们不能直接更改base,位与一个叫做DEFERRABLE(可延后标志)后处理  
 /*See the comment in lock_timer_base() */ 
 timer_set_base(timer,NULL); 
 spin_unlock(&base->lock); 
 base= new_base; 
 spin_lock(&base->lock); 
 timer_set_base(timer,base); 
  } 
   } 
  
   timer->expires= expires; 
   internal_add_timer(base,timer);   //分析timer expires及建表过程  
  
out_unlock: 
   spin_unlock_irqrestore(&base->lock,flags); 
  
   return ret; 
}


对于新增的timer最后调用internal_add_timer(base, timer)加入到相应的timer_list中以完成初始化过程。,这是一个建表的过程,表的建立情况,关系到表的管理效率。之前我们说到它共有tv1~tv5 组,tv1是一个很特别的组。每个tv中有各个组员,每个timer是如何添加的呢,看看internal_add_timer()的实现过程:

static void internal_add_timer(structtvec_base *base, struct timer_list *timer) 

   unsignedlong expires = timer->expires; 
   unsignedlong idx = expires - base->timer_jiffies; 
   structlist_head *vec; 
  
   if(idx < TVR_SIZE) { 
  inti = expires & TVR_MASK; 
  vec= base->tv1.vec + i; 
   }else if (idx < 1 << (TVR_BITS + TVN_BITS)) { 
  inti = (expires >> TVR_BITS) & TVN_MASK; 
  vec= base->tv2.vec + i; 
   }else if (idx < 1 << (TVR_BITS + 2 * TVN_BITS)) { 
  inti = (expires >> (TVR_BITS + TVN_BITS)) & TVN_MASK; 
  vec= base->tv3.vec + i; 
   }else if (idx < 1 << (TVR_BITS + 3 * TVN_BITS)) { 
  inti = (expires >> (TVR_BITS + 2 * TVN_BITS)) & TVN_MASK; 
  vec= base->tv4.vec + i; 
   }else if ((signed long) idx < 0) { 
  /*
   * Can happen if you add a timer with expires== jiffies,
   * or you set a timer to go off in the past
   */ 
  vec= base->tv1.vec + (base->timer_jiffies & TVR_MASK); 
   }else { 
  inti; 
  /*If the timeout is larger than 0xffffffff on 64-bit
   * architectures then we use the maximumtimeout:
   */ 
  if(idx > 0xffffffffUL) { 
 idx= 0xffffffffUL; 
 expires= idx + base->timer_jiffies; 
  } 
  i= (expires >> (TVR_BITS + 3 * TVN_BITS)) & TVN_MASK; 
  vec= base->tv5.vec + i; 
   } 
   /*
* Timers are FIFO:
*/ 
   list_add_tail(&timer->entry,vec); 
}


通过代码我们知道它的过程是这样的:首先它根据每个timer中的超时差值idx来决定timer所处的tev_base组别tv1~tv5.所以超时事件越后发生,那么它所处的组位置越靠后。对于tv1组,超时插值idx为0~255之间。差值idx即为所属组tv1中的数组下标。从中可知tv1组中相邻定时器的超时事件间隔1 jiffies发生。对于tv2组,超时差值idx为 256~2^14(16386)  之间,组中相邻定时时器超事件时间隔256^1 = 256 jiffies发生。以此类推,tv3 组超时差值idx为(16387~2^20)之间,组中相邻定时器超时时间间隔256^2 = 65536 jiffies发生 … 最后,新增的timer加入到当前节点(超时差值相等)的尾部list_add_tail()形成一个双向链表。这样分组timer双向链表方便了后面对定时器的迁移更新管理过程,以及最终提高了CPU的处理效率,因为在__run_timers()时,我们只需扫描tv1组中即将到来的定时器事件就行了。

我们知道启动过程时start_kernel()对定时器的初始化是这样的 :

init_timers() -> run_timer_softirq()  -> __run_timers()…

timer_interrupt() -> update_process_times() ->run_local_timers() -> raise_softirq(TIMER_SOFTIRQ);

之前我写的一篇《内核窥秘之一:start_kernel()运行过程记录》也有提到过.

   __run_timers()是系统定时器超时事件的服务程序。这是run_timer_softirq()中一部分,是通过软中断的实现的,它是在软中断下半部处理的。

static inline void __run_timers(structtvec_base *base) 

   … 
   while(time_after_eq(jiffies, base->timer_jiffies)) {  //确定当前tvec_base->timer_jiffies是否有效  
  structlist_head work_list; 
  structlist_head *head = &work_list; 
  intindex = base->timer_jiffies & TVR_MASK;   //只需扫描tv1组,看当前jiffies时刻是否有超时发生  
  if(!index && //cascade()定时器队列级联函数实现了  
 (!cascade(base,&base->tv2, INDEX(0))) && //tv5~tv2组迁移过程  
(!cascade(base,&base->tv3, INDEX(1))) &&
   !cascade(base,&base->tv4, INDEX(2))) 
 cascade(base,&base->tv5, INDEX(3)); 
  ++base->timer_jiffies;//更新当前tvec_base->timer_jiffies  
  list_replace_init(base->tv1.vec+ index, &work_list);//链表更新新、旧取代  
  while(!list_empty(head)) { //判定是否有定时器超时事件发生,非空为有,知道处理完链表中所有相同的定时器事件为止  
 void(*fn)(unsigned long); 
 unsignedlong data; 
  
 timer= list_first_entry(head, struct timer_list,entry);  // 这是一个宏,获取第一个实体(对应的是入口的下一个)的地址  
 fn= timer->function; 
 data= timer->data; 
   … 
 fn(data);//timer超时时回调函数入口  
   … 

   } 
 … 
}


对于cascade()函数它是确保之前定时器建立时internal_add_timer()定时器队列以及队列租得迁移更新工作,为什么要迁移,因为,系统在处理定时器时,比较的只是tv1组而已,也就是说,原来的tv1执行完之后,那么剩下的tv2,tv3,tv4,tv5将会先后迁移到tv1组:tv5 -> tv4 -> tv3 -> tv2-> tv1,这样定时器超时事件服务程序并不需要对每组的tv的超时事件进行检测,相比而言,也就提高了CPU的处理效率。那么这样一来timer 链表将发生变化,所以需要重新计算,重新实现internal_add_timer(),所以cascade ()函数代码如下:

tatic int cascade(struct tvec_base *base,struct tvec *tv, int index) 

   /*cascade all the timers from tv up one level */ 
   structtimer_list *timer, *tmp; 
   structlist_head tv_list; 
  
   list_replace_init(tv->vec+ index, &tv_list);   //  
   list_for_each_entry_safe(timer,tmp, &tv_list, entry) { 
  BUG_ON(tbase_get_base(timer->base)!= base);//确保本地cpu 的tvec_base没  
  internal_add_timer(base,timer); //有发生改变  
   } 
  
   return index; 


通过以上分析,我们对Linux中系统定时器TIMER实现过程有所了解了。