Linux系统定时器,在内核中扮演着重要角色。内核的许多重要实现如任务调度,工作队列等均以系统定时器关系密切。系统定时器能以可编程的频率中断处理,这一中断叫做软中断。此频率即为每秒的定时器节拍数HZ。HZ的越大,说明定时器节拍越小,线程调度的准确性会越高。但HZ设得过大,对一个系统来说并不好,会导CPU开销过大,反而造成任务调度效率降低。滴答jiffies 变量记录系统启动以来,系统定时器已经触发的次数。也就是说每过一秒jiffies的增量为HZ,一般HZ=100,HZ是可以配置的,在S3C2440 arm linux中配置为200.
下面基于Linux2.6.30.4源码来探讨其实现原理及其过程。
要理解系统定时器实现原理,先来看看关系到系统定时器的各种数据结构,其具体的描述参数。
结构体structtimer_list来描述timer的参数,其数据结构如下:
struct timer_list {
structlist_head entry; //timer双向链表
unsignedlong expires; //timer超时变量
void(*function)(unsigned long); //timer超时回调函数
unsignedlong data; //传递给回调函数的数据,也就是定时器数据
struct tvec_base *base;//timer base向量表用于timer_list的挂载和链表管理
//timer的一些扩展参数
#ifdef CONFIG_TIMER_STATS
void*start_site;
charstart_comm[16];
intstart_pid;
#endif
#ifdef CONFIG_LOCKDEP
structlockdep_map lockdep_map;
#endif
};
其中:
list_entry结构:
struct list_head {
structlist_head *next, *prev;
};
tevc_base的结构:
struct tvec_base {
spinlock_tlock; //自旋锁lock
structtimer_list *running_timer; //指向已经挂载进来的timer_list
unsignedlong timer_jiffies; //timer jiffies用于记录定时器当前jiffies
structtvec_root tv1; //5组tvec_base,从tv1~tv5,成员数各不相同
structtvec tv2;//其成员数TVR_SIZE,TVN_SIZE决定
structtvec tv3;
structtvec tv4;
structtvec tv5;
} ____cacheline_aligned;
#define TVN_BITS (CONFIG_BASE_SMALL ? 4 :6)
#define TVR_BITS (CONFIG_BASE_SMALL ? 6 :8)
#define TVN_SIZE (1 << TVN_BITS)
#define TVR_SIZE (1 << TVR_BITS)
#define TVN_MASK (TVN_SIZE - 1)
#define TVR_MASK (TVR_SIZE - 1)
struct tvec {
structlist_head vec[TVN_SIZE]; // tv2~t5个数为64的数组
};
struct tvec_root {
structlist_head vec[TVR_SIZE]; //tv1个数为256的数组
};
可见涉及到系统定时器的数据结构并不多,那么:对于一个linux系统中,定时器个数可能会很多,而且每个定时器的超时事件时间并不相同,所以如何管理和处理定时器超时事件,关系到内核性能的高低。它根据不同的定时事件,按时间间分组,将新增的timer定时器建成双向链表,然后按照一定方式存放于5组tv1~tv5变量中称为tec_base。对于对称式多理器(SMP)系统还考虑到了TIMER从一个CPU迁移到另一个CPU的情况,相应的tev_base也跟着更改。那它在系统是怎样实现的呢?现在先从一个简单的系统定时器应用例子来看看它的实现过程:
#include <linux/init.h>
#include <linux/module.h>
#include <linux/timer.h>
struct timer_list my_timer;
static void my_function(unsigned long data)
{
static int i = 0;
printk( "timer’s callback function\n");
printk( "timer’s data = %lu\n",data);
return;
}
static int my_timer_init(void)
{
printk(“timerinit…\n”);
my_timer.data = 0xff;
my_timer.function = my_function;
my_timer.expires = jiffies + 3*HZ;
init_timer(&my_timer);
add_timer(&my_timer);
return 0;
}
static void my_timer_exit(void)
{
printk( "timer exit…\n");
}
module_init(my_timer_init);
module_exit(my_timer_exit);
MODULE_AUTHOR( "itspy");
MODULE_LICENSE( "GPL");
MODULE_DESCRIPTION("linux kernel timerprogramming");
上面例子,实现了一个定时器事件,将在3 HZ(秒)发生。my_imer_init函数中调用到的定时器API只有:
init_timer(&my_timer); //用于定时器初始化
add_timer(&my_timer);//增加一个新的定时器到tev_base向量表中
其中init_timer中调用了__init_timer(),这个函数才是真正初始化定时器的:
static void __init_timer(struct timer_list*timer,
const char *name,
struct lock_class_key *key)
{
timer->entry.next= NULL; //对于新增的timer实例,其下一各总是指向NULL。
timer->base= __raw_get_cpu_var(tvec_bases); //SMP中,获得当前处理器的tev_base
//这个tev_bases是根据一定规律变化的,稍后会将到
…
}
新增的定时器初始化,就是完成了一个timer_list结构初始化过程。
add_timer() --> mod_timer() --> __mod_timer()
其中:
static inline int
__mod_timer(struct timer_list *timer,unsigned long expires, bool pending_only)
{
structtvec_base *base, *new_base;
unsignedlong flags;
intret;
ret= 0;
BUG_ON(!timer->function); // BUG检测,确保回调函数为非空NULL
base= lock_timer_base(timer, &flags); //获取本地cpu的tev_base,这是一 临
//界资源,里边是一个for(;;)循环,如果找不到说明已经迁移到了别的CPU
if (timer_pending(timer)) { //当已挂载的timer 定时超时发生后,会被卸载摘除
detach_timer(timer,0);
ret= 1;
}else {
if(pending_only)//新增一个定时器时,pending_only 为 false
gotoout_unlock;
}
…
new_base= __get_cpu_var(tvec_bases); //获取本地cpu中的tevc_bases
if(base != new_base) { //由于之前base 可能已被迁移到其他CPU的 tev_base向量表,会造成 base != new_base
if(likely(base->running_timer != timer)) { //由于在timer正在运行时,我们不能直接更改base,位与一个叫做DEFERRABLE(可延后标志)后处理
/*See the comment in lock_timer_base() */
timer_set_base(timer,NULL);
spin_unlock(&base->lock);
base= new_base;
spin_lock(&base->lock);
timer_set_base(timer,base);
}
}
timer->expires= expires;
internal_add_timer(base,timer); //分析timer expires及建表过程
out_unlock:
spin_unlock_irqrestore(&base->lock,flags);
return ret;
}
对于新增的timer最后调用internal_add_timer(base, timer)加入到相应的timer_list中以完成初始化过程。,这是一个建表的过程,表的建立情况,关系到表的管理效率。之前我们说到它共有tv1~tv5 组,tv1是一个很特别的组。每个tv中有各个组员,每个timer是如何添加的呢,看看internal_add_timer()的实现过程:
static void internal_add_timer(structtvec_base *base, struct timer_list *timer)
{
unsignedlong expires = timer->expires;
unsignedlong idx = expires - base->timer_jiffies;
structlist_head *vec;
if(idx < TVR_SIZE) {
inti = expires & TVR_MASK;
vec= base->tv1.vec + i;
}else if (idx < 1 << (TVR_BITS + TVN_BITS)) {
inti = (expires >> TVR_BITS) & TVN_MASK;
vec= base->tv2.vec + i;
}else if (idx < 1 << (TVR_BITS + 2 * TVN_BITS)) {
inti = (expires >> (TVR_BITS + TVN_BITS)) & TVN_MASK;
vec= base->tv3.vec + i;
}else if (idx < 1 << (TVR_BITS + 3 * TVN_BITS)) {
inti = (expires >> (TVR_BITS + 2 * TVN_BITS)) & TVN_MASK;
vec= base->tv4.vec + i;
}else if ((signed long) idx < 0) {
/*
* Can happen if you add a timer with expires== jiffies,
* or you set a timer to go off in the past
*/
vec= base->tv1.vec + (base->timer_jiffies & TVR_MASK);
}else {
inti;
/*If the timeout is larger than 0xffffffff on 64-bit
* architectures then we use the maximumtimeout:
*/
if(idx > 0xffffffffUL) {
idx= 0xffffffffUL;
expires= idx + base->timer_jiffies;
}
i= (expires >> (TVR_BITS + 3 * TVN_BITS)) & TVN_MASK;
vec= base->tv5.vec + i;
}
/*
* Timers are FIFO:
*/
list_add_tail(&timer->entry,vec);
}
通过代码我们知道它的过程是这样的:首先它根据每个timer中的超时差值idx来决定timer所处的tev_base组别tv1~tv5.所以超时事件越后发生,那么它所处的组位置越靠后。对于tv1组,超时插值idx为0~255之间。差值idx即为所属组tv1中的数组下标。从中可知tv1组中相邻定时器的超时事件间隔1 jiffies发生。对于tv2组,超时差值idx为 256~2^14(16386) 之间,组中相邻定时时器超事件时间隔256^1 = 256 jiffies发生。以此类推,tv3 组超时差值idx为(16387~2^20)之间,组中相邻定时器超时时间间隔256^2 = 65536 jiffies发生 … 最后,新增的timer加入到当前节点(超时差值相等)的尾部list_add_tail()形成一个双向链表。这样分组timer双向链表方便了后面对定时器的迁移更新管理过程,以及最终提高了CPU的处理效率,因为在__run_timers()时,我们只需扫描tv1组中即将到来的定时器事件就行了。
我们知道启动过程时start_kernel()对定时器的初始化是这样的 :
init_timers() -> run_timer_softirq() -> __run_timers()…
timer_interrupt() -> update_process_times() ->run_local_timers() -> raise_softirq(TIMER_SOFTIRQ);
之前我写的一篇《内核窥秘之一:start_kernel()运行过程记录》也有提到过.
__run_timers()是系统定时器超时事件的服务程序。这是run_timer_softirq()中一部分,是通过软中断的实现的,它是在软中断下半部处理的。
static inline void __run_timers(structtvec_base *base)
{
…
while(time_after_eq(jiffies, base->timer_jiffies)) { //确定当前tvec_base->timer_jiffies是否有效
structlist_head work_list;
structlist_head *head = &work_list;
intindex = base->timer_jiffies & TVR_MASK; //只需扫描tv1组,看当前jiffies时刻是否有超时发生
if(!index && //cascade()定时器队列级联函数实现了
(!cascade(base,&base->tv2, INDEX(0))) && //tv5~tv2组迁移过程
(!cascade(base,&base->tv3, INDEX(1))) &&
!cascade(base,&base->tv4, INDEX(2)))
cascade(base,&base->tv5, INDEX(3));
++base->timer_jiffies;//更新当前tvec_base->timer_jiffies
list_replace_init(base->tv1.vec+ index, &work_list);//链表更新新、旧取代
while(!list_empty(head)) { //判定是否有定时器超时事件发生,非空为有,知道处理完链表中所有相同的定时器事件为止
void(*fn)(unsigned long);
unsignedlong data;
timer= list_first_entry(head, struct timer_list,entry); // 这是一个宏,获取第一个实体(对应的是入口的下一个)的地址
fn= timer->function;
data= timer->data;
…
fn(data);//timer超时时回调函数入口
…
}
}
…
}
对于cascade()函数它是确保之前定时器建立时internal_add_timer()定时器队列以及队列租得迁移更新工作,为什么要迁移,因为,系统在处理定时器时,比较的只是tv1组而已,也就是说,原来的tv1执行完之后,那么剩下的tv2,tv3,tv4,tv5将会先后迁移到tv1组:tv5 -> tv4 -> tv3 -> tv2-> tv1,这样定时器超时事件服务程序并不需要对每组的tv的超时事件进行检测,相比而言,也就提高了CPU的处理效率。那么这样一来timer 链表将发生变化,所以需要重新计算,重新实现internal_add_timer(),所以cascade ()函数代码如下:
tatic int cascade(struct tvec_base *base,struct tvec *tv, int index)
{
/*cascade all the timers from tv up one level */
structtimer_list *timer, *tmp;
structlist_head tv_list;
list_replace_init(tv->vec+ index, &tv_list); //
list_for_each_entry_safe(timer,tmp, &tv_list, entry) {
BUG_ON(tbase_get_base(timer->base)!= base);//确保本地cpu 的tvec_base没
internal_add_timer(base,timer); //有发生改变
}
return index;
}
通过以上分析,我们对Linux中系统定时器TIMER实现过程有所了解了。