- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Linux 2.6细粒度定时器的设计
摘要:该文对Linux时钟机制进行研究,分析了影响时钟慢的原因并设计了细粒度定时器,把系统时钟的节拍的粒度减小,较大的提升了Linux的实时性能。
关键词:Linux内核;时钟;定时器
中图分类号:TP274文献标识码:A文章编号:1009-3044(2009)36-10259-02
Linux 2.6 Design of Fine-Grained Timer
TANG Liang
(Yongzhou Vocational and Technical College, Yongzhou 425000, China)
Abstract: This paper Linux clock mechanism studies to analyze the reasons that affect the clock slowly and design of the fine-grained timers to beat the system clock granularity decreases, the larger Linux real-time performance improved.
Key words: Linux kernel; clock; timer
由于标准Linux是一个分时操作系统,因此在实时性方面存在许多问题,如何增强Linux操作系统的实时性能,使其满足实时系统的需要,目前对Linux实时性的研究是国内外学者研究的一个热点。本文对Linux时钟机制进行研究,分析了影响时钟慢的原因并设计了细粒度定时器,把系统时钟的节拍的粒度减小,较大的提升了Linux的实时性能。
1 Linux内核时钟机制
与Linux2.4内核相比,Linux2.6内核将内核时间频率“Hz”,由原来的100提高到了1000,对于内核的时钟精度的提升是显而易见的:更高的时钟中断解析度(resolution )可以提高时间驱动时间的解析度(1ms);提高了时间驱动事件的准确度(accuracy)(事件的响应的平均误差降低10倍(0.5ms);内核定时器能够以更高的频度和更高的准确度运行;依赖定时值执行的系统调用,如po11Q和selectQ能够以更高的精度运行;对诸如资源消耗和系统运行时间等的测量会有更精细的解析度;提高进程抢占的准确度,加快调度响应的时间。
然而,即使是1ms的时钟精度,对于高精度的实时应用来说仍然是不够的。大量的高实时性应用中,时钟精度往往要求达到微秒级,否则大量实时进程将无法得到即时响应。一个简单而直接的方法是继续提高内核的时间频率“Hz”,如提高到1000000,即可达到1us的时钟精度。但是,这样大幅度地提高时钟精度的方法是以严重降低系统负载性能为代价的:时间频率提高1000倍,意味着时钟中断频率提高了1000倍,使中断处理程序占用CPU时间提高了1000倍,从而减少了CPU处理其他工作的时间,更频繁的扰乱了CPU的高速缓存,最终增加了系统的负载,严重降低了系统性能。
因此,需要考虑更加有效的改造方案,以便达到系统微秒级时钟精度和调度负载增加的平衡。
2 细粒度定时器的实现原理
8253/8254定时器工作于单次触发模式(One-shot Mode)下,将从CPU时间戳计数器TSC(Timestamp Counter)中获得高精度的时间基值,然后根据实时任务的执行时间设置定时器计数初始值寄存器,由于TSC存储着系统启动以来CPU所经历的时钟周期数,所以它的精度可以达到纳秒级,轻松地满足了实时应用中的高时钟精度要求。和周期模式不同,在这种模式下,程序员把预先计算好的数值送至锁存器,然后启动定时器。硬件在自动把锁存器的内容拷贝到计数器,当计数器计数到0时,产生一个中断后,便停止工作,直到有软件再次启动为止。通过对80x86中的三个定时器T/C0, T/C1和T/C2的设置,在系统初始化时,向端口43H写入控制字32H,即可控制时钟以单次触发模式工作。而下一次的中断间隔需要在每次中断产生后重新写入锁存器。在单次触发模式下对时钟中断间隔进行设置,即可实现时钟以微秒级在任何需要的时候产生时钟中断。在任何时刻,时钟的下一次中断将由所有定时器到期时间中最早的一个来决定。一旦定时器到期,内核便能立刻响应,因此内核的响应开销只由中断服务的时间所决定,大约只有几个微秒。
此方法的基本原理:在系统中增加一个新的定时器链表,该链表中每一项的超时处理函数都在中断环境中执行,同时该链表的定时可以精确到微秒级,这是通过x86处理器的时间戳寄存器将系统时钟周期1毫秒进一步细分来实现的。下面讲述具体实现定时器链表类型:
文档评论(0)