感谢支持
我们一直在努力

深入浅出Linux之内核基础层

前言将内核分成了内核基础层和内核应用层。记得我们的目标是“快速流畅的阅读内核代码”,为了达到这个目标,必须先了解内核的基础和数据结构。这些知识使用范围很广,如果不了解,在内核代码的理解上就容易出现障碍。 

1.内核对内存的使用


  简单说,内核提供了两个层次的内存分配接口。一个是从伙伴系统分配,一个是从slab分配。关于伙伴系统和slab机制,在后面的章节再分析。这里只需要了解,伙伴系统是最底层的内存管理机制,提供基于基于页式的内存管理,而slab是伙伴系统之上的内存管理,提供基于对象的内存管理。 


  从伙伴系统分配内存的调用是alloc_pages,注意此时得到的页面的地址,如果要获得能使用的内存地址,还需要page_address调用来获得内存地址。 


  如果要直接获得内存地址,需要使用__get_free_pages。__get_free_pages其实封装了alloc_pagespage_address两个函数。 


  alloc_pages申请的内存是以页为单元的,最少也要一个页。如果只是一小块内存,一个页就浪费了,而且内核中很多应用也希望一种对象化的内存管理,希望内存管理能自动的构造和析构对象,这都很接近面向对象的思路了。这就是slab内存管理。 


  要从slab申请内存,则需要创建一个slab对象,使用kmem_cache_create创建slab对象,kmem_cache_create可以提供对象的名字和大小,构造函数和析构函数等。然后通过kmem_cache_alloc和kmem_cache_free来申请和释放内存。 


  内核中常用的kmalloc其实也是slab管理。只不过内核已经创建好了一些固定大小的对象,用户通过kmalloc申请的时候,就使用了这些对象。 


提供一个内核的例子:


======================================================================


创建slab对象:


bh_cachep = kmem_cache_create(“buffer_head”,


                               sizeof(struct buffer_head), 0,


                               (SLAB_RECLAIM_ACCOUNT|SLAB_PANIC|


                               SLAB_MEM_SPREAD),


                               init_buffer_head,


                               NULL);


  创建了一个名为“buffer_head”的对象,对象的初始化函数为init_buffer_head


 


申请slab对象:


struct buffer_head *ret = kmem_cache_alloc(bh_cachep, gfp_flags);


 


释放slab对象:


kmem_cache_free(bh_cachep, bh);


 


  内核中还有一个内存分配调用:vmallocVmalloc涉及到高端内存和建立页表映射的概念,作为内核基础的本节就不分析了。  理解了上面的几个函数调用,阅读内核代码的时候,就可以清晰内核中对内存的使用。至于内存管理的结构和细节,在后面我们再讨论。


 


2.内核使用的进程调度


  内核中经常需要使用进程的调度。首先看一个例子。


#define wait_event(wq, condition)  \


do { \


         if (condition)   \


                   break; \


         __wait_event(wq, condition); \


} while (0)


 


#define __wait_event(wq, condition)  \


do { \


         DEFINE_WAIT(__wait); \


                                                \


         for (;;) { \


               prepare_to_wait(&wq, &__wait, TASK_UNINTERRUPTIBLE); \


               if (condition) \


                          break; \


                   schedule(); \


         } \


         finish_wait(&wq, &__wait); \


} while (0)


  上文定义了一个wait对象,然后设置进程睡眠。如果有其它进程唤醒这个进程后,判断条件是否满足,如果满足则删除wait对象,否则进程继续睡眠。


  这是一个很常见的例子,使用wait_event调用实现进程调度的实例在内核中很多,而且内核中还实现了一系列的函数,简单介绍一下。



  • wait_event_timeout :和wait_event的区别是有时间限制,如果条件满足,进程恢复行,或者时间到达,进程同样恢复运

  • wait_event_interruptible:和wait_event类似,不同之处进程处于可打断的睡眠。wait_event设置进程处于不可打断的睡眠。两者区别何在?可打断的睡眠进程可以接收到信号,而不可打断的睡眠进程不能处理信号。

  • wait_event_interruptible_timeout:和wait_event_interruptible相比,多个了时间限制。在规定的时间到达后,进程恢复运行。

  • wait_event_interruptible_exclusive:和wait_event_interruptible区别是排它性的等待。何谓排它性的等待?有一些进程都在等待队列中,当唤醒的时候,内核是唤醒所有的进程。如果进程设置了排它性等待的标志,那么唤醒所有非排它性的进程和一个排它性进程。 

3.内核的软中断和tasklet


  linux内核把中断的执行分拆成两部分。和硬件关系紧密,必须关中断执行的操作放在中断上下文中执行,而可以开中断执行的操作则放在软中断上下文执行。 


  为此目的,linux内核定义了几个缺省的软中断,网络设备有自己的发送和接收软中断,块设备也有自己的软中断。为了方便使用,内核还定义了一个TASKLET软中断。TASKLET一种特殊的软中断,一个TASKLET只能由一个CPU 执行,同一刻,不同的TASKLET可以在不同的CPU上执行,而同样的TASKLET只能有一个在执行。这个和软中断不同,软中断同一刻可以在不同的CPU并行执行,因此软中断必须考虑重入的问题。


  内核中很多地方使用了tasklet。先分析一个例子:


======================================================================


DECLARE_TASKLET_DISABLED(hil_mlcs_tasklet, hil_mlcs_process, 0);


tasklet_schedule(&hil_mlcs_tasklet);


  上面的例子首先定义了一个tasklet,它的执行函数是hil_mlcs_process。当程序中调用


tasklet_schedule,会把要执行的结构插入到一个tasklet链表。然后触发一个TASKLET


中断。每个CPU都有自己的tasklet链表,内核会根据情况,确定在何时执行tasklet


 


  可以看到,TASKLET使用起来很简单。本节只需要了解在内核如何使用即可。 


4.工作队列


  工作队列和tasklet相似,都是一种延缓执行的机制。不同之处是工作队列有自己的进程上下文,所以工作队列可以睡眠,可以被调度。而tasklet一般要在软中断上下文中执行。


看一个工作队列的例子:


======================================================================


        INIT_WORK(&ioc->sas_persist_task,


           mptsas_persist_clear_table,


           (void *)ioc);


           schedule_work(&ioc->sas_persist_task);


  


  使用工作队列很简单,schedule_work就把用户定义的work_struct加入系统的队列中,并唤醒系统线程去执行。那么是那一个系统线程执行用户的work_struct?实际上,内核初始化的时候,就要创建一个工作队列keventd_wq,同时为这个工作队列创建系统线程(缺省是为每个CPU创建一个系统线程)。 


  内核同时还提供了create_workqueuecreate_singlethread_workqueue函数,这样用户可以创建自己的工作队列和执行线程,而不用内核提供的工作队列。看内核的例子:


======================================================================


kblockd_workqueue = create_workqueue(“kblockd”);


int kblockd_schedule_work(struct work_struct *work)


{



return queue_work(kblockd_workqueue, work);


}


  kblockd_workqueue是内核通用块层提供的工作队列,需要由kblockd_workqueue执行的工作,就要调用kblockd_schedule_work,其实就是调用queue_work把work加入到kblockd_workqueued工作队列的任务链表。 


  create_singlethread_workqueuecreate_workqueue类似,不同之处像名字揭示的一样,create_singlethread_workqueue只创建一个内核线程,而不是为每个CPU创建一个内核线程。

赞(0) 打赏
转载请注明出处:服务器评测 » 深入浅出Linux之内核基础层
分享到: 更多 (0)

听说打赏我的人,都进福布斯排行榜啦!

支付宝扫一扫打赏

微信扫一扫打赏