感谢支持
我们一直在努力

Linux内核分析之调度算法

linux调度算法在2.6.32中采用调度类实现模块式的调度方式。这样,能够很好的加入新的调度算法。


linux调度器是以模块方式提供的,这样做的目的是允许不同类型的进程可以有针对性地选择调度算法。这种模块化结构被称为调度器类,他允许多种不同哦可动态添加的调度算法并存,调度属于自己范畴的进程。每个调度器都有一个优先级,调度代码会按照优先级遍历调度类,拥有一个可执行进程的最高优先级的调度器类胜出,去选择下面要执行的那个程序。


linux上主要有两大类调度算法,CFS(完全公平调度算法)和实时调度算法。宏SCHED_NOMAL主要用于CFS调度,而SCHED_FIFO和SCHED_RR主要用于实时调度。如下面的宏定义:


  1. /* 

  2.  * Scheduling policies 

  3.  */  

  4.  /*支援Real-Time Task的排程,包括有SCHED_FIFO與SCHED_RR.  

  5.  */  

  6.    

  7.  /*(也稱為SCHED_OTHER): 主要用以排程 

  8.  一般目的的Task.*/  

  9. #define SCHED_NORMAL        0   

  10. #define SCHED_FIFO      1   

  11. /*task預設的 Time Slice長度為100 msecs*/  

  12. #define SCHED_RR        2   

  13. /*主要用以讓Task可以延長執行的時間 

  14. (Time Slice),減少被中斷發生Task Context-Switch 

  15. 的次數.藉此可以提高 Cache的利用率  

  16. (每次Context-Switch都會導致Cache-Flush). 比 

  17. 較適合用在固定週期執行的Batch Jobs任 

  18. 務主機上,而不適合用在需要使用者互 

  19. 動的產品 (會由於Task切換的延遲,而 

  20. 感覺到系統效能不佳或是反應太慢).*/  

  21. #define SCHED_BATCH     3   

  22. /* SCHED_ISO: reserved but not implemented yet */  

  23. /*為系統中的Idle Task排程.*/  

  24. #define SCHED_IDLE      5  

linux调度算法实现的高层数据结构主要有运行实体、调度类、运行队列,下面我们主要看看这几个数据结构的字段和意义。


运行实体,rq结构体每个cpu有一个,主要存储一些基本的用于调度的信息,包括实时调度的和CFS调度的


  1.  /*每个处理器都会配置一个rq*/  

  2. struct rq {  

  3.     /* runqueue lock: */  

  4.     spinlock_t lock;  

  5.   

  6.     /* 

  7.      * nr_running and cpu_load should be in the same cacheline because 

  8.      * remote CPUs use both these fields when doing load calculation. 

  9.      */  

  10.      /*用以记录目前处理器rq中执行task的数量*/  

  11.     unsigned long nr_running;  

  12.     #define CPU_LOAD_IDX_MAX 5   

  13.     /*用以表示处理器的负载,在每个处理器的rq中 

  14.     都会有对应到该处理器的cpu_load参数配置,在每次 

  15.     处理器触发scheduler tick时,都会呼叫函数 

  16.     update_cpu_load_active,进行cpu_load的更新。在系统初始化的时候 

  17.     会呼叫函数sched_init把rq的cpu_load array初始化为0. 

  18.     了解他的更新方式最好的方式是通过函数update_cpu_load,公式如下澹? 

  19.     cpu_load[0]会直接等待rq中load.weight的值。 

  20.     cpu_load[1]=(cpu_load[1]*(2-1)+cpu_load[0])/2 

  21.     cpu_load[2]=(cpu_load[2]*(4-1)+cpu_load[0])/4 

  22.     cpu_load[3]=(cpu_load[3]*(8-1)+cpu_load[0])/8 

  23.     cpu_load[4]=(cpu_load[4]*(16-1)+cpu_load[0]/16 

  24.     呼叫函数this_cpu_load时,所返回的cpu load值是cpu_load[0] 

  25.     而在进行cpu blance或migration时,就会呼叫函数 

  26.     source_load target_load取得对该处理器cpu_load index值, 

  27.     来进行计算*/  

  28.     unsigned long cpu_load[CPU_LOAD_IDX_MAX];  

  29. #ifdef CONFIG_NO_HZ   

  30.     unsigned long last_tick_seen;  

  31.     unsigned char in_nohz_recently;  

  32. #endif   

  33.     /* capture load from *all* tasks on this cpu: */  

  34.     /*load->weight值,会是目前所执行的schedule entity的 

  35.     load->weight的总和,也就是说rq的load->weight越高, 

  36.     也表示所负责的排程单元load->weight总和越高 

  37.     表示处理器所负荷的执行单元也越重*/  

  38.     struct load_weight load;  

  39.     /*在每次scheduler tick中呼叫update_cpu_load时, 

  40.     这个值就增加一,可以用来反馈目前cpu 

  41.     load更新的次数*/  

  42.     unsigned long nr_load_updates;  

  43.     /*用来累加处理器进行context switch的次数,会在 

  44.     函数schedule呼叫时进行累加,并可以通过函数 

  45.     nr_context_switches统计目前所有处理器总共的context switch 

  46.     次数,或是可以透过查看档案/proc/stat中的ctxt位得知目前 

  47.     整个系统触发context switch的次数*/  

  48.     u64 nr_switches;  

  49.       

  50.     u64 nr_migrations_in;  

  51.     /*为cfs fair scheduling class 的rq*/  

  52.     struct cfs_rq cfs;  

  53.     /*为real-time scheduling class 的rq*/  

  54.     struct rt_rq rt;  

  55.       

  56. /*用以支援可以group cfs tasks的机制*/  

  57. #ifdef CONFIG_FAIR_GROUP_SCHED   

  58.     /* list of leaf cfs_rq on this cpu: */  

  59.     /*在有设置fair group scheduling 的环境下, 

  60.     会基于原本cfs rq中包含有若干task的group 

  61.     所成的排程集合,也就是说当有一个group a 

  62.     就会有自己的cfs rq用来排程自己所属的tasks, 

  63.     而属于这group a的tasks所使用到的处理器时间 

  64.     就会以这group a总共所分的的时间为上限。 

  65.     基于cgroup的fair group scheduling 架构,可以创造出 

  66.     有阶层性的task组织,根据不同task的功能群组化 

  67.     在配置给该群主对应的处理器资源,让属于 

  68.     该群主下的task可以透过rq机制排程。使用属于 

  69.     该群主下的资源。 

  70.     这个变数主要是管理CFS RQ list,操作上可以透过函数 

  71.     list_add_leaf_cfs_rq把一个group cfs rq加入到list中,或透过 

  72.     函数list_del_leaf_cfs_rq把一个group cfs rq移除,并可以 

  73.     透过for_each_leaf_cfs_rq把一个rq上得所有leaf cfs_rq走一遍 

  74.     */  

  75.     struct list_head leaf_cfs_rq_list;  

  76. #endif   

  77. /*用以支援可以group real-time tasks的机制*/  

  78. #ifdef CONFIG_RT_GROUP_SCHED   

  79.     /*类似leaf_cfs_rq_list所扮演的角色,只是这里 

  80.     是针对属于real-time的task,在实际操作上可以 

  81.     透过函数list_add_leaf_rt_rq,list_del_leaf_rt_rq或 

  82.     巨集for_each_leaf_rt_rq*/  

  83.     struct list_head leaf_rt_rq_list;  

  84. #endif   

  85.   

  86.     /* 

  87.      * This is part of a global counter where only the total sum 

  88.      * over all CPUs matters. A task can increase this counter on 

  89.      * one CPU and if it got migrated afterwards it may decrease 

  90.      * it on another CPU. Always updated under the runqueue lock: 

  91.      */  

  92.      /*一般来说,linux kernel 的task状态可以为TASK_RUNNING 

  93.      TASK_INTERRUPTIBLE(sleep), 

  94.      TASK_UNINTERRUPTIBLE(Deactivate Task,此时Task会从rq中 

  95.      移除)或TASK_STOPPED. 

  96.      透过这个变数会统计目前rq中有多少task属于 

  97.      TASK_UNINTERRUPTIBLE的状态。当呼叫函数 

  98.      active_task时,会把nr_uninterruptible值减一,并透过 该函数 

  99.     enqueue_task把对应的task依据所在的scheduling class 

  100.     放在 对应的rq中,并把目前rq中nr_running值加一*/  

  101.     unsigned long nr_uninterruptible;  

  102.     /*curr:指向目前处理器正在执行的task; 

  103.     idle:指向属于idle-task scheduling class 的idle task; 

  104.     stop:指向目前最高等级属于stop-task scheduling class 

  105.     的task;*/  

  106.     struct task_struct *curr, *idle;  

  107.     /*基于处理器的jiffies值,用以记录下次进行处理器 

  108.     balancing 的时间点*/  

  109.     unsigned long next_balance;  

  110.     /*用以存储context-switch发生时,前一个task的memory management 

  111.     结构并可用在函数finish_task_switch中,透过函数mmdrop释放前一个 

  112.     task的记忆体资源*/      

  113.     struct mm_struct *prev_mm;  

  114.     /*用以记录目前rq的clock值,基本上该值会等于透过sched_clock_cpu 

  115.     (cpu_of(rq))的回传值,并会在每次呼叫scheduler_tick时透过 

  116.     函数update_rq_clock更新目前rq clock值。 

  117.     在实作部分,函数sched_clock_cpu会透过sched_clock_local或 

  118.     ched_clock_remote取得对应的sched_clock_data,而处理的sched_clock_data 

  119.     值,会透过函数sched_clock_tick在每次呼叫scheduler_tick时进行更新; 

  120.     */  

  121.     u64 clock;  

  122.     /*用以记录目前rq中有多少task处于等待i/o的sleep状态 

  123.     在实际的使用上,例如当driver接受来自task的调用,但处于等待i/o 

  124.     回复的阶段时,为了充分利用处理器的执行资源,这时 

  125.     就可以在driver中呼叫函数io_schedule,此时 

  126.     就会把目前rq中的nr_iowait加一,并设定目前task的io_wait为1 

  127.     然后触发scheduling 让其他task有机会可以得到处理器执行时间*/  

  128.     atomic_t nr_iowait;  

  129.   

  130. #ifdef CONFIG_SMP   

  131.     /*root domain是基于多核心架构下的机制, 

  132.     会由rq结构记住目前采用的root domain,其中包括了 

  133.     目前的cpu mask(包括span,online rt overload), reference count 跟cpupri 

  134.     当root domain有被rq参考到时,refcount 就加一,反之就减一。而cpu 

  135.     mask span表示rq可挂上的cpu mask,noline为rq目前已经排程的 

  136.     cpu mask cpu上执行real-time task.可以参考函数pull_rt_task,当一个rq中属于 

  137.     real-time的task已经执行完毕,就会透过函数pull_rt_task从该 

  138.     rq中属于rto_mask cpu mask 可以执行的处理器上,找出是否有一个处理器 

  139.     有大于一个以上的real-time task,若有就会转到目前这个执行完成 

  140.     real-time task 的处理器上 

  141.     而cpupri不同于Task本身有区分140個(0-139) 

  142.     Task Priority (0-99為RT Priority 而 100-139為Nice值 -20-19).  

  143.     CPU Priority本身有102個Priority (包括,-1 為Invalid, 

  144.     0為Idle,1為Normal,2-101對應到Real-Time Priority 0-99). 

  145.     參考函式convert_prio, Task Priority如果是 140就會對應到 

  146.     CPU Idle,如果是大於等於100就會對應到CPU Normal, 

  147.     若是Task Priority介於0-99之間,就會對應到CPU Real-Time Priority 101-2之間.)  

  148.     在實際的操作上,例如可以透過函式cpupri_find 

  149.     帶入一個要插入的Real-Time Task,此時就會依據cpupri中 

  150.     pri_to_cpu選擇一個目前執行Real-Time Task且該Task 

  151.     的優先級比目前要插入的Task更低的處理器, 

  152.     並透過CPU Mask(lowest_mask)返回目前可以選擇的處理器Mask. 

  153.     實作的部份可以參考檔案kernel/sched_cpupri.c. 

  154.     在初始化的過程中,會透過函式sched_init呼叫函式init_defrootdomain, 

  155.     對Root Domain與 CPU Priority機制進行初始化. 

  156.     */  

  157.     struct root_domain *rd;  

  158.     /*Schedule Domain是基於多核心架構下的機制. 

  159.     每個處理器都會有一個基礎的Scheduling Domain, 

  160.     Scheduling Domain可以有階層性的架構,透過parent 

  161.     可以找到上一層的Domain,或是透過child找到 

  162.     下一層的 Domain (NULL表示結尾.).並可透過span 

  163.     栏位,表示這個Domain所能涵蓋的處理器範圍. 

  164.     通常Base Domain會涵蓋系統中所有處理器的個數, 

  165.     而Child Domain所能涵蓋的處理器個數不超過它的 

  166.     Parent Domain. 而當在進行Scheduling Domain 中的Task Balance 

  167.     時,就會以該Domain所能涵蓋的處理器為最大範圍. 

  168.     同時,每個Schedule Domain都會包括一個或一個以上的 

  169.     CPU Groups (結構為struct sched_group),並透過next變數把 

  170.     CPU Groups串連在一起(成為一個單向的Circular linked list), 

  171.     每個CPU Group都會有變數cpumask來定义這個CPU Group 

  172.     所涵蓋的處理器範圍.並且CPU Group所包括的處理器 

  173.     範圍,必需涵蓋在所屬的Schedule Domain處理器範圍中. 

  174.     當進行Scheduling Domain的Balancing時,會以其下的CPU Groups 

  175.     為單位,根據cpu_power (會是該Group所涵蓋的處理器 

  176.     Tasks Loading的總和)來比較不同的CPU Groups的負荷, 

  177.     以進行Tasks的移動,達到Balancing的目的. 

  178.     在有支援SMP的架構下,會在函式sched_init中,呼叫open_softirq, 

  179.     註冊 SCHED_SOFTIRQ Software IRQ与其对应的 Callback函式  

  180.     run_rebalance_domains. 並會在每次呼叫函式scheduler_tick時, 

  181.     透過函式trigger_load_balance确认是否目前的jiffies值已經 

  182.     大於RunQueue下一次要觸發Load Balance的next_balance時間值, 

  183.     並透過函式raise_softirq觸發SCHED_SOFTIRQ Software IRQ.  

  184.     在Software IRQ觸發後,就會呼叫函式run_rebalance_domains, 

  185.     並在函式rebalance_domains中,進行后续處理器上的 

  186.     Scheduling Domain Load Balance動作. 

  187.     有關Scheduling Domain進一步的內容,也可以參考 

  188.     Linux Kernel文件 Documentation/scheduler/sched-domains.txt. 

  189.     */  

  190.     struct sched_domain *sd;  

  191.     /*這值會等於函式idle_cpu的返回值,如果為1表示 

  192.     目前CPU RunQueue中執行的為Idle Task. 反之為0, 

  193.     則表示處理器執行的不是Idle Task (也就是說 

  194.     處理器正在忙碌中.).*/  

  195.     unsigned char idle_at_tick;  

  196.     /* For active balancing */  

  197.     /*若這值不為0,表示會有在Schedule排程動作 

  198.     結束前,要呼叫的收尾函式. (实作為inline函式 

  199.     post_schedule in kernel/sched.c),目前只有Real-Time Scheduling  

  200.     Class有支援這個機制(會呼叫函式has_pushable_tasks  

  201.     in kernel/sched_rt.c).*/  

  202.     int post_schedule;  

  203.     /*當RunQueue中此值為1,表示這個RunQueue正在進行 

  204.     Fair Scheduling的Load Balance,此時會呼叫stop_one_cpu_nowait 

  205.     暫停該RunQueue所屬處理器的排程,並透過函式 

  206.     active_load_balance_cpu_stop,把Tasks從最忙碌的處理器, 

  207.     移到Idle的處理器上執行.*/  

  208.     int active_balance;  

  209.     /*用以儲存目前進入Idle且負責進行 Load Balance 

  210.     流程的處理器ID. 呼叫的流程為,在呼叫函式schedule時, 

  211.     若該處理器RunQueue的nr_running為0 (也就是目前沒有 

  212.     正在執行的Task),就會呼叫idle_balance,並觸發後續Load  

  213.     Balance流程.*/  

  214.     int push_cpu;  

  215.     /* cpu of this runqueue: */  

  216.     /*用以儲存目前运作這個RunQueue的處理器ID*/  

  217.     int cpu;  

  218.     /*為1表示目前此RunQueue有在對應的處理器掛上 

  219.     並執行.*/  

  220.     int online;  

  221.     /*如果RunQueue中目前有Task正在執行,這個值會 

  222.     等於目前該RunQueue的Load Weight除以目前RunQueue 

  223.     中Task數目的均值.  

  224.     (rq->avg_load_per_task = rq->load.weight / nr_running;).*/  

  225.     unsigned long avg_load_per_task;  

  226.   

  227.     struct task_struct *migration_thread;  

  228.     struct list_head migration_queue;  

  229.     /*這個值會由Real-Time Scheduling Class呼叫函式 

  230.     update_curr_rt,用以統計目前Real-Time Task執行時間的 

  231.     均值,在這函式中會以目前RunQueue的clock_task 

  232.     減去目前Task執行的起始時間,取得執行時間的 

  233.     Delta值. (delta_exec = rq->clock_task – curr->se.exec_start; ). 

  234.     在透過函式sched_rt_avg_update把這Delta值跟原本 

  235.     RunQueue中的rt_avg值取平均值. 以運作的週期來看, 

  236.     這個值可反應目前系統中Real-Time Task平均被 

  237.     分配到的執行時間值.*/  

  238.     u64 rt_avg;  

  239.     /*這個值主要在函式sched_avg_update更新,以笔者手中 

  240.     的Linux Kernel 2.6.38.6的實作來說,當RunQueue Clock 

  241.     減去age_stamp大於 0.5秒 (=sched_avg_period),就會把這值 

  242.     累加0.5秒 (單位都是nanoseconds). 從函式scale_rt_power 

  243.     的實作來說,age_stamp值離RunQueue Clock越遠,表示total 

  244.     值越大,available值也越大,而函式scale_rt_power返回的 

  245.     div_u64計算結果也越大,最終 RunQueue的cpu_power 

  246.     與Scheduling Domain中的Scheduling Group的cpu_power 

  247.     值也就越大. (可參考函式update_cpu_power的實作).*/  

  248.     u64 age_stamp;  

  249.     /*這值會在觸發Scheduling時,若判斷目前處理器 

  250.     RunQueue沒有正在運作的Task,就會透過函式 

  251.     idle_balance更新這值為為目前RunQueue的clock值. 

  252.     可用以表示這個處理器是何時進入到Idle的 

  253.     狀態*/  

  254.     u64 idle_stamp;  

  255.     /*會在有Task運作且idle_stamp不為0 (表示前一個 

  256.     狀態是在Idle)時以目前RunQueue的clock減去 

  257.     idle_stmp所計算出的Delta值為依據,更新這個值 

  258.     . 可反應目前處理器進入Idle狀態的時間長短*/  

  259.     u64 avg_idle;  

  260. #endif   

  261.   

  262.     /* calc_load related fields */  

  263.     /*用以記錄下一次計算CPU Load的時間,初始值 

  264.     為目前的jiffies加上五秒與1次的Scheduling Tick的 

  265.     間隔 (=jiffies + LOAD_FREQ,且LOAD_FREQ=(5*HZ+1))*/  

  266.     unsigned long calc_load_update;  

  267.     /*會等於RunQueue中nr_running與nr_uninterruptible的 

  268.     總和.(可參考函式calc_load_fold_active).*/  

  269.     long calc_load_active;  

  270.   

  271. #ifdef CONFIG_SCHED_HRTICK   

  272. #ifdef CONFIG_SMP   

  273.     /*在函式init_rq_hrtick初始化RunQueue High-Resolution  

  274.     Tick時,此值預設為0. 

  275.     在函式hrtick_start中,會判斷目前觸發的RunQueue 

  276.     跟目前處理器所使用的RunQueue是否一致, 

  277.     若是,就直接呼叫函式hrtimer_restart,反之就會 

  278.     依據RunQueue中hrtick_csd_pending的值,如果 

  279.     hrtick_csd_pending為0,就會透過函式 

  280.     __smp_call_function_single讓RunQueue所在的另一個 

  281.     處理器執行rq->hrtick_csd.func 所指到的函式  

  282.     __hrtick_start. 並等待該處理器執行完畢後, 

  283.     才重新把hrtick_csd_pending設定為1. 

  284.     也就是說, RunQueue的hrtick_csd_pending是用來作為 

  285.     SMP架構下,由處理器A觸發處理器B執行 

  286.     _hrtick_start函式的一個保護機制.而有關在 

  287.     SMP下如何由一個處理器觸發另一個處理器 

  288.     執行函式的機制,可以參考kernel/smp.c中 

  289.     相關smp_call_function_xxxxxxx的實作.s*/  

  290.     int hrtick_csd_pending;  

  291.     /*用以儲存hrtick機制中,要跨處理器執行的 

  292.     函式結構.*/  

  293.     struct call_single_data hrtick_csd;  

  294. #endif   

  295.     /*為High-Resolution Tick的结构,會透過函式 

  296.     hrtimer_init初始化.*/  

  297.     struct hrtimer hrtick_timer;  

  298. #endif   

  299.   

  300. #ifdef CONFIG_SCHEDSTATS   

  301.     /* latency stats */  

  302.     /*為Scheduling Info.的統計結構,可以參考 

  303.     include/linux/sched.h中的宣告. 例如在每次觸發 

  304.     Schedule時,呼叫函式schedule_debug對上一個Task 

  305.     的lock_depth進行確認(Fork一個新的Process 時, 

  306.     會把此值預設為-1就是No-Lock,當呼叫 

  307.     Kernel Lock時, 就會把Current Task的lock_depth加一.), 

  308.     若lock_depth>=0,就會累加Scheduling Info.的bkl_count值, 

  309.     用以代表Task Blocking的次數.*/  

  310.     struct sched_info rq_sched_info;  

  311.     /*可用以表示RunQueue中的Task所得到CPU執行 

  312.     時間的累加值. 

  313.     在發生Task Switch時,會透過sched_info_switch呼叫 

  314.     sched_info_arrive並以目前RunQueue Clock值更新 

  315.     Task 的sched_info.last_arrival時���,而在Task所分配時間 

  316.     結束後,會在函式sched_info_depart中以現在的 

  317.     RunQueue Clock值減去Task的sched_info.last_arrival 

  318.     時間值,得到的 Delta作為變數rq_cpu_time的累 

  319.     加值.*/  

  320.     unsigned long long rq_cpu_time;  

  321.     /* could above be rq->cfs_rq.exec_clock + rq->rt_rq.rt_runtime ? */  

  322.   

  323.     /* sys_sched_yield() stats */  

  324.     /*用以統計呼叫System Call sys_sched_yield的次數.*/  

  325.     unsigned int yld_count;  

  326.   

  327.     /* schedule() stats */  

  328.     unsigned int sched_switch;  

  329.     /*可用以統計觸發Scheduling的次數. 在每次觸發 

  330.     Scheduling時,會透過函式schedule呼叫schedule_debug, 

  331.     呼叫schedstat_inc對這變數進行累加.*/  

  332.     unsigned int sched_count;  

  333.     /*可用以統計進入到Idle Task的次數. 會在函式 

  334.     pick_next_task_idle中,呼叫schedstat_inc對這變數進行 

  335.     累加.*/  

  336.     unsigned int sched_goidle;  

  337.   

  338.     /* try_to_wake_up() stats */  

  339.     /*用以統計Wake Up Task的次數.*/  

  340.     unsigned int ttwu_count;  

  341.     /*用以統計Wake Up 同一個處理器Task的次數.*/  

  342.     unsigned int ttwu_local;  

  343.   

  344.     /* BKL stats */  

  345.     unsigned int bkl_count;  

  346. #endif   

  347. };  

调度类,sched_class为对模块编程的上层支持,对于每个linux新添加进来的调度算法都需要有自己的调度类实例。


  1. /*CFS排程機制在設計時,考慮到排程機制的 

  2. 彈性,定義了Scheduler Class的機制,讓排程機制 

  3. 可以根據設計的需求,延伸不同的排程模 

  4. 組進來,每個新加入的排程機制都必須要 

  5. 提供Scheduler Class的實作,結構為 struct sched_class*/  

  6. struct sched_class {  

  7.     /*會指向下一個Scheduling Class,以筆者所採用 

  8.     的Linux Kernel 2.6.38.6而言,Scheduling Class的順序為 

  9.     stop_sched_class->rt_sched_class->fair_sched_class->idle_sched_class*/  

  10.     const struct sched_class *next;  

  11.     /*當Task屬於Runnable狀態時,就會呼叫這個函式 

  12.     把Task配置到RunQueue RBTree中,進行排程動作, 

  13.     並呼叫inc_nr_running將RunQueue中nr_running的值 

  14.     加一.(nr_running用以代表目前RunQueue有多少 

  15.     Runnable Task進行排程)*/  

  16.     void (*enqueue_task) (struct rq *rq, struct task_struct *p, int wakeup);  

  17.     /*當Task不需要執行時,就會呼叫這個函式 

  18.     把Task從RunQueue RBTree中移除,並呼叫 

  19.     dec_nr_running將RunQueue中nr_running的值減一.*/  

  20.     void (*dequeue_task) (struct rq *rq, struct task_struct *p, int sleep);  

  21.     /*用以暫停目前正在執行中的Task,如果 

  22.     sysctl_sched_compat_yield有設定,就會找出目前 

  23.     RBTree中最右邊的Task(也就是vrruntime最多 

  24.     的Task),讓目前Task的vrruntime值等於最右邊 

  25.     Task值的vrruntime加一(可參考: 

  26.     se->vruntime = rightmost->vruntime + 1),如此在下次 

  27.     排程觸發時就會透過函式put_prev_task把目前 

  28.     的Task放到RBTree的最右邊,也就等同於暫停 

  29.     Task,讓該Task下次被執行到的機會最低.*/  

  30.     void (*yield_task) (struct rq *rq);  

  31.     /*用以決定一個Task是否可以中斷目前正在 

  32.     運作的Task,取得執行權.以CFS本身的實作來說 

  33.     (in sched_fair.c).如果想要取代目前Task的Task本身 

  34.     的Scheduling Policy為 Batch或是Idle時,會直接返回, 

  35.     不會用來取代目前正在執行中的Task.反之, 

  36.     如果目前正在執行中的Task的Scheduling Policy 

  37.     為Idle,就會直接由所傳入的Task取代目前正 

  38.     在執行的Task.*/  

  39.     void (*check_preempt_curr) (struct rq *rq, struct task_struct *p, int flags);  

  40.     /*用以在排程觸發時,從RunQueue RBTree中, 

  41.     取出符合目前Scheduling邏輯的下一個要 

  42.     被執行的Task.*/  

  43.     struct task_struct * (*pick_next_task) (struct rq *rq);  

  44.     /*用以在排程觸發時,把上一個執行完畢的 

  45.     Task放到目前RunQueue RBTree中對應的位置.*/  

  46.     void (*put_prev_task) (struct rq *rq, struct task_struct *p);  

  47.   

  48. #ifdef CONFIG_SMP   

  49.     /*通常用在執行一個新的程序,或是WakeUp 

  50.     一個Task時,會根據目前SMP下每個處理器的 

  51.     負荷,決定Task是否要切換到另一個處理器 

  52.     的RunQueue去執行,執行時會返回最後目標 

  53.     處理器的值.*/  

  54.     int  (*select_task_rq)(struct task_struct *p, int sd_flag, int flags);  

  55.   

  56.     unsigned long (*load_balance) (struct rq *this_rq, int this_cpu,  

  57.             struct rq *busiest, unsigned long max_load_move,  

  58.             struct sched_domain *sd, enum cpu_idle_type idle,  

  59.             int *all_pinned, int *this_best_prio);  

  60.   

  61.     int (*move_one_task) (struct rq *this_rq, int this_cpu,  

  62.                   struct rq *busiest, struct sched_domain *sd,  

  63.                   enum cpu_idle_type idle);  

  64.     void (*pre_schedule) (struct rq *this_rq, struct task_struct *task);  

  65.     void (*post_schedule) (struct rq *this_rq);  

  66.     void (*task_wake_up) (struct rq *this_rq, struct task_struct *task);  

  67.   

  68.     void (*set_cpus_allowed)(struct task_struct *p,  

  69.                  const struct cpumask *newmask);  

  70.   

  71.     void (*rq_online)(struct rq *rq);  

  72.     void (*rq_offline)(struct rq *rq);  

  73. #endif   

  74.     /*這個函式用以改變Task目前所屬的Scheduling 

  75.     Class與改變Task Group.*/  

  76.     void (*set_curr_task) (struct rq *rq);  

  77.     /*這是Scheduler的 Timer Tick來源,系統中觸發的 

  78.     Scheduling Tick會呼叫這個函式 (看HZ設定多少, 

  79.     100就是每秒呼叫這函式100次,1000就是每秒 

  80.     呼叫這函式1000次), 

  81.     用以讓排程機制可以決定哪些Task應該要配 

  82.     執行與哪些Task應該要被移出RunQueue.*/  

  83.     void (*task_tick) (struct rq *rq, struct task_struct *p, int queued);  

  84.     void (*task_new) (struct rq *rq, struct task_struct *p);  

  85.   

  86.     void (*switched_from) (struct rq *this_rq, struct task_struct *task,  

  87.                    int running);  

  88.     void (*switched_to) (struct rq *this_rq, struct task_struct *task,  

  89.                  int running);  

  90.     void (*prio_changed) (struct rq *this_rq, struct task_struct *task,  

  91.                  int oldprio, int running);  

  92.   

  93.     unsigned int (*get_rr_interval) (struct task_struct *task);  

  94.   

  95. #ifdef CONFIG_FAIR_GROUP_SCHED   

  96.     void (*moved_group) (struct task_struct *p);  

  97. #endif   

  98. };  

调度实体,调度实体用于调度时间记账,linux中CFS和实时调度使用不同的调度实体。调度运行队列,对于不用的调度算法同样运用不用的运行队列,对于CFS调度,运用的是红黑树,而对于实时调度为组链表。在后面具体的调度算法介绍中我们会看到他们的运用。

上层调度,linux调度的核心函数为schedule,schedule函数封装了内核调度的框架。细节实现上调用具体的调度类中的函数实现。schedule函数主要流程为:


1,将当前进程从相应的运行队列中删除;


2,计算和更新调度实体和进程的相关调度信息;


3,将当前进重新插入到调度运行队列中,对于CFS调度,根据具体的运行时间进行插入而对于实时调度插入到对应优先级队列的队尾;


4,从运行队列中选择运行的下一个进程;


5,进程调度信息和上下文切换;


当进程上下文切换后(关于进程切换在前面的文章中有介绍),调度就基本上完成了,当前运行的进程就是切换过来的进程了。


  1. /*内核和其他部分用于调用进程调度器的入口,选择 

  2.  哪个进程可以运行,何时将其投入运行。schedule通常 

  3.  都需要和一个具体的调度类相关联,也就是说,他 

  4.  会找到一个最高优先级的调度类,后者需要有自己的 

  5.  可运行队列,然后问后者谁才是下一个该运行的进程 

  6.  该函数唯一重要的事情是,他回调用pick_next_task*/  

  7. asmlinkage void __sched schedule(void)  

  8. {  

  9.     struct task_struct *prev, *next;  

  10.     unsigned long *switch_count;  

  11.     struct rq *rq;  

  12.     int cpu;  

  13.   

  14. need_resched:  

  15.     preempt_disable();  

  16.     cpu = smp_processor_id();  

  17.     rq = cpu_rq(cpu);/*得到特定cpu的rq*/  

  18.     rcu_sched_qs(cpu);  

  19.     prev = rq->curr;/*当前的运行进程*/  

  20.     switch_count = &prev->nivcsw;/*进程切换计数*/  

  21.   

  22.     release_kernel_lock(prev);  

  23. need_resched_nonpreemptible:  

  24.   

  25.     schedule_debug(prev);  

  26.   

  27.     if (sched_feat(HRTICK))  

  28.         hrtick_clear(rq);  

  29.   

  30.     spin_lock_irq(&rq->lock);  

  31.     update_rq_clock(rq);/*更新rq的clock属性*/  

  32.     clear_tsk_need_resched(prev);/*清楚prev进程的调度位*/  

  33.   

  34.     if (prev->state && !(preempt_count() & PREEMPT_ACTIVE)) {  

  35.         if (unlikely(signal_pending_state(prev->state, prev)))  

  36.             prev->state = TASK_RUNNING;  

  37.         else/*从运行队列中删除prev进程,根据调度类的 

  38.             不同,实现不同*/  

  39.             deactivate_task(rq, prev, 1);  

  40.         switch_count = &prev->nvcsw;  

  41.     }  

  42.     /*现只对实时进程有用*/  

  43.     pre_schedule(rq, prev);  

  44.   

  45.     if (unlikely(!rq->nr_running))  

  46.         idle_balance(cpu, rq);  

  47.     /*将当前进程,也就是被切换出去的进程重新 

  48.     插入到各自的运行队列中,对于CFS算法插入 

  49.     到合适的位置上,对于实时调度插入到同一个 

  50.     优先级队列的链表尾部*/  

  51.     put_prev_task(rq, prev);  

  52.     /*从各自的运行队列中选择下一个进程来运行*/  

  53.     next = pick_next_task(rq);  

  54.   

  55.     if (likely(prev != next)) {  

  56.         /*更新切换出去和进来进程以及对应rq的相关变量*/  

  57.         sched_info_switch(prev, next);  

  58.         perf_event_task_sched_out(prev, next, cpu);  

  59.   

  60.         rq->nr_switches++;/*切换记录*/  

  61.         rq->curr = next;  

  62.         ++*switch_count;  

  63.         /*上下文切换,在进程切换已经介绍*/  

  64.         context_switch(rq, prev, next); /* unlocks the rq */  

  65.         /* 

  66.          * the context switch might have flipped the stack from under 

  67.          * us, hence refresh the local variables. 

  68.          */  

  69.         cpu = smp_processor_id();  

  70.         rq = cpu_rq(cpu);  

  71.     } else  

  72.         spin_unlock_irq(&rq->lock);  

  73.     /*对于实时进程有用到*/  

  74.     post_schedule(rq);  

  75.   

  76.     if (unlikely(reacquire_kernel_lock(current) < 0))  

  77.         goto need_resched_nonpreemptible;  

  78.   

  79.     preempt_enable_no_resched();  

  80.     if (need_resched())  

  81.         goto need_resched;  

  82. }  

对于cpu_rq函数


  1. /*通过向上加偏移的方式得到rq,这里可以看出 

  2. runqueues为一个rq结构的数组,cpu为数组下标*/  

  3. #define cpu_rq(cpu)     (&per_cpu(runqueues, (cpu)))  

deactivate_task函数实现


  1. /* 

  2.  * deactivate_task – remove a task from the runqueue. 

  3.  */  

  4. static void deactivate_task(struct rq *rq, struct task_struct *p, int sleep)  

  5. {  

  6.     if (task_contributes_to_load(p))  

  7.         rq->nr_uninterruptible++;  

  8.     /*具体操作*/  

  9.     dequeue_task(rq, p, sleep);  

  10.     dec_nr_running(rq);/*rq中当前进程的运行数减一*/  

  11. }  

我们看具体的操作


  1. static void dequeue_task(struct rq *rq, struct task_struct *p, int sleep)  

  2. {  

  3.     if (sleep) {/*如果sleep不为0,更新se中相关变量*/  

  4.         if (p->se.last_wakeup) {  

  5.             update_avg(&p->se.avg_overlap,  

  6.                 p->se.sum_exec_runtime – p->se.last_wakeup);  

  7.             p->se.last_wakeup = 0;  

  8.         } else {  

  9.             update_avg(&p->se.avg_wakeup,  

  10.                 sysctl_sched_wakeup_granularity);  

  11.         }  

  12.     }  

  13.     /*更新进程的sched_info数据结构中相关属性*/  

  14.     sched_info_dequeued(p);  

  15.     /*调用具体调度类的函数从他的运行队列中删除*/  

  16.     p->sched_class->dequeue_task(rq, p, sleep);  

  17.     p->se.on_rq = 0;  

  18. }  

可见,调用了具体运行队列的删除函数,我们看最关键的选择下一个进程的方式。

 


  1. /* 

  2.  * Pick up the highest-prio task: 

  3.  */  

  4.  /*以优先级为序,从高到低,一次检查每个调度类 

  5.  并且从高优先级的调度类中,选择最高优先级的进程 

  6.  */  

  7. static inline struct task_struct *  

  8. pick_next_task(struct rq *rq)  

  9. {  

  10.     const struct sched_class *class;  

  11.     struct task_struct *p;  

  12.   

  13.     /* 

  14.      * Optimization: we know that if all tasks are in 

  15.      * the fair class we can call that function directly: 

  16.      */  

  17.     if (likely(rq->nr_running == rq->cfs.nr_running)) {  

  18.         p = fair_sched_class.pick_next_task(rq);  

  19.         if (likely(p))  

  20.             return p;  

  21.     }  

  22.   

  23.     class = sched_class_highest;  

  24.     for ( ; ; ) {/*对每一个调度类*/  

  25.         p = class->pick_next_task(rq);/*调用该调度类中的函数,找出下一个task*/  

  26.         if (p)  

  27.             return p;  

  28.         /* 

  29.          * Will never be NULL as the idle class always 

  30.          * returns a non-NULL p: 

  31.          */  

  32.          /*访问下一个调度类*/  

  33.         class = class->next;  

  34.     }  

  35. }  

可见,对于调度类的选择,同样以优先级进行。


对于进程调度信息的切换最终会调用__sched_info_switch

 


  1. /* 

  2.  * Called when tasks are switched involuntarily due, typically, to expiring 

  3.  * their time slice.  (This may also be called when switching to or from 

  4.  * the idle task.)  We are only called when prev != next. 

  5.  */  

  6. static inline void  

  7. __sched_info_switch(struct task_struct *prev, struct task_struct *next)  

  8. {  

  9.     struct rq *rq = task_rq(prev);  

  10.   

  11.     /* 

  12.      * prev now departs the cpu.  It’s not interesting to record 

  13.      * stats about how efficient we were at scheduling the idle 

  14.      * process, however. 

  15.      */  

  16.     if (prev != rq->idle)/*如果被切换出去的进程不是idle进程*/  

  17.         sched_info_depart(prev);/*更新prev进程和他对应rq的相关变量*/  

  18.   

  19.     if (next != rq->idle)/*如果切换进来的进程不是idle进程*/  

  20.         sched_info_arrive(next);/*更新next进程和对应队列的相关变量*/  

  21. }  

 


  1. /* 

  2.  * Called when a process ceases being the active-running process, either 

  3.  * voluntarily or involuntarily.  Now we can calculate how long we ran. 

  4.  * Also, if the process is still in the TASK_RUNNING state, call 

  5.  * sched_info_queued() to mark that it has now again started waiting on 

  6.  * the runqueue. 

  7.  */  

  8. static inline void sched_info_depart(struct task_struct *t)  

  9. {  

  10.     /*计算在进程在rq中运行的时间长度*/  

  11.     unsigned long long delta = task_rq(t)->clock –  

  12.                     t->sched_info.last_arrival;  

  13.     /*更新RunQueue中的Task所得到CPU執行 

  14.     時間的累加值.*/  

  15.     rq_sched_info_depart(task_rq(t), delta);  

  16.       

  17.     /*如果被切换出去进程的状态是运行状态 

  18.     那么将进程sched_info.last_queued设置为rq的clock 

  19.     last_queued为最后一次排队等待运行的时间*/  

  20.     if (t->state == TASK_RUNNING)  

  21.         sched_info_queued(t);  

  22. }  

 


  1. /* 

  2.  * Called when a task finally hits the cpu.  We can now calculate how 

  3.  * long it was waiting to run.  We also note when it began so that we 

  4.  * can keep stats on how long its timeslice is. 

  5.  */  

  6. static void sched_info_arrive(struct task_struct *t)  

  7. {  

  8.     unsigned long long now = task_rq(t)->clock, delta = 0;  

  9.   

  10.     if (t->sched_info.last_queued)/*如果被切换进来前在运行进程中排队*/  

  11.         delta = now – t->sched_info.last_queued;/*计算排队等待的时间长度*/  

  12.     sched_info_reset_dequeued(t);/*因为进程将被切换进来运行,设定last_queued为0*/  

  13.     t->sched_info.run_delay += delta;/*更新进程在运行队列里面等待的时间*/  

  14.     t->sched_info.last_arrival = now;/*更新最后一次运行的时间*/  

  15.     t->sched_info.pcount++;/*cpu上运行的次数加一*/  

  16.     /*更新rq中rq_sched_info中的对应的变量*/  

  17.     rq_sched_info_arrive(task_rq(t), delta);  

  18. }  

对于schedule调度函数框架的分析基本是这样了,对于具体的CFS和实时调度的实现在后面分析。


前面对linux调度算法的框架进行了介绍,在这里对CFS(完全公平调度)算法进行分析。


CFS允许每个进程运行一段时间、循环轮转、选择运行最少的进程作为下一个运行进程,而不再采用分配给每个进程时间片的做法了,CFS在所有可运行进程总数基础上计算出一个进程应该运行多久,而不是依靠nice值来计算时间片。nice值在CFS中被作为进程获得的处理器运行比的权重:越高的nice值(越低的优先级)进程获得更低的处理器使用权重,这是相对默认nice值进程的进程而言的;相反,更低的nice值(越高的优先级)的进程获得更高的处理器使用权重。


数据结构


运行队列

 


  1. struct cfs_rq {  

  2.     struct load_weight load;/*运行负载*/  

  3.     unsigned long nr_running;/*运行进程个数*/  

  4.   

  5.     u64 exec_clock;  

  6.     u64 min_vruntime;/*保存的最小运行时间*/  

  7.   

  8.     struct rb_root tasks_timeline;/*运行队列树根*/  

  9.     struct rb_node *rb_leftmost;/*保存的红黑树最左边的 

  10.     节点,这个为最小运行时间的节点,当进程 

  11.     选择下一个来运行时,直接选择这个*/  

  12.   

  13.     struct list_head tasks;  

  14.     struct list_head *balance_iterator;  

  15.   

  16.     /* 

  17.      * ‘curr’ points to currently running entity on this cfs_rq. 

  18.      * It is set to NULL otherwise (i.e when none are currently running). 

  19.      */  

  20.     struct sched_entity *curr, *next, *last;  

  21.   

  22.     unsigned int nr_spread_over;  

  23.   

  24. #ifdef CONFIG_FAIR_GROUP_SCHED   

  25.     struct rq *rq;  /* cpu runqueue to which this cfs_rq is attached */  

  26.   

  27.     /* 

  28.      * leaf cfs_rqs are those that hold tasks (lowest schedulable entity in 

  29.      * a hierarchy). Non-leaf lrqs hold other higher schedulable entities 

  30.      * (like users, containers etc.) 

  31.      * 

  32.      * leaf_cfs_rq_list ties together list of leaf cfs_rq’s in a cpu. This 

  33.      * list is used during load balance. 

  34.      */  

  35.     struct list_head leaf_cfs_rq_list;  

  36.     struct task_group *tg;  /* group that “owns” this runqueue */  

  37.   

  38. #ifdef CONFIG_SMP   

  39.     /* 

  40.      * the part of load.weight contributed by tasks 

  41.      */  

  42.     unsigned long task_weight;  

  43.   

  44.     /* 

  45.      *   h_load = weight * f(tg) 

  46.      * 

  47.      * Where f(tg) is the recursive weight fraction assigned to 

  48.      * this group. 

  49.      */  

  50.     unsigned long h_load;  

  51.   

  52.     /* 

  53.      * this cpu’s part of tg->shares 

  54.      */  

  55.     unsigned long shares;  

  56.   

  57.     /* 

  58.      * load.weight at the time we set shares 

  59.      */  

  60.     unsigned long rq_weight;  

  61. #endif   

  62. #endif   

  63. };  

运行实体结构为sched_entity,所有的调度器都必须对进程运行时间做记账。CFS不再有时间片的概念,但是他也必须维护每个进程运行的时间记账,因为他需要确保每个进程只在公平分配给他的处理器时间内运行。CFS使用调度器实体结构来最终运行记账

 


  1. /*  

  2.  * CFS stats for a schedulable entity (task, task-group etc)  

  3.  *  

  4.  * Current field usage histogram:  

  5.  *  

  6.  *     4 se->block_start  

  7.  *     4 se->run_node  

  8.  *     4 se->sleep_start  

  9.  *     6 se->load.weight  

  10.  */  

  11. struct sched_entity {  

  12.     struct load_weight  load;       /* for load-balancing */  

  13.     struct rb_node      run_node;  

  14.     struct list_head    group_node;  

  15.     unsigned int        on_rq;  

  16.   

  17.     u64         exec_start;  

  18.     u64         sum_exec_runtime;  

  19.     u64         vruntime;/*存放进程的虚拟运行时间,用于调度器的选择*/  

  20.     u64         prev_sum_exec_runtime;  

  21.   

  22.     u64         last_wakeup;  

  23.     u64         avg_overlap;  

  24.   

  25.     u64         nr_migrations;  

  26.   

  27.     u64         start_runtime;  

  28.     u64         avg_wakeup;  

  29.   

  30.     u64         avg_running;  

  31.   

  32. #ifdef CONFIG_SCHEDSTATS  

  33.            …..  

  34. /*需要定义相关宏*/  

  35. };  

调度器的实体作为一个名为se的成员变量,潜入在进程描述符struct task_struct内。


具体的调度类

 


  1. /* 

  2.  * All the scheduling class methods: 

  3.  */  

  4. static const struct sched_class fair_sched_class = {  

  5.     .next           = &idle_sched_class,/*下一个为idle进程*/  

  6.     .enqueue_task       = enqueue_task_fair,  

  7.     .dequeue_task       = dequeue_task_fair,  

  8.     .yield_task     = yield_task_fair,  

  9.   

  10.     .check_preempt_curr = check_preempt_wakeup,  

  11.   

  12.     .pick_next_task     = pick_next_task_fair,  

  13.     .put_prev_task      = put_prev_task_fair,  

  14.   

  15. #ifdef CONFIG_SMP   

  16.     .select_task_rq     = select_task_rq_fair,  

  17.   

  18.     .load_balance       = load_balance_fair,  

  19.     .move_one_task      = move_one_task_fair,  

  20. #endif   

  21.   

  22.     .set_curr_task          = set_curr_task_fair,  

  23.     .task_tick      = task_tick_fair,  

  24.     .task_new       = task_new_fair,  

  25.   

  26.     .prio_changed       = prio_changed_fair,  

  27.     .switched_to        = switched_to_fair,  

  28.   

  29.     .get_rr_interval    = get_rr_interval_fair,  

  30.   

  31. #ifdef CONFIG_FAIR_GROUP_SCHED   

  32.     .moved_group        = moved_group_fair,  

  33. #endif   

  34. };  

对于从运行队列中删除函数dequeue_task_fair

 


  1. /* 

  2.  * The dequeue_task method is called before nr_running is 

  3.  * decreased. We remove the task from the rbtree and 

  4.  * update the fair scheduling stats: 

  5.  */  

  6. static void dequeue_task_fair(struct rq *rq, struct task_struct *p, int sleep)  

  7. {  

  8.     struct cfs_rq *cfs_rq;  

  9.     struct sched_entity *se = &p->se;  

  10.   

  11.     for_each_sched_entity(se) {/*考虑了组调度*/  

  12.         cfs_rq = cfs_rq_of(se);/*获得se对应的运行队列*/  

  13.         dequeue_entity(cfs_rq, se, sleep);  

  14.         /* Don’t dequeue parent if it has other entities besides us */  

  15.         if (cfs_rq->load.weight)  

  16.             break;  

  17.         sleep = 1;  

  18.     }  

  19.     /*更新hrtick*/  

  20.     hrtick_update(rq);  

  21. }  

 


  1. /*删除动作发生在进程阻塞(变为不可运行状态) 

  2. 或者终止时(结束运行)*/  

  3. static void  

  4. dequeue_entity(struct cfs_rq *cfs_rq, struct sched_entity *se, int sleep)  

  5. {  

  6.     /* 

  7.      * Update run-time statistics of the ‘current’. 

  8.      */  

  9.     update_curr(cfs_rq);  

  10.   

  11.     update_stats_dequeue(cfs_rq, se);  

  12.     if (sleep) {  

  13. #ifdef CONFIG_SCHEDSTATS   

  14.         if (entity_is_task(se)) {  

  15.             struct task_struct *tsk = task_of(se);  

  16.   

  17.             if (tsk->state & TASK_INTERRUPTIBLE)  

  18.                 se->sleep_start = rq_of(cfs_rq)->clock;  

  19.             if (tsk->state & TASK_UNINTERRUPTIBLE)  

  20.                 se->block_start = rq_of(cfs_rq)->clock;  

  21.         }  

  22. #endif   

  23.     }  

  24.   

  25.     clear_buddies(cfs_rq, se);  

  26.   

  27.     if (se != cfs_rq->curr)  

  28.         __dequeue_entity(cfs_rq, se);  

  29.     account_entity_dequeue(cfs_rq, se);  

  30.     update_min_vruntime(cfs_rq);  

  31. }  

 


  1. /*实现记账功能,由系统定时器周期调用*/  

  2. static void update_curr(struct cfs_rq *cfs_rq)  

  3. {  

  4.     struct sched_entity *curr = cfs_rq->curr;  

  5.     u64 now = rq_of(cfs_rq)->clock;/*now计时器*/  

  6.     unsigned long delta_exec;  

  7.   

  8.     if (unlikely(!curr))  

  9.         return;  

  10.   

  11.     /* 

  12.      * Get the amount of time the current task was running 

  13.      * since the last time we changed load (this cannot 

  14.      * overflow on 32 bits): 

  15.      */  

  16.      /*获得从最后一次修改负载后当前任务所占用的运行总时间*/  

  17.     /*即计算当前进程的执行时间*/  

  18.     delta_exec = (unsigned long)(now – curr->exec_start);  

  19.     if (!delta_exec)/*如果本次没有执行过,不用重新更新了*/  

  20.         return;  

  21.     /*根据当前可运行进程总数对运行时间进行加权计算*/  

  22.     __update_curr(cfs_rq, curr, delta_exec);  

  23.     curr->exec_start = now;/*将exec_start属性置为now*/  

  24.   

  25.     if (entity_is_task(curr)) {/*下面为关于组调度的,暂时不分析了*/  

  26.         struct task_struct *curtask = task_of(curr);  

  27.   

  28.         trace_sched_stat_runtime(curtask, delta_exec, curr->vruntime);  

  29.         cpuacct_charge(curtask, delta_exec);  

  30.         account_group_exec_runtime(curtask, delta_exec);  

  31.     }  

  32. }  

 


  1. static inline void  

  2. __update_curr(struct cfs_rq *cfs_rq, struct sched_entity *curr,  

  3.           unsigned long delta_exec)  

  4. {  

  5.     unsigned long delta_exec_weighted;  

  6.   

  7.     schedstat_set(curr->exec_max, max((u64)delta_exec, curr->exec_max));  

  8.     /*总运行时间更新*/  

  9.     curr->sum_exec_runtime += delta_exec;  

  10.     /*更新cfs_rq的exec_clock*/  

  11.     schedstat_add(cfs_rq, exec_clock, delta_exec);  

  12.     /*用优先级和delta_exec来计算weighted以用于更细vruntime*/  

  13.     delta_exec_weighted = calc_delta_fair(delta_exec, curr);  

  14.     /*vruntime可以准确地测量给定进程的运行时间 

  15.     而且可知道谁应该是下一个被运行的进程*/  

  16.   

  17.     /*更新进程的vruntime*/  

  18.     curr->vruntime += delta_exec_weighted;  

  19.     update_min_vruntime(cfs_rq);  

  20. }  

 


  1. static inline unsigned long  

  2. calc_delta_fair(unsigned long delta, struct sched_entity *se)  

  3. {  

  4.     /*NICE_0_LOAD: 优先级0 的weight*/   

  5.      /* 如果不是优先级0,就要调用calc_delta_mine计算delta的weight值*/   

  6.     if (unlikely(se->load.weight != NICE_0_LOAD))  

  7.         delta = calc_delta_mine(delta, NICE_0_LOAD, &se->load);  

  8.   

  9.     return delta;  

  10. }  

 


  1.  /*在这里不打算详细分析calc_delta_mine (delta_exec,weight,lw),它的执行过程约为delta *= weight / lw.  

  2. 从这个函数中可以看到,如果进程的优先级为0,那么就是返回delta. 

  3. 如果不为0,就会调用calc_delta_mine()对delta值进行修正.对上面对calc_delta_mine()的说明来看 

  4. ,有如下关系: Delta = delta* NICE_0_LOAD/ se->load  

  5. Se->load值是怎么来的呢? 可以跟踪sys_nice(),就可以发现se->load 

  6. 其它就是表示nice对应的load值,nice越低,值越大.  

  7. 据此,就可以得到一个结论.在执行相同时间的条件下(delta相同), 

  8. 高优先的进程计算出来的delta值会比低优先级的进程计算出来 

  9. 的低.应此,高优先的进程就会位于rb_tree的左边,在下次调度的 

  10. 时候就会优先调度.  

  11. */  

  12. static unsigned long  

  13. calc_delta_mine(unsigned long delta_exec, unsigned long weight,  

  14.         struct load_weight *lw)  

  15. {  

  16.     u64 tmp;  

  17.   

  18.     if (!lw->inv_weight) {  

  19.         if (BITS_PER_LONG > 32 && unlikely(lw->weight >= WMULT_CONST))  

  20.             lw->inv_weight = 1;  

  21.         else  

  22.             lw->inv_weight = 1 + (WMULT_CONST-lw->weight/2)  

  23.                 / (lw->weight+1);  

  24.     }  

  25.   

  26.     tmp = (u64)delta_exec * weight;  

  27.     /* 

  28.      * Check whether we’d overflow the 64-bit multiplication: 

  29.      */  

  30.     if (unlikely(tmp > WMULT_CONST))  

  31.         tmp = SRR(SRR(tmp, WMULT_SHIFT/2) * lw->inv_weight,  

  32.             WMULT_SHIFT/2);  

  33.     else  

  34.         tmp = SRR(tmp * lw->inv_weight, WMULT_SHIFT);  

  35.   

  36.     return (unsigned long)min(tmp, (u64)(unsigned long)LONG_MAX);  

  37. }  

 


  1. static void  

  2. account_entity_dequeue(struct cfs_rq *cfs_rq, struct sched_entity *se)  

  3. {  

  4.     /*cfs_rq->load更新*/  

  5.     update_load_sub(&cfs_rq->load, se->load.weight);  

  6.     if (!parent_entity(se))  

  7.         dec_cpu_load(rq_of(cfs_rq), se->load.weight);  

  8.     if (entity_is_task(se)) {/*组调度相关*/  

  9.         add_cfs_task_weight(cfs_rq, -se->load.weight);  

  10.         list_del_init(&se->group_node);  

  11.     }  

  12.     /*运行个数减一*/  

  13.     cfs_rq->nr_running–;  

  14.     se->on_rq = 0;/*表示不再运行队列中*/  

  15. }  

删除函数最终将由下面函数从红黑树里面删除


  1. static void __dequeue_entity(struct cfs_rq *cfs_rq, struct sched_entity *se)  

  2. {  

  3.     if (cfs_rq->rb_leftmost == &se->run_node) {  

  4.         struct rb_node *next_node;  

  5.   

  6.         next_node = rb_next(&se->run_node);  

  7.         cfs_rq->rb_leftmost = next_node;  

  8.     }  

  9.   

  10.     rb_erase(&se->run_node, &cfs_rq->tasks_timeline);  

  11. }  

向运行队列中添加项的函数为enqueue_task_fair完成


  1. static void enqueue_task_fair(struct rq *rq, struct task_struct *p, int wakeup)  

  2. {  

  3.     struct cfs_rq *cfs_rq;  

  4.     struct sched_entity *se = &p->se;  

  5.     /*对于主调度,会对一个组中的所有进程进行操作*/  

  6.     for_each_sched_entity(se) {  

  7.         if (se->on_rq)  

  8.             break;  

  9.         cfs_rq = cfs_rq_of(se);  

  10.         enqueue_entity(cfs_rq, se, wakeup);  

  11.         wakeup = 1;  

  12.     }  

  13.   

  14.     hrtick_update(rq);  

  15. }  

该函数更新相关调度信息后最终会调用下面函数插入运行进程的红黑树


  1. static void __enqueue_entity(struct cfs_rq *cfs_rq, struct sched_entity *se)  

  2. {  

  3.     struct rb_node **link = &cfs_rq->tasks_timeline.rb_node;  

  4.     struct rb_node *parent = NULL;  

  5.     struct sched_entity *entry;  

  6.     s64 key = entity_key(cfs_rq, se);  

  7.     int leftmost = 1;  

  8.   

  9.     /* 

  10.      * Find the right place in the rbtree: 

  11.      */  

  12.     while (*link) {  

  13.         parent = *link;  

  14.         entry = rb_entry(parent, struct sched_entity, run_node);  

  15.         /* 

  16.          * We dont care about collisions. Nodes with 

  17.          * the same key stay together. 

  18.          *//*key为被插入进程的vruntime*/  

  19.         if (key < entity_key(cfs_rq, entry)) {  

  20.             link = &parent->rb_left;  

  21.         } else {  

  22.             link = &parent->rb_right;  

  23.             leftmost = 0;  

  24.         }  

  25.     }  

  26.   

  27.     /* 

  28.      * Maintain a cache of leftmost tree entries (it is frequently 

  29.      * used): 

  30.      */  

  31.     if (leftmost)  

  32.         cfs_rq->rb_leftmost = &se->run_node;  

  33.   

  34.     rb_link_node(&se->run_node, parent, link);  

  35.     rb_insert_color(&se->run_node, &cfs_rq->tasks_timeline);  

  36. }  

可见CFS的运行队列布局是放在红黑树里面的,而这颗红黑树的排序方式是按照运行实体的vruntime来的。vruntime的计算方式在上面已经做了分析。


进程选择


CFS调度算法的核心是选择具有最小vruntine的任务。运行队列采用红黑树方式存放,其中节点的键值便是可运行进程的虚拟运行时间。CFS调度器选取待运行的下一个进程,是所有进程中vruntime最小的那个,他对应的便是在树中最左侧的叶子节点。实现选择的函数为pick_next_task_fair

 


  1. static struct task_struct *pick_next_task_fair(struct rq *rq)  

  2. {  

  3.     struct task_struct *p;  

  4.     struct cfs_rq *cfs_rq = &rq->cfs;  

  5.     struct sched_entity *se;  

  6.   

  7.     if (unlikely(!cfs_rq->nr_running))  

  8.         return NULL;  

  9.   

  10.     do {/*此循环为了考虑组调度*/  

  11.         se = pick_next_entity(cfs_rq);  

  12.         set_next_entity(cfs_rq, se);/*设置为当前运行进程*/  

  13.         cfs_rq = group_cfs_rq(se);  

  14.     } while (cfs_rq);  

  15.   

  16.     p = task_of(se);  

  17.     hrtick_start_fair(rq, p);  

  18.   

  19.     return p;  

  20. }  

该函数最终调用__pick_next_entity完成实质工作

 


  1. /*函数本身并不会遍历数找到最左叶子节点(是 

  2. 所有进程中vruntime最小的那个),因为该值已经缓存 

  3. 在rb_leftmost字段中*/  

  4. static struct sched_entity *__pick_next_entity(struct cfs_rq *cfs_rq)  

  5. {  

  6.     /*rb_leftmost为保存的红黑树的最左边的节点*/  

  7.     struct rb_node *left = cfs_rq->rb_leftmost;  

  8.   

  9.     if (!left)  

  10.         return NULL;  

  11.   

  12.     return rb_entry(left, struct sched_entity, run_node);  

  13. }  

总结:CFS调度运行队列采用红黑树方式组织,红黑树种的key值以vruntime排序。每次选择下一个进程运行时即是选择最左边的一个进程运行。而对于入队和处队都会更新调度队列、调度实体的相关信息。

linux内核中提供了两种实时调度策略:SCHED_FIFO和SCHED_RR,其中RR是带有时间片的FIFO。这两种调度算法实现的都是静态优先级。内核不为实时进程计算动态优先级。这能保证给定优先级别的实时进程总能抢占优先级比他低得进程。linux的实时调度算法提供了一种软实时工作方式。实时优先级范围从0到MAX_RT_PRIO减一。默认情况下,MAX_RT_PRIO为100,所以默认的实时优先级范围是从0到99.SCHED_NORMAL级进程的nice值共享了这个取值空间;他的取值范围是从MAX_RT_PRIO到MAX_RT_PRIO+40.也就是说,在默认情况下,nice值从-20到19直接对应的是从100到139的实时优先级范围。


数据结构


实时调度的优先级队列


实时调度的优先级队列是一组链表,每个优先级对应一个链表。


  1. /*实时调度的优先级队列,实时调度中,运行进程 

  2.  根据优先级放到对应的队列里面,对于相同的优先级 

  3.  的进程后面来的进程放到同一优先级队列的队尾 

  4.  对于FIFO/RR调度,各自的进程需要设置相关的属性 

  5.  进程运行时,要根据task中的这些属性判断和设置 

  6.  放弃cpu的时机(运行完或是时间片用完)*/  

  7. struct rt_prio_array {  

  8.     DECLARE_BITMAP(bitmap, MAX_RT_PRIO+1); /* include 1 bit for delimiter */  

  9.     struct list_head queue[MAX_RT_PRIO];  

  10. };  
运行队列


运行队列组织实时调度的相关信息


  1. /* Real-Time classes’ related field in a runqueue: */  

  2. struct rt_rq {  

  3.     struct rt_prio_array active;  

  4.     unsigned long rt_nr_running;  

  5. #if defined CONFIG_SMP || defined CONFIG_RT_GROUP_SCHED   

  6.     struct {  

  7.         int curr; /* highest queued rt task prio */  

  8. #ifdef CONFIG_SMP   

  9.         int next; /* next highest */  

  10. #endif   

  11.     } highest_prio;  

  12. #endif   

  13. #ifdef CONFIG_SMP   

  14.     unsigned long rt_nr_migratory;  

  15.     unsigned long rt_nr_total;  

  16.     int overloaded;  

  17.     struct plist_head pushable_tasks;  

  18. #endif   

  19.     int rt_throttled;  

  20.     u64 rt_time;  

  21.     u64 rt_runtime;  

  22.     /* Nests inside the rq lock: */  

  23.     spinlock_t rt_runtime_lock;  

  24.   

  25. #ifdef CONFIG_RT_GROUP_SCHED   

  26.     unsigned long rt_nr_boosted;  

  27.   

  28.     struct rq *rq;  

  29.     struct list_head leaf_rt_rq_list;  

  30.     struct task_group *tg;  

  31.     struct sched_rt_entity *rt_se;  

  32. #endif   

  33. };  
进程调度实体


  1. struct sched_rt_entity {  

  2.     struct list_head run_list;  

  3.     unsigned long timeout;  

  4.     unsigned int time_slice;  

  5.     int nr_cpus_allowed;  

  6.   

  7.     struct sched_rt_entity *back;  

  8. #ifdef CONFIG_RT_GROUP_SCHED   

  9.     struct sched_rt_entity  *parent;  

  10.     /* rq on which this entity is (to be) queued: */  

  11.     struct rt_rq        *rt_rq;  

  12.     /* rq “owned” by this entity/group: */  

  13.     struct rt_rq        *my_q;  

  14. #endif   

  15. };  
调度类


  1. static const struct sched_class rt_sched_class = {  

  2.     .next           = &fair_sched_class,  

  3.     .enqueue_task       = enqueue_task_rt,  

  4.     .dequeue_task       = dequeue_task_rt,  

  5.     .yield_task     = yield_task_rt,  

  6.   

  7.     .check_preempt_curr = check_preempt_curr_rt,  

  8.   

  9.     .pick_next_task     = pick_next_task_rt,  

  10.     .put_prev_task      = put_prev_task_rt,  

  11.   

  12. #ifdef CONFIG_SMP   

  13.     .select_task_rq     = select_task_rq_rt,  

  14.   

  15.     .load_balance       = load_balance_rt,  

  16.     .move_one_task      = move_one_task_rt,  

  17.     .set_cpus_allowed       = set_cpus_allowed_rt,  

  18.     .rq_online              = rq_online_rt,  

  19.     .rq_offline             = rq_offline_rt,  

  20.     .pre_schedule       = pre_schedule_rt,  

  21.     .post_schedule      = post_schedule_rt,  

  22.     .task_wake_up       = task_wake_up_rt,  

  23.     .switched_from      = switched_from_rt,  

  24. #endif   

  25.   

  26.     .set_curr_task          = set_curr_task_rt,  

  27.     .task_tick      = task_tick_rt,  

  28.   

  29.     .get_rr_interval    = get_rr_interval_rt,  

  30.   

  31.     .prio_changed       = prio_changed_rt,  

  32.     .switched_to        = switched_to_rt,  

  33. };  
从运行队列中移除函数dequeue_task_rt

 


  1. static void dequeue_task_rt(struct rq *rq, struct task_struct *p, int sleep)  

  2. {  

  3.     struct sched_rt_entity *rt_se = &p->rt;  

  4.     /*更新调度信息*/  

  5.     update_curr_rt(rq);  

  6.     /*实际工作,将rt_se从运行队列中删除然后 

  7.     添加到队列尾部*/  

  8.     dequeue_rt_entity(rt_se);  

  9.     /*从hash表中删除*/  

  10.     dequeue_pushable_task(rq, p);  

  11. }  



 


  1. /* 

  2.  * Update the current task’s runtime statistics. Skip current tasks that 

  3.  * are not in our scheduling class. 

  4.  */  

  5. static void update_curr_rt(struct rq *rq)  

  6. {  

  7.     struct task_struct *curr = rq->curr;  

  8.     struct sched_rt_entity *rt_se = &curr->rt;  

  9.     struct rt_rq *rt_rq = rt_rq_of_se(rt_se);  

  10.     u64 delta_exec;  

  11.   

  12.     if (!task_has_rt_policy(curr))/*判断是否问实时调度进程*/  

  13.         return;  

  14.     /*执行时间*/  

  15.     delta_exec = rq->clock – curr->se.exec_start;  

  16.     if (unlikely((s64)delta_exec < 0))  

  17.         delta_exec = 0;  

  18.   

  19.     schedstat_set(curr->se.exec_max, max(curr->se.exec_max, delta_exec));  

  20.     /*更新当前进程的总的执行时间*/  

  21.     curr->se.sum_exec_runtime += delta_exec;  

  22.     account_group_exec_runtime(curr, delta_exec);  

  23.     /*更新执行的开始时间*/  

  24.     curr->se.exec_start = rq->clock;  

  25.     cpuacct_charge(curr, delta_exec);/*主调度相关*/  

  26.     /*更新调度信息*/  

  27.     sched_rt_avg_update(rq, delta_exec);  

  28.   

  29.     if (!rt_bandwidth_enabled())  

  30.         return;  

  31.   

  32.     for_each_sched_rt_entity(rt_se) {  

  33.         rt_rq = rt_rq_of_se(rt_se);  

  34.   

  35.         if (sched_rt_runtime(rt_rq) != RUNTIME_INF) {  

  36.             spin_lock(&rt_rq->rt_runtime_lock);  

  37.             rt_rq->rt_time += delta_exec;  

  38.             if (sched_rt_runtime_exceeded(rt_rq))  

  39.                 resched_task(curr);  

  40.             spin_unlock(&rt_rq->rt_runtime_lock);  

  41.         }  

  42.     }  

  43. }  

 


  1. static void dequeue_rt_entity(struct sched_rt_entity *rt_se)  

  2. {  

  3.     /*从运行队列中删除*/  

  4.     dequeue_rt_stack(rt_se);  

  5.   

  6.     for_each_sched_rt_entity(rt_se) {  

  7.         struct rt_rq *rt_rq = group_rt_rq(rt_se);  

  8.   

  9.         if (rt_rq && rt_rq->rt_nr_running)  

  10.             __enqueue_rt_entity(rt_se);/*添加到队列尾*/  

  11.     }  

  12. }  

 


  1. /* 

  2.  * Because the prio of an upper entry depends on the lower 

  3.  * entries, we must remove entries top – down. 

  4.  */  

  5. static void dequeue_rt_stack(struct sched_rt_entity *rt_se)  

  6. {  

  7.     struct sched_rt_entity *back = NULL;  

  8.   

  9.     for_each_sched_rt_entity(rt_se) {/*遍历整个组调度实体*/  

  10.         rt_se->back = back;/*可见rt_se的back实体为组调度中前一个调度实体*/  

  11.         back = rt_se;  

  12.     }  

  13.     /*将组中的所有进程从运行队列中移除*/  

  14.     for (rt_se = back; rt_se; rt_se = rt_se->back) {  

  15.         if (on_rt_rq(rt_se))  

  16.             __dequeue_rt_entity(rt_se);  

  17.     }  

  18. }  
删除的实际工作为:


  1. static void __dequeue_rt_entity(struct sched_rt_entity *rt_se)  

  2. {  

  3.     struct rt_rq *rt_rq = rt_rq_of_se(rt_se);  

  4.     struct rt_prio_array *array = &rt_rq->active;  

  5.   

  6.     list_del_init(&rt_se->run_list);  

  7.     if (list_empty(array->queue + rt_se_prio(rt_se)))  

  8.         __clear_bit(rt_se_prio(rt_se), array->bitmap);  

  9.   

  10.     dec_rt_tasks(rt_se, rt_rq);  

  11. }  
添加进程到运行队列

 


  1. /* 

  2.  * Adding/removing a task to/from a priority array: 

  3.  */  

  4. static void enqueue_task_rt(struct rq *rq, struct task_struct *p, int wakeup)  

  5. {  

  6.     struct sched_rt_entity *rt_se = &p->rt;  

  7.   

  8.     if (wakeup)  

  9.         rt_se->timeout = 0;  

  10.     /*实际工作*/  

  11.     enqueue_rt_entity(rt_se);  

  12.   

  13.     if (!task_current(rq, p) && p->rt.nr_cpus_allowed > 1)  

  14.         enqueue_pushable_task(rq, p);/*添加到对应的hash表中*/  

  15. }  

 


  1. static void enqueue_rt_entity(struct sched_rt_entity *rt_se)  

  2. {  

  3.     dequeue_rt_stack(rt_se);/*从运行队列中删除*/  

  4.     for_each_sched_rt_entity(rt_se)  

  5.         __enqueue_rt_entity(rt_se);/*添加到运行队列尾部*/  

  6. }  
实际的添加工作:


  1. static void __enqueue_rt_entity(struct sched_rt_entity *rt_se)  

  2. {  

  3.     struct rt_rq *rt_rq = rt_rq_of_se(rt_se);  

  4.     struct rt_prio_array *array = &rt_rq->active;  

  5.     struct rt_rq *group_rq = group_rt_rq(rt_se);  

  6.     struct list_head *queue = array->queue + rt_se_prio(rt_se);  

  7.   

  8.     /* 

  9.      * Don’t enqueue the group if its throttled, or when empty. 

  10.      * The latter is a consequence of the former when a child group 

  11.      * get throttled and the current group doesn’t have any other 

  12.      * active members. 

  13.      */  

  14.     if (group_rq && (rt_rq_throttled(group_rq) || !group_rq->rt_nr_running))  

  15.         return;  

  16.   

  17.     list_add_tail(&rt_se->run_list, queue);  

  18.     __set_bit(rt_se_prio(rt_se), array->bitmap);  

  19.   

  20.     inc_rt_tasks(rt_se, rt_rq);  

  21. }  
选择下一个进程运行


 


  1. static struct task_struct *pick_next_task_rt(struct rq *rq)  

  2. {  

  3.     struct task_struct *p = _pick_next_task_rt(rq);/*实际工作*/  

  4.   

  5.     /* The running task is never eligible for pushing */  

  6.     if (p)  

  7.         dequeue_pushable_task(rq, p);  

  8.   

  9. #ifdef CONFIG_SMP   

  10.     /* 

  11.      * We detect this state here so that we can avoid taking the RQ 

  12.      * lock again later if there is no need to push 

  13.      */  

  14.     rq->post_schedule = has_pushable_tasks(rq);  

  15. #endif   

  16.   

  17.     return p;  

  18. }  

 


  1. static struct task_struct *_pick_next_task_rt(struct rq *rq)  

  2. {  

  3.     struct sched_rt_entity *rt_se;  

  4.     struct task_struct *p;  

  5.     struct rt_rq *rt_rq;  

  6.   

  7.     rt_rq = &rq->rt;  

  8.   

  9.     if (unlikely(!rt_rq->rt_nr_running))  

  10.         return NULL;  

  11.   

  12.     if (rt_rq_throttled(rt_rq))  

  13.         return NULL;  

  14.   

  15.     do {/*遍历组调度中的每个进程*/  

  16.         rt_se = pick_next_rt_entity(rq, rt_rq);  

  17.         BUG_ON(!rt_se);  

  18.         rt_rq = group_rt_rq(rt_se);  

  19.     } while (rt_rq);  

  20.   

  21.     p = rt_task_of(rt_se);  

  22.     /*更新执行域*/  

  23.     p->se.exec_start = rq->clock;  

  24.   

  25.     return p;  

  26. }  

 


  1. static struct sched_rt_entity *pick_next_rt_entity(struct rq *rq,  

  2.                            struct rt_rq *rt_rq)  

  3. {  

  4.     struct rt_prio_array *array = &rt_rq->active;  

  5.     struct sched_rt_entity *next = NULL;  

  6.     struct list_head *queue;  

  7.     int idx;  

  8.     /*找到第一个可用的*/  

  9.     idx = sched_find_first_bit(array->bitmap);  

  10.     BUG_ON(idx >= MAX_RT_PRIO);  

  11.     /*从链表组中找到对应的链表*/  

  12.     queue = array->queue + idx;  

  13.     next = list_entry(queue->next, struct sched_rt_entity, run_list);  

  14.     /*返回找到的运行实体*/  

  15.     return next;  

  16. }  
总结:对于实时调度,基于linux内核调度框架下作的工作比较简单,把所有的运行进程根据优先级放到不用的队列里面,采用位图方式进行使用记录。进队列仅仅是删除原来队列里面的本进程,然后将他挂到队列尾部;而对于“移除”操作,也仅仅是从队列里面移除后添加到运行队列尾部。

赞(0) 打赏
转载请注明出处:服务器评测 » Linux内核分析之调度算法
分享到: 更多 (0)

听说打赏我的人,都进福布斯排行榜啦!

支付宝扫一扫打赏

微信扫一扫打赏