struct tasklet_struct
jiffies
, HZ
struct timer_list
spin_lock_bh
, spin_unlock_bh
struct work_struct
Acțiunile amânabile sunt primitive kernel care oferă posibilitatea de a planifica execuția de cod pentru un moment ulterior de timp. Acțiunile astfel planificate pot rula fie în context proces, fie în context întrerupere, în funcție de tipul de acțiune amânabilă. Acțiunile amânabile sunt folosite pentru a rezolva câteva probleme fundamentale ce apar în kernel:
Kernel thread-urile nu sunt în sine o acțiune amânabilă, dar pot fi folosite pentru a complementa mecanismul de acțiuni amânabile. În general, kernel thread-urile se folosesc ca “worker-i” ce prelucrează evenimente a căror execuție conține apeluri blocante.
Asupra tuturor tipurilor de acțiuni amânabile se pot aplica trei tipuri de operații:
Acțiunile amânabile sunt folosite de obicei pentru a complementa funcționalitatea întreruperilor. Rutina de tratare a unei întreruperi trebuie să se execute rapid, dar de cele mai multe ori operațiile care trebuie executate nu respectă această cerință. Pentru a rezolva această problemă, din rutina de tratare a întreruperii se planifică o acțiune amânabilă, pentru a rula la un moment ulterior și a executa restul operațiilor necesare.
Pentru sincronizarea între cod ce rulează în context proces (A) și cod ce rulează în context întrerupere (B) cu handlere ale unor acțiuni amânabile avem nevoie de un locking mai special. Se vor folosi primitive de tip spinlock augmentate cu dezactivarea acțiunilor amânabile pe procesorul curent în (A), iar în (B) doar primitive de tip spinlock. Pe Linux, de exemplu, se folosesc apelurile spin_lock_bh
și spin_unlock_bh
. Pentru un rezumat al situațiilor în care trebuie folosită sincronizarea, consultați acest link.
Primitivele ce stau la baza acțiunilor amânabile în Linux sunt kernel thread-urile și softirq-urile. Pe baza kernel thread-urilor sunt implementate cozile de sarcini (workqueues), iar pe baza softirq-urilor tasklets. Bottom-half handlers a fost prima implementare de acțiuni amânabile în Linux, dar între timp a fost înlocuită de softirq-uri. De aceea unele din funcțiile prezentate conțin bh
în nume.
Softirq-urile nu pot fi folosite de către device drivere, ele sunt rezervate pentru diverse subsisteme ale kernelului. Din această cauză există un număr fix de softirq-uri definite la momentul compilării. Pentru kernelul 4.15 avem următoarele softirq-uri:
enum { HI_SOFTIRQ=0, TIMER_SOFTIRQ, NET_TX_SOFTIRQ, NET_RX_SOFTIRQ, BLOCK_SOFTIRQ, IRQ_POLL_SOFTIRQ, TASKLET_SOFTIRQ, SCHED_SOFTIRQ, HRTIMER_SOFTIRQ, RCU_SOFTIRQ, NR_SOFTIRQS };
Scopul fiecăruia este:
HI_SOFTIRQ
și TASKLET_SOFTIRQ
- rularea tasklets;TIMER_SOFTIRQ
- rularea timerelor;NET_TX_SOFIRQ
și NET_RX_SOFTIRQ
- folosite de către subsistemul de networking;BLOCK_SOFTIRQ
- folosit de către subsistemul de IO;BLOCK_IOPOLL_SOFTIRQ
- folosit de către subsistemul de IO pentru a crește performanța în momentul în care handler-ul iopoll este invocat;SCHED_SOFTIRQ
- load balancing;HRTIMER_SOFTIRQ
- implementarea timerelor de mare precizie 1);RCU_SOFTIRQ
- implementarea mecanismelor de tip RCU 2).
Prioritare sunt softirq-urile de tip HI_SOFTIRQ, urmate în ordine de celelalte softirq-uri definite; cele de tip RCU_SOFTIRQ
au cea mai mică prioritate.
Softirq-urile rulează în context întrerupere, astfel încât din cadrul lor nu se pot apela funcții blocante. Dacă tratarea evenimentelor semnalizate din softirq-uri necesită apeluri către astfel de funcții, se pot planifica workqueue-uri care să execute aceste apeluri blocante.
Un tasklet este caracterizat prin structura struct tasklet_struct. Un tasklet preinițializat se definește astfel:
void handler(unsigned long data); DECLARE_TASKLET(tasklet, handler, data); DECLARE_TASKLET_DISABLED(tasklet, handler, data);
sau dacă dorim să inițializăm manual tasklet-ul:
void handler(unsigned long data); struct tasklet_struct tasklet; tasklet_init(&tasklet, handler, data);
Parametrul data
va fi trimis handler-ului în momentul în care acesta se va executa.
Programarea de tasklets pentru rulare se numeste planificare. Tasklets se planifica peste softirq-uri. Planificarea de tasklets se face cu:
void tasklet_schedule(struct tasklet_struct *tasklet); void tasklet_hi_schedule(struct tasklet_struct *tasklet);
Pentru tasklet_schedule
se planifică un softirq de tip TASKLET_SOFTIRQ, iar pentru tasklet_hi_schedule
se planifică un softirq de tip HI_SOFTIRQ.
Dacă un tasklet a fost planificat de mai multe ori și nu a rulat între planificări, el va rula o singură data:
tasklet_schedule(&tasklet); /* presupunem ca tasklet-ul nu a rulat inca */ tasklet_schedule(&tasklet); /* in aceste condiții tasklet-ul va rula o singura data */
O dată ce tasklet-ul a rulat, el poate fi replanificat, și va rula după replanificare:
tasklet_schedule(&tasklet); /* presupunem ca tasklet-ul planificat a rulat */ tasklet_schedule(&tasklet); /* in aceste condiții tasklet-ul va rula la un moment ulterior de timp */
Tasklets se pot replanifica din interiorul handler-ului și vor rula la un moment de timp ulterior după ieșirea din handler.
Tasklets pot fi mascați de la rulare. Mascarea tasklets se face cu:
void tasklet_enable(struct tasklet_struct *tasklet); void tasklet_disable(struct tasklet_struct *tasklet);
Intrucât tasklets sunt planificați peste softirq-uri, în codul asociat nu pot fi folosite apeluri blocante.
Un caz particular de acțiuni amânabile, dar foarte des folosite, sunt timer-ele: struct timer_list. În Linux, timer-ele rulează din context întrerupere, fiind implementate cu ajutorul softirq-urilor.
Pentru a putea fi folosit, un timer trebuie mai întâi inițializat apelând timer_setup:
#include <linux/sched.h> void timer_setup(struct timer_list *timer, void (*function)(struct timer_list *), unsigned int flags);
Funcția de mai sus inițializează câmpurile interne ale structurii și asociază function
ca rutina de tratare a timerului; folosind parametrul flags
se poate specifica comportamentul timer-ului (lista flag-uri). Intrucât timer-ele sunt planificate peste softirq-uri, în codul asociat funcției de tratare nu pot fi folosite apeluri blocante.
Planificarea unui timer se face cu mod_timer:
int mod_timer(struct timer_list *timer, unsigned long expires);
unde expires
este timpul (din viitor) la care să se ruleze funcția de tratare. Funcția poate fi folosită pentru a planifica sau pentru a replanifica un timer.
Unitatea în care se măsoară timpul pentru aceste tipuri de timere este jiffie
3). Valoarea în timp absolut a unui jiffie este dependentă de platformă, și se poate afla cu ajutorul macroului HZ
care definește numărul de jiffies pentru 1 secundă. Pentru a transforma între un interval de timp în jiffies (jiffies_value
) și un interval în secunde (seconds_value
) se folosesc următoarele formule:
jiffies_value = seconds_value * HZ; seconds_value = jiffies_value / HZ;
În kernel există un contor care conține numarul de jiffies de la ultimul boot, ce poate fi accesat prin variabila jiffies
. Astfel, atunci când este nevoie să se calculeze un timp in viitor se poate folosi această variabilă:
#include <linux/jiffies.h> unsigned long current_jiffies, next_jiffies; unsigned long seconds = 1; current_jiffies = jiffies; next_jiffies = jiffies + seconds * HZ; /* 'seconds' seconds in the future */
Pentru a opri un timer se folosesc funcțiile del_timer și del_timer_sync:
int del_timer(struct timer_list *timer); int del_timer_sync(struct timer_list *timer);
Funcțiile se pot apela atât pentru un timer planificat cât și pentru un timer neplanificat. Funcția del_timer_sync este folosită pentru a elimina race-urile ce pot apărea pe sisteme multiprocesor, întrucât la terminarea apelului se garantează că funcția de tratare a timer-ului nu rulează pe niciun procesor.
O greșeală frecventă a folosirii timer-elor este aceea că se uită oprirea timerelor pornite. De exemplu, înainte de descărcarea unui modul trebuie să oprim timerele, pentru că dacă un timer expiră după descărcarea modului, funcția de tratare nu va mai fi încărcată în kernel și se va genera un kernel oops.
Secvența uzuală folosită pentru inițializarea și planificarea unui timeout de seconds
secunde este:
#include <linux/sched.h> void timer_function(struct timer_list *timer); struct timer_list timer; unsigned long seconds = 1; timer_setup(&timer, timer_function, 0); mod_timer(&timer, jiffies + seconds * HZ);
iar pentru oprirea acestuia:
del_timer_sync(&timer);
Pentru a masca softirq-urile (inclusiv timerele sau taskleții) puteți folosi funcțiile local_bh_disable / local_bh_enable:
void local_bh_disable(void); void local_bh_enable(void);
Atenție! Aceste primitive vor dezactiva softirq-urile doar pe procesorul local. Sunt permise construcții imbricate, reactivarea efectivă a softirq-urilor făcându-se doar atunci când toate apelurile local_bh_disable()
au fost complementate de apeluri local_bh_enable()
:
/* presupunem că avem softirq-urile nemascate */ local_bh_disable(); /* softirq-urile sunt acum mascate */ local_bh_disable(); /* softirq-urile rămân mascate */ local_bh_enable(); /* softirq-urile rămân mascate */ local_bh_enable(); /* softirq-urile sunt acum nemascate */
Pentru situațiile în care trebuie să mascați softirq-urile dar și să folosiți lock-uri puteți folosi funcțiile de mai jos, definite în linux/spinlock.h 4). Funcțiile *_lock_bh()
vor dezactiva softirq-urile, iar apoi vor efectua operația de lock. Funcțiile *_unlock_bh()
vor efectua operația de unlock și apoi vor reactiva softirq-urile.
void spin_lock_bh(spinlock_t *lock); void spin_unlock_bh(spinlock_t *lock); void read_lock_bh(rwlock_t *lock); void read_unlock_bh(rwlock_t *lock); void write_lock_bh(rwlock_t *lock); void write_unlock_bh(rwlock_t *lock);
Puteți folosi workqueue-uri pentru a planifica acțiuni care să ruleze în context proces. Unitatea de bază cu care se lucrează poartă denumirea de work. Există două structuri care definesc o sarcină: struct work_struct (pentru a planifica o sarcină să ruleze la un moment ulterior de timp) și struct delayed_work (pentru a putea planifica o sarcină să ruleze după cel puțin un interval de timp dat). O sarcină de tipul struct delayed_work
folosește un timer
pentru a rula după intervalul de timp specificat; funcțiile pentru lucrul cu acest tip de sarcini sunt similare cu cele pentru struct work_struct
, dar conțin delayed
în numele funcției. O sarcină se poate inițializa cu ajutorul următoarelor macrodefiniții:
#include <linux/workqueue.h> DECLARE_WORK(name, void (*function)( struct work_struct *)); DECLARE_DELAYED_WORK(name, void (*function)( struct work_struct *)); INIT_WORK(struct work_struct *work, void (*function)( struct work_struct *)); INIT_DELAYED_WORK(struct delayed_work *work, void (*function)( struct work_struct *));
DECLARE_WORK
și DECLARE_DELAYED_WORK
declară și inițializează sarcina, iar INIT_WORK
și INIT_DELAYED_WORK
inițializează o sarcină deja declarată.
Secvența următoare declară și inițializează o sarcină:
#include <linux/workqueue.h> void my_work_handler(struct work_struct *work); DECLARE_WORK(my_work, my_work_handler);
sau, dacă dorim să inițializăm manual sarcina:
void my_work_handler(struct work_struct *work); struct work_struct my_work; INIT_WORK(&my_work, my_work_handler);
Odată declarată și inițializată, putem planifica sarcina folosind funcțiile schedule_work și schedule_delayed_work:
schedule_work(struct work_struct *work); schedule_delayed_work(struct delayed_work *work, unsigned long delay);
Funcția schedule_delayed_work poate fi folosită pentru a planifica un work pentru execuție cu o întârziere de minim delay
; întârzierea este dată în jiffies.
Sarcinile nu pot fi mascate.
O sarcină planificată poate fi anulată apelând cancel_delayed_work_sync sau cancel_work_sync:
int cancel_work_sync(struct delayed_work *work); int cancel_delayed_work_sync(struct delayed_work *work);
Apelul nu face decât să oprească execuția ulterioară a sarcinii; dacă funcția asociată sarcinii este deja în execuție la momentul apelului, aceasta va rula în continuare. În orice caz, la terminarea acestor apeluri se garantează faptul că sarcina nu va mai rula.
Putem să așteptăm terminarea rulării sarcinilor din coada folosind flush_scheduled_work:
void flush_scheduled_work(void);
Această funcție este blocantă și, din această cauză, nu poate fi folosită din context întrerupere. La execuția acestei funcții se va aștepta terminarea tuturor sarcinilor din coadă existente la momentul apelului; pentru sarcinile planificate cu întârziere trebuie apelată funcția cancel_delayed_work
înainte de apelul flush_scheduled_work
.
În fine, următoarele funcții pot fi folosite pentru a planifica sarcini pe un anumit procesor (schedule_delayed_work_on), respectiv pe toate procesoarele (schedule_on_each_cpu):
int schedule_delayed_work_on(int cpu, struct delayed_work *work, unsigned long delay); int schedule_on_each_cpu(void (*func)( struct work_struct *));
O secvența uzuală de inițializare și planificare a unei sarcini este următoarea:
void my_work_handler(struct work_struct *work); struct work_struct my_work; INIT_WORK(&my_work, my_work_handler); schedule_work(&my_work);
iar pentru așteptarea terminării sarcinii:
flush_scheduled_work();
După cum se poate observa, funcția my_work_handler
primește drept parametru sarcina care se execută. Pentru a putea accesa date private ale modulului, se poate folosi macrodefiniția container_of 5):
struct my_device_data { struct work_struct my_work; //... }; void my_work_handler(struct work_struct *work) { struct my_device_data *my_data = container_of(work, struct my_device_data, my_work); //... }
Sarcinile planificate cu funcțiile discutate mai sus vor rula în contextul unui kernel thread denumit events/x, unde x este numărul procesorului pe care rulează kernel thread-ul. Kernelul va crea la inițializare câte un kernel thread pentru fiecare procesor prezent în sistem:
$ ps -e PID TTY TIME CMD 1 ? 00:00:00 init 2 ? 00:00:00 ksoftirqd/0 3 ? 00:00:00 events/0 <--- kernel thread-ul peste care rulează workqueue-urile 4 ? 00:00:00 khelper 5 ? 00:00:00 kthread 7 ? 00:00:00 kblockd/0 8 ? 00:00:00 kacpid ...
Funcțiile declarate mai sus folosesc o coadă de sarcini predefinită (numită events), iar acestea rulează in contextul thread-ului events/x, după cum s-a precizat mai sus. Deși aceasta este suficientă in majoritatea cazurilor, este o resursă partajată și întârzieri mari în funcțiile asociate sarcinilor pot cauza întârzieri celorlalți utilizatori ai cozii. Din acest motiv, există funcții pentru crearea de cozi de sarcini suplimentare.
O coada de sarcini este reprezentată de struct workqueue_struct. Poate fi creată cu ajutorul funcțiilor:
struct workqueue_struct *create_workqueue(const char *name); struct workqueue_struct *create_singlethread_workqueue(const char *name);
Funcția create_workqueue folosește câte un thread pentru fiecare procesor din sistem, iar create_singlethread_workqueue folosește un singur thread.
Pentru a adăuga o sarcina in coada suplimentară se vor folosi funcțiile queue_work și queue_delayed_work:
int queue_work(struct workqueue_struct *queue, struct work_struct *work); int queue_delayed_work(struct workqueue_struct *queue, struct delayed_work *work, unsigned long delay);
Funcția queue_delayed_work poate fi folosită pentru a planifica un work pentru execuție cu o întârziere de minim delay
; întârzierea este dată în jiffies.
Pentru a aștepta terminarea sarcinilor din coadă se apelează flush_workqueue:
void flush_workqueue(struct workqueue_struct *queue);
iar pentru a distruge coada destroy_workqueue:
void destroy_workqueue(struct workqueue_struct *queue);
Următoarea secvență declară și inițializează o coadă suplimentară de sarcini, declară și inițializează o sarcină și o adaugă în coadă:
void my_work_handler(struct work_struct *work); struct work_struct my_work; struct workqueue_struct *my_workqueue; my_workqueue = create_singlethread_workqueue("my_workqueue"); INIT_WORK(&my_work, my_work_handler); queue_work(my_workqueue, &my_work);
Pentru așteptarea terminării sarcinilor din coadă se va apela:
flush_workqueue(my_workqueue); destroy_workqueue(my_workqueue);
Sarcinile planificate cu aceste funcții vor rula în contextul unei nou kernel thread denumit my_workqueue, numele dat la crearea cozii de sarcini cu apelul create_singlethread_workqueue.
Kernel thread-urile au apărut din necesitatea de a rula cod în context proces din kernel. Kernel thread-urile stau la baza mecanismului de workqueue. În esență, un kernel thread este un thread ce rulează în contextul procesului init și nu rulează decât în kernel-mode. Din acest motiv, un kernel thread nu are asociat informații precum un spațiu de adresă user.
Pentru a crea un kernel thread, se apelează funcția kthread_create_on_node sau kthread_create_on_cpu:
#include <linux/kthread.h> struct task_struct *kthread_create_on_node(int (*threadfn)(void *data), void *data, int node, const char namefmt[], ...); struct task_struct *kthread_create_on_cpu(int (*threadfn)(void *data), void *data, unsigned int cpu, const char *namefmt);
unde:
threadfn
este o funcția ce va fi rulată de kernel threaddata
este un parametru ce va fi trimis funcțieinamefmt
reprezintă numele kernel thread-ului, așa cum este el afișat în ps
/top
; poate conține secvențe %d
, %s
etc. care vor fi inlocuite conform semnificației standard printf
.De exemplu, următorul apel:
kthread_create_on_node(f, NULL, -1, "%skthread%d", "my", 0);
va crea un kernel thread cu numele mykthread0.
Kernel thread-ul creat cu această funcție va fi oprit, în starea TASK_INTERRUPTIBLE
. Pentru a porni kernel thread-ul se va apela funcția wake_up_process:
#include <linux/sched.h> int wake_up_process(struct task_struct *p);
Alternativ, se poate folosi macro-ul kthread_run:
struct task_struct *kthread_run(int (*threadfn)(void *data), void *data, const char namefmt[], ...);
pentru a crea și porni un kernel thread.
Chiar dacă restricțiile de programare pentru funcția ce rulează în cadrul kernel thread-ului sunt mai relaxate și programarea se apropie mai mult de programarea în userspace, există, totuși, câteva limitări de care trebuie să ținut cont. Vom enumera mai jos acțiunile care se pot sau nu se pot face dintr-un kernel thread:
copy_from_user
, copy_to_user
) pentru că un kernel thread nu are un spațiu utilizator și este planificat pentru execuție indiferent de procesul din user-space;Terminarea unui kernel thread se face voluntar, din interiorul funcției ce rulează în kernel thread, prin apelarea funcției:
fastcall NORET_TYPE void do_exit(long code);
Datorită limitărilor existente, cea mai mare parte din implementările funcțiilor ce rulează în kernel thread-uri folosesc același model. Mai jos prezentăm o posibilă implementare a aceastui model:
#include <linux/kthread.h> // semafor folosit pentru a semnaliza kernel thread-ului ca are evenimente de procesat struct semaphore sem; // lista de evenimente de procesat de kernel thread struct list_head lista_evenimente; // structura ce descrie evenimentul de procesat struct eveniment { struct list_head lh; // ... }; int my_thread_f(void *data) { while (1) { down(&sem); spin_lock(&lock_lista); while (i = lista_evenimente.next) { struct eveniment *ev = list_entry(i, struct eveniment, lh); list_del(i); spin_unlock(&lock_lista); /* procesare eveniment */ // ... /* daca se cere terminarea kernel thread-ului */ if (ev->...) break; spin_lock(&lock_lista); } spin_unlock(&lock_lista); } do_exit(0); } // ... // initializare si pornire kthread kthread_run(my_thread_f, NULL, "%skthread%d", "my", 0); // ...
Cu modelul prezentat mai sus, comunicarea de cereri către kernel thread se face astfel:
void trimite_cerere(struct eveniment *ev) { spin_lock(&lock_lista); list_add(&ev->lh, &lista_evenimente); spin_unlock(&lock_lista); up(&sem); }