在隔离的 CPU 内核上运行内核线程



>我启动我的内核

with isolcpus=3-7

我想在其中一个隔离的 CPU 内核上运行一个线程。

基于这个想法,我做:

ctx->workq = create_singlethread_workqueue("my_work");
struct workqueue_attrs *attr = alloc_workqueue_attrs(GFP_KERNEL);
alloc_cpumask_var(&attr->cpumask, GFP_KERNEL);
cpumask_clear(attr->cpumask);
cpumask_set_cpu(5, attr->cpumask);
apply_workqueue_attrs(ctx->workq, attr);
INIT_WORK(&ctx->work, my_work);

但它不起作用。以下代码报告 0:

static void my_work(struct work_struct *w) {
    printk("CPU is: %dn", get_cpu());
    put_cpu();

如何在特定内核(如果可能的话,是隔离的核心(上运行此工作队列线程?

主线内核中已经有一个 API schedule_work_on,您可以使用它在特定内核上运行工作队列线程。

几年前,我使用相同的API用于相同的目的。查看示例代码。

static void
 myworkmod_work_handler(struct work_struct *w)
{
    printk(KERN_ERR "CPU is: %dn", get_cpu());
    pr_info("work %u jiffiesn", (unsigned)onesec);
    put_cpu();
 }

 static int myworkmod_init(void)
 {
    onesec = msecs_to_jiffies(1000);
    pr_info("module loaded: %u jiffiesn", (unsigned)onesec);
    if (!wq)
            wq = create_singlethread_workqueue("myworkmod");
    if (wq)
            queue_delayed_work_on(2,wq, &myworkmod_work, onesec); //2 CPU no
    return 0;
  }

在您的情况下,我认为您使用的是始终保存默认 CPU 编号的 schedule_work API。这就是您获得 CPU 0 的原因。所以你必须尝试下面的一个:

schedule_work_on(cpu_nr, &ctx->work);  //cpu_nr will the CPU no to be used.

最新更新