如何在 C 语言中实现系统调用的延迟时间(微秒阶)



如何在 C 语言中实现系统调用的延迟时间?我使用的是 stm32f429 和 hc-sr04 传感器。我需要给出 10 微秒的触发脉冲。我尝试过:

gpio_set_value(TRIG, 1 );
for(k=0;k<16;k++)
asm("nop");
gpio_set_value(TRIG, 0 );

但我认为 asm("nop") 对于延迟是不准确的。在准确性方面,在系统调用中实现微秒级延迟的最佳方法是什么?另一个小问题:关于asm("nop"),知道我的设备的ARM处理器的频率为180MHz,我该如何计算单个asm("nop")的相应延迟时间?谢谢!

对于短暂的延迟,请使用内核函数:

udelay(unsigned long usecs) - microsec delay
mdelay(unsigned long msecs) - millisec delay

这些是以独立于架构的方式实现的定时循环,比以下方法要好得多:

for (i = 0; i < 1000000; i++)
        ;

这取决于 CPU 速度。

注意:输入一个非常大的值(15000 mili 秒),那么内核可能会给出软锁定。当信号必须提供软锁定时,这是一个硬编码值。此外,在等待期间使用 udelay() or mdelay() 是不可中断的,因此,您可能需要考虑使用内核计时器。

最新更新