Google Cloud Run的CPU和RAM秒数比实际使用的要多



我有一个云运行作业,每10分钟运行一次,在1 vCPU和2 GiB RAM上,超时300秒。没有重试策略。作业的运行时间通常不到30秒,平均约为20秒。

根据这些信息,我预计将使用大约:

  • 一个月的分钟数:31*24*60~=45000
  • 每月运行次数:45000/10=4500
  • 每次运行时间:20秒
  • 预计vCPU秒使用总量:4500*20=90000

相反,计费报告显示的数字是原来的两倍多。我遗漏了什么吗?这些额外的使用从哪里来?

谢谢你的帮助。

TLDR:每次作业运行至少收费1分钟

我意识到3015次运行的实际使用量是179176 vCPU秒,相当于每次运行大约一分钟。

这听起来像是每次跑步的最短时间。通过深入查看Cloud Run的定价页面,这一点得到了证实。

定价表中没有提到它,但在页面的最底部:";云运行作业的可计费容器实例时间";。我被免费等级愚弄了,希望这能帮助其他人:(

相关内容

  • 没有找到相关文章

最新更新