我有一个云运行作业,每10分钟运行一次,在1 vCPU和2 GiB RAM上,超时300秒。没有重试策略。作业的运行时间通常不到30秒,平均约为20秒。
根据这些信息,我预计将使用大约:
- 一个月的分钟数:31*24*60~=45000
- 每月运行次数:45000/10=4500
- 每次运行时间:20秒
- 预计vCPU秒使用总量:4500*20=90000
相反,计费报告显示的数字是原来的两倍多。我遗漏了什么吗?这些额外的使用从哪里来?
谢谢你的帮助。
TLDR:每次作业运行至少收费1分钟
我意识到3015次运行的实际使用量是179176 vCPU秒,相当于每次运行大约一分钟。
这听起来像是每次跑步的最短时间。通过深入查看Cloud Run的定价页面,这一点得到了证实。
定价表中没有提到它,但在页面的最底部:";云运行作业的可计费容器实例时间";。我被免费等级愚弄了,希望这能帮助其他人:(