减少Dataproc Serverless CPU配额



目标:我想在Dataproc Serverless上为spark运行spark作业。

问题:Spark应用程序的最低CPU核心要求是12核。这不适合我们拥有的默认区域CPU配额,需要我们扩展它。12个内核对我们来说是多余的;我们不想扩大配额。

细节:这个链接提到了Dataproc Serverless for Spark的最低要求:https://cloud.google.com/dataprocserverless/docs/concepts/properties

它们如下:(a) 1个驱动节点和2个执行节点(b)每个节点4个内核

因此,总共需要12个CPU内核。

我们可以绕过这个,用更少的CPU内核为Spark运行Dataproc Serverless吗?

现在Spark工作负载的Dataproc Serverless需要12个CPU内核来运行-这是一个你不能绕过的硬最小值。

我们正在努力放宽这一要求,但它至少要到2023年第三季度才可用。

相关内容

  • 没有找到相关文章

最新更新