我一直在使用Spark数据源从Parquet写入Kudu,写入性能很糟糕:大约12000行/秒。每行大约 160 个字节。
我们有 7 个 kudu 节点,每个 24 个核心 + 64 GB RAM + 每个 12 个 SATA 磁盘。 似乎没有一个资源是瓶颈:tserver CPU使用率~3-4核,RAM 10G,没有磁盘拥塞。
我仍然看到大多数时候写入请求都卡在队列中。任何想法都值得赞赏。
W0811 12:34:03.526340 7753 rpcz_store.cc:251] Call kudu.tserver.TabletServerService.Write from 10.60.170.18:10000 (ReqId={client: 81ae6f3c6e1b4d9493ea95f87ccd1dfa, seq_no=9365, attempt_no=1}) took 13255ms (client timeout 10000).
W0811 12:34:03.526489 7753 rpcz_store.cc:255] Trace:
0811 12:33:50.270477 (+ 0us) service_pool.cc:163] Inserting onto call queue
0811 12:33:50.270497 (+ 20us) service_pool.cc:222] Handling call
0811 12:34:03.526316 (+13255819us) inbound_call.cc:157] Queueing success response
Related trace 'txn':
0811 12:34:03.328337 (+ 0us) write_transaction.cc:101] PREPARE: Starting
0811 12:34:03.328563 (+ 226us) write_transaction.cc:268] Acquiring schema lock in shared mode
0811 12:34:03.328564 (+ 1us) write_transaction.cc:271] Acquired schema lock
0811 12:34:03.328564 (+ 0us) tablet.cc:400] PREPARE: Decoding operations
0811 12:34:03.328742 (+ 178us) tablet.cc:422] PREPARE: Acquiring locks for 24 operations
0811 12:34:03.447163 (+118421us) lock_manager.cc:377] Waited 118408us for lock on <redacted>
0811 12:34:03.447203 (+ 40us) tablet.cc:426] PREPARE: locks acquired
0811 12:34:03.447203 (+ 0us) write_transaction.cc:126] PREPARE: finished.
0811 12:34:03.447361 (+ 158us) write_transaction.cc:136] Start()
0811 12:34:03.447366 (+ 5us) write_transaction.cc:141] Timestamp: P: 1533965643563964 usec, L: 6
0811 12:34:03.447674 (+ 308us) log.cc:582] Serialized 64909 byte log entry
0811 12:34:03.449561 (+ 1887us) write_transaction.cc:149] APPLY: Starting
0811 12:34:03.526238 (+ 76677us) tablet_metrics.cc:365] ProbeStats: bloom_lookups=48,key_file_lookups=48,delta_file_lookups=24,mrs_lookups=0
0811 12:34:03.526260 (+ 22us) log.cc:582] Serialized 237 byte log entry
0811 12:34:03.526268 (+ 8us) write_transaction.cc:309] Releasing row and schema locks
0811 12:34:03.526280 (+ 12us) write_transaction.cc:277] Released schema lock
0811 12:34:03.526300 (+ 20us) write_transaction.cc:196] FINISH: updating metrics
Metrics: {"child_traces":[["txn",{"apply.queue_time_us":11,"cfile_cache_hit":205,"cfile_cache_hit_bytes":21900627,"num_ops":24,"prepare.queue_time_us":13057291,"prepare.run_cpu_time_us":1017,"prepare.run_wall_time_us":119378,"raft.queue_time_us":71,"raft.run_cpu_time_us":303,"raft.run_wall_time_us":304,"replication_time_us":2170,"row_lock_wait_count":1,"row_lock_wait_us":118408,"spinlock_wait_cycles":45824}]]}
第一个挑战是,将包含 200 列的 23M 行表摄取到 Kudu(主键 4 个哈希分区(需要很长时间。准确地说,它花费了惊人的 58 分钟,相当于每秒 63 行。我不敢相信 Kudu 这么慢,我们仔细检查了安装和配置文档。不幸的是,我们信任默认值,正如我在 Kudu 松弛频道上发现的那样(谢谢,威尔·伯克利!(,有两个参数需要调整。具体说来:
memory_limit_hard_bytes
控制 Kudu 守护程序应使用的内存总量。
维护线程数maintenance_manager_num
,建议设置为磁盘数的 1/3,用于 Kudu
CDH Kudu 包的默认值非常糟糕 - Kudu 受到 1Gb 内存的限制,只使用 1 个维护线程。我们将后者设置为 4(12 个驱动器/3(,将前一个设置为 0(动态分配(。CM 不想接受 0 表示memory_limit_hard_bytes
,我们不得不使用 CM 安全阀来覆盖它。一旦完成并且 Kudu 重新启动,我的第一个 23M 表在 240 秒内完成(~每秒 95k 行( - 好多了!从黑斑羚到黑斑羚镶木地板的CTAS只用了60秒。
事实证明,这是由于我们数据的重复。我们使用一个包含大约 120 万行的字段,其值(和空字符串(与 Kudu 中的主键相同。因此,Kudu 更新了相同的密钥 120 万次,每次都需要获取锁,因此随着时间的推移,摄取速度会下降。
我们删除了重复的键行,并将摄取速度提高到 10 倍。