具有多个 GoRoutines 的内存池和缓冲通道



我正在创建一个创建随机bson的程序。M 文档,并将其插入到数据库中。 主 goroutine 生成文档,并将它们推送到缓冲通道。同时,两个 goroutines 从通道中获取文档并将它们插入数据库。

这个过程占用了大量内存,给垃圾桶带来了太大的压力,所以我正在尝试实现一个内存池来限制分配的数量

这是我到目前为止所拥有的:

package main
import (
"fmt"
"math/rand"
"sync"
"time"
"gopkg.in/mgo.v2/bson"
)
type List struct {
L []bson.M
}
func main() {
var rndSrc = rand.NewSource(time.Now().UnixNano())
pool := sync.Pool{
New: func() interface{} {
l := make([]bson.M, 1000)
for i, _ := range l {
m := bson.M{}
l[i] = m
}
return &List{L: l}
},
}
// buffered channel to store generated bson.M docs
var record = make(chan List, 3)
// start worker to insert docs in database  
for i := 0; i < 2; i++ {
go func() {
for r := range record {
fmt.Printf("first: %vn", r.L[0])
// do the insert ect 
}
}()
}
// feed the channel 
for i := 0; i < 100; i++ {
// get an object from the pool instead of creating a new one 
list := pool.Get().(*List)
// re generate the documents 
for j, _ := range list.L {
list.L[j]["key1"] = rndSrc.Int63()
}
// push the docs to the channel, and return them to the pool  
record <- *list
pool.Put(list)
}
}

但看起来一个List在重新生成之前使用了 4 次:

> go run test.go
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:8767993090152084935 key2:8807650676784718781]
...

为什么每次都不重新生成列表?我该如何解决这个问题?

问题是您已经创建了一个缓冲通道,其中包含var record = make(chan List, 3)。因此,此代码:

record <- *list
pool.Put(list)

可以立即返回,条目将在消耗之前放回池中。因此,在使用者有机会使用它之前,基础切片可能会在另一个循环迭代中被修改。尽管将List作为值对象发送,但请记住,[]bson.M是指向已分配数组的指针,并且在发送新的List值时仍将指向同一内存。因此,为什么您会看到重复的输出。

要解决此问题,请修改您的频道以将 List 指针make(chan *List, 3),并将您的使用者更改为在完成后将条目放回池中,例如:

for r := range record {
fmt.Printf("first: %vn", r.L[0])
// do the insert etc
pool.Put(r) // Even if error occurs
}

然后,您的生产者应该发送删除pool.Put的指针,即

record <- list

最新更新