我正在创建一个创建随机bson的程序。M 文档,并将其插入到数据库中。 主 goroutine 生成文档,并将它们推送到缓冲通道。同时,两个 goroutines 从通道中获取文档并将它们插入数据库。
这个过程占用了大量内存,给垃圾桶带来了太大的压力,所以我正在尝试实现一个内存池来限制分配的数量
这是我到目前为止所拥有的:
package main
import (
"fmt"
"math/rand"
"sync"
"time"
"gopkg.in/mgo.v2/bson"
)
type List struct {
L []bson.M
}
func main() {
var rndSrc = rand.NewSource(time.Now().UnixNano())
pool := sync.Pool{
New: func() interface{} {
l := make([]bson.M, 1000)
for i, _ := range l {
m := bson.M{}
l[i] = m
}
return &List{L: l}
},
}
// buffered channel to store generated bson.M docs
var record = make(chan List, 3)
// start worker to insert docs in database
for i := 0; i < 2; i++ {
go func() {
for r := range record {
fmt.Printf("first: %vn", r.L[0])
// do the insert ect
}
}()
}
// feed the channel
for i := 0; i < 100; i++ {
// get an object from the pool instead of creating a new one
list := pool.Get().(*List)
// re generate the documents
for j, _ := range list.L {
list.L[j]["key1"] = rndSrc.Int63()
}
// push the docs to the channel, and return them to the pool
record <- *list
pool.Put(list)
}
}
但看起来一个List
在重新生成之前使用了 4 次:
> go run test.go
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:8767993090152084935 key2:8807650676784718781]
...
为什么每次都不重新生成列表?我该如何解决这个问题?
问题是您已经创建了一个缓冲通道,其中包含var record = make(chan List, 3)
。因此,此代码:
record <- *list
pool.Put(list)
可以立即返回,条目将在消耗之前放回池中。因此,在使用者有机会使用它之前,基础切片可能会在另一个循环迭代中被修改。尽管将List
作为值对象发送,但请记住,[]bson.M
是指向已分配数组的指针,并且在发送新的List
值时仍将指向同一内存。因此,为什么您会看到重复的输出。
要解决此问题,请修改您的频道以将 List 指针make(chan *List, 3)
,并将您的使用者更改为在完成后将条目放回池中,例如:
for r := range record {
fmt.Printf("first: %vn", r.L[0])
// do the insert etc
pool.Put(r) // Even if error occurs
}
然后,您的生产者应该发送删除pool.Put
的指针,即
record <- list