本文重点介绍mgo使用,仅简单介绍mongodb。
mongodb特性
注意: 上图已经告知我们mongo不支持事务,在开发项目应用时,想要保证数据的完整性请考虑关系型数据库(经典例子银行转账)。 mongo提供了许多原子操作,比如文档的保存,修改,删除等,都是原子操作。所谓原子操作就是要么这个文档保存到mongodb,要么没有保存到mongodb,不会出现查询到的文档不完整的情况。
mgo 是 mongodb 的 GO 语言驱动包。
mgo官网:http://labix.org/mgo
mgo使用
mgo方案一
package mgo
import (
"flag"
"gopkg.in/mgo.v2"
"log"
"study/conf"
)
var session *mgo.Session
var database *mgo.Database
func init() {
这里的 session 能够和 mongodb 集群中的所有Server通讯。
session设置的模式分别为:
- Strong
session 的读写一直向主服务器发起并使用一个唯一的连接,因此所有的读写操作完全的一致。
- Monotonic
session 的读操作开始是向其他服务器发起(且通过一个唯一的连接),只要出现了一次写操作,session 的连接就会切换至主服务器。由此可见此模式下,能够分散一些读操作到其他服务器,但是读操作不一定能够获得最新的数据。
- Eventual
session 的读操作会向任意的其他服务器发起,多次读操作并不一定使用相同的连接,也就是读操作不一定有序。session 的写操作总是向主服务器发起,但是可能使用不同的连接,也就是写操作也不一定有序。
通过find()可以进行单个或者全部的查询,并且可以进行分页处理。下面为简单代码展示:
con.Find(nil).Limit(5).Skip(0).All(&user)
package models
import (
"gopkg.in/mgo.v2/bson"
"study/library/mgo"
"time"
)
type Diary struct {
Uid bson.ObjectId `bson:"uid"`
ID bson.ObjectId `bson:"_id"`
CreatTime time.Time `bson:"creattime"`
UpdateTime time.Time `bson:"updatetime"`
Title string `bson:"title"`
Content string `bson:"content"`
Mood int `bson:'Mood"`
Pic []string `bson:'pic'`
}
mgo更新方法很多,如批量更新con.UpdateAll(selector, update)
,更新或插入数据con.Upsert(selector, update)
。
mgo方案二
思考: session 会被全局使用,当在实际的程序中,我们可以开启goroutine 来处理每个连接,多个goroutine 可以通过 session.Clone() 来创建或复用连接,使用完成之后通过 session.Close() 来关闭这个连接。当并发很高时,看起来可以提高效率。
下面部分代码修改 :
import (
"flag"
"gopkg.in/mgo.v2"
"log"
"study/conf"
)
var session *mgo.Session
var config *conf.ConfigurationDatabase
func init() {
filename := flag.String("config", "./conf/config.json", "Path to configuration file")
flag.Parse()
config = &conf.ConfigurationDatabase{}
config.Load(*filename)
var err error
dialInfo := &mgo.DialInfo{
Addrs: []string{config.Hosts},
Direct: false,
Timeout: time.Second * 1,
PoolLimit: 4096,
对查找进行了修改
func FindUser(username string) (User, error) {
var user User
ds := mgo.NewSessionStore()
defer ds.Close()
con := ds.C("user")
if err := con.Find(bson.M{"username": username}).One(&user); err != nil {
if err.Error() != mgo.GetErrNotFound().Error() {
return user, err
}
}
return user, nil
}
mgo方案一和二测试:
使用boom进行并发测试,并在每个 goroutine 里面sleep 5秒,这样是让连接暂时不释放,就可以看到 mgo 方案二 会不断创建新连接,方案一不会创建新连接。可以使用mongo shell 的db.serverStatus().connections来查看连接数。
mgo方案一测试连接数: 1000 并发:mongo 3个连接 5000 并发:mongo 3个连接。
mgo方案二测试连接数: 1000 并发:mongo 500多个连接 5000 并发:mongo 1400多个连接。
提示: mgo 默认连接池是 4096,在高并发下,如果每个 session都不调用 close(),会导致连接数会很快就达到 4096,并堵死其他请求,所以在使用clone() 或 copy()时 session 时一定要使用 defer close() 把连接关闭。启用 maxPoolLimit 参数会限制总连接大小,当连接超过限制总数当前协程 等待,直到可以创建连接。
测试结果:mgo方案一和方案二在并发下,效率差不多。
可能性,由于数据少或者处理的单个mongo无法看出效果。
由于目前自己项目只使用了一个mongo,后期使用多个mongo进行或在大量数据下测试。如果大家有什么好的建议,提出来进行学习思考。
推荐学习:
http://goinbigdata.com/how-to-build-microservice-with-mongodb-in-golang/
官方博客详讲了mgo并发处理,如下:
https://www.mongodb.com/blog/post/running-mongodb-queries-concurrently-with-go
请发表评论