本文重点介绍mgo使用,仅简单介绍mongodb。
mongodb特性
注意: 上图已经告知我们mongo不支持事务,在开发项目应用时,想要保证数据的完整性请考虑关系型数据库(经典例子银行转账)。 mongo提供了许多原子操作,比如文档的保存,修改,删除等,都是原子操作。所谓原子操作就是要么这个文档保存到mongodb,要么没有保存到mongodb,不会出现查询到的文档不完整的情况。
mgo 是 mongodb 的 GO 语言驱动包。 mgo官网:http://labix.org/mgo
mgo使用
mgo方案一
-
-
-
-
-
-
-
-
-
-
-
var database *mgo.Database
-
-
-
-
-
-
-
-
filename := flag.String("config", "./conf/config.json", "Path to configuration file")
-
-
config := &conf.ConfigurationDatabase{}
-
-
-
-
dialInfo := &mgo.DialInfo{
-
Addrs: []string{config.Hosts},
-
-
Timeout: time.Second * 1,
-
-
-
session, err = mgo.DialWithInfo(dialInfo)
-
-
-
-
-
session.SetMode(mgo.Monotonic, true)
-
-
database = session.DB(config.Database)
-
-
-
-
func GetMgo() *mgo.Session {
-
-
-
-
func GetDataBase() *mgo.Database {
-
-
-
-
func GetErrNotFound() error {
-
-
-
这里的 session 能够和 mongodb 集群中的所有Server通讯。
session设置的模式分别为:
- Strong
session 的读写一直向主服务器发起并使用一个唯一的连接,因此所有的读写操作完全的一致。
- Monotonic
session 的读操作开始是向其他服务器发起(且通过一个唯一的连接),只要出现了一次写操作,session 的连接就会切换至主服务器。由此可见此模式下,能够分散一些读操作到其他服务器,但是读操作不一定能够获得最新的数据。
- Eventual
session 的读操作会向任意的其他服务器发起,多次读操作并不一定使用相同的连接,也就是读操作不一定有序。session 的写操作总是向主服务器发起,但是可能使用不同的连接,也就是写操作也不一定有序。
-
-
-
ID bson.ObjectId `bson:"_id"`
-
UserName string `bson:"username"`
-
Summary string `bson:"summary"`
-
-
-
PassWord string `bson:"password"`
-
-
Name string `bson:"name"`
-
Email string `bson:"email"`
-
-
-
func Register(password string, username string) (err error) {
-
con := mgo.GetDataBase().C("user")
-
-
-
-
-
err = con.Insert(&User{ID: bson.NewObjectId(), UserName: username, PassWord: password})
-
-
-
-
func FindUser(username string) (User, error) {
-
-
con := mgo.GetDataBase().C("user")
-
-
-
-
-
if err := con.Find(bson.M{"username": username}).One(&user); err != nil {
-
if err.Error() != mgo.GetErrNotFound().Error() {
-
-
-
-
-
-
-
-
通过find()可以进行单个或者全部的查询,并且可以进行分页处理。下面为简单代码展示:
con.Find(nil).Limit(5).Skip(0).All(&user)
-
-
-
-
-
-
-
-
-
-
Uid bson.ObjectId `bson:"uid"`
-
ID bson.ObjectId `bson:"_id"`
-
CreatTime time.Time `bson:"creattime"`
-
UpdateTime time.Time `bson:"updatetime"`
-
Title string `bson:"title"`
-
Content string `bson:"content"`
-
-
Pic []string `bson:'pic'`
-
-
-
-
func FindDiary(uid string) ([]interface{}, error) {
-
con := mgo.GetDataBase().C("diary")
-
-
-
-
-
-
-
-
bson.M{"$match": bson.M{"uid": bson.ObjectIdHex(uid)}},
-
bson.M{"$lookup": bson.M{"from": "user", "localField": "uid", "foreignField": "_id", "as": "user"}},
-
bson.M{"$project": bson.M{"user.name": 1, "title": 1, "content": 1, "mood": 1, "creattime": 1}},
-
-
pipe := con.Pipe(pipeline)
-
-
-
-
-
-
-
-
-
-
func ModifyDiary(id, title, content string) (err error) {
-
con := mgo.GetDataBase().C("diary")
-
-
-
-
-
-
err = con.Update(bson.M{"_id": id}, bson.M{"$set": bson.M{"title": title, "content": content, "updatetime": time.Now().Add(8 * time.Hour)}})
-
-
-
-
-
-
mgo更新方法很多,如批量更新con.UpdateAll(selector, update) ,更新或插入数据con.Upsert(selector, update) 。
mgo方案二
思考: session 会被全局使用,当在实际的程序中,我们可以开启goroutine 来处理每个连接,多个goroutine 可以通过 session.Clone() 来创建或复用连接,使用完成之后通过 session.Close() 来关闭这个连接。当并发很高时,看起来可以提高效率。
下面部分代码修改 :
-
-
-
-
-
-
-
-
-
var config *conf.ConfigurationDatabase
-
-
-
filename := flag.String("config", "./conf/config.json", "Path to configuration file")
-
-
-
config = &conf.ConfigurationDatabase{}
-
-
-
-
dialInfo := &mgo.DialInfo{
-
Addrs: []string{config.Hosts},
-
-
Timeout: time.Second * 1,
-
-
-
session, err = mgo.DialWithInfo(dialInfo)
-
-
-
-
-
session.SetMode(mgo.Monotonic, true)
-
-
-
-
-
-
type SessionStore struct {
-
-
-
-
-
func (d * SessionStore) C(name string) *mgo.Collection {
-
return d.session.DB(config.Database).C(name)
-
-
-
-
func New SessionStore() * SessionStore {
-
-
-
-
-
-
-
func (d * SessionStore) Close() {
-
-
-
-
func GetErrNotFound() error {
-
-
-
对查找进行了修改
-
func FindUser(username string) (User, error) {
-
-
ds := mgo.NewSessionStore()
-
-
-
if err := con.Find(bson.M{"username": username}).One(&user); err != nil {
-
if err.Error() != mgo.GetErrNotFound().Error() {
-
-
-
-
-
-
-
-
mgo方案一和二测试: 使用boom进行并发测试,并在每个 goroutine 里面sleep 5秒,这样是让连接暂时不释放,就可以看到 mgo 方案二 会不断创建新连接,方案一不会创建新连接。可以使用mongo shell 的db.serverStatus().connections来查看连接数。
mgo方案一测试连接数: 1000 并发:mongo 3个连接 5000 并发:mongo 3个连接。
mgo方案二测试连接数: 1000 并发:mongo 500多个连接 5000 并发:mongo 1400多个连接。
提示: mgo 默认连接池是 4096,在高并发下,如果每个 session都不调用 close(),会导致连接数会很快就达到 4096,并堵死其他请求,所以在使用clone() 或 copy()时 session 时一定要使用 defer close() 把连接关闭。启用 maxPoolLimit 参数会限制总连接大小,当连接超过限制总数当前协程 等待,直到可以创建连接。
测试结果:mgo方案一和方案二在并发下,效率差不多。
可能性,由于数据少或者处理的单个mongo无法看出效果。 由于目前自己项目只使用了一个mongo,后期使用多个mongo进行或在大量数据下测试。如果大家有什么好的建议,提出来进行学习思考。 推荐学习: http://goinbigdata.com/how-to-build-microservice-with-mongodb-in-golang/ 官方博客详讲了mgo并发处理,如下: https://www.mongodb.com/blog/post/running-mongodb-queries-concurrently-with-go
|
请发表评论