在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
模拟场景一: 给数据库中的一张表的结构调整,添加几个字段,后面对之前的数据进行刷新,刷新的内容是对其中的一个已有字段url进行匹配,然后更新新加的字段type和typeid。 后来就写了个shell脚本来刷数据,结果运行shell脚本后我就懵了,怎么这么慢~~~ 情景再现 复制代码 代码如下: CREATE TABLE `fuckSpeed` ( `uin` bigint(20) unsigned NOT NULL DEFAULT 0, `id` int(11) unsigned NOT NULL DEFAULT 0, `url` varchar(255) NOT NULL DEFAULT '', `type` int(11) unsigned NOT NULL DEFAULT 0, `typeid` varchar(64) NOT NULL DEFAULT '', ...... KEY `uin_id` (`uin`,`id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; 表结构大概是上面这样的(省略了好多字段),表中只有一个联合索引uin_id,而我在更新的时候是下面的思路: 首先根据一个id范围获取到一定数量的数据 复制代码 代码如下: select id,url from funkSpeed where id>=101 and id<=200; 遍历所有的数据,对每一条数据进行更新 #首先对数据进行处理,匹配获取type和typeid 复制代码 代码如下: update fuckSpeed set type=[type],typeid=[typeid] where id=[id] 按照上面的思路搞了之后,发现更新特别的慢,平均每秒钟3~5个左右,我也是醉了,我看看要更新的数据,总共有32w+条,这样更新下来大概需要24h+,也就是1天还要多,额~~哭了,想想肯定是哪里出问题了。 发现问题 复制代码 代码如下: ./update_url.sh 0 10000 & ./update_url.sh 10000 20001 & ./update_url.sh 20001 30001 & ./update_url.sh 30002 40002 & ./update_url.sh 40003 50003 & 运行之后发现还是那样,速度没有提升多少,还是每秒钟更新3~5个左右,想想也是啊,时间不可能花费在插入数据之前的那些步骤(匹配、组装sql语句、。。。),应该是插入的时候有问题 再来看看我的sql语句 复制代码 代码如下: select id,url from funkSpeed where id>=101 and id<=200;, 这里,试着在命令行执行了下,结果如下 复制代码 代码如下: mysql> select id,url from funkSpeed where id>=0 and id<=200; Empty set (0.18 sec) 竟然花了0.18秒,这个时候我猜恍然大悟,联合索引我没有使用到,联合索引生效的条件是——必须要有左边的字段,用explain验证下,果然是这样: 复制代码 代码如下: mysql> explain id,url from funkSpeed where id>=0 and id<=200; +-------------+------+---------------+------+---------+------+--------+-------------+ | table | type | possible_keys | key | key_len | ref | rows | Extra | +-------------+------+---------------+------+---------+------+--------+-------------+ | funkSpeed | ALL | NULL | NULL | NULL | NULL | 324746 | Using where | +-------------+------+---------------+------+---------+------+--------+-------------+ 1 row in set (0.00 sec) 然后使用联合索引: 复制代码 代码如下: mysql> select uin,id from funkSpeed where uin=10023 and id=162; +------------+----------+ | uin | id | +------------+----------+ | 10023 | 162 | +------------+----------+ 1 row in set (0.00 sec) mysql> explain select uin,id from funkSpeed where uin=10023 and id=162; +-------------+------+---------------+----------+---------+-------------+------+-------------+ | table | type | possible_keys | key | key_len | ref | rows | Extra | +-------------+------+---------------+----------+---------+-------------+------+-------------+ | funkSpeed | ref | uin_id | uin_id | 12 | const,const | 4 | Using index | +-------------+------+---------------+----------+---------+-------------+------+-------------+ 1 row in set (0.00 sec) 可以看到几乎是秒查,这个时候基本可以断定问题是出现在索引这个地方了 我select的时候次数比较少,每两个select之间id相差10000,所以这里可以忽略掉,而且这里没办法优化,除非在id上面添加索引。 问题发生在 复制代码 代码如下: update fuckSpeed set type=[type],typeid=[typeid] where id=[id] 这里在更新的时候也是会用到查询的,我的mysql版本是5.5,不能explain update,不然肯定可以验证我所说的,这里要更新32w+条数据,每条数据都会去更新,每条数据0.2s左右,这太吓人了~~ 解决问题 select的时候加了一个字段uin,改为下面这样 复制代码 代码如下: select uin,id,url from funkSpeed where id>=101 and id<=200; 然后更新的时候使用 复制代码 代码如下: update fuckSpeed set type=[type],typeid=[typeid] where uin=[uin] id=[id] 这样一来索引就是用上了。 三下五除二改好了代码,试着启动了一个进程,看看效果如何,果然,效果提升的不是一点点,平均30+次/s,这样大概3个小时左右就可以完成所有的更新了。 模拟场景二: 问题sql背景:项目有6个表的要根据pid字段要写入对应的brand_id字段。但是这个其中有两个表是千万级别的。我的worker运行之后,线上的mysql主从同步立刻延迟了!运行了一个多小时之后,居然延迟到了40分钟,而且只更新了十几万行数据。问题sql如下: 复制代码 代码如下: <!-- 根据商品id更新品牌id --> <update id="updateBrandIdByPid" parameterClass="com.jd.chat.worker.domain.param.UpdateBrandIdParam"> UPDATE $tableName$ SET brand_id = #newBrandId# WHERE pid = #pid# AND brand_id = 0 </update> 项目组的mysql专家帮我分析了下,因为pid字段没有索引,mysql引擎要逐行扫描出与传入的pid值相等的列,然后更新数据,也就是要扫描完1000W+行磁盘数据才能执行完这个sql。更严重的是,这个千万级的表里面有多少个不同的pid,我就要执行多少个这样的sql。 复制代码 代码如下: <!-- 根据商品id更新品牌id --> <update id="updateBrandIdByPid" parameterClass="com.jd.chat.worker.domain.param.UpdateBrandIdParam"> UPDATE $tableName$ SET brand_id = #newBrandId# WHERE pid = #pid# AND brand_id = 0 AND id BETWEEN #startNum# AND #endNum# </update> 仅仅用了id限区间的语句,将一个千万级的大表代码层次上进行纵向切割。重新上线worker后,mysql主从没有任何延迟!而且经过监视,短短10分钟就更新了十几万数据,效率是之前的6倍!更重要的是数据库负载均衡,应用健康运行。 以上通过两个问题模拟场景再现分析MySql更新优化策略,希望对大家在数据库方面有所帮助。 |
请发表评论