在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
转自:http://mp.weixin.qq.com/s?__biz=MzAxMTMxMDQ3Mw==&mid=2660099725&idx=1&sn=645adc8b7914d80179c41a726151c423&chksm=803a426bb74dcb7d371cf02481b4d3cf434be9ff73656e19022e44ddcd994a91d22236418b48&mpshare=1&scene=23&srcid=1129FQ3BKbbDF2tOcb0I0jY6#rd
点击上方蓝字,可快速关注我们)
前提 由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。 主要开发语言是C#,数据库使用的是MySQL。 最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。 简而言之就 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能 最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化?? (数据库的一览,有图有真相) 第一步 解决读取的问题 跟数据库打交道的方式有很多,我来列举下吧: 1. 【重武器-坦克大炮】使用重型ORM框架,比如EF,NHibernat 这样的框架。 2. 【轻武器-AK47】 使用Dapper,PetaPoco之类,单cs文件。灵活高效,使用简单。居家越货必备(我更喜欢PetaPoco :)) 3. 【冷兵器?匕首?】使用原生的Connection、Command。 然后写原生的SQL语句。。 分析: 【重武器】在我们这里肯定直接被PASS, 他们应该被用在大型项目中。 【轻武器】Dapper,PetaPoco 看过源码你会发现用到了反射,虽然使用IL和缓存技术,但是还是会影响读取效率,PASS 好吧那就只有使用匕首,原生SQL走起, 利用DataReader 进行高效读取,并且使用索引取数据(更快),而不是列名。 大概的代码如下:
哈哈,怎么样,代码非常原始,还是使用索引来取数据,很容易出错。 当然一切为了性能咱都忍了 第二步 数据处理 其实这一步,根据你的业务需要,代码肯定不一, 不过无非是一些字符串处理,类型转换的操作,这时候就是考验你的C#基础功底的时候了。 以及如何高效编写正则表达式。。。 具体代码也没法写啊 ,先看完CLR via C# 在来跟我讨论吧 ,O(∩_∩)O哈哈哈~ 跳过。。。。 第三部 数据插入 如何批量插入才最高效呢? 有同学会说, 使用事务啊,BeginTransaction, 然后EndTransaction。 恩,这个的确可以提高插入效率。 但是还有更加高效的方法,那就是合并insert语句。 那么怎么合并呢?
就是把values后面的全部用逗号,链接起来,然后一次性执行 。 当然不能一次性提交个100MB的SQL执行,MySQL服务器对每次执行命令的长度是有限制的。 通过 MySQL服务器端的max_allowed_packet 属性可以查看, 默认是1MB 咱们来看看伪代码吧
好了,到这里 大概的优化后的高效查询、插入就完成了。 结语 总结下来,无非2个关键技术点,DataReader、SQL合并,都是一些老的技术啦。 其实,上面的代码只能称得上 高效 , 但是, 却非常的不优雅。 关注「DotNet」 看更多精选 .Net 技术文章 |
2023-10-27
2022-08-15
2022-08-17
2022-09-23
2022-08-13
请发表评论