Mysql - 多张千万级统计数据实践笔记(PHP Script)-每日快播
概述
项目场景是给做用户年报,项目属于活动类型,需要维持1个月左右,需要统计用户操作的一些数据,主要是统计方面的,当时注册用户大概280w左右,书单、评论、打赏还可以,之前的数据做过分表,只有阅读记录log大概将近1亿条,是个大难点。
技术方案
1.全量查询,减少链接断开次数,使用PHP处理,性能更高
一次性取出1000条数据,还是一次处理100? 答案是取1000条,如果服务器的内存允许,一次可以取更多条,应该尽量避免mysql进程中连接和断开的消耗,性能提高的非常明显,17w测试数据,从8条/秒 提升到 140条/秒!
把数据量偏小的取出,做map映射,以提高最大的性能,再使用的地方用key拼接使用。
【资料图】
Array( [67] => 还阳 [69] => 做媒 [70] => 共业招感 [71] => 流心彩虹糖 [72] => 雪中燃灯 [73] => 王座 [74] => 不言而喻 [75] => 王以君倾 [76] => 踏雪寻泥 [77] => 有匪君子)
2. 获取Mysql中最小的数据,主要统计用户行为,所以对用户分组
SELECT `user_id` ,`novel_id` ,`chapter_id` ,MIN(DATETIME) AS `datetime`FROM `wm_novel_reward`WHERE `user_id` BETWEEN 1AND 1006GROUP BY user_id`
出于对安全的考虑,当mysql是字符串的时候,需要对字符串进行转义,保证sql语句的正常操作。
#面向对象风格mysqli::real_escape_string ( string $escapestr ) : string#过程化风格mysqli_real_escape_string ( mysqli $link , string $escapestr ) : string
3.UNION ALL 处理分表业务
对于操作频次较高的业务场景中,分表的情况比较多,使用UNION ALL进行优化处理。
$commentMostSqlArr = [];for ($i = 0; $i < 128; $i ++) { $table = "cp_comment_msg_uid_".$i; $commentMostSqlArr[] = "SELECT `uid`,`nid` ,`module_name` ,`aid` , `author_name` ,count(module_id) AS count_comment_number FROM {$table} Where `uid` BETWEEN {$minUid} AND {$maxUid} AND `gift_id` = 0 AND `create_time` > {$total_start_time} AND `create_time` <= {$total_end_time} Group by nid, uid ";}$commentMostSql = "SELECT * FROM (" . implode(" UNION ALL ", $commentMostSqlArr) . ") t";
4.避免出现重复数据
1.数据重复有两个方面,一个是PHP数组数据的重复,一个是Insert
语句重复,这样解决的:
PHP数据重复使用array_unique( $array )
,注意键名保留不变,array_unique() 先将值作为字符串排序,然后对每个值只保留第一个遇到的键名,接着忽略所有后面的键名。这并不意味着在未排序的 array 中同一个值的第一个出现的键名会被保留。
2.mysql层面使用sql语句去重,使用 INSERT IGNORE INTO
去重:
INSERT IGNORE INTO 与 INSERT INTO 的区别就是 INSERT IGNORE INTO 会忽略数据库中已经存在的数据,如果数据库没有数据,就插入新的数据,如果有数据的话就跳过这条数据。这样就可以保留数据库中已经存在数据,达到在间隙中插入数据的目的。
以下实例使用了 INSERT IGNORE INTO,执行后不会出错,也不会向数据表中插入重复数据,而 REPLACE INTO 如果存在 primary 或 unique相同的记录,则先删除掉。再插入新记录,再性能上会慢一些。
INSERT IGNORE INTO person_tbl (last_name, first_name) VALUES( "Jay", "Thomas");
5.insert批量添加操作
INSERT INTO
可以拼接一次插入数据库,比单条插入的性能要快很多,尤其是多条的时候,也有一个小缺点,当其中一个字段有问题时整条语句一起失败。
INSERT INTO `annual_report_2020`(`user_id` ,`user_regtime` ,)VALUES ( 2 ,1500341346 ) , ( 5 ,1502195321 ) , ( 6 ,1502242604 )
6.系统配置参数上的优化
1.memory_limit设置脚本内存
memory_limit
的值是越大越好么?当然不是,memory_limit
主要是为了防止程序 bug, 或者死循环占用大量的内存,导致系统宕机。在引入大量三方插件,或者代码时,进行内存限制就非常有必要了。
memory_limit
会使每个 PHP process 都占用固定的内存?memory_limit 只是限制了每个 PHP进程的内存占用上限,而不是为每个进程分配了固定的内存。所以,并不会因为 memory_limit 设置越大,导致并发数出现降低。
2.set_time_limit设置脚本执行时间
在php中set_time_limit函数是用来限制页面执行时间的,如我想把一个php页面的执行时间定义为5秒
就可以set_time_limit(5)了,规定从该句运行时起程序必须在指定秒数内行结束,0代表不限制。
set_time_limit(0);ini_set("memory_limit", "1024M");
7.关于内存的说明
很多时候我们都在说内存,其实内存的概念很笼统,内存分为CPU上的缓存(catch)和内存条上的内存(Memory),平时说的服务器8G内存指的是内存条上的内存。Cpu已经从Lmp总线型,升级成NUMP的方式,Nginx就是利用NUMP很好的例子。
其实有一个问题特别迷惑,Mysql数据库里的数据就是以特殊结构存储(B-tree)的文件,Redis中的数据也是用(list、hash)结构存储的数据,存储上没有什么太大的不同,只是有快慢的区别。
而高性能就是尽最大的程度上利用Cpu和内存,提高吞吐量,词很贴切。
至此
后来在正式环境执行的时候,我们还是遇到了别的问题,等我有时间再整理,不要打断这一篇博客主题,我们下一篇见,谢谢您的阅读。