本文实例讲述了php使用fputcsv实现大数据的导出操作。分享给大家供大家参考,具体如下:
为了实验大数据的导出,我们这里先自已创建一张大表,表结构如下:
CREATE TABLE `tb_users` ( `id` int(11) unsigned NOT NULL AUTO_INCREMENT COMMENT '用户ID', `name` varchar(32) DEFAULT '' COMMENT '用户名', `age` tinyint(3) DEFAULT '0' COMMENT '用户年龄', `desc` varchar(255) DEFAULT '' COMMENT '用户描述', `phone` varchar(11) DEFAULT '' COMMENT '用户手机', `qq` varchar(16) DEFAULT '' COMMENT '用户QQ', `email` varchar(64) DEFAULT '' COMMENT '用户邮箱', `addr` varchar(255) DEFAULT '' COMMENT '用户地址', PRIMARY KEY (`id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
然后写个php脚本往这个表插入数据,代码如下:
<"(NULL, '{$name}', $age, '{$desc}', '{$phone}', '{$qq}', '{$email}', '{$addr}'),"; } $insSql = rtrim($insSql, ','); $db->query($insSql); } $end = microtime(true); echo '用时:', $end - $begin; $db->close();
里面用到的TP3.2的String类大家自行上TP官网下载。整个用时2个多小时,最后数据大小662M。
现在我们用php提供的fputcsv来导出这一百万的数据,原理就是打开一个标准输出流,然后把数据按一万条来分割,每一万条就刷新缓冲区。
<"' . $fileName . '.csv"'); $begin = microtime(true); //打开php标准输出流 //以写入追加的方式打开 $fp = fopen('php://output', 'a'); $db = new mysqli('127.0.0.1', 'root', '', 'test'); if($db->connect_error) { die('connect error'); } //我们试着用fputcsv从数据库中导出1百万的数据 //我们每次取1万条数据,分100步来执行 //如果线上环境无法支持一次性读取1万条数据,可把$nums调小,$step相应增大。 $step = 100; $nums = 10000; //设置标题 $title = array('ID', '用户名', '用户年龄', '用户描述', '用户手机', '用户QQ', '用户邮箱', '用户地址'); foreach($title as $key => $item) { $title[$key] = iconv('UTF-8', 'GBK', $item); } //将标题写到标准输出中 fputcsv($fp, $title); for($s = 1; $s <= $step; ++$s) { $start = ($s - 1) * $nums; $result = $db->query("SELECT * FROM tb_users ORDER BY id LIMIT {$start},{$nums}"); if($result) { while($row = $result->fetch_assoc()) { foreach($row as $key => $item) { //这里必须转码,不然会乱码 $row[$key] = iconv('UTF-8', 'GBK', $item); } fputcsv($fp, $row); } $result->free(); //每1万条数据就刷新缓冲区 ob_flush(); flush(); } } $end = microtime(true); echo '用时:', $end - $begin;
整个过程用时5分钟,最终生成的csv文件大小420M。
对于如何用phpexcel导出大数据,并没有什么比较好的方案,phpexcel提供的一些缓存方法,数据压缩,虽然内存使用小了,但所用时间则加长了,时间换空间,显然并不是最好的方案。比较靠谱的方法还是生成多个下载链接地址,把你要下载的数据,以get形式传递当前页数,后台进行数据分页然后导出。
<a href="/downSearchData.php" rel="external nofollow" >下载汇总结果1</a> <a href="/downSearchData.php" rel="external nofollow" >下载汇总结果2</a> <a href="/downSearchData.php" rel="external nofollow" >下载汇总结果3</a>
比如你有一个查询数据表单,ID为searchFrm,然后你想把导出数据按1万条分割(phpexcel一次导出1万条是没有问题的,效率还行)
<form id="searchFrm"> 姓名<input type="text" name="uname"> <input type="button" id="searchDataBtn" value="导出汇总结果"> </form> <div id="searchDataList"></div> <script type="script"> $("#searchDataBtn").on("click", function() { var params = $("#searchFrm").serialize(); //获取查询数据的条数 $.get("/getSearchDataRows" + params, function(data) { var downDataList = ""; if(data["rows"]) { //rows是数据总条数,pageSize是一页多少条 var pageNum = Math.ceil(data["rows"] / data["pageSize"]); for(var i = 1; i <= pageNum; ++i) { downDataList += "<a href='/downSearchData.php" + params + "&page=" + i + ">下载汇总结果" + i + "</a> "; } $("#searchDataList").html(downDataList); } else { $("#searchDataList").text("没有数据"); } }, "json"); return false; }); </script>
更多关于PHP相关内容感兴趣的读者可查看本站专题:《php+mysql数据库操作入门教程》、《php+redis数据库程序设计技巧总结》、《php面向对象程序设计入门教程》及《php常见数据库操作技巧汇总》
希望本文所述对大家PHP程序设计有所帮助。
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
暂无评论...
更新日志
2024年11月29日
2024年11月29日
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]