PHP下载远程文件的3种方法以及性能考虑
今天在做导出Excel的时候,总是要测试导出的Excel文件,频繁的下载和打开,很麻烦
就想着写段代码一气呵成 服务端导出Excel==>下载Excel文件到本地==>并打开的操作。
这里摘出PHP下载远端文件的方案,以备忘。其中第3种方法考虑到文件过大时的性能问题。
原创文章,转载请注明 http://www.cnblogs.com/phpgcs/
3种方案:
-rw-rw-r-- 1 liuyuan liuyuan 470 Feb 20 18:12 test1_fopen.php
-rw-rw-r-- 1
liuyuan liuyuan 541 Feb 20 18:06 test2_curl.php
-rw-rw-r-- 1 liuyuan liuyuan
547 Feb 20 18:12 test3_curl_better.php
方案1,适用于小文件
直接使用fopen()/file_get_contents()获取文件流并用file_put_contents()写入
1
2
3
4
5
6
7
8
9 |
<?php //an example xls file form baidu wenku $fp_input
= fopen ( $url , ‘r‘ ); file_put_contents ( ‘./test.xls‘ , $fp_input ); exec ( "libreoffice ./test.xls" , $out , $status ); ?> |
方案2:通过Curl获取内容
1
2
3
4
5
6
7
8
9
10
11 |
<?php //an example xls file form baidu wenku $ch
= curl_init( $url ); curl_setopt( $ch , CURLOPT_RETURNTRANSFER, true); file_put_contents ( ‘./test.xls‘ , curl_exec( $ch )); curl_close( $ch ); exec ( "libreoffice ./test.xls" , $out , $status ); ?> |
第1,2种方案存在一个问题,就是在写入本地磁盘之前,文件会被读入内存中,那么当文件很大的时候,可能会超出内存而崩溃
即使你的内存设置的足够的大,那这也是不别要的开销
解决方法是:直接给CURL一个可写的文件流来让它自己来解决这个问题(通过 CURLOPT_FILE选项),这样就要先创建一个文件指针给它。
原创文章,转载请注明 http://www.cnblogs.com/phpgcs/
1
2
3
4
5
6
7
8
9
10
11
12 |
<?php //an example xls file form baidu wenku $fp_output
= fopen ( ‘./test.xls‘ , ‘w‘ ); $ch
= curl_init( $url ); curl_setopt( $ch , CURLOPT_FILE, $fp_output ); curl_exec( $ch ); curl_close( $ch ); exec ( "libreoffice ./test.xls" , $out , $status ); ?> |
参考文章:
http://stackoverflow.com/questions/3938534/download-file-to-server-from-url
http://www.phpriot.com/articles/download-with-curl-and-php
扩展阅读
PHP获取远程文件的大小的3种方法
http://wk.yl1001.com/doc_9631373592501870_all.htm
支持断点续传功能
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。