ubuntu下file_get_contents返回空字符串
ubuntu下file_get_contents返回空字符串
-
- |
- 浏览:302
- |
- 更新:2014-03-30 10:11
本文起初面临的问题是PHP中SoapClient不好使,最后file_get_contents返回空字符串,通过解决这个问题,来解决SoapClient不好使的问题
方法/步骤
-
最近PHP代码中在执行到
$soapclient = new SoapClient(‘http://sdk.entinfo.cn:8060/webservice.asmx?WSDL‘);
这条语句会抛出异常:
Fatal error: Uncaught SoapFault exception: [WSDL] SOAP-ERROR: Parsing WSDL: Couldn‘t load from ‘http://sdk.entinfo.cn:8060/webservice.asmx?WSDL‘ : Start tag expected, ‘<‘ not found in /ROOT/www/test.php:2 Stack trace
-
首先查看PHP是否安装了Soap扩展。查看phpinfo,可知安装了Soap扩展
-
根据异常的情况 判断,意思大概是连文档的Start tag没有读到,
1) 在浏览器中直接访问,发现是可以的,
2) curl也是可以的
-
1)于是用 file_get_contents(),获取内容,发现返回的是个空字符串。
2) 于是检查 php.ini 中的 allow_url_open, 发现也是开这的
3)遂进行如下测试:
$file = fopen(‘http://www.example.com/‘, ‘rb‘); var_dump(stream_get_meta_data($file));
-
/* 输出结果: array(10) {
["wrapper_data"]=> array(2) {
["headers"]=> array(0) { }
["readbuf"]=> resource(38) of type (stream)
}
["wrapper_type"]=> string(4) "cURL"
["stream_type"]=> string(4) "cURL"
["mode"]=> string(2) "rb"
["unread_bytes"]=> int(0)
["seekable"]=> bool(false)
["uri"]=> string(23) "http://www.example.com/"
["timed_out"]=> bool(false)
["blocked"]=> bool(true)
["eof"]=> bool(false) }
*/
-
输出的结果中,
wrapper_type为cURL,而且wrapper_data为空,这是不正常的,
正常情况下wrapper_type应为 http,wrapper_data数组中应该包含响应头信息。
发现这个现象与--with-curlwrappers这个编译选项有 关,遂查看PHP编译参数:
$ php -i | grep configure
-
Configure Command => ‘./configure‘ ‘--prefix=/usr/local/php‘ ‘--with-config-file-path=/usr/local/php/etc‘ ‘--with-mysql=/usr/local/mysql‘ ‘--with-mysqli=/usr/local/mysql/bin/mysql_config‘ ‘--with-iconv-dir=/usr/local‘ ‘--with-zlib‘ ‘--with-libxml-dir=/usr‘ ‘--enable-xml‘ ‘--enable-bcmath‘ ‘--enable-shmop‘ ‘--enable-sysvsem‘ ‘--enable-inline-optimization‘ ‘--with-curl‘ ‘--with-curlwrappers‘ ‘--enable-mbregex‘ ‘--enable-fpm‘ ‘--enable-mbstring‘ ‘--with-mcrypt‘ ‘--with-openssl‘ ‘--with-mhash‘ ‘--enable-pcntl‘ ‘--enable-sockets‘ ‘--with-xmlrpc‘ ‘--enable-zip‘ ‘--enable-soap‘ ‘--enable-bcmath‘
-
--with-curlwrappers被启用了,问题应该出在这里,查看一下这个编译选项的用处:
$ ./configure --help | grep curlwrappers
--with-curlwrappers EXPERIMENTAL: Use cURL for url streams
看来--with-curlwrappers这个编译选项是用来处理url stream的,不过前面有个硕大的EXPERIMENTAL字样,还在试验中。 现有的解决方法是重新编译PHP,去掉「--with-curlwrappers」:
-
1) $ cd /path/to/php-5.3.6 (切换到php安装目录)
2) $ make clean (一定要make clean)
3) $ ./configure --prefix=/usr/local/php --with-config-file-path=/usr/local/php/etc --with-mysql=/usr/local/mysql --with-mysqli=/usr/local/mysql/bin/mysql_config --with-iconv-dir=/usr/local --with-zlib --with-libxml-dir=/usr --enable-xml --enable-bcmath --enable-shmop --enable-sysvsem --enable-inline-optimization --with-curl --enable-mbregex --enable-fpm --enable-mbstring --with-mcrypt --with-openssl --with-mhash --enable-pcntl --enable-sockets --with-xmlrpc --enable-zip --enable-soap --enable-bcmath -with-gd --with-jpeg-dir=/usr --with-png-dir=/usr --enable-gd-native-ttf
4) $ make && make install
5) $ cd /usr/local/php/bin # 删除旧的PHP binary文件,并用新的进行替换,Mac下重新编译后会产生php.dSYM文件,其他Linux系统请自行处理 $ rm php && mv php.dSYM php
6) 重启 php -
完成后,再做个测试:
$file = fopen(‘http://www.example.com/‘, ‘rb‘); var_dump(stream_get_meta_data($file));
/* 结果如下:
array(10) {
["wrapper_data"]=> array(12) {
[0]=> string(18) "HTTP/1.0 302 Found"
[1]=> string(46) "Location: http://www.iana.org/domains/example/"
[2]=> string(13) "Server: BigIP"
[3]=> string(17) "Connection: close"
[4]=> string(17) "Content-Length: 0"
[5]=> string(15) "HTTP/1.1 200 OK"
[6]=> string(35) "Date: Sun, 18 Mar 2012 06:12:27 GMT"
[7]=> string(29) "Server: Apache/2.2.3 (CentOS)"
[8]=> string(44) "Last-Modified: Wed, 09 Feb 2011 17:13:15 GMT"
[9]=> string(21) "Vary: Accept-Encoding"
[10]=> string(17) "Connection: close"
[11]=> string(38) "Content-Type: text/html; charset=UTF-8"
}
["wrapper_type"]=> string(4) "http"
["stream_type"]=> string(14) "tcp_socket/ssl"
["mode"]=> string(2) "rb"
["unread_bytes"]=> int(1225)
["seekable"]=> bool(false)
["uri"]=> string(23) "http://www.example.com/"
["timed_out"]=> bool(false)
["blocked"]=> bool(true)
["eof"]=> bool(false) } */
-
wrapper_type变成了http,wrapper_data也被填充了,一切恢复正常。
所以一条结论:慎用--with-curlwrappers
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。