php如何跨站抓取别的站点的页面的补充

在实际的应用中,经常会遇到一些特殊的情况,比如需要新闻,天气预报,等等,但是作为个人站点或者实力小的站点
我们不可能有那么多的人力 物力 财力去做这些事情,怎么办呢? 好在互联网是
资源共享的,我们可以利用程序
自动的把别的站点的页面抓取回来经过处理后被我们所利用。
用什么呢,那个战友给的是不行的,其实在Php有这个功能,那就是用curl库。请看下面的代码!
?php$ch = curl_init ();$fp = fopen (php_homepage.txt, w);curl_setopt
($ch, CURLOPT_FILE, $fp);curl_setopt ($ch, CURLOPT_澳门新葡亰手机版,HEADER,
0);curl_exec ($ch);curl_close ($ch);fclose ($fp);?
但有时会出现一些错误,但实际上已经下载完了!我问了老外,他们没有给我一个答复,我想实在不行,就在函数前面加个◎;这样我们只要对$txt进行适当的分析后,我们就可以偷偷的抓取sina的新闻!不过,还是不用的为好!以免发生法律纠纷,这里只是想告诉你Php的功能非常的强大!你可以做许多事情!