用了两天php的Snoopy这个类,发现很好用。获取请求网页里面的所有链接,直接使用fetchlinks就可以,获取所有文本信息使用fetchtext(其内部还是使用正则表达式在进行处理),还有其它较多的功能,如模拟提交表单等。


使用方法:

先下载Snoopy类,下载地址:http://sourceforge.net/projects/snoopy/
先实例化一个对象,然后调用相应的方法即可获取抓取的网页信息

复制代码 代码如下:
include 'snoopy/Snoopy.class.php';
   
$snoopy = new Snoopy();
   
$sourceURL = "https://www.jb51.net";
$snoopy->fetchlinks($sourceURL);
   
$a = $snoopy->results;

它并没有提供获取网页中所有图片地址的方法,自己有个需求是要获取一个页面中所有文章列表中图片地址。然后自己就写了一个,主要还是正则那里匹配重要。
复制代码 代码如下:
//匹配图片的正则表达式
 $reTag = "/<img[^s]+src="/UploadFiles/2021-04-02/[^">


因为需求比较特殊,只需要抓取写死htp://开头的图片(外站的图片可能使得了防盗链,想先抓取到本地)

1.抓取指定网页,并筛选出预期的所有文章地址;

2.循环抓取第一步中的文章地址,然后使用匹配图片的正则表达式进行匹配,获取页面中所有符合规则的图片地址;

3.根据图片后缀和ID(这里只有gif、jpg)保存图片---如果此图片文件存在,先将其删除再保存。

复制代码 代码如下:
<meta http-equiv='content-type' content='text/html;charset=utf-8'>
<"http://xxxxx";
    $snoopy->fetchlinks($sourceURL);
   
    $a = $snoopy->results;
    $re = "/d+.html$/";
   
    //过滤获取指定的文件地址请求
    foreach ($a as $tmp) {
        if (preg_match($re, $tmp)) {
            getImgURL($tmp);
        }
    }
   
    function getImgURL($siteName) {
        $snoopy = new Snoopy();
        $snoopy->fetch($siteName);
       
        $fileContent = $snoopy->results;
       
        //匹配图片的正则表达式
        $reTag = "/<img[^s]+src="/UploadFiles/2021-04-02/[^">        
        if (preg_match($reTag, $fileContent)) {
            $ret = preg_match_all($reTag, $fileContent, $matchResult);
           
            for ($i = 0, $len = count($matchResult[1]); $i < $len; ++$i) {
                saveImgURL($matchResult[1][$i], $matchResult[2][$i]);
            }
        }
    }
   
    function saveImgURL($name, $suffix) {
        $url = $name.".".$suffix;
       
        echo "请求的图片地址:".$url."<br/>";
       
        $imgSavePath = "E:/xxx/style/images/";
        $imgId = preg_replace("/^.+/(d+)$/", "\1", $name);
        if ($suffix == "gif") {
            $imgSavePath .= "emotion";
        } else {
            $imgSavePath .= "topic";
        }
        $imgSavePath .= ("/".$imgId.".".$suffix);
       
        if (is_file($imgSavePath)) {
            unlink($imgSavePath);
            echo "<p style='color:#f00;'>文件".$imgSavePath."已存在,将被删除</p>";
        }
       
        $imgFile = file_get_contents($url);
        $flag = file_put_contents($imgSavePath, $imgFile);
       
        if ($flag) {
            echo "<p>文件".$imgSavePath."保存成功</p>";
        }
    }
"codetitle">复制代码 代码如下:
<"r+";
$filename = "d:/file.txt";
$fp = fopen($filename, $mode);
if ($fp) {
 $i = 1;
 while (!feof($fp)) {
    $str = fgets($fp);
    echo $str;
    if ($i == 1) {
      $len = strlen($str);
      fseek($fp, -$len, SEEK_CUR);//指针向前移动
      fwrite($fp, "123");
    }
    i++;
  }
  fclose($fp);
}
?>

先读取一行,此时文件指针其实是指到下一行开头,使用fseek将文件指针回移到上一行起始位置,然后使用fwrite进行替换操作,正因为是替换操作,在不指定长度的情况下,它把影响到下一行的数据,而我想要的是只想针对这一行进行操作,例如删除这一行或是整行只替换为一个1,上面的例子达不到要求,或许是我还没有找到合适的方法…

广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!

稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!

昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。

这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。

而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?