Java爬取网站源代码和链接代码实例

时间:2021-05-19

1. 网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。

所以主要使用递归遍历完成对每个网页内链接的获取和源码的获取,然后剔除重复链接

数据爬取后主要使用txt文件储存,根据网址的路径生成想应文件路径

2.代码

package com.test;import java.io.*;import java.net.URL;import java.net.URLConnection;import java.text.SimpleDateFormat;import java.util.Date;import java.util.regex.Matcher;import java.util.regex.Pattern; /** * java实现爬虫 */public class SpiderDemo1 { //网站主网页链接 private final static String theURL = "http://pile(theREGEX); try{ realURL=new URL(url); connection=realURL.openConnection(); //生成文件夹 String src = thePATH + url.substring(theURL.length()); File fileDir = new File(src); if (!fileDir.exists()) { fileDir.mkdirs(); } //生成源代码文件 pw = new PrintWriter(new FileWriter(src + "/Test.txt"),true); pw1 = tpw; //爬取网页文件 br=new BufferedReader(new InputStreamReader(connection.getInputStream())); String line=null; while((line=br.readLine())!=null){ //把爬取的源码写入文件 pw.println(line); System.out.println("爬取网页" + url + "成功"); Matcher matcher=pattern.matcher(line); //判断是否是一个网址 while(matcher.find()){ //判断网址是否以网站主网址为前缀,防止爬到其他网站,并判断是否和原先网址重复 if(matcher.group().startsWith(theURL) && examine(matcher.group())) { //把爬取的网址写入文件 pw1.println(matcher.group()); spiderURL(matcher.group(), pw1); } } System.out.println("网页" + url + "内链接爬取完成"); } }catch(Exception e){ e.printStackTrace(); }finally { try { if(br != null) { br.close(); } if(pw != null) { pw.close(); } } catch (IOException e) { e.printStackTrace(); } } } /** * 判断是否和以储存网址相同 * @param str 需判断的网址 * @return 是否重复 */ public static boolean examine(String str) { BufferedReader br = null; String str1; try { br = new BufferedReader(new FileReader(theFILE)); // //针对该网站无用网页的屏蔽// if(str.startsWith("http:///artnews/")) {// return false;// } //循环文件中每一行的网址,判断是否重复,重复则退出 while((str1 = br.readLine()) != null) { if(str.equals(str1)) { return false; } } } catch (IOException e) { e.printStackTrace(); } finally { try{ if(br != null) { br.close(); } } catch (IOException e) { e.printStackTrace(); } } return true; }}

2. 爬取后的数据

部分链接:

网页数据:

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章