java模仿网络爬虫简单案例
【摘要】
java模仿网络爬虫简单案例,直接看代码
package com.example.demo1;
import java.io.*;
import java.net.*;
import java.uti...
java模仿网络爬虫简单案例,直接看代码
package com.example.demo1;
import java.io.*;
import java.net.*;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
/**
* @author: YinLei
* Package: com.example.demo1
* @date: 2021/9/7 20:23
* @Description: java爬虫测试
* @version: 1.0
*/
public class Crawler {
public static void main(String[] args) {
URL url = null; //用于定义url类型
URLConnection urlConnection = null; //用于定义url连接类型
BufferedReader br = null; //缓存读取
PrintWriter pw = null; //输出流
try {
url = new URL("http://search.dangdang.com/?key=%BB%FA%D0%B5%B1%ED&act=input");//爬取的网址、这里爬取的是一个生物网站
urlConnection = url.openConnection(); //url连接
pw = new PrintWriter(new FileWriter("D:/SiteURL.txt"), true);//将爬取到的内容放到D盘的SiteURL文件中
System.out.println("Stay Here1!!");
br = new BufferedReader(new InputStreamReader(
urlConnection.getInputStream(),"UTF-8"));
String buf = null;
System.out.println("Stay Here2!!");
Pattern p = Pattern.compile("1\\d{10}");
while ((buf = br.readLine()) != null) {
// System.out.println(buf);
Matcher m = p.matcher(buf);
while (m.find()){
pw.println(m.group());
}
}
System.out.println("success!");
} catch (MalformedURLException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
}
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
文章来源: englishcode.blog.csdn.net,作者:知识浅谈,版权归原作者所有,如需转载,请联系作者。
原文链接:englishcode.blog.csdn.net/article/details/120167670
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)