欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 编程语言 > java >内容正文

java

Java网络爬虫实操(3)

发布时间:2025/4/16 java 4 豆豆
生活随笔 收集整理的这篇文章主要介绍了 Java网络爬虫实操(3) 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

上一篇:Java网络爬虫实操(2)

本篇文章主要介绍NetDiscovery框架中pipeline模式的一些实际使用方法。

1) 什么是pipeline

pipeline是一种常见的算法模式,针对不断循环的耗时任务,如果要等一个循环结束后再轮到处理下一个任务的话,时间上有点浪费。

所以,把耗时任务拆分为几个环节,只要一个环节完成了,就可以轮到下一个任务的那个环节就马上开始处理。不用等到这个耗时任务全部结束了才开始。

我认为应用在处理爬虫程序获取的数据上,非常合适。

2) pipeline在框架中的角色

从框架提供的原理图上可以了解到,pipeline对象扮演的角色是什么:

  • downloader对象访问url
  • 访问成功后的page对象交给parser对象,进行页面的解析工作
  • 把解析成果交给pipleline对象去按顺序逐一处理,例如:去重、封装、存储、发消息等等

3) 目标任务

任务步骤:

  • 访问拉勾网站
  • 找出网页里的图片链接
  • 下载链接上的图片到本地
  • 保存图片信息到mysql数据库
  • 4) 创建pipeline对象

    pipeline类:DownloadImage

    package com.sinkinka.pipeline;import com.cv4j.netdiscovery.core.domain.ResultItems; import com.cv4j.netdiscovery.core.pipeline.Pipeline; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream; import java.io.OutputStream; import java.net.URL; import java.net.URLConnection; import java.util.Map;public class DownloadImage implements Pipeline {@Overridepublic void process(ResultItems resultItems) {Map<String, Object> map = resultItems.getAll();for(String key : map.keySet()) {String filePath = "./temp/" + key + ".png";saveRemoteImage(map.get(key).toString(), filePath);}}private boolean saveRemoteImage(String imgUrl, String filePath) {InputStream in = null;OutputStream out = null;try {URL url = new URL(imgUrl);URLConnection connection = url.openConnection();connection.setConnectTimeout(5000);in = connection.getInputStream();byte[] bs = new byte[1024];int len;out = new FileOutputStream(filePath);while ((len = in.read(bs)) != -1) {out.write(bs, 0, len);}} catch(Exception e) {return false;} finally {try {out.flush();out.close();in.close();} catch(IOException e) {return false;}}return true;} } 复制代码

    pipeline类:SaveImage

    package com.sinkinka.pipeline;import com.cv4j.netdiscovery.core.domain.ResultItems; import com.cv4j.netdiscovery.core.pipeline.Pipeline; import com.safframework.tony.common.utils.Preconditions;import java.sql.*; import java.util.Map;public class SaveImage implements Pipeline {@Overridepublic void process(ResultItems resultItems) {Map<String, Object> map = resultItems.getAll();for(String key : map.keySet()) {System.out.println("2"+key);saveCompanyInfo(key, map.get(key).toString());}}private boolean saveCompanyInfo(String shortName, String logoUrl) {int insertCount = 0;Connection conn = getMySqlConnection();Statement statement = null;if(Preconditions.isNotBlank(conn)) {try {statement = conn.createStatement();String insertSQL = "INSERT INTO company(shortname, logourl) VALUES('"+shortName+"', '"+logoUrl+"')";insertCount = statement.executeUpdate(insertSQL);statement.close();conn.close();} catch(SQLException e) {return false;} finally {try{if(statement!=null) statement.close();}catch(SQLException e){}try{if(conn!=null) conn.close();}catch(SQLException e){}}}return insertCount > 0;}//演示代码,不建议用于生产环境private Connection getMySqlConnection() {//使用的是mysql connector 5//数据库:test 账号/密码: root/123456final String JDBC_DRIVER = "com.mysql.jdbc.Driver";final String DB_URL = "jdbc:mysql://localhost:3306/test";final String USER = "root";final String PASS = "123456";Connection conn = null;try {Class.forName(JDBC_DRIVER);conn = DriverManager.getConnection(DB_URL,USER,PASS);} catch(SQLException e) {return null;} catch(Exception e) {return null;}return conn;}}复制代码

    5) 运行程序

    Main类

    package com.sinkinka;import com.cv4j.netdiscovery.core.Spider; import com.sinkinka.parser.LagouParser; import com.sinkinka.pipeline.DownloadImage; import com.sinkinka.pipeline.SaveImage;public class PipelineSpider {public static void main(String[] args) {String url = "https://xiaoyuan.lagou.com/";Spider.create().name("lagou").url(url).parser(new LagouParser()).pipeline(new DownloadImage()) //1. 首先,下载图片到本地目录.pipeline(new SaveImage()) //2. 然后,把图片信息存储到数据库.run();} }复制代码

    Parser类

    package com.sinkinka.parser;import com.cv4j.netdiscovery.core.domain.Page; import com.cv4j.netdiscovery.core.domain.ResultItems; import com.cv4j.netdiscovery.core.parser.Parser; import com.cv4j.netdiscovery.core.parser.selector.Selectable; import java.util.List;public class LagouParser implements Parser {@Overridepublic void process(Page page) {ResultItems resultItems = page.getResultItems();List<Selectable> liList = page.getHtml().xpath("//li[@class='nav-logo']").nodes();for(Selectable li : liList) {String logoUrl = li.xpath("//img/@src").get();String companyShortName = li.xpath("//div[@class='company-short-name']/text()").get();resultItems.put(companyShortName, logoUrl);}} }复制代码

    通过DownloadImage,保存到本地的图片数据:

    通过SaveImage,存储到数据库里的数据:

    6) 总结

    以上代码简单演示了pipeline模式的用法,记住一点,pipeline是有执行顺序的。在大量数据、高频次的生产环境中再去体会pipeline模式的优点吧。

    下一篇:Java网络爬虫实操(4)

    总结

    以上是生活随笔为你收集整理的Java网络爬虫实操(3)的全部内容,希望文章能够帮你解决所遇到的问题。

    如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。