成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

Java中用爬蟲進(jìn)行解析的實(shí)例方法

瀏覽:15日期:2022-08-19 10:50:30

我們都知道可以用爬蟲來找尋一些想要的數(shù)據(jù),除了可以使用python進(jìn)行操作,我們最近學(xué)習(xí)的java同樣也支持爬蟲的運(yùn)行,本篇小編就教大家用java爬蟲來進(jìn)行網(wǎng)頁(yè)的解析,具體內(nèi)容請(qǐng)往下看:

1、springboot項(xiàng)目,引入jsoup

<dependency><groupId>org.jsoup</groupId><artifactId>jsoup</artifactId><version>1.10.2</version></dependency>

2、準(zhǔn)備解析對(duì)象

Content.javapackage com.asia.pojo;import lombok.AllArgsConstructor;import lombok.Data;import lombok.NoArgsConstructor;@Data@NoArgsConstructor@AllArgsConstructorpublic class Content { private String title; private String img; private String price;}

3、爬蟲工具類

HtmlParseUtil.javapackage com.asia.utils;import java.net.URL;import java.net.URLDecoder;import java.util.ArrayList;import java.util.List;import org.jsoup.Jsoup;import org.jsoup.nodes.Document;import org.jsoup.nodes.Element;import org.jsoup.select.Elements;import com.asia.pojo.Content;public class HtmlParseUtil {public static void main(String[] args) throws Exception {new HtmlParseUtil().parseJD('西瓜').forEach(System.out::println);}public List<Content> parseJD(String keywords) throws Exception {String url = 'https://search.jd.com/Search?keyword=' + URLDecoder.decode(keywords, 'GBK');// 解析網(wǎng)頁(yè).(Jsoup返回Document就是瀏覽器的Document對(duì)象)Document document = Jsoup.parse((new URL(url)), 30000);Element element = document.getElementById('J_goodsList');Elements elements = element.getElementsByTag('li');List<Content> list = new ArrayList<Content>();for (Element el : elements) {String src = el.getElementsByTag('img').eq(0).attr('data-lazy-img');String price = el.getElementsByClass('p-price').eq(0).text();String name = el.getElementsByClass('p-name').eq(0).text();list.add(new Content(name, src, price));}return list;}}

到此這篇關(guān)于Java中用爬蟲進(jìn)行解析的實(shí)例方法的文章就介紹到這了,更多相關(guān)Java中如何使用爬蟲進(jìn)行解析內(nèi)容請(qǐng)搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: Java
相關(guān)文章: