抓取网站内容可以使用Java的网络爬虫技术。首先,你需要使用Java的网络请求库,例如HttpClient或Jsoup,来向目标网站发送请求获取HTML页面。 使用HttpClient发送HTTP请求示例: ```java import org.apache.http.client.HttpClient; import org.apache.http.client.methods.HttpGet; import org.apache.http.impl.client.HttpClientBuilder; import org.apache.http.util.EntityUtils; public class WebScraper { public static void main(String[] args) { HttpClient httpClient = HttpClientBuilder.create().build(); HttpGet request = new HttpGet("http://example.com"); // 替换为你要爬取的网站URL try { HttpResponse response = httpClient.execute(request); String html = EntityUtils.toString(response.getEntity(), "UTF-8"); System.out.println(html); } catch (IOException e) { e.printStackTrace(); } } } ``` 使用Jsoup解析HTML页面示例: ```java import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; public class WebScraper { public static void main(String[] args) { String html = "<html><body><table><tr><td>内容</td></tr></table></body></html>"; // 替换为你获取到的HTML页面内容 Document doc = Jsoup.parse(html); Elements tds = doc.select("td"); for (Element td : tds) { String content = td.text(); System.out.println(content); } } } ``` 这是一个简单的使用Java爬取网站内容的示例。你可以根据你要爬取的具体网站结构和需求进行相应的修改和扩展。 [2024-05-20 10:59:04 | AI写代码神器 | 587点数解答]