新浪微博内容采取什么方式加载的

前段时间写了一些关于抓取新浪微博的经历,现在就贴一些我遇到过一些问题的代码实现思路吧:(我使用的是 htmlunit 爬虫)

每个人的博客主页中都有微博内容块,每次点击查看微博内容的时候你会发现,微博内容不是一次加载的;这个问题不管是新浪还是腾讯,它们的内容加载方式都是一样的。

废话不多说,直接将代码实现:

1. 请求微博内容url,获取请求返回的数据,由于返回的微博内容时嵌入在js中,但是js中的微博内容是有规律的;所以我就截取js中包含微博内容的html标签内容。

然后解析html标签字符串,通过xpath方式获取想要的内容。

//微博首页

HtmlPage page = client.getPage(weiboUrl);

/*

* 提取js中的微博内容:

* 1. 使用htmlunit提供的xpath方法获取;缺点速度太慢,而且不稳定

* 2. 提取js中的html字符串,解析html内容;缺点提取html字符串准确度不高

*/

String responseContent = page.getWebResponse().getContentAsString();

String weiboContent = MyStringUtils.takeSomeJs2Html(responseContent, jsWeiboContent, jsHtmlMark);

HtmlCleaner cleaner = new HtmlCleaner();

TagNode contentNode = cleaner.clean(weiboContent);

Object[] nodes = contentNode.evaluateXPath("//div[@class='WB_text']");

2. 模拟第一次滚动请求加载数据,请求成功返回的是json数据,所以需要使用json方式提取其中的包含html标签内容的字符串内容。然后解析字符串,获取想要的内容。

//模拟第一次滚动请求

String rollingUrlOne = UrlFactory.createRollingOneAddContentUrl(domainId, 1, pageId);

WebRequest requestOne = new WebRequest(new URL(rollingUrlOne), HttpMethod.GET);

WebResponse jsonOne = client.loadWebResponse(requestOne);

JSONObject jsonObj = JSONObject.fromObject(jsonOne.getContentAsString());

String data = (String)jsonObj.get("data");

Document docOne = Jsoup.parse(data);

Elements elementsOne = docOne.select("div.WB_text");

滚动请求url:

//微博内容第一次滚动加载请求url

public static String createRollingOneAddContentUrl(String domainId,int pageNum,String userId){

return

"/p/aj/mblog/mbloglist?domain="+domainId+"&pre_page="+pageNum+"&page="+pageNum+"&pagebar=0&id="+userId;

}

//微博内容第二次滚动加载请求url

public static String createRollingTwoAddContentUrl(String domainId,int pageNum,String userId){

return

"/p/aj/mblog/mbloglist?domain="+domainId+"&pre_page="+pageNum+"&page="+pageNum+"&pagebar=1&id="+userId+"&script_uri=/p/"+userId+"/weibo";

}

3.模拟第二次滚动请求加载数据,实现原理如上。

//模拟第二次滚动请求

String rollingUrlTwo = UrlFactory.createRollingTwoAddContentUrl(domainId, 1, pageId);

WebRequest requestTwo = new WebRequest(new URL(rollingUrlTwo), HttpMethod.GET);

WebResponse jsonTwo = client.loadWebResponse(requestTwo);

JSONObject jsonObj2 = JSONObject.fromObject(jsonTwo.getContentAsString());

String data2 = (String)jsonObj2.get("data");

Document docTwo = Jsoup.parse(data2);

Elements elementsTwo = docTwo.select("div.WB_text");

4.获取分页列表,重复上面的操作过程即可。

//取分页列表

Elements elementsPage = docTwo.select("div.W_pages > span.list > div > a");

if(elementsPage!=null){

//去掉分页列表中的最后一条,最后一条为第一页

for(int i=elementsPage.size()-2;i>=0;i--){

Element element = elementsPage.get(i);

String pageHref = element.attr("href");

loadPageData(client,pageHref,elementsPage.size()-i,domainId,pageId);

// if(i>=50){

// System.out.println("微博内容太多,只取了前50页的微博内容。。。");

// break;

// }

}

}