php实现爬取和分析知乎用户数据

2025-05-29 0 42

背景说明:小拽利用php的curl写的爬虫,实验性的爬取知乎5w用户的基本信息;同时,针对爬取的数据,进行了简单的分析呈现。

php的spider代码和用户dashboard的展现代码,整理后上传github,在个人博客和公众号更新代码库,程序仅供娱乐和学习交流;如果有侵犯知乎相关权益,请尽快联系本人删除。

无图无真相

移动端分析数据截图

php实现爬取和分析知乎用户数据

pc端分析数据截图

php实现爬取和分析知乎用户数据

整个爬取,分析,展现过程大概分如下几步,小拽将分别介绍

  1. curl爬取知乎网页数据

  2. 正则分析知乎网页数据

  3. 数据数据入库和程序部署

  4. 数据分析和呈现

curl爬取网页数据

php的curl扩展是php支持的,允许你与各种服务器使用各种类型的协议进行连接和通信的库。是一个非常便捷的抓取网页的工具,同时,支持多线程扩展。

本程序抓取的是知乎对外提供用户访问的个人信息页面https://www.zhihu.com/people/xxx,抓取过程需要携带用户cookie才能获取页面。直接上码

获取页面cookie

复制代码 代码如下:


// 登录知乎,打开个人中心,打开控制台,获取cookie
document.cookie
"_za=67254197-3wwb8d-43f6-94f0-fb0e2d521c31; _ga=ga1.2.2142818188.1433767929; q_c1=78ee1604225d47d08cddd8142a08288b23|1452172601000|1452172601000; _xsrf=15f0639cbe6fb607560c075269064393; cap_id="n2qwmtexngq0yty2ngvddlmgiynmq4njdjotu0ytm5mmq=|1453444256|49fdc6b43dc51f702b7d6575451e228f56cdaf5d"; __utmt=1; unlock_ticket="qujdtwpmm0lszdd2dyqufbqvlrslzuvtnvb1zandvoqxjlblvmwgj0wgwyahlddvdscxdzu1vrpt0=|1453444421|c47a2afde1ff334d416bafb1cc267b41014c9d5f"; __utma=51854390.21428dd18188.1433767929.1453187421.1453444257.3; __utmb=51854390.14.8.1453444425011; __utmc=51854390; __utmz=51854390.1452846679.1.dd1.utmcsr=google|utmccn=(organic)|utmcmd=organic|utmctr=(not%20provided); __utmv=51854390.100-1|2=registration_date=20150823=1^dd3=entry_date=20150823=1"

抓取个人中心页面

通过curl,携带cookie,先抓取本人中心页面

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21
/**

* 通过用户名抓取个人中心页面并存储

*

* @param $username str :用户名 flag

* @return boolean :成功与否标志

*/

public function spideruser($username)

{

$cookie = "xxxx" ;

$url_info = 'http://www.zhihu.com/people/' . $username; //此处cui-xiao-zhuai代表用户id,可以直接看url获取本人id

$ch = curl_init($url_info); //初始化会话

curl_setopt($ch, curlopt_header, 0);

curl_setopt($ch, curlopt_cookie, $cookie); //设置请求cookie

curl_setopt($ch, curlopt_useragent, $_server['http_user_agent']);

curl_setopt($ch, curlopt_returntransfer, 1); //将curl_exec()获取的信息以文件流的形式返回,而不是直接输出。

curl_setopt($ch, curlopt_followlocation, 1);

$result = curl_exec($ch);

file_put_contents('/home/work/zxdata_ch/php/zhihu_spider/file/'.$username.'.html',$result);

return true;

}

正则分析网页数据分析新链接,进一步爬取

对于抓取过来的网页进行存储,要想进行进一步的爬取,页面必须包含有可用于进一步爬取用户的链接。通过对知乎页面分析发现:在个人中心页面中有关注人和部分点赞人和被关注人。
如下所示

复制代码 代码如下:


// 抓取的html页面中发现了新的用户,可用于爬虫
<a class="zm-item-link-avatar avatar-link" href="/people/new-user" data-tip="p$t$new-user">

ok,这样子就可以通过自己-》关注人-》关注人的关注人-》。。。进行不断爬取。接下来就是通过正则匹配提取该信息

复制代码 代码如下:


// 匹配到抓取页面的所有用户
preg_match_all('//people/([w-]+)"/i', $str, $match_arr);
// 去重合并入新的用户数组,用户进一步抓取
self::$newuserarr = array_unique(array_merge($match_arr[1], self::$newuserarr));

到此,整个爬虫过程就可以顺利进行了。
如果需要大量的抓取数据,可以研究下curl_multipcntl进行多线程的快速抓取,此处不做赘述。

分析用户数据,提供分析

通过正则可以进一步匹配出更多的该用户数据,直接上码。

  1. //获取用户头像
  2. preg_match('/<img.+src="?([^s]+.(jpg|gif|bmp|bnp|png))"?.+>/i',$str,$match_img);
  3. $img_url=$match_img[1];
  4. //匹配用户名:
  5. //<spanclass="name">崔小拽</span>
  6. preg_match('/<span.+class="?name"?>([x{4e00}-x{9fa5}]+).+span>/u',$str,$match_name);
  7. $user_name=$match_name[1];
  8. //匹配用户简介
  9. //classbiospan中文
  10. preg_match('/<span.+class="?bio"?.+>([x{4e00}-x{9fa5}]+).+span>/u',$str,$match_title);
  11. $user_title=$match_title[1];
  12. //匹配性别
  13. //<inputtype="radio"name="gender"value="1"checked="checked"class="male"/>男
  14. //gendervalue1;结束中文
  15. preg_match('/<input.+name="?gender"?.+value="?1"?.+([x{4e00}-x{9fa5}]+).+;/u',$str,$match_sex);
  16. $user_sex=$match_sex[1];
  17. //匹配地区
  18. //<spanclass="locationitem"title="北京">
  19. preg_match('/<span.+class="?location.+"?.+"([x{4e00}-x{9fa5}]+)">/u',$str,$match_city);
  20. $user_city=$match_city[1];
  21. //匹配工作
  22. //<spanclass="employmentitem"title="人见人骂的公司">人见人骂的公司</span>
  23. preg_match('/<span.+class="?employment.+"?.+"([x{4e00}-x{9fa5}]+)">/u',$str,$match_employment);
  24. $user_employ=$match_employment[1];
  25. //匹配职位
  26. //<spanclass="positionitem"title="程序猿"><ahref="/topic/19590046"title="程序猿"class="topic-link"data-token="19590046"data-topicid="13253">程序猿</a></span>
  27. preg_match('/<span.+class="?position.+"?.+"([x{4e00}-x{9fa5}]+).+">/u',$str,$match_position);
  28. $user_position=$match_position[1];
  29. //匹配学历
  30. //<spanclass="educationitem"title="研究僧">研究僧</span>
  31. preg_match('/<span.+class="?education.+"?.+"([x{4e00}-x{9fa5}]+)">/u',$str,$match_education);
  32. $user_education=$match_education[1];
  33. //工作情况
  34. //<spanclass="education-extraitem"title='挨踢'>挨踢</span>
  35. preg_match('/<span.+class="?education-extra.+"?.+>([x{4e00}-
  36. x{9fa5}]+)</u',$str,$match_education_extra);
  37. $user_education_extra=$match_education_extra[1];
  38. //匹配关注话题数量
  39. //class="zg-link-litblue"><strong>41个话题</strong></a>
  40. preg_match('/class="?zg-link-litblue"?><strong>(d+)s.+strong>/i',$str,$match_topic);
  41. $user_topic=$match_topic[1];
  42. //关注人数
  43. //<spanclass="zg-gray-normal">关注了
  44. preg_match_all('/<strong>(d+)<.+<label>/i',$str,$match_care);
  45. $user_care=$match_care[1][0];
  46. $user_be_careed=$match_care[1][1];
  47. //历史浏览量
  48. //<spanclass="zg-gray-normal">个人主页被<strong>17</strong>人浏览</span>
  49. preg_match('/class="?zg-gray-normal"?.+>(d+)<.+span>/i',$str,$match_browse);
  50. $user_browse=$match_browse[1];

在抓取的过程中,有条件的话,一定要通过redis入库,确实能提升抓取和入库效率。没有条件的话只能通过sql优化。这里来几发心德。

数据库表设计索引一定要慎重。在spider爬取的过程中,建议出了用户名,左右字段都不要索引,包括主键都不要,尽可能的提高入库效率,试想5000w的数据,每次添加一个,建立索引需要多少消耗。等抓取完毕,需要分析数据时,批量建立索引。

数据入库和更新操作,一定要批量。 mysql 官方给出的增删改的建议和速度:http://dev.mysql.com/doc/refman/5.7/en/insert-speed.html

?

1

2
# 官方的最优批量插入

insert into yourtable values (1,2), (5,5), ...;

部署操作。程序在抓取过程中,有可能会出现异常挂掉,为了保证高效稳定,尽可能的写一个定时脚本。每隔一段时间干掉,重新跑,这样即使异常挂掉也不会浪费太多宝贵时间,毕竟,time is money。

?

1

2

3

4

5

6

7

8
#!/bin/bash

# 干掉

ps aux |grep spider |awk '{print $2}'|xargs kill -9

sleep 5s

# 重新跑

nohup /home/cuixiaohuan/lamp/php5/bin/php /home/cuixiaohuan/php/zhihu_spider/spider_new.php &

数据分析呈现

数据的呈现主要使用echarts 3.0,感觉对于移动端兼容还不错。兼容移动端的页面响应式布局主要通过几个简单的css控制,代码如下

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62
// 获取用户头像

preg_match('/<img.+src="?([^s]+.(jpg|gif|bmp|bnp|png))"?.+>/i', $str, $match_img);

$img_url = $match_img[1];

// 匹配用户名:

// <span class="name">崔小拽</span>

preg_match('/<span.+class="?name"?>([x{4e00}-x{9fa5}]+).+span>/u', $str, $match_name);

$user_name = $match_name[1];

// 匹配用户简介

// class bio span 中文

preg_match('/<span.+class="?bio"?.+>([x{4e00}-x{9fa5}]+).+span>/u', $str, $match_title);

$user_title = $match_title[1];

// 匹配性别

//<input type="radio" name="gender" value="1" checked="checked" class="male"/> 男

// gender value1 ;结束 中文

preg_match('/<input.+name="?gender"?.+value="?1"?.+([x{4e00}-x{9fa5}]+).+;/u', $str, $match_sex);

$user_sex = $match_sex[1];

// 匹配地区

//<span class="location item" title="北京">

preg_match('/<span.+class="?location.+"?.+"([x{4e00}-x{9fa5}]+)">/u', $str, $match_city);

$user_city = $match_city[1];

// 匹配工作

//<span class="employment item" title="人见人骂的公司">人见人骂的公司</span>

preg_match('/<span.+class="?employment.+"?.+"([x{4e00}-x{9fa5}]+)">/u', $str, $match_employment);

$user_employ = $match_employment[1];

// 匹配职位

// <span class="position item" title="程序猿"><a href="/topic/19590046" title="程序猿" class="topic-link" data-token="19590046" data-topicid="13253">程序猿</a></span>

preg_match('/<span.+class="?position.+"?.+"([x{4e00}-x{9fa5}]+).+">/u', $str, $match_position);

$user_position = $match_position[1];

// 匹配学历

// <span class="education item" title="研究僧">研究僧</span>

preg_match('/<span.+class="?education.+"?.+"([x{4e00}-x{9fa5}]+)">/u', $str, $match_education);

$user_education = $match_education[1];

// 工作情况

// <span class="education-extra item" title='挨踢'>挨踢</span>

preg_match('/<span.+class="?education-extra.+"?.+>([x{4e00}-

x{9fa5}]+)</u', $str, $match_education_extra);

$user_education_extra = $match_education_extra[1];

// 匹配关注话题数量

// class="zg-link-litblue"><strong>41 个话题</strong></a>

preg_match('/class="?zg-link-litblue"?><strong>(d+)s.+strong>/i', $str, $match_topic);

$user_topic = $match_topic[1];

// 关注人数

// <span class="zg-gray-normal">关注了

preg_match_all('/<strong>(d+)<.+<label>/i', $str, $match_care);

$user_care = $match_care[1][0];

$user_be_careed = $match_care[1][1];

// 历史浏览量

// <span class="zg-gray-normal">个人主页被 <strong>17</strong> 人浏览</span>

preg_match('/class="?zg-gray-normal"?.+>(d+)<.+span>/i', $str, $match_browse);

$user_browse = $match_browse[1];

不足和待学习

整个过程中涉及php,shell,js,css,html,正则等语言和部署等基础知识,但还有诸多需要改进完善,小拽特此记录,后续补充例:

  • php 采用multicul进行多线程。
  • 正则匹配进一步优化
  • 部署和抓取过程采用redis提升存储
  • 移动端布局的兼容性提升
  • js的模块化和sass书写css。
收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

快网idc优惠网 建站教程 php实现爬取和分析知乎用户数据 https://www.kuaiidc.com/99183.html

相关文章

发表评论
暂无评论