Daily1024
通过Pyhon来整合1024网站信息,最强,最暴力,最省事儿,代码造福人类的最好例子。
Install / Use
/learn @SwyftG/Daily1024README
1024是一个好网站
首先,此次实战系列的前提是您能科学的找到1024网站!我这里并不提供网站地址,特此声明,这里只是用计算机科学的态度和方法,来分析一个问题。和1024网站没有任何关联。
在1024网站上,不知道你是否和我一样,平时爱逛技术讨论区,爱看一些每日资讯总结的帖子,那么会不会因为板块的主题帖子是按照回复时间排序而找不到自己喜欢看的帖子而心烦意乱呢?是不是为了找自己今天没看过的帖子,而一遍又一遍的重新从头开始翻呢?
别怕,我都被这些问题困扰过!社区人口众多,帖子刷的很快,为了看到每天发布的帖子,板块的排版不得不让我每次进来都得从头开始找,看看哪个帖子今儿没看过。而且是左边看标题,右边看发布时间,好累啊。这样我不喜欢,有些浪费时间。
作为一个程序员,我觉得,这些问题,都是可以自己手动写一个Python爬虫来解决。
我感觉这个虫子全网最方便,最牛逼,最便捷,最能解决实际问题的虫子!活学活用,真正的让代码方便我的生活,这才是我编写程序索要达到的目的。
##我们现在遇到的问题: 论坛的帖子排序是按照回帖时间排序的,为了能够看到每天最新发布的帖子,总是得从头开始看整个论坛,很烦,浪费时间。
我们希望变成的样子
论坛的帖子按照时间发布顺序排列,这样看每天的新内容就很省事儿。
如果我们要写一个爬虫来解决的话,大致结构应该如下:
这里有几个部分:
- config.json: 这个算是配置文件,目前需要填入的信息有: 1.1024网站的的URL 2.爬虫结果输出的的文件位置 3.爬虫需要爬的最大page num 4.板块信息,指论坛的板块名称(这个可以自定义)和板块的fid
- Url_manager: 管理备爬取的URL。
- Html_downloader: 爬虫获取网页信息。
- Html_parser: 爬虫的网页解析器。
- Html_output: 爬虫输出结果。
上面的结构很简单,那么简单的流程就是:我们先配置好本地的config.json文件,然后启动程序,爬虫会自动根据配置好的信息,然后抓取各个板块前几页的内容,根据帖子发帖时间,筛选爬出出来信息,随后,将获取到的信息按照时间排序,最后输出成html格式的文件,使用本地的网页浏览器打开。浏览器里面可以看到帖子的id,帖子的标题以及帖子的发布时间。通过点击帖子的标题,可以跳转到社区的帖子。
这样,内容丰富的小草网站,就直接变成了我们本地写的最简单的html文件。
我们整理后的网站首页:
新整理后板块长这个样子:
这样看上去,就简单和舒服的多了,不再需要像之前那样一个一个的找了。而且,我们看过哪个帖子,都是有不同颜色区分的。这样节省好多好多时间。下面就简单的说一下工程中运用到的技术点吧。
技术梳理
虽然现在网络上有很多成熟的爬虫框架,比如Scrapy,我之前也用过Scrapy,Scrapy确实强大,但是感觉这样体会不到爬虫的乐趣。所以干脆自己从零搭建一个爬虫。从零距离感受爬虫,感受Python的乐趣。
整体技术
python 3.6requestsBeautifulSoup4webbrowserjson
Config.json
这个是配置文件,将需要一些基本参数写在这个json文件中。先关的读取类是config_utils中的configreader。
Url_manager
通过一个dict来存储板块名称和对应的板块URL,提供一些简答的方法来操作URL。
Html_download
通过使用requests模块来进行网页的访问。从而拿到网页数据,为后面步骤的解析提供基础。
这里进行网络请求的时候,由于1024网站做了反爬处理,我添加了不同的HTTP header。目前还算比较好用。表头信息在user_agents文件中。
Html_parser
通过BeautifulSoup来对html做解析处理。每一个帖子都是有一个唯一id的。帖子都封装到CaoliuItem中,然后将结果输出到html_outputer中。这里是通过html的tag来做的寻找,并不是通过正则表达式。可能有点僵。
Html_outputer
这个是将之前收集到的爬虫解析结果,整理成html文件的类。最终结果有一个index页面,每个版块还有自己的页面。他们之间相互链接在一起,点击起来爽爽的,炒鸡方便。
需要改进的地方 TODO
- 整体结构虽然清晰,但是整体结构还需要优化。要做到像
Scrapy那样强大的虫子,得一步一步来。 - 目前爬虫能力比较弱,没有用到多线程爬虫。下一个版本可以加入多线程,这样既能提升速度,又能提升质量。
parser的解析还是太依赖网站的布局。若是网站布局发生改变,parser就得修改。这个问题是所有爬虫的通病,我还在想办法把这里做的更活一些,不要这么死板。output的html文件美观度不够。- 下一版本,想将解析出来的东西,能够和
MongoDB联动,算是本地保存一份吧。因为这样就能够看到之前的帖子信息。 - 接下来应该最好是针对每个帖子,再爬一层,可以做到自动将图片或者种子文件下载下来。这个下载图片和种子的虫子我之前用
Scrapy的时候做过,但是还是需要结合自己写的虫子比较好。 - 最好能够将爬虫扩展到其他网站,比如微博啊,V2ex啊,之类的资讯网站。感觉每天来回逛这几个网站,打开这个打开那个,确实有时候挺浪费时间的,倒不如把它们每天更新的东西都整合成在一起,通过一个网站,一次看个够。这样多爽。
- 最终的版本就是把这个程序做成一个后台服务,然后部署到服务器上,每天通过访问,能够看到当天各个网站的更新内容。做到***"访问一个,就可以访问全部"***的效果。
这个项目源码,通过阅读原文即可查阅。
最后来一波福利,关注公众号:皮克啪的铲屎官,回复“1024”,能够找到你需要的东西哦~
Related Skills
node-connect
349.2kDiagnose OpenClaw node connection and pairing failures for Android, iOS, and macOS companion apps
frontend-design
109.5kCreate distinctive, production-grade frontend interfaces with high design quality. Use this skill when the user asks to build web components, pages, or applications. Generates creative, polished code that avoids generic AI aesthetics.
openai-whisper-api
349.2kTranscribe audio via OpenAI Audio Transcriptions API (Whisper).
qqbot-media
349.2kQQBot 富媒体收发能力。使用 <qqmedia> 标签,系统根据文件扩展名自动识别类型(图片/语音/视频/文件)。
