SkillAgentSearch skills...

Xwlb

历年新闻联播的爬虫

Install / Use

/learn @lixiang0/Xwlb
About this skill

Quality Score

0/100

Supported Platforms

Universal

README

说明

本项目的是将CCTV.com上的新闻联播历年的节目内容爬取到本地并解析。

本项目微博:今天追新闻联播了吗

抓取的思路为:

  • 首先找到当日新闻的入口(图1);
  • 其次在当日新闻的主页找到节目简介和节目详细内容的链接;
  • 最后解析节目简介和详细内容(图2和图3)。

图1:

<img src='1.png' width='800'>

图2:

<img src='2.png' width='800'>

图3:

<img src='3.png' width='800'>

网页保存路径:

  • xwlb/是本次节目的主页保存路径
  • xwlb/summarys/是本次节目的内容简介保存路径
  • xwlb/details/是节目中的详细内容保存路径

配置

1.安装mongodb

参考链接Ubuntu中安装mongodb

2.安装运行scrapy_splash

pip install scrapy_splash
docker run -p 8050:8050 scrapinghub/splash

运行

项目根目录执行:

cd xwlb/xwlb
scrapy crawl spider

注意

本项目的spalsh和mongodb使用的都是本机地址。如果是其他机器需要进行配置。 splash:修改setting.py文件中的SPLASH_URL=your ip mongodb:修改```/etc/mongod.conf中的:

# network interfaces
net:
  port: 27017
  bindIp: 0.0.0.0

View on GitHub
GitHub Stars16
CategoryDevelopment
Updated9mo ago
Forks3

Languages

Python

Security Score

62/100

Audited on Jun 25, 2025

No findings