目录
- Robots.txt 协议
- Python代码
- 数据分析/数据挖掘
- 人工智能
- Python运维
- WEB开发
- Python爬虫
- 环境: Python3 + windows。
- 开发工具:Anaconda + Jupyter / VS Code。
- 学习效果:
1.认识爬虫 / Robots协议
2.了解浏览器开发者工具
3.动态加载页面的处理
4.手机客户端页面的数据采集
Robots.txt 协议
Robots协议,也称为爬虫协议
网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots是一个协议,而不是一个命令。Robots.txt文件是一个文本文件,是放置在网站根目录下,使用任何一个常见的文本编辑器,就可以创建和编辑它。Robots.txt是搜索引擎中访问网站的时候要查看的第一个文件,其主要的作用就是告诉蜘蛛程序在服务器上什么文件是可以被查看的。Robots协议是国际互联网界通行的道德规范。约定俗成。
Python代码
- 导入模块
- 反爬
Python发展方向
数据分析/数据挖掘
关联分析【啤酒与尿布】,聚类分 ,判别分析 ,随机森林 .
人工智能
一种能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理等。例如AlphaGo , AlphaGo Zero.
Python运维
不会开发的运维终将被淘汰!!!
WEB开发
开发网站,例如豆瓣网。侧重于实战!!!
Python爬虫
采集网络数据,为数据分析或大数据等提供支持,大型的比如Google,百度等。侧重于实战!!!
以上就是实现Python爬取门户论坛评论过程的详细内容,更多关于Python爬取门户论坛评论的资料请关注脚本之家其它相关文章!
您可能感兴趣的文章:
- python爬虫爬取微博评论案例详解
- python爬虫爬取微博评论案例详解
- python爬取微博评论的实例讲解
- 详解用python写网络爬虫-爬取新浪微博评论