这是承前启后的一节,也是很有可能出错的一节。
我们要安装的有
jupyter(简单方便的写代码工具)
requests(Python HTTP请求工具)
lxml(解析网页结构工具)
beautifulsoup(网页文档解析工具)
pip是Python的包管理工具,可以安装,升级,卸载Python包,并且只需要一条命令就行,是个非常棒的工具。
开始安装
Windows键+X键,点出来命令提示符。
然后输入pip3 install jupyter,回车。然后就开始下载安装jupyter了。
安装完成了会提示successful installed jupyter,…。我的因为安装过了,所以提示需求已经满足了。
安装requests和之前一样。在命令行继续输入pip3 install requests。回车开始下载安装。
安装lxml,继续输入命令pip3 install lxml。回车安装。
安装beautifulsoup有一点不一样,安装命令为pip3 install bs4。这是安装第四版的beautifulsoup的意思。
- jupyter简介
Jupyter Notebook(此前被称为 IPython notebook)是一个交互式笔记本,支持运行 40 多种编程语言。Jupyter Notebook 的本质是一个 Web 应用程序,便于创建和共享文学化程序文档,支持实时代码,数学方程,可视化和markdown。
用途包括:数据清理和转换,数值模拟,统计建模,机器学习等等 。
用这个来写代码会比Python自带的IDLE或者命令行要好很多,不仅有代码着色、代码智能提示,还可以点击Run立即得出结果。
我们仅仅是把它作为我们的代码编辑器,另外的强大功能,如果有精力可以自己去jupyter的官方文档探索。下面是jupyter的截图。
- requests简介
requests是个非常优秀,非常棒的库。使用它我们可以减少非常大的工作量,专注于对请求的创建和处理,而不需要去处理中间过程,诸如302跳转、cookie的发送与接收、表单的编码。
简单来说,我们就是使用它进行网络请求,获取到网页的内容。如果要自己全程实现一个请求的流程,代码会非常多。但是有了requests,一切都是那么easy、放弃urllib吧! - lxml简介
lxml is the most feature-rich and easy-to-use library for processing
XML and HTML in the Python language.
lxml可以用来解析XML文件或者HTML文件,能够一个一个节点地解析,并且经过测试,lxml是Python所有解析HTML结构的包里面,解析速度最快的。lxml可以使用css选择器进行选择网页的节点,但是css选择器对新手不是很友好,所以我们采用了一个折中的办法,用beautifulsoup。
- BeautifulSoup 简介
- Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful
Soup会帮你节省数小时甚至数天的工作时间.
BeautifulSoup是一个非常友好的HTML解析选择器,他可以选择几个不同的解析器:
html.parser(Python原生自带,速度慢,容错能力差)
html5lib(Python自带,速度慢)
lxml(需要安装,Python最快,还可以解析xml文件)