大家好,我是小一手把手教学,正式开始!_数据

萧萧的风在瑟瑟的吹,还是可以穿短袖的深圳,似乎也即将会变天

前几天,有一个读者在和我交流技术的时候,提出了一个小小的问题

手把手教学,正式开始!_数据_02


这其实是一个很简单的事情,搁在之前,我早就分分钟写个脚本抛给他了。但是苦于最近的工作实在太多,各种文档报告写的头疼,也是拖了好几天才在上个周末抽了点时间把代码搞定了。

最近确实事情有点多,加上在和几个大佬一起组建交流群,所以也是在今天才有空写完爬虫对应的笔记教程,供大家参考学习。

如果说只是分享代码,那其实就是甩一个链接的事儿,但是这明显不符合小一我的气质手把手教学,正式开始!_类类型_03,所以我写了这篇笔记

手把手教学,正式开始!

正文

今天爬取数据的链接是:​​https://www.8684.cn/

这个是8684网站的网址,上面有各种公交站点、地铁站点、违章、资讯等等数据,小功能做的相当不错。

页面长这样:

手把手教学,正式开始!_类类型_04


对应的我们点击热门公交中的某个城市,例如:深圳公交,注意看点击的时候网址栏发生的变化

此时的网址变成了:​​https://shenzhen.8684.cn/

以此类推,其他城市对应的访问链接想必你会很容易构造出来

点进去之后的页面是这样的:

手把手教学,正式开始!_运行时间_05


从我的经验来判断,我们想要的数据一定在红框里面。

而且从这几种网站的分类类型来看,绿框框出来的一定是最靠谱最有用的分类,而且在后期的分析过程中一定会最有用。

直接打开F12,进行源码分析(或者在某个超链接上点击右键->检查)内容一目了然:

手把手教学,正式开始!_运行时间_06


处理思路如下:定位到 bus-layer depth w120 的这个 div,然后定位到它的第三个 class为‘pl10’ 的子div,这个就是我们我们需要的线路分类

对应上面的网页显示内容,源码都展开之后是这样的:

手把手教学,正式开始!_运行时间_07


其中有两种标签:class="kt" 的span标签,对应的是分类的标题;class='list' 的div标签,子标签对应的是每一个分类的链接 href 和名称 wbfspan 标签。有用的是第二个标签

正常点击网页上的某一种分类线路,例如:常规线路,注意看点击的时候网址栏发生的变化

此时的网址变成了:​​https://shenzhen.8684.cn/line1也就是在之前链接的结尾加上上面的 href 内容

再回到我们的网页上,可以看到显示的公交路线,同样分析源码,内容如下:

手把手教学,正式开始!_数据_08


处理思路如下:定位到 list clearfix 的这个div,它下面的每一个子标签(a标签)对应的都是一条公交线路,href 同样为该公交线路的链接,wbfspan 同样为名称

随便点开某一条公交线路,例如:8号线,注意看点击的时候网址栏发生的变化

此时的网址变成了:​​https://shenzhen.8684.cn/x_3dfcd0fb也就是将之前的 href 内容换成了最新的 href 内容

再回到我们的网页上,这个就是我们需要爬取数据的终极目标网页:

手把手教学,正式开始!_类类型_09


上半部分的公交详细信息:运行时间、票价、公司、更新时间等

下半部分的公交详细站点,以及每个站点的经纬度等


ok,来整理一下总体思路:


  • 通过城市名称构造第一类访问 url
  • 访问第一类 url
  • 解析该城市的公交分类,获取到想要的分类类型,构造第二类访问 url
  • 访问第二类 url
  • 解析分类类型的每一个公交线路,构造第三类访问 url
  • 访问第三类 url
  • 解析该公交路线的上、下两部分数据
  • 循环第二类 -> 第三类的过程,直到爬完所有数据

解析城市的公交分类,构造第二类访问 url 的核心代码如下:

url = 'https://shenzhen.8684.cn/'
response = requests.get(url=url, headers={'User-Agent': get_ua()}, timeout=10)

"""获取数据并解析"""
soup = BeautifulSoup(response.text, 'lxml')
soup_buslayer = soup.find('div', class_='bus-layer depth w120')

# 解析分类数据
dic_result = {}
soup_buslist = soup_buslayer.find_all('div', class_='pl10')
for soup_bus in soup_buslist:
name = soup_bus.find('span', class_='kt').get_text()
if '线路分类' in name:
soup_a_list = soup_bus.find('div', class_='list')
for soup_a in soup_a_list.find_all('a'):
text = soup_a.get_text()
href = soup_a.get('href')
dic_result[text] = "https://shenzhen.8684.cn" + href

print(dic_result)

上面的 dic_result 中存储的就是每一个分类的名称 text 和访问 href

对其进行遍历,即可获得每一个类型下的所有公交线路

核心代码如下:

bus_arr = []
index = 0

for key,value in dic_result.items():
print ('key: ',key,'value: ',value)
response = requests.get(url=value, headers={'User-Agent': get_ua()}, timeout=10)

"""获取数据并解析"""
soup = BeautifulSoup(response.text, 'lxml')
# 详细线路
soup_buslist = soup.find('div', class_='list clearfix')
for soup_a in soup_buslist.find_all('a'):
text = soup_a.get_text()
href = soup_a.get('href')
title = soup_a.get('title')

bus_arr.append([title, text, "https://shenzhen.8684.cn" + href])

print(bus_arr)

类似的, bus_arr 中存储的就是每一个公交路线的名称 text 和访问 href

同样的代码设计思路,遍历访问每个链接,解析最终的网页即可

最后我爬到的数据是这样的:

手把手教学,正式开始!_类类型_10


每个公交路线经过的站点列表我放入了一个字典,也就是上图的最后一列

对了,上述数据我没有做数据清洗,要清洗的话我建议


  • ①运行时间列进行拆分,构造最早发车、最晚发车、起始站、终点站 四个字段;
  • ②票价列进行解析,识别出数字;
  • ③最后更新列进行解析,识别出时间;
  • ④站点信息列进行解析,统计总站点数、是否环形、经过哪些行政区等

另外,上文中提到了可以解析出站点经纬度信息,这个在上述笔记中没有写出来,感兴趣的自行摸索,或者在文末留言交流

写在最后的话

整体来说,虽然流程的设计比较繁琐,但是仍然是很基础的一篇内容

与本文相关的爬虫参数设置、简单爬虫伪装,网页解析都可以在以前的文章中找到,在此不一一提及

另外,建议大家在运行的过程中,适当的设置程序休眠,理性爬虫