很简洁明了的爬虫例子,分享给大家
#网址如下:http://www.maigoo.com/news/463071.html
from bs4 import BeautifulSoup
import requests
import csv
import bs4
#检查url地址
def check_link(url):
try:
r = requests.get(url)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
print('无法链接服务器!!!')
#爬取资源
def get_contents(ulist,rurl):
soup = BeautifulSoup(rurl,'lxml')
trs = soup.find_all('tr')
for tr in trs:
ui = []
for td in tr:
ui.append(td.string)
ulist.append(ui)
#保存资源
def save_contents(urlist):
try:
with open("数据.csv",'w') as f:
writer = csv.writer(f)
writer.writerow(['2016年中国企业500强排行榜'])
for i in range(len(urlist)):
writer.writerow([urlist[i][1],urlist[i][3],urlist[i][5]])
except:
pass
def main():
urli = []
url = "http://www.maigoo.com/news/463071.html"
rs = check_link(url)
get_contents(urli,rs)
save_contents(urli)
main()
结果如下:
2016年中国企业500强排行榜
名次 , 企业名称 , 营业收入(万元)
1 , 国家电网公司 , 207134945
2 , 中国石油天然气集团公司 , 188073616
3 , 中国石油化工集团公司 , 184977795
4 , 中国工商银行股份有限公司 , 107983800
5 , 中国建设银行股份有限公司 , 92587800