爬取网页的标题或者图片,方法可以使用正则,这个并不推荐,因为很多情况下匹配有误。今天来总结一下BeautifulSoup方法爬取网页中的图片。

  参考原网址:http://www.testclass.net/crawler/get_images/

 前提条件:1.python3 环境  2.安装requests库 3.安装 beautifulsoup4  (2和3 以管理员方式运行cmd 用pip指令安装就ok,这里不详细介绍)

我这里将原网址的代码搬了过来,加上了注释

import requests
from bs4 import BeautifulSoup

url = 'http://jandan.net/drawings'
header ={'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0'}
html = requests.get(url,headers=header).text
# BeautifulSoup 对象是基于一个html字符串或者一个文件
# 使用html.parser解析器 进行解析
soup = BeautifulSoup(html, 'html.parser')


# 筛选有效的jpg
def valid_img(src):
    return src.endswith('jpg') and 'img.jandan.net' in src

# 下载图片
def download_file(url):
    # print('Downloading %s' %url)
    local_filename = url.split('/')[-1]
    # print('file_name:', local_filename)
    # filename like xxx.jpg
    r = requests.get(url, stream=True, headers=header)
    with open(local_filename, 'wb') as f:
        for chunk in r.iter_content(chunk_size=1024):
            if chunk:
                f.write(chunk)
                # 文件方法 将缓冲区文件立即写入文件
                f.flush()


for img in soup.find_all('img', src= valid_img):
    src = img['src']
    # print('src is',src)
    if not src.startswith('http'):
        src ='http:' + src
    download_file(src)

'''我们来探讨r = requests.get(url, stream=True, headers=header)中的stream参数stream=True时,连接connection不会被返回放入到连接池中去除非你读取完requests中所有的数据或者直接调用Requests.close()方法。这必然导致连接的效率很低,当只需要响应的正文部分(或者什么都不需要读取)好消息 - 归功于urllib3,同一会话内的持久连接是完全自动处理的!同一会话内你发出的任何请求都会自动复用恰当的连接!只有所有的响应体数据被读取完毕连接才会被释放为连接池;所以确保将 stream设置为 False 或读取 Response 对象的 content 属性。'''

可以看到 一般做这种爬虫的步骤:

1.打开网页,读取网页的源码

2.分析要爬取的图片的HTML,查找规律,一步步提取图片url

3.根据图片的url将图片保存到指定的位置

结果: 图片被保存到了当前目录中

我们接下来介绍将图片保存到指定位置的另外一种写法

urllib.request.urlretrive(img_url, file_path) 但是有的网站做了防爬,这个函数报403错误

没办法,我们只能添加头部模仿浏览器去访问图片的url,然后获取图片

import requests, os
from bs4 import BeautifulSoup
import urllib.request

def jandan_img(path):
    url = 'http://jandan.net/drawings'
    header ={'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0'}
    html = requests.get(url,headers=header).text
    soup = BeautifulSoup(html, 'html.parser')
    img_list = soup.find_all('img', src=valid_img)
    # 创建文件夹
    download_file(path)
    for img in img_list:
        src = img['src']
        # print(src)
        if not src.startswith('http'):
            src = 'http:' + src
        img_name = src.split('/')[-1]
        file_name = path + '\\' + img_name
        # print(src)
        # urllib.request.urlretrieve(src, file_name)
        # 如果不用头部伪装 返回403
        html = requests.get(src, headers=header)
        # print(html)
        with open(file_name, 'wb') as f:
            f.write(html.content)

# 筛选有效的jpg
def valid_img(src):
    return src.endswith('jpg') and 'img.jandan.net' in src

# 创建文件夹
def download_file(path):
    try:
        if not os.path.exists(path):
            os.mkdir(path)
    except Exception as msg:
        print(msg)


if __name__ == '__main__':
    jandan_img('E:\\image')

 ----------------------------------------------------------------------------------------------

下面附一个略复杂的例子如下:

# 程序说明:url ='http://bbs.zol.com.cn/dcbbs/d15_108727.html'
# 程序说明:抓取该url下的所有图片,注意放到文件名称为:帖子标题下的目录中

# coding = 'utf-8'
import urllib
import os, requests
from urllib import request
from bs4 import BeautifulSoup

def get_allImage(url):
    # 打开网页
    res = requests.get(url)
    res.encoding = 'gb18030'
    # print(res)
    # 获取图片
    soup = BeautifulSoup(res.text, 'html.parser')
    # 获取标签之间的文字 用作分类的文件夹名字
    post_title = soup.title.string
    # 要获取的图片上层的div标签,这个网页有些特殊,它所有的放在一起
    post_div = soup.find(attrs={"id": "bookContent"})
    return post_div.find_all('img'), post_title
    # print(imgs)
    # for img in imgs:
    #     img_src = img.get('data-original')
    #     print(img_src)
    # # return img


# 保存图片到指定的路径
def save_img(url, file_path):
    images, folder_name = get_allImage(url)
    print(folder_name)
    file_path = file_path + "\\" + folder_name
    # 文件序号
    file_seq = 1
    # 判断路径是否存在
    try:
        if not os.path.exists(file_path):
            print('文件夹不存在,重新建立')
            os.mkdir(file_path)
        for img in images:
            img_src = img.get('data-original')
            # 获取文件的后缀名
            # print(img_src)
            file_suffix = img_src.split('.')[6]
            # print(file_suffix)
            # 拼接图片名 目标路径+文件分隔符+图片名+文件后缀
            filename = '{}{}{}{}'.format(file_path, os.sep, file_seq, '.%s' % file_suffix)
            # print(filename)
            # 下载图片,并保存到文件夹中
            urllib.request.urlretrieve(img_src, filename)
            file_seq += 1
    except Exception as e:
        print("文件操作失败", e)


if __name__ == "__main__":
    save_img("http://bbs.zol.com.cn/dcbbs/d15_108728.html", "E://image")