对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开 位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的 内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。

  一、从HTML文档中提取链接

  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。



 

import 
    HTMLParser

   
   import 
    urllib

   
   class 
    parseLinks(HTMLParser.HTMLParser):

   
   def 
    handle_starttag(self, tag, attrs):

   
   if 
    tag  
   == 
     
   ' 
   a 
   ' 
   :

   
   for 
    name,value  
   in 
    attrs:

   
   if 
    name  
   == 
     
   ' 
   href 
   ' 
   :

   
   print 
    value

   
   print 
    self.get_starttag_text()

  lParser  
   = 
    parseLinks()

  lParser.feed(urllib.urlopen( 
   " 
   http://www.python.org/index.html 
   " 
   ).read())


  处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象 的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数 据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会 有用武之地了。下面是一个具体的例子



import 
    HTMLParser

   
   import 
    urllib

   
   import 
    sys

   
   # 
   定义HTML解析器 
   
 
   
   
   class 
    parseLinks(HTMLParser.HTMLParser):

   
   def 
    handle_starttag(self, tag, attrs):

   
   if 
    tag  
   == 
     
   ' 
   a 
   ' 
   :

   
   for 
    name,value  
   in 
    attrs:

   
   if 
    name  
   == 
     
   ' 
   href 
   ' 
   :

   
   print 
    value

   
   print 
    self.get_starttag_text()

   
   # 
   创建HTML解析器的实例 
   
 
   
  lParser  
   = 
    parseLinks()

   
   # 
   打开HTML文件 
   
 
   
  lParser.feed(urllib.urlopen( /

   
   " 
   http://www.python.org/index.html 
   " 
   ).read())

  lParser.close()



  上述代码的运行结果太长,在此省略,您可以自己运行代码试试。

二、从HTML文档中提取图像

  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。


import 
    HTMLParser

   
   import 
    urllib

   
   def 
    getImage(addr):

  u  
   = 
    urllib.urlopen(addr)

  data  
   = 
    u.read()

   
   class 
    parseImages(HTMLParser.HTMLParser):

   
   def 
    handle_starttag(self, tag, attrs):

   
   if 
    tag  
   == 
     
   ' 
   img 
   ' 
   :

   
   for 
    name,value  
   in 
    attrs:

   
   if 
    name  
   == 
     
   ' 
   src 
   ' 
   :

  getImage(urlString  
   + 
     
   " 
   / 
   " 
     
   + 
    value)

  u  
   = 
    urllib.urlopen(urlString)

  lParser.feed(u.read())


  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:


import 
    HTMLParser

   
   import 
    urllib

   
   import 
    sys

  urlString  
   = 
     
   " 
   http://www.python.org 
   " 
   

   
   # 
   把图像文件保存至硬盘 
   
 
   
   
   def 
    getImage(addr):

  u  
   = 
    urllib.urlopen(addr)

  data  
   = 
    u.read()

  splitPath  
   = 
    addr.split( 
   ' 
   / 
   ' 
   )

  fName  
   = 
    splitPath.pop()

   
   print 
     
   " 
   Saving %s 
   " 
     
   % 
    fName

  f  
   = 
    open(fName,  
   ' 
   wb 
   ' 
   )

  f.write(data)

  f.close()

   
   # 
   定义HTML解析器 
   
 
   
   
   class 
    parseImages(HTMLParser.HTMLParser):

   
   def 
    handle_starttag(self, tag, attrs):

   
   if 
    tag  
   == 
     
   ' 
   img 
   ' 
   :

   
   for 
    name,value  
   in 
    attrs:

   
   if 
    name  
   == 
     
   ' 
   src 
   ' 
   :

  getImage(urlString  
   + 
     
   " 
   / 
   " 
     
   + 
    value)

   
   # 
   创建HTML解析器的实例 
   
 
   
  lParser  
   = 
    parseImages()

   
   # 
   打开HTML文件 
   
 
   
  u  
   = 
    urllib.urlopen(urlString)

   
   print 
     
   " 
   Opening URL/n==================== 
   " 
   

   
   print 
    u.info()

   
   # 
   把HTML文件传给解析器 
   
 
   
  lParser.feed(u.read())

  lParser.close()


  上述代码的运行结果如下所示:


Opening URL

   
   ==================== 
   

  Date: Fri,  
   26 
    Jun  
   2009 
     
   10 
   : 
   54 
   : 
   49 
    GMT

  Server: Apache 
   / 
   2.2 
   . 
   9 
    (Debian) DAV 
   / 
   2 
    SVN 
   / 
   1.5 
   . 
   1 
    mod_ssl 
   / 
   2.2 
   . 
   9 
    OpenSSL 
   / 
   0.9 
   .8g mod_wsgi 
   / 
   2.3 
    Python 
   / 
   2.5 
   . 
   2 
   

  Last 
   - 
   Modified: Thu,  
   25 
    Jun  
   2009 
    0 
   9 
   : 
   44 
   : 
   54 
    GMT

  ETag:  
   " 
   105800d-46e7-46d29136f7180 
   " 
   

  Accept 
   - 
   Ranges: bytes

  Content 
   - 
   Length:  
   18151 
   

  Connection: close

  Content 
   - 
   Type: text 
   / 
   html

  Saving python 
   - 
   logo.gif

  Saving trans.gif

  Saving trans.gif

  Saving afnic.fr.png


 三、从HTML文档中提取文本

  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。


import 
    HTMLParser

   
   import 
    urllib

   
   class 
    parseText(HTMLParser.HTMLParser):

   
   def 
    handle_data(self, data):

   
   if 
    data  
   != 
     
   ' 
   /n 
   ' 
   :

  urlText.append(data)

  lParser  
   = 
    parseText()

  lParser.feed(urllib.urlopen( /

  http: 
   // 
   docs.python.org 
   / 
   lib 
   / 
   module 
   - 
   HTMLParser.html).read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。 HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给 HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很 大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:


import 
    HTMLParser

   
   import 
    urllib

  urlText  
   = 
    []

   
   # 
   定义HTML解析器 
   
 
   
   
   class 
    parseText(HTMLParser.HTMLParser):

   
   def 
    handle_data(self, data):

   
   if 
    data  
   != 
     
   ' 
   /n 
   ' 
   :

  urlText.append(data)

   
   # 
   创建HTML解析器的实例 
   
 
   
  lParser  
   = 
    parseText()

   
   # 
   把HTML文件传给解析器 
   
 
   
  lParser.feed(urllib.urlopen( /

  “http: 
   // 
   docs.python.org 
   / 
   lib 
   / 
   module 
   - 
   HTMLParser.html” /

  ).read())

  lParser.close()

   
   for 
    item  
   in 
    urlText:

   
   print 
    item 
 
  上面代码的运行输出过长,在此略过
 
四、从HTML文档中提取Cookies
  很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。
 
 
   
   import 
    urllib2

   
   import 
    cookielib

   
   from 
    urllib2  
   import 
    urlopen, Request

  cJar  
   = 
    cookielib.LWPCookieJar()

  opener 
   = 
   urllib2.build_opener( /

  urllib2.HTTPCookieProcessor(cJar))

  urllib2.install_opener(opener)

  r  
   = 
    Request(testURL)

  h  
   = 
    urlopen(r)

   
   for 
    ind, cookie  
   in 
    enumerate(cJar):

   
   print 
     
   " 
   %d - %s 
   " 
     
   % 
    (ind, cookie)

  cJar.save(cookieFile)


  为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。

  接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些 程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。

  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。

  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。

  打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。


import 
    os

   
   import 
    urllib2

   
   import 
    cookielib

   
   from 
    urllib2  
   import 
    urlopen, Request

  cookieFile  
   = 
     
   " 
   cookies.dat 
   " 
   

  testURL  
   = 
     
   ' 
   http://maps.google.com/ 
   ' 
   

   
   # 
   为cookie jar 创建实例 
   
 
   
  cJar  
   = 
    cookielib.LWPCookieJar()

   
   # 
   创建HTTPCookieProcessor的opener对象 
   
 
   
  opener  
   = 
    urllib2.build_opener( /

  urllib2.HTTPCookieProcessor(cJar))

   
   # 
   安装HTTPCookieProcessor的opener 
   
 
   
  urllib2.install_opener(opener)

   
   # 
   创建一个Request对象 
   
 
   
  r  
   = 
    Request(testURL)

   
   # 
   打开HTML文件 
   
 
   
  h  
   = 
    urlopen(r)

   
   print 
     
   " 
   页面的头部/n====================== 
   " 
   

   
   print 
    h.info()

   
   print 
     
   " 
   页面的Cookies/n====================== 
   " 
   

   
   for 
    ind, cookie  
   in 
    enumerate(cJar):

   
   print 
     
   " 
   %d - %s 
   " 
     
   % 
    (ind, cookie)

   
   # 
   保存cookies 
   
 
   
  cJar.save(cookieFile) 
 
  上述代码的运行结果如下所示:
 
 
  页面的头部

   
   ====================== 
   

  Cache 
   - 
   Control: private

  Content 
   - 
   Type: text 
   / 
   html; charset 
   = 
   ISO 
   - 
   8859 
   - 
   1 
   

  Set 
   - 
   Cookie: PREF 
   = 
   ID 
   = 
   5d9692b55f029733:NW 
   = 
   1 
   :TM 
   = 
   1246015608 
   :LM 
   = 
   1246015608 
   :S 
   = 
   frfx 
   -- 
   b3xt73TaEA; expires 
   = 
   Sun,  
   26 
   - 
   Jun 
   - 
   2011 
     
   11 
   : 
   26 
   : 
   48 
    GMT; path 
   =/ 
   ; domain 
   = 
   .google.com

  Date: Fri,  
   26 
    Jun  
   2009 
     
   11 
   : 
   26 
   : 
   48 
    GMT

  Server: mfe

  Expires: Fri,  
   26 
    Jun  
   2009 
     
   11 
   : 
   26 
   : 
   48 
    GMT

  Transfer 
   - 
   Encoding: chunked

  Connection: close

  页面的Cookies

   
   ====================== 
   

  0  
   -


 五、为HTML文档中的属性值添加引号

  前面我们讨论了如果根据HTML解析器中的某种处理程序来解析HTML文件,可是有时候我们却需要使用所有的处理程序来处理HTML文档。值得庆幸的是,使用HTMLParser模块解析HTML文件的所有要素并不比处理链接或者图像难多少。



 

import 
    HTMLParser

   
   import 
    urllib

   
   class 
    parseAttrs(HTMLParser.HTMLParser):

   
   def 
    handle_starttag(self, tag, attrs):

  . . .

  attrParser  
   = 
    parseAttrs()

  attrParser.init_parser()

  attrParser.feed(urllib.urlopen( 
   " 
   test2.html 
   " 
   ).read())

  这里,我们将讨论如何使用HTMLParser模块来解析HTML文件,从而为“裸奔”的属性值加上引号。首先,我们要定义一个新的HTMLParser类,以覆盖下面所有的处理程序来为属性值添加引号。


handle_starttag(tag, attrs)

  handle_charref(name)

  handle_endtag(tag)

  handle_entityref(ref)

  handle_data(text)

  handle_comment(text)

  handle_pi(text)

  handle_decl(text)

  handle_startendtag(tag, attrs)



  我们还需要在parser类中定义一个函数来初始化用于存储解析好的数据的变量,同时还要定义另外一个函数来返回解析好的数据。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。使用我们创建的init函数初始化该解析器,这样,我们就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并给属性值添加引号,可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例代码:



import 
    HTMLParser

   
   import 
    urllib

   
   import 
    sys

   
   # 
   定义HTML解析器 
   
 
   
   
   class 
    parseAttrs(HTMLParser.HTMLParser):

   
   def 
    init_parser (self):

  self.pieces  
   = 
    []

   
   def 
    handle_starttag(self, tag, attrs):

  fixedAttrs  
   = 
     
   "" 
   

   
   # 
   for name,value in attrs: 
   
 
   
   
   for 
    name, value  
   in 
    attrs:

  fixedAttrs  
   += 
     
   " 
   %s=/"%s/"  
   " 
     
   % 
    (name, value)

  self.pieces.append( 
   " 
   <%s %s> 
   " 
     
   % 
    (tag, fixedAttrs))

   
   def 
    handle_charref(self, name):

  self.pieces.append( 
   " 
   &#%s; 
   " 
     
   % 
    (name))

   
   def 
    handle_endtag(self, tag):

  self.pieces.append( 
   "" 
     
   % 
    (tag))

   
   def 
    handle_entityref(self, ref):

  self.pieces.append( 
   " 
   &%s 
   " 
     
   % 
    (ref))

   
   def 
    handle_data(self, text):

  self.pieces.append(text)

   
   def 
    handle_comment(self, text):

  self.pieces.append( 
   "" 
     
   % 
    (text))

   
   def 
    handle_pi(self, text):

  self.pieces.append( 
   "" 
     
   % 
    (text))

   
   def 
    handle_decl(self, text):

  self.pieces.append( 
   "" 
     
   % 
    (text))

   
   def 
    parsed (self):

   
   return 
     
   "" 
   .join(self.pieces)

   
   # 
   创建HTML解析器的实例 
   
 
   
  attrParser  
   = 
    parseAttrs()

   
   # 
   初始化解析器数据 
   
 
   
  attrParser.init_parser()

   
   # 
   把HTML文件传给解析器 
   
 
   
  attrParser.feed(urllib.urlopen( 
   " 
   test2.html 
   " 
   ).read())

   
   # 
   显示原来的文件内容 
   
 
   
   
   print 
     
   " 
   原来的文件/n======================== 
   " 
   

   
   print 
    open( 
   " 
   test2.html 
   " 
   ).read()

   
   # 
   显示解析后的文件 
   
 
   
   
   print 
     
   " 
   解析后的文件/n======================== 
   " 
   

   
   print 
    attrParser.parsed()

  attrParser.close()



  我们还需要建立一个测试文件,名为test2.html,该文件内容可以从上述代码的运行结果看到,具体如下所示:



原来的文件
 
   ======================== 
   
 
   < 
   html 
   > 
   
 
   < 
   head 
   > 
   
 
   < 
   meta content 
   = 
   " 
   text/html; charset=utf-8 
   " 
   
http 
   - 
   equiv 
   = 
   " 
   content-type 
   " 
   /> 
   
 
   < 
   title 
   > 
   Web页面 
   </ 
   title 
   > 
   
 
   </ 
   head 
   > 
   
 
   < 
   body 
   > 
   
 
   < 
   H1 
   > 
   Web页面清单 
   </ 
   H1 
   > 
   
 
   < 
   a href 
   = 
   http: 
   // 
   www.python.org 
   > 
   Python网站 
   </ 
   a 
   > 
   
 
   < 
   a href 
   = 
   test.html 
   > 
   本地页面 
   </ 
   a 
   > 
   
 
   < 
   img SRC 
   = 
   test.jpg 
   > 
   
 
   </ 
   body 
   > 
   
 
   </ 
   html 
   > 
   

解析后的文件
 
   ======================== 
   
 
   < 
   html 
   > 
   
 
   < 
   head  
   > 
   
 
   < 
   meta content 
   = 
   " 
   text/html; charset=utf-8 
   " 
   
http 
   - 
   equiv 
   = 
   " 
   content-type 
   " 
     
   ></ 
   meta 
   > 
   
 
   < 
   title  
   > 
   Web页面 
   </ 
   title 
   > 
   
 
   </ 
   head 
   > 
   
 
   < 
   body  
   > 
   
 
   < 
   h1  
   > 
   Web页面清单 
   </ 
   h1 
   > 
   
 
   < 
   a href 
   = 
   " 
   http://www.python.org 
   " 
     
   > 
   Python网站 
   </ 
   a 
   > 
   
 
   < 
   a href 
   = 
   " 
   test.html 
   " 
     
   > 
   本地页面 
   </ 
   a 
   > 
   
 
   < 
   img src 
   = 
   " 
   test.jpg 
   " 
     
   > 
   
 
   </ 
   body 
   > 
   
 
   </ 
   html 
   >



  六、小结

  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文将详细介绍了如何使用Python模块来 迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时,我们还给出了一个规范HTML文件的格式标签的例子,希望本 文对您会有所帮助。