#coding=utf-8
import urllib2
import re
import os
#this function from internet @Jacky.zhou
#去掉特征字符串内的html操作符
def filter_tags(htmlstr):
re_cdata=re.compile('//]*//\]\]>',re.I) #匹配CDATA
re_script=re.compile(']*>[^',re.I)#Script
re_style=re.compile(']*>[^',re.I)#style
re_p=re.compile('
')#处理换行
re_h=re.compile('?\w+[^>]*>')#HTML标签
re_comment=re.compile('')#HTML注释
s=re_cdata.sub('',htmlstr)#去掉CDATA
s=re_script.sub('',s) #去掉SCRIPT
s=re_style.sub('',s)#去掉style
s=re_p.sub('\r\n',s)#将
转换为换行
s=re_h.sub('',s) #去掉HTML 标签
s=re_comment.sub('',s)#去掉HTML注释
blank_line=re.compile('\n+')#去掉多余的空行
s=blank_line.sub('\n',s)
return s
#设置下载文件的保存位置
path = "E:\\news.qq.com\\a\\20120506\\"
#匹配url规则
rege = re.compile(r"/a/\d{8}/\d{6}.htm")
#从主页获得所有存在的url链接的后半部分并排序
urlcontent = urllib2.urlopen('http://news.qq.com/a/20120506/index.htm').read()
get_url = rege.findall(urlcontent)
get_url.sort()
#根据所获得的url数量建立循环遍历所有url链接
for i in xrange(0,len(get_url)):
get_url[i] = "http://news.qq.com"+get_url[i]#完整链接
#异常处理:部分url链接打开延时或者无法打开则跳过此次循环
try:#异常跳出
sub_web = urllib2.urlopen(get_url[i]).read()#打开完整url链接,获取内容
except urllib2.URLError, e:
print get_url[i][-10:-4]+' Failed'
continue
#下面开始内容操作
re_keyt = "
.+
"#获取标题,此处的标题不含腾讯新闻的后缀比较方便title = re.findall(re_keyt,sub_web)#去掉标题左右的html标签
re_keyc = re.compile("