html2txt 安卓,downloadhtml2txt.py

这段代码主要用于从网页中提取信息,如标题和正文内容。它首先定义了一个filter_tags函数用于清除HTML标签,然后通过正则表达式匹配URL,从腾讯新闻的指定目录下抓取文章。对于每个获取到的URL,尝试打开并读取内容,处理后存储。摘要无法提供,因为原始内容未包含具体的文章详情。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#coding=utf-8

import urllib2

import re

import os

#this function from internet @Jacky.zhou

#去掉特征字符串内的html操作符

def filter_tags(htmlstr):

re_cdata=re.compile('//]*//\]\]>',re.I) #匹配CDATA

re_script=re.compile(']*>[^',re.I)#Script

re_style=re.compile(']*>[^',re.I)#style

re_p=re.compile('

')#处理换行

re_h=re.compile('?\w+[^>]*>')#HTML标签

re_comment=re.compile('')#HTML注释

s=re_cdata.sub('',htmlstr)#去掉CDATA

s=re_script.sub('',s) #去掉SCRIPT

s=re_style.sub('',s)#去掉style

s=re_p.sub('\r\n',s)#将

转换为换行

s=re_h.sub('',s) #去掉HTML 标签

s=re_comment.sub('',s)#去掉HTML注释

blank_line=re.compile('\n+')#去掉多余的空行

s=blank_line.sub('\n',s)

return s

#设置下载文件的保存位置

path = "E:\\news.qq.com\\a\\20120506\\"

#匹配url规则

rege = re.compile(r"/a/\d{8}/\d{6}.htm")

#从主页获得所有存在的url链接的后半部分并排序

urlcontent = urllib2.urlopen('http://news.qq.com/a/20120506/index.htm').read()

get_url = rege.findall(urlcontent)

get_url.sort()

#根据所获得的url数量建立循环遍历所有url链接

for i in xrange(0,len(get_url)):

get_url[i] = "http://news.qq.com"+get_url[i]#完整链接

#异常处理:部分url链接打开延时或者无法打开则跳过此次循环

try:#异常跳出

sub_web = urllib2.urlopen(get_url[i]).read()#打开完整url链接,获取内容

except urllib2.URLError, e:

print get_url[i][-10:-4]+' Failed'

continue

#下面开始内容操作

re_keyt = "

.+

"#获取标题,此处的标题不含腾讯新闻的后缀比较方便

title = re.findall(re_keyt,sub_web)#去掉标题左右的html标签

re_keyc = re.compile("

",re.DOTALL)#匹配正文内容的正则(个别页面无法获得,见if块)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值