Python爬虫——xpath

本文介绍了一种利用Python的Requests库和lxml库中的XPath语法抓取网页数据的方法,具体展示了如何从百度新闻首页获取标题和链接等信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import  requests
from lxml import  etree
url = "https://news.baidu.com"
headers = {
     "User-Agent":"Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11"}
data = requests.get(url,headers=headers).content.decode()
#xpath语法 1、节点/
#          2、  跨界点//
#          3、找精确的节点//a[@属性=“属性值”]
#          4、标签包裹的内容text()
#          5、属性:@href
#          6、xpath返回列表
#转解析类型
html_new=data.replace(r'<!--','"').replace(r'-->','"')
xpath_data = etree.HTML(data)
#调用xpath的方法
with open("11.html","w")as f:
     f.write(data)

result = xpath_data.xpath('/html/head/title/text()')
result = xpath_data.xpath("//a/text()")
result1 = xpath_data.xpath('//a[@data-path="s?wd="]/text()')
#result = xpath_data.xpath('//a[@mon="target=appLink"]/@href')


print(result1)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值