python网络爬虫笔记20:批量下载图片并将其转换为pdf文档

本文介绍了如何使用Python批量下载网页上的图片,并将这些图片转换为PDF文档。首先,通过浏览器开发者工具获取图片URL,接着分析URL规律以实现代码自动化下载。然后,利用requests库进行图片下载,最后借助第三方工具将图片合并成PDF,方便阅读和传输。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

对于有些网页,你可以预览所有的页面内容,并且也可以通过F12获取到页面的URL,但是面对动辄几十页的图片,手动下载显然是不可行的。

在这里我们给出一个人机交互的通用解决策略。

第一步:使用F12获取页面所有感兴趣图片的URL

这一步看似简单,其实也暗藏玄机。因为有些网站你能看到所有图片,但是你在网页上点击F12并不会给你显示网址源码。这个时候,你就需要在网址上,点击F12一般都会显示出网页的源码。

第二步:手动刷新网页把所有的图片连接都刷出来

这一步就是手动刷出来所有的网址连接的URL,然后分析这些URL之间有什么规律;根据规律,我们就可以使用代码批量下载了。例如:

给出第一页和第二页的URL:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

薛桂琴

喜欢的读者,可以打赏鼓励一下

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值