python爬虫

本文介绍了一种使用Python从豆瓣网站爬取特定电影海报的方法。通过读取本地文件中的电影名称,构造搜索URL并利用requests和lxml.etree库抓取页面上的海报图片链接,最后下载并保存海报到指定目录。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import time
import os

from lxml import etree
import requests
import os

headers = {
            'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36'
        }
openfile = os.path.dirname(os.path.abspath("__file__")) + "\\movies.dat"
with open("C:\\Users\\10693\\Documents\\Tencent Files\\1069300778\\FileRecv\\111.txt", "r") as f:
    while True:
        rs=f.read()
        #print(rs)
        if  rs:
            break
    
#print(rs)
de=rs.split('::')
for i in range(0,len(de)):
    if i%3==0:
       print(de[i])
       url = 'https://www.douban.com/search?cat=1002&q='+de[i]
       n=de[i]
       request =requests.get(url=url,headers=headers)
       res=etree.HTML(request.content).xpath("//div/div/a/img/@src")
       #print(res)
       #tt=res[0].split(".")
       #print(n)
       mm=i/3+1
       if len(res)==0:
           continue
       with open("D:\\BaiduNetdiskDownload\\"+str(mm)+str(n) + ".jpg", "wb") as f:
                print("保存第{0}张".format(i/3+1))
                url1=res[0]
                f.write((requests.get(url=url1, headers=headers)).content)
                f.close()

爬取文件了指定电影名称的海报

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值