import os.path import random import time from multiprocessing import Pool import requests from lxml import etree headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36' } def get_img_src(page): ''' 抓取页面的图片的src :return: ''' for i in range(1, page+1): url = f'https://www.pkdoutu.com/photo/list/?page={i}' print(f'抓取{url}页数据') res = requests.get(url, headers=headers) res.encoding = res.apparent_encoding tree = etree.HTML(res.text) # 抓取图片 img_list = tree.xpath('//img[@referrerpolicy="no-referrer"]/@data-original') yield img_list def download_img(url): ''' 下载图片 :return: ''' time.sleep(random.uniform(0, 1)) img_res = requests.get(url, headers=headers) img_name = url.split('_')[-1] # 通过图片url进行拆分,拿到图片名称和后缀 path = 'img' # 判断路径是否存在,不存在则创建 if not os.path.exists(path): os.mkdir(path) # 写入到文件中 with open(os.path.join(path, img_name), 'wb') as f: f.write(img_res.content) if __name__ == '__main__': pool = Pool() # 通过生成器get_img_src返回图片列表 for url_list in get_img_src(2): for url in url_list: # 循环加入进程池 pool.apply_async(download_img, args=(url, )) pool.close() pool.join() print('over')

时间: 2024-04-25 08:27:17 浏览: 175
这是一个 Python 程序,主要用于从指定网站上抓取图片并下载到本地。程序使用了 multiprocessing 库中的进程池来实现多进程下载,加快了下载速度。其中,get_img_src 函数用于抓取指定页数的图片链接,download_img 函数用于下载指定链接的图片并保存到本地。主函数中使用了进程池来异步下载所有图片。 程序的具体实现步骤如下: 1. 导入所需的库,包括 os.path、random、time、multiprocessing 和 requests。 2. 定义抓取图片链接的函数 get_img_src,通过循环抓取指定页数的页面,并使用 lxml 库解析页面内容,抓取图片链接并返回。 3. 定义下载图片的函数 download_img,通过 requests 库下载指定链接的图片,并将图片保存到本地。 4. 在主函数中使用进程池来异步下载所有图片,具体实现如下: a. 创建进程池 pool。 b. 通过生成器 get_img_src 返回图片链接列表,循环遍历每个链接。 c. 将 download_img 函数加入进程池,并传入图片链接作为参数。 d. 关闭进程池,并等待所有进程完成。 e. 打印下载完成提示信息。 该程序适用于需要大量下载图片的场景,可以通过调整进程池的大小和抓取的页数来适应不同的需求。
相关问题

优化这段代码:import requests import pandas as pd from bs4 import BeautifulSoup from lxml import etree import time import pymysql from sqlalchemy import create_engine from urllib.parse import urlencode # 编码 URL 字符串 start_time = time.time() #计算程序运行时间 def get_one_page(i): try: headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36' } paras = {'reportTime': '2023-03-23', #可以改报告日期,比如2018-6-30获得的就是该季度的信息 'pageNum': i #页码 } url = 'http://s.askci.com/stock/a/?' + urlencode(paras) response = requests.get(url,headers = headers) if response.status_code == 200: return response.text return None except RequestException: print('爬取失败') def parse_one_page(html): soup = BeautifulSoup(html,'lxml') content = soup.select('#myTable04')[0] #[0]将返回的list改为bs4类型 tbl = pd.read_html(content.prettify(),header = 0)[0] # prettify()优化代码,[0]从pd.read_html返回的list中提取出DataFrame tbl.rename(columns = {'序号':'serial_number', '股票代码':'stock_code', '股票简称':'stock_abbre', '公司名称':'company_name', '省份':'province', '城市':'city', '主营业务收入(201712)':'main_bussiness_income', '净利润(201712)':'net_profit', '员工人数':'employees', '上市日期':'listing_date', '招股书':'zhaogushu', '公司财报':'financial_report', '行业分类':'industry_classification', '产品类型':'industry_type', '主营业务':'main_business'},inplace = True) return tbl def generate_mysql(): conn = pymysql.connect( host='localhost', user='root', password='******', port=3306, charset = 'utf8', db = 'wade') cursor = conn.cursor() sql = 'CREATE TABLE IF NOT EXISTS listed_company (serial_number INT(20) NOT NULL,stock_code INT(20) ,stock_abbre VARCHAR(20) ,company_name VARCHAR(20) ,province VARCHAR(20) ,city VARCHAR(20) ,main_bussiness_income VARCHAR(20) ,net_profit VARCHAR(20) ,employees INT(20) ,listing_date DATETIME(0) ,zhaogushu VARCHAR(20) ,financial_report VARCHAR(20) , industry_classification VARCHAR(20) ,industry_type VARCHAR(100) ,main_business VARCHAR(200) ,PRIMARY KEY (serial_number))' cursor.execute(sql) conn.close() def write_to_sql(tbl, db = 'wade'): engine = create_engine('mysql+pymysql://root:******@localhost:3306/{0}?charset=utf8'.format(db)) try: tbl.to_sql('listed_company2',con = engine,if_exists='append',index=False) # append表示在原有表基础上增加,但该表要有表头 except Exception as e: print(e) def main(page): generate_mysql() for i in range(1,page): html = get_one_page(i) tbl = parse_one_page(html) write_to_sql(tbl) # # 单进程 if __name__ == '__main__': main(178) endtime = time.time()-start_time print('程序运行了%.2f秒' %endtime) # 多进程 from multiprocessing import Pool if __name__ == '__main__': pool = Pool(4) pool.map(main, [i for i in range(1,178)]) #共有178页 emdtime = time.time()-start_time print('程序运行了%.2f秒' %(time.time()-start_time))

这段代码已经很简洁了,但是可以通过以下方式进行优化: 1. 导入模块时可以将相同的模块放在一起,如将requests和pandas放在一起,将BeautifulSoup和lxml放在一起。 2. 导入模块时可以只导入需要的部分,如只导入urlencode函数。 3. 可以将函数或代码段封装成函数或类,使代码结构更清晰。
阅读全文

相关推荐

最新推荐

recommend-type

基于Django的网络设备租赁系统设计与实现-z78dv873【附万字论文+PPT+包部署+录制讲解视频】.zip

基于Django的网络设备租赁系统设计与实现-z78dv873【附万字论文+PPT+包部署+录制讲解视频】.zip
recommend-type

模型过拟合与欠拟合解决方案.doc

模型过拟合与欠拟合解决方案.doc
recommend-type

“经典动态规划问题过河卒代码实现”

资源下载链接为: https://pan.quark.cn/s/abbae039bf2a 在棋盘上,A点有一枚过河卒,目标是抵达B点。卒的移动方式仅限于向下或向右行进。然而,棋盘上存在一个对方的马(比如C点的马),马所在的点以及它能一步跳跃到达的所有点都属于对方马的控制范围。以C点的马为例,它能控制9个点(包括C点本身以及图示的P1至P8)。卒在行进过程中,不能经过对方马的任何控制点。
recommend-type

PKID查壳工具最新版发布,轻松识别安卓安装包加壳

根据提供的文件信息,我们可以详细解读以下知识点: ### PKiD(查壳)工具介绍 #### 标题分析 - **PKiD(查壳)**: 这是一个专门用于分析安卓安装包(APK文件)是否被加壳的应用程序。"查壳"是一种用于检测软件是否被保护层(即“壳”)包裹的技术术语。加壳是一种常见的软件保护手段,用于隐藏真实的代码逻辑,防止恶意逆向分析。 - **RAR格式文件**: 文件使用了RAR格式进行压缩,这是WinRAR软件用于文件压缩和解压缩的专有格式。 #### 描述分析 - **ApkScan-PKID查壳工具.zip**: 这指的是一款名为ApkScan的工具,它包含了PKID查壳功能。该工具被打包成ZIP格式,便于用户下载和使用。 - **安卓安装包**: 这是指Android平台的应用程序安装包,通常以APK作为文件扩展名。 - **加壳检测**: PKID查壳工具用于检测APK文件是否被加壳,加壳是一种常见的软件保护技术,用于加密和保护软件免遭逆向工程。 - **脱壳测试**: 如果检测到加壳,脱壳测试将用于尝试去除或绕过保护层,以便进行安全分析、调试或修改程序。 #### 标签分析 - **查壳**: 再次强调了工具的主要功能,即检测APK文件中的加壳情况。 - **最新版**: 表示这个文件是PKID查壳工具的最新版本。 - **PKID**: 这是工具的核心名称,代表着该软件的主要功能和用途。 #### 文件列表分析 - **PKiD(查壳).exe**: 这是一个可执行文件,说明PKID查壳工具是一个独立的应用程序,用户可以通过双击此文件直接运行程序,而无需安装。 ### 技术背景 #### 查壳工具的工作原理 查壳工具通常通过分析APK文件的头部信息、资源文件和代码段来检测加壳。它可能会检查PE文件格式的特定区域(APK基于DEX,但PE检查的概念相似),这些区域在加壳过程中可能会被特定的代码模式、字符串或签名标记。例如,某些壳会在文件头部加入特定的字符串,或者修改方法计数等信息。 #### 加壳技术 加壳技术通常用于防止软件被轻易反编译或逆向工程。它可以阻止潜在的窃取知识产权、绕过付费或防止代码分析等。加壳过程包括加密和压缩原始代码,然后在运行时解压和解密代码以供执行。 #### 脱壳技术 脱壳技术是指绕过或移除软件保护壳的过程。这通常需要对壳的工作原理有深入了解,并且需要一定的逆向工程技能。脱壳过程可能包括识别壳的签名、分析保护机制、修改代码和重定位等步骤。 #### 安全测试与逆向工程 查壳工具对于安全测试和逆向工程人员来说是非常重要的工具。它们可以帮助识别软件是否被加壳,从而决定是否需要进行脱壳操作以便深入分析软件的安全漏洞或版权问题。 #### 使用场景 - **安全测试**: 安全工程师在对移动应用程序进行安全评估时,需要确认是否有必要进行脱壳处理。 - **逆向工程**: 开发人员可能需要逆向工程某个应用,以更好地理解其工作原理或为了兼容性问题进行修改。 - **软件保护**: 对于软件开发者而言,了解常见的加壳和脱壳技术有助于更好地保护自己的应用免遭未授权的篡改和分析。 ### 结论 了解和掌握PKID查壳工具的使用对于任何需要对APK文件进行安全性分析的专业人士来说都是基础且关键的技能。该工具提供了一种快速判断软件是否加壳的方法,而且在发现壳的情况下,还可以推测出壳的来源公司,这对于后续的分析和处理提供了便利。然而,值得注意的是,进行脱壳操作往往需要对原始程序代码进行逆向工程,这在很多情况下可能涉及法律和道德问题,因此在使用此类工具时,必须确保其合法性和符合道德规范。
recommend-type

【PDF.js问题诊断手册】:快速定位与解决常见问题

# 摘要 PDF.js是一个广泛应用于Web环境中的PDF文件渲染库,其基本原理和应用概况将在本文第一章进行概述。第二章深入探讨PDF.js的问题诊断基础,包括架构分析、问题分类和日志分析技巧。随后,本文将具体讨论PDF.js在显示问题、加载与性能问题以及兼容性与安全问题的诊断与
recommend-type

grep -Ei

<think>首先,用户的问题是关于使用grep命令进行忽略大小写的扩展正则表达式搜索。用户指定了:"grep -Ei ignore case and use extended regular expressions"。所以,我需要解释如何使用grep的-E和-i选项。 从系统指令中: - 所有行内数学表达式必须用$...$格式。 - 独立公式用$$...$$。 - 使用中文回答。 - 生成相关问题。 - 在回答中引用的段落末尾添加引用标识,如[^1]。 - 回答结构清晰,逐步解决问题。 参考引用: - 引用[1]提到使用-E选项进行扩展正则表达式,而不是基本正则表达式。这更清晰,因为反斜
recommend-type

一键关闭系统更新的工具介绍

从给定的文件信息中我们可以分析出几个相关的知识点,以下是详细说明: 【标题】“系统禁止更新工具.7z”暗示着这个压缩文件内包含的可能是一款软件工具,其主要功能是阻止或禁止操作系统的更新。这种工具可能针对的是Windows、Linux或者其他操作系统的自动更新功能。一般来说,用户可能出于稳定性考虑,希望控制更新时间,或者是因为特定的软件环境依赖于旧版本的系统兼容性,不希望系统自动更新导致兼容性问题。 【描述】“一健关闭系统更新”说明了该工具的使用方式非常简单直接。用户只需通过简单的操作,比如点击一个按钮或者执行一个命令,就能实现关闭系统自动更新的目的。这种一键式操作符合用户追求的易用性原则,使得不太精通系统操作的用户也能轻松控制更新设置。 【标签】“系统工具”表明这是一个与操作系统紧密相关的辅助工具。系统工具通常包括系统清理、性能优化、磁盘管理等多种功能,而本工具专注于管理系统更新,使其成为系统维护中的一环。 【压缩包子文件的文件名称列表】“系统禁止更新工具”是压缩包内的文件名。由于文件格式为“.7z”,这说明该工具采用了7-Zip压缩格式。7-Zip是一款开源且免费的压缩软件,支持非常高的压缩比,并且能够处理各种压缩文件格式,如ZIP、RAR等。它支持创建密码保护的压缩文件和分卷压缩,这在需要转移大量数据时特别有用。然而在这个上下文中,“系统禁止更新工具”文件名暗示了该压缩包内只包含了一个程序,即专门用于关闭系统更新的工具。 根据标题和描述,我们可以推测该工具可能的实现机制,例如: 1. 修改系统服务的配置:在Windows系统中,可以通过修改Windows Update服务的属性来禁用该服务,从而阻止系统自动下载和安装更新。 2. 修改注册表设置:通过编辑Windows注册表中的某些特定键值,可以关闭系统更新功能。这通常涉及到对HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\WindowsUpdate和HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\WindowsUpdate\AU等路径下的设置进行修改。 3. 使用第三方软件:某些第三方工具提供了一键禁用系统更新的功能,通过修改操作系统的相关文件和配置来实现更新的禁用。这包括阻止Windows Update的运行、拦截更新下载等。 该工具的使用可能带来一些后果,比如系统安全风险的增加、系统漏洞得不到及时修复以及可能违反某些软件许可协议。用户在使用这类工具时应该清楚这些潜在的影响,并自行承担相应的风险。 总结来说,该“系统禁止更新工具”可以视为一个针对特定用户需求,尤其是企业用户或个人用户中对系统稳定性有较高要求的人群,提供的一个便捷的解决方案。它通过直接修改系统设置来禁止操作系统自动更新,但用户在使用此工具时需要谨慎,因为这可能会带来系统安全和稳定性的风险。
recommend-type

【PC3000高级应用】:复杂故障快速诊断与解决

# 摘要 本文详细介绍了PC3000在数据恢复领域的应用及其重要性,阐述了其基本操作、界面理解以及在复杂故障诊断中的应用方法。深入剖析了PC3
recommend-type

我的数据是names(data) [1] "分组" "排序" "PACU" "V1" "V2" "V3" ;后四个数据分别代表四个时间点的测量值,请你用ART模型进行规范检验,我需要得到分组(即不同处理方法)的差异

<think>我们正在处理一个重复测量设计的数据分析问题,用户希望使用ART(Align Rank Transform)方法分析包含分组因素和多个时间点的数据。数据格式包括分组变量(group)、受试者编号(subject)以及四个时间点(V1-V3)的测量值。 ART分析步骤: 1. 数据准备:将宽格式数据转换为长格式(每个时间点一行) 2. 使用ARTool包进行对齐秩变换 3. 构建混合效应模型(包含分组、时间及其交互) 4. 对变换后的数据进行方差分析 5. 进行事后检验(如存在显著效应) 引用说明: - 用户提供的引用[1][2][3][4]与当前问题无关,因此忽略这些引用 -
recommend-type

鼎捷易飞ERPV9.0委外进货单批量导入解决方案

根据提供的文件信息,我们可以从标题、描述、标签以及压缩包文件列表中提取以下知识点: 1. 委外进货单批量导入程序及模版格式 标题提到的“委外进货单批量导入程序”指的是一个软件应用,其主要功能是允许用户批量地将委外进货数据导入到ERP系统中。批量导入通常是指在ERP系统中不需要逐条手动输入数据,而是通过预先定义好的模板,一次性将大量数据导入系统。这样的程序对于提高工作效率、减少重复性工作以及避免人为错误具有重要意义。 2. 鼎捷易飞ERPV9.0 描述中提到的“鼎捷易飞ERPV9.0”是一个特定版本的ERP系统,由鼎捷软件公司开发。ERP(Enterprise Resource Planning,企业资源计划)系统是一种用于整合企业内部所有资源信息,实现信息流、物流、资金流、工作流的高度集成和自动化管理的软件。ERPV9.0是该系列产品的版本号,表明该程序和文件模板是为这一特定版本的ERP系统设计。 3. .NET C#源代码 标题中的“.NET C#源代码”表示程序是使用.NET框架和C#语言开发的。.NET是微软公司开发的一个软件框架,用于构建和运行Windows应用程序。C#(读作“C Sharp”)是.NET框架下的一种编程语言,具有面向对象、类型安全和垃圾回收等特点。开发者可能提供了源代码,以便企业用户可以自行修改、调整以满足特定需求。 4. 使用方法和步骤 描述中详细说明了程序的使用方法: - 首先编辑模版格式数据,即将需要导入的数据按照特定的格式要求填写到模板中。 - 然后在程序中选择单别(可能指的是单据类型)和日期等条件。 - 点击“导入数据”按钮,程序将提示用户选择含有数据的模板文件。 - 程序会进行数据校验,以确保数据的正确性。校验规则是特定的,如果用户不需要特定的校验条件,可以在程序中直接删除这部分代码。 - 最后,数据校验无误后,程序可以生成相应的进货单据。 5. 自定义程序和模板 在标签中提到的“易飞ERP委外进货单导入程序”、“委外进货单导入程序”和“易飞ERP自定义程序”表明,所提供的程序可以根据用户的特定需求进行定制。同时,模板格式的使用,也意味着用户可以根据自己的业务需要和ERP系统的要求调整模板内容,以便更好地适应数据导入过程。 6. 压缩包子文件的文件名称列表 提供的压缩包包含两个文件: - “委外进货单批量导入格式.xls”指的是一个Excel格式的文件,这个文件应该是一个符合要求的导入模板,用户需要按照这个模板的格式来准备需要导入的数据。 - “委外入库导入(源代码).zip”是一个包含源代码的压缩文件,其中可能包含程序的完整源代码,也可能仅包含与导入功能相关的部分代码。 7. 文件列表和数据导入流程 通过文件列表可以理解整个数据导入流程: - 用户首先需要准备好数据,并将其按照“委外进货单批量导入格式.xls”模板中的要求填入相应的数据。 - 用户然后使用“委外入库导入(源代码).zip”中的程序,根据程序使用说明进行配置。 - 最后,用户通过程序界面导入整理好的Excel模板文件,程序会自动处理数据导入的过程,并进行必要的数据校验,最终生成所需的进货单据。 以上总结的知识点涵盖了该压缩包文件的内容、用途、技术细节以及操作步骤,为了解和使用该委外进货单批量导入程序提供了充分的信息。