python之selenium访问网站被反爬限制封锁解决方法

在访问某些网站时,selenium webdriver 开启网页失败,被发现为爬虫,目前我碰到的有效解决方案是:

1、因为selenium在命令行手动开启后的谷歌浏览器加了一些变量值,比如window.navigator.webdriver,在正常的谷歌浏览器是undefined,在selenium打开的谷歌浏览器是True,然后对方服务器就会下发js代码,检测这个变量值给网站,网站判断这个值,为True就是爬虫程序就封锁你的访问,如下图。

实现代码是在请求之前改变一些参数,绕过检测,具体细节可以自己了解下网站检测selenium的原理,需要设置对应其它的值都可以加:

  # 下面代码本人是基于命令行打开再接管浏览器窗口,
  from selenium import webdriver
  options = webdriver.ChromeOptions()
   
  # chrome在79版之前用下面两行代码
  #options.add_experimental_option("excludeSwitches", ["enable-automation"])
  #options.add_experimental_option('useAutomationExtension', False)
   
  # -我是最新谷歌浏览器版本
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值