python爬取某乎热榜Top50

该博客展示了如何使用Python爬虫技术抓取知乎热榜的前50名问题,包括问题链接、排名、标题、简介、评分和配图,并将数据存储到SQLite数据库中。通过正则表达式解析HTML页面,然后利用BeautifulSoup进行数据提取,最后进行数据持久化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、导入第三方库

import urllib.request,urllib.error  #请求网页
from bs4 import BeautifulSoup  # 解析数据
import sqlite3  # 导入数据库
import re # 正则表达式
import time # 获取当前时间

2、程序的主函数

def main():
    # 声明爬取网页
    baseurl = "https://www.zhihu.com/hot"
    # 爬取网页
    datalist = getData(baseurl)
    #保存数据
    dbname = time.strftime("%Y-%m-%d", time.localtime()) # 
    dbpath = "zhihuTop50  " + dbname
    saveData(datalist,dbpath)

3、正则表达式匹配数据

#正则表达式
findlink = re.compile(r'<a class="css-hi1lih" href="(.*?)"') #问题链接
findid = re.compile(r'<div class="css-blkmyu">(.*?)</div>') #问题排名
findtitle = re.compile(r'<h1 class="css-3yucnr">(.*?)</h1>') #问题标题
findintroduce = re.compile(r'<div class="css-1o6sw4j">(.*?)</div>') #简要介绍
findscore = re.compile(r'<div class="css-1iqwfle">(.*?)</div>') #热门评分
findimg = re.compile(r'<img class="css-uw6cz9" src="(.*?)"/>') #文章配图

4、程序运行结果

在这里插入图片描述
在这里插入图片描述

5、程序源代码

import urllib.request,urllib.error
from bs4 import BeautifulSoup
import sqlite3
import re
import time

def main():
    # 声明爬取网页
    baseurl = "https://www.zhihu.com/hot"
    # 爬取网页
    datalist = getData(baseurl)
    #保存数据
    dbname = time.strftime("%Y-%m-%d", time.localtime())
    dbpath = "zhihuTop50  " + dbname
    saveData(datalist,dbpath)
    print()
#正则表达式
findlink = re.compile(r'<a class="css-hi1lih" href="(.*?)"') #问题链接
findid = re.compile(r'<div class="css-blkmyu">(.*?)</div>') #问题排名
findtitle = re.compile(r'<h1 class="css-3yucnr">(.*?)</h1>') #问题标题
findintroduce = re.compile(r'<div class="css-1o6sw4j">(.*?)</div>') #简要介绍
findscore = re.compile(r'<div class="css-1iqwfle">(.*?)</div>') #热门评分
findimg = re.compile(r'<img class="css-uw6cz9" src="(.*?)"/>') #文章配图

def getData(baseurl):
    datalist = []
    html = askURL(baseurl)
    # print(html)

    soup = BeautifulSoup(html,'html.parser')
    for item in soup.find_all('a',class_="css-hi1lih"):
        # print(item)
        data = []
        item = str(item)

        Id = re.findall(findid,item)
        if(len(Id) == 0):
            Id = re.findall(r'<div class="css-mm8qdi">(.*?)</div>',item)[0]
        else: Id = Id[0]
        data.append(Id)
        # print(Id)

        Link = re.findall(findlink,item)[0]
        data.append(Link)
        # print(Link)

        Title = re.findall(findtitle,item)[0]
        data.append(Title)
        # print(Title)

        Introduce = re.findall(findintroduce,item)
        if(len(Introduce) == 0):
            Introduce = " "
        else:Introduce = Introduce[0]
        data.append(Introduce)
        # print(Introduce)

        Score = re.findall(findscore,item)[0]
        data.append(Score)
        # print(Score)

        Img = re.findall(findimg,item)
        if (len(Img) == 0):
            Img = " "
        else: Img = Img[0]
        data.append(Img)
        # print(Img)
        datalist.append(data)
    return datalist
def askURL(baseurl):
    # 设置请求头
    head = {
        # "User-Agent": "Mozilla/5.0 (Windows NT 10.0;Win64;x64) AppleWebKit/537.36(KHTML, likeGecko) Chrome/80.0.3987.163Safari/537.36"
        "User-Agent": "Mozilla / 5.0(iPhone;CPUiPhoneOS13_2_3likeMacOSX) AppleWebKit / 605.1.15(KHTML, likeGecko) Version / 13.0.3Mobile / 15E148Safari / 604.1"
    }
    request = urllib.request.Request(baseurl, headers=head)
    html = ""
    try:
        response = urllib.request.urlopen(request)
        html = response.read().decode("utf-8")
        # print(html)
    except urllib.error.URLError as e:
        if hasattr(e, "code"):
            print(e.code)
        if hasattr(e, "reason"):
            print(e.reason)
    return html
    print()
def saveData(datalist,dbpath):
    init_db(dbpath)
    conn = sqlite3.connect(dbpath)
    cur = conn.cursor()

    for data in datalist:
        sql = '''
        insert into Top50(
        id,info_link,title,introduce,score,img)
        values("%s","%s","%s","%s","%s","%s")'''%(data[0],data[1],data[2],data[3],data[4],data[5])
        print(sql)
        cur.execute(sql)
        conn.commit()
    cur.close()
    conn.close()
def init_db(dbpath):
    sql = '''
    create table Top50
    (
    id integer primary key autoincrement,
    info_link text,
    title text,
    introduce text,
    score text,
    img text
    )
    '''
    conn = sqlite3.connect(dbpath)
    cursor = conn.cursor()
    cursor.execute(sql)
    conn.commit()
    conn.close()

if __name__ =="__main__":
    main()
Python爬取微博热搜的TOP50通常需要通过网络抓取技术,利用第三方库如`requests`获取网页内容,然后解析HTML或JSON数据,找到包含标题、排名和热点值信息的部分。以下是一个简化的步骤概述: 1. **安装必要的库**: 首先,你需要安装`requests`, `beautifulsoup4` (用于HTML解析) 和 `lxml` 库,如果还没有安装,可以使用以下命令: ``` pip install requests beautifulsoup4 lxml ``` 2. **发送HTTP请求**: 使用`requests.get('微博热搜URL')` 获取热搜页面的HTML源码。 3. **解析数据**: 将网页源码传给`BeautifulSoup`解析,找到包含相关信息的元素。这一步可能需要查找特定的CSS或XPath选择器来定位标题、排名和热点值的数据节点。 4. **提取数据**: 找到相应的DOM元素后,使用`.text`属性获取纯文本内容。例如,假设标题在`<h3>`标签内,你可以这样做: ```python titles = soup.find_all('h3', class_='热搜-title') ranks = soup.find_all('span', class_='热搜-rank') hot_values = soup.find_all('span', class_='热搜-value') ``` 5. **存储数据**: 创建一个字典或其他合适的数据结构,将每条数据(标题、排名和热点值)关联起来,并保存到列表或CSV文件中。 注意:微博的API可能会有反爬策略,直接爬取可能会受到限制,最好遵守其开发者协议并寻找官方提供的API接口,如果没有,使用模拟登录等方法时要小心避免被封禁。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值