百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

python实践:快速爬取网页表格数据——证监会官网IPO表格

zhezhongyun 2025-02-27 17:22 37 浏览

为爬取网页表格数据,常规方式是通过requests请求以及html5lib解析定位获取元素。得到的是目标网页所有table表格的list集合。

以证监会官网披露的IPO表格为例,沪市IPO公司沪市主板,网址为:
http://eid.csrc.gov.cn/ipo/101010/index.html

按照网页的提示,最多显示50页。通过下图的观测,1-50页的网址变化是有规律的,
http://eid.csrc.gov.cn/ipo/101010/ 这些是不变的,而变化的是index_1.html、index_2.html、
index_3.html......index_50.html。

明白了基本的网页显示规律。下面就开始爬取网页表格数据。

需要说明的是,例子运行在win10+Andconda3+python3.9+Spyder环境下,进行演示的。如果环境不同,可能存在些许差异,粉丝可以在评论区讨论。

一、试探性测试

import requests
from bs4 import BeautifulSoup

#  获取网页内容
# 发送请求,获取响应
url = 'http://eid.csrc.gov.cn/ipo/101010/index_1.html'
response = requests.get(url)
# 从响应中获取数据
page = response.content.decode()
print(page)

检查网页返回的page结果如下图:

红色框所示,返回的信息没有返回正确的数据,出现了“很抱歉,由于您访问的URL有可能对网站造成安全威胁,您的访问被阻断。”意思是,服务器对这种请求进行屏蔽,也就是进行了反爬虫处理。至于反爬虫如何破解,对于不同的网站有不同的方法。有兴趣的粉丝可以评论去讨论。

二、正确下载第一个网页

我们直接给requests.get一个自定义的header,伪装为Mozilla Firefox5.0浏览器进行访问然后用下面的代码测试。

import requests
from bs4 import BeautifulSoup

header={'User-Agent':'Mozilla/5.0'}
url = "http://eid.csrc.gov.cn/ipo/101010/index_1.html"
response=requests.get(url,headers=header)  
page = response.content.decode()
print(page)

检查网页返回的page结果如下图:

发现能正确下载网页内容了。至于到底采用何种方式下载,需要不断地测试。找到服务器认可的方式。至此,我们开始成功进程。

三、分析第一个网页的内容

分析第一个网页的内容,我们是要获取公司名称、披露类型、上市板块、保荐机构、披露时间、公告等六个字段内容。通过分析网页的内容,我们需要的内容就是一个标准的标签

的内容。它与和、和配合形成表格。

为此,我们编写了get_web_content函数,分析网页内容,url:网址,header:请求的头,data:分析处理的数据。如果看不懂,可以参照我以前写的头条文章Python爬虫编程:数据解析模块之bs4,超详细,它里面讲述得非常详细。

def get_web_content(url,header,data):
    response=requests.get(url_str,headers=header)       
    # 从响应中获取数据
    page = response.content.decode()
    # 构建bs对象
    soup = BeautifulSoup(page, 'html5lib') 
    # 查找标签
    table = soup.find('table')
    content = table.find_all('tr')
    for i in range(len(content)):
        td_text = content[i].find_all('td')
        td_data=[]
        for j in range(len(td_text)):
            td_data.append(td_text[j].text.strip()) #去掉头尾多余的空格和回车换行
        if len(td_data) > 0:  #去掉空的标题头
            data.append(td_data) 
data = []
get_web_content(url,header,data)
print(data)

运行到这,结果出来了。运行结果如下图所示,但是发现红色箭头的地方,显示不完全。

四、精准分析第一个网页的内容

我们发现,公告的内容有些显示不完全,通过分析网页代码,网页代码片段如下:

发现title的内容是完整的。我们直接去title的值就行了。我们改进函数get_web_content的逻辑及内容。

def get_web_content(url,header,data):
    response=requests.get(url_str,headers=header)       
    # 从响应中获取数据
    page = response.content.decode()
    # 构建bs对象
    soup = BeautifulSoup(page, 'html5lib') 
    # 查找标签
    table = soup.find('table')
    content = table.find_all('tr')
    for i in range(len(content)):
        td_text = content[i].find_all('td')
        td_data=[]
        for j in range(len(td_text)):
            if j==5:
                td_data.append(td_text[j]['title']) #最后一个字段,提取title的内容
            else:
                td_data.append(td_text[j].text.strip())
        if len(td_data) > 0:
            data.append(td_data)
data = []
get_web_content(url,header,data)
print(data)

至此,运行的结果是正确的了。

五、获取全部50个网页的内容

我们利用for循环,巧妙读利用格式化字符串,获取不同网站,进行请求网站服务器。如果对格式化字符串不太了解,可以参照我头条以前的文章,python编程实践:格式化字符串输出的四种方式详解

import pandas as pd
import requests
from bs4 import BeautifulSoup
header={'User-Agent':'Mozilla/5.0'}
url = "http://eid.csrc.gov.cn/ipo/101010/index_{0:d}.html"

data=[]

def get_web_content1(url,header,data):
    response=requests.get(url_str,headers=header)       
    # 从响应中获取数据
    page = response.content.decode()
    # 构建bs对象
    soup = BeautifulSoup(page, 'html5lib') 
    # 查找标签
    table = soup.find('table')
    content = table.find_all('tr')
    for i in range(len(content)):
        td_text = content[i].find_all('td')
        td_data=[]
        for j in range(len(td_text)):
            if j==5:
                td_data.append(td_text[j]['title'])
            else:
                td_data.append(td_text[j].text.strip())
        if len(td_data) > 0:
            data.append(td_data)
for ii in range(50):
    url_str = url.format(ii+1)
    get_web_content(url_str,header,data)
print(data)
print(len(data))

至此,运行结果如下图,我们需要的数据都在data变量里,共计有750条记录。

这个data变量的数据,您可以把它赋值为panda的数据,就可以利用panda的数据分析功能进行分析了。

需要说明的是:本例子没有把网站4138条记录全部爬取。如果您确实需要爬取,那是又应该爬取?留给粉丝讨论实现。

相关推荐

JavaScript做个贪吃蛇小游戏(过关-加速),无需网络直接玩。

JavaScript做个贪吃蛇小游戏(过关-则加速)在浏览器打开文件,无需网络直接玩。<!DOCTYPEhtml><htmllang="en"><...

大模型部署加速方法简单总结(大模型 ai)

以下对大模型部署、压缩、加速的方法做一个简单总结,为后续需要备查。llama.cppGithub:https://github.com/ggerganov/llama.cppLLaMA.cpp项...

安徽医大第一医院应用VitaFlow Liberty(R)Flex为患者焕然一“心”

近日,在安徽医科大学第一附属医院心血管内科负责人暨北京安贞医院安徽医院业务副院长喻荣辉教授的鼎力支持和卓越带领下,凭借着先进的VitaFlowLiberty(R)Flex经导管主动脉瓣可回收可...

300 多行代码搞定微信 8.0 的「炸」「裂」特效!

微信8.0更新的一大特色就是支持动画表情,如果发送的消息只有一个内置的表情图标,这个表情会有一段简单的动画,一些特殊的表情还有全屏特效,例如烟花表情有全屏放烟花的特效,炸弹表情有爆炸动画并且消息和...

让div填充屏幕剩余高度的方法(div填充20px)

技术背景在前端开发中,经常会遇到需要让某个div元素填充屏幕剩余高度的需求,比如创建具有固定头部和底部,中间内容区域自适应填充剩余空间的布局。随着CSS技术的发展,有多种方法可以实现这一需求。实现步骤...

css之div内容居中(css中div怎么居中)

div中的内容居中显示,包括水平和垂直2个方向。<html><head><styletype="text/css">...

使用uniapp开发小程序遇到的一些问题及解决方法

1、swiper组件自定义知识点swiper组件的指示点默认是圆圈,想要自己设置指示点,需要获得当前索引,然后赋给当前索引不同的样式,然后在做个动画就可以了。*关键点用change方法,然后通过e.d...

微信小程序主页面排版(怎样设置小程序的排版)

开发小程序的话首先要了解里面的每个文件的作用小程序没有DOM对象,一切基于组件化小程序的四个重要的文件*.js*.wxml--->view结构---->html*.wxss--...

Vue动态组件的实践与原理探究(vue动态组件component原理)

我司有一个工作台搭建产品,允许通过拖拽小部件的方式来搭建一个工作台页面,平台内置了一些常用小部件,另外也允许自行开发小部件上传使用,本文会从实践的角度来介绍其实现原理。ps.本文项目使用VueCLI...

【HarmonyOS Next之旅】兼容JS的类Web开发(四) -> tabs

目录1->创建Tabs2->设置Tabs方向3->设置样式4->显示页签索引5->场景示例编辑1->创建Tabs在pages/index目录...

CSS:前端必会的flex布局,我把布局代码全部展示出来了

进入我的主页,查看更多CSS的分享!首先呢,先去看文档,了解flex是什么,这里不做赘述。当然,可以看下面的代码示例,辅助你理解。一、row将子元素在水平方向进行布局:1.垂直方向靠顶部,水平方向靠...

【HarmonyOS Next之旅】兼容JS的类Web开发(四) -> swiper

目录1->创建Swiper组件2->添加属性3->设置样式4->绑定事件5->场景示例编辑1->创建Swiper组件在pages/index...

CSS:Flex布局,网页排版神器!(css3 flex布局)

还在为网页排版抓狂?别担心,CSS的flex布局来了,让你轻松玩转各种页面布局,实现网页设计自由!什么是Flex布局?Flex布局,也称为弹性布局,是CSS中的一种强大布局方式,它能够让你...

移动WEB开发之flex布局,附携程网首页案例制作

一、flex布局体验传统布局兼容性好布局繁琐局限性,不能再移动端很好的布局1.1flex弹性布局:操作方便,布局极为简单,移动端应用很广泛PC端浏览器支持情况较差IE11或更低版本,不支持或仅部...

2024最新升级–前端内功修炼 5大主流布局系统进阶(mk分享)

2024最新升级–前端内功修炼5大主流布局系统进阶(mk分享)获课》789it.top/14658/前端布局是网页设计中至关重要的一环,它决定了网页的结构和元素的排列方式。随着前端技术的不断发展,现...