百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

python实践:快速爬取网页表格数据——证监会官网IPO表格

zhezhongyun 2025-02-27 17:22 50 浏览

为爬取网页表格数据,常规方式是通过requests请求以及html5lib解析定位获取元素。得到的是目标网页所有table表格的list集合。

以证监会官网披露的IPO表格为例,沪市IPO公司沪市主板,网址为:
http://eid.csrc.gov.cn/ipo/101010/index.html

按照网页的提示,最多显示50页。通过下图的观测,1-50页的网址变化是有规律的,
http://eid.csrc.gov.cn/ipo/101010/ 这些是不变的,而变化的是index_1.html、index_2.html、
index_3.html......index_50.html。

明白了基本的网页显示规律。下面就开始爬取网页表格数据。

需要说明的是,例子运行在win10+Andconda3+python3.9+Spyder环境下,进行演示的。如果环境不同,可能存在些许差异,粉丝可以在评论区讨论。

一、试探性测试

import requests
from bs4 import BeautifulSoup

#  获取网页内容
# 发送请求,获取响应
url = 'http://eid.csrc.gov.cn/ipo/101010/index_1.html'
response = requests.get(url)
# 从响应中获取数据
page = response.content.decode()
print(page)

检查网页返回的page结果如下图:

红色框所示,返回的信息没有返回正确的数据,出现了“很抱歉,由于您访问的URL有可能对网站造成安全威胁,您的访问被阻断。”意思是,服务器对这种请求进行屏蔽,也就是进行了反爬虫处理。至于反爬虫如何破解,对于不同的网站有不同的方法。有兴趣的粉丝可以评论去讨论。

二、正确下载第一个网页

我们直接给requests.get一个自定义的header,伪装为Mozilla Firefox5.0浏览器进行访问然后用下面的代码测试。

import requests
from bs4 import BeautifulSoup

header={'User-Agent':'Mozilla/5.0'}
url = "http://eid.csrc.gov.cn/ipo/101010/index_1.html"
response=requests.get(url,headers=header)  
page = response.content.decode()
print(page)

检查网页返回的page结果如下图:

发现能正确下载网页内容了。至于到底采用何种方式下载,需要不断地测试。找到服务器认可的方式。至此,我们开始成功进程。

三、分析第一个网页的内容

分析第一个网页的内容,我们是要获取公司名称、披露类型、上市板块、保荐机构、披露时间、公告等六个字段内容。通过分析网页的内容,我们需要的内容就是一个标准的标签

的内容。它与和、和配合形成表格。

为此,我们编写了get_web_content函数,分析网页内容,url:网址,header:请求的头,data:分析处理的数据。如果看不懂,可以参照我以前写的头条文章Python爬虫编程:数据解析模块之bs4,超详细,它里面讲述得非常详细。

def get_web_content(url,header,data):
    response=requests.get(url_str,headers=header)       
    # 从响应中获取数据
    page = response.content.decode()
    # 构建bs对象
    soup = BeautifulSoup(page, 'html5lib') 
    # 查找标签
    table = soup.find('table')
    content = table.find_all('tr')
    for i in range(len(content)):
        td_text = content[i].find_all('td')
        td_data=[]
        for j in range(len(td_text)):
            td_data.append(td_text[j].text.strip()) #去掉头尾多余的空格和回车换行
        if len(td_data) > 0:  #去掉空的标题头
            data.append(td_data) 
data = []
get_web_content(url,header,data)
print(data)

运行到这,结果出来了。运行结果如下图所示,但是发现红色箭头的地方,显示不完全。

四、精准分析第一个网页的内容

我们发现,公告的内容有些显示不完全,通过分析网页代码,网页代码片段如下:

发现title的内容是完整的。我们直接去title的值就行了。我们改进函数get_web_content的逻辑及内容。

def get_web_content(url,header,data):
    response=requests.get(url_str,headers=header)       
    # 从响应中获取数据
    page = response.content.decode()
    # 构建bs对象
    soup = BeautifulSoup(page, 'html5lib') 
    # 查找标签
    table = soup.find('table')
    content = table.find_all('tr')
    for i in range(len(content)):
        td_text = content[i].find_all('td')
        td_data=[]
        for j in range(len(td_text)):
            if j==5:
                td_data.append(td_text[j]['title']) #最后一个字段,提取title的内容
            else:
                td_data.append(td_text[j].text.strip())
        if len(td_data) > 0:
            data.append(td_data)
data = []
get_web_content(url,header,data)
print(data)

至此,运行的结果是正确的了。

五、获取全部50个网页的内容

我们利用for循环,巧妙读利用格式化字符串,获取不同网站,进行请求网站服务器。如果对格式化字符串不太了解,可以参照我头条以前的文章,python编程实践:格式化字符串输出的四种方式详解

import pandas as pd
import requests
from bs4 import BeautifulSoup
header={'User-Agent':'Mozilla/5.0'}
url = "http://eid.csrc.gov.cn/ipo/101010/index_{0:d}.html"

data=[]

def get_web_content1(url,header,data):
    response=requests.get(url_str,headers=header)       
    # 从响应中获取数据
    page = response.content.decode()
    # 构建bs对象
    soup = BeautifulSoup(page, 'html5lib') 
    # 查找标签
    table = soup.find('table')
    content = table.find_all('tr')
    for i in range(len(content)):
        td_text = content[i].find_all('td')
        td_data=[]
        for j in range(len(td_text)):
            if j==5:
                td_data.append(td_text[j]['title'])
            else:
                td_data.append(td_text[j].text.strip())
        if len(td_data) > 0:
            data.append(td_data)
for ii in range(50):
    url_str = url.format(ii+1)
    get_web_content(url_str,header,data)
print(data)
print(len(data))

至此,运行结果如下图,我们需要的数据都在data变量里,共计有750条记录。

这个data变量的数据,您可以把它赋值为panda的数据,就可以利用panda的数据分析功能进行分析了。

需要说明的是:本例子没有把网站4138条记录全部爬取。如果您确实需要爬取,那是又应该爬取?留给粉丝讨论实现。

相关推荐

3 分钟!AI 从零开发五子棋全过程曝光,网友:这效率我服了

<!DOCTYPEhtml><htmllang="zh-CN"><head><metacharset="UTF-8...

一行代码实现display&quot;过渡动画&quot;原理

作者:Peter谭老师转发链接:https://mp.weixin.qq.com/s/XhwPOv62gypzq5MhhP-5vg写本文的起因上篇文章,提到如何让display出现过渡动画,却没有仔...

脑洞:琼恩·雪诺、蝙蝠侠和魔形女的灵魂宠物了解一下

AlekseiVinogradovisaRussianfreelancedigitalartistwhoshareshisskillsandtalentwith120k...

浏览器的渲染机制、重绘、重排

1、什么是重排和重绘网页生成过程:HTML被HTML解析器解析成DOM树css则被css解析器解析成CSSOM树结合DOM树和CSSOM树,生成一棵渲染树(RenderTree)生成布局(flo...

托福写作高频考题写作思路&amp;词汇丨考虫独家

科技话题与媒体话题是托福写作的常考话题很多考生对这两类话题里的专有词汇表达也许很不了解所以今天就跟随考虫托福写作老师刘云龙老师一起来学习在这些话题的写作里你可以使用哪些有用的表达。希望大家有收获!记得...

在优麒麟上使用 Electron 开发桌面应用

使用Web标准来创建桌面GUI,上手快、成本低、跨平台、自适应分辨率,这些都是Electron的优势。作者/来源:优麒麟Electron是由Github开发,用HTML、CSS和...

php手把手教你做网站(三十八)jquery 转轮盘抽奖,开盲盒

抽奖和开盲盒性质一样的都是通过ajax读取后台的随机数据。1、转轮盘本来是想直接绘图实现轮盘,但是没有找到怎么填充文字,只好把轮盘弄成了背景图,通常用于游戏抽道具,商城积分抽奖,公司年末员工抽奖点击抽...

用 CSS 整活!3D 轮播图手把手教学,快乐代码敲出来

兄弟们,今天咱来搞点好玩的——用CSS整一个3D轮播图!咱野生程序员就是要在代码里找乐子,技术和快乐咱都得要!代码是写不完的,但咱能自己敲出快乐来,走起!一、先整个容器,搭个舞台咋先写一个...

实现一个超酷的 3D 立体卡片效 #前端开发

今天我们来实现一个超酷的3D立体卡片效果。正常情况下就是一个普通的图片展示卡片,鼠标悬停的时候图片会跳出卡片,并将影子投射到背景卡片上,在视觉上有一个3D立体感。html主要分成3个部分:容器→背景层...

Vue 3 Teleport与Suspense:解决UI难题的两个&quot;隐藏大招&quot;

模态框的"层级噩梦"与Teleport的救赎"这个模态框怎么又被父容器截断了?"团队协作开发后台系统时,小张第N次遇到这个问题。多层嵌套的组件结构里,弹窗被overfl...

让交互更加生动!有意思的鼠标跟随 3D 旋转动效

今天,群友问了这样一个问题,如下所示的鼠标跟随交互效果,如何实现:简单分析一下,这个交互效果主要有两个核心:借助了CSS3D的能力元素的旋转需要和鼠标的移动相结合本文,就将讲述如何使用纯CSS...

填坑:transform元素导致zindex失效终极方法

今天遇到了使用css3动画的元素层级被放大置顶的问题,ios浏览器上没问题,安卓原生浏览器和安卓微信上有问题。使用了css3动画的元素z-index失效,兄弟元素设置多高的z-index都盖不住解决办...

诡异的层级错乱:一个被transform隐藏的CSS陷阱

周五下午三点十七分,设计部突然发来紧急截图——原本应该悬浮在顶部的导航菜单,此刻正诡异地被下方的轮播图遮挡。我盯着屏幕上错乱的层级关系,手指下意识地敲下z-index:9999,心里清楚这不过是程序...

动画篇--碎片动画

本文授权转载,作者:Sindri的小巢(简书)前言从最开始动笔动画篇的博客,至今已经过去了四个多月。这段时间回头看了看自己之前的动画文章,发现用来讲解动画的例子确实不那么的赏心悦目。于是这段时间总是想...

Nature:大洋转换断层处的拉张构造与两阶段地壳增生

Nature:大洋转换断层处的拉张构造与两阶段地壳增生转换断层是三种基本的板块边界之一,全球总长度超过48000km(Bird,2003),它们的发现为板块构造理论的建立奠定了重要的基础(Wil...