百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Python爬虫-面向知乎的答案提取和图片下载

zhezhongyun 2025-01-01 23:34 67 浏览

需求描述:爬取知乎的答案,爬取并下载一个问题下所有回答中的图片。

实现平台:开发工具PyCharm2017,语言版本Python3.6,Chrome谷歌浏览器。

基本原理:1.发送请求,获取网页HTML源码;解析HTML,获取数据;保存数据。2

模拟浏览器登录,获取并解析HTML,获取数据。利用Python中的库即可便捷实现。


功能实现1:知乎答案爬取

实现思路:

1. 首先实现安装好第三方模块requests和bs4并调用。

2. 其次设置Http请求头,利用requests访问网页获取到源代码,利用bs模块中的BeautifulSoup得到解析过后的html。

3. 随后,分别通过对照网页源代码中标签内容进行匹配,分别获取问题标题、问题内容、点赞数以及答案等内容。

4. 最后进行包括知乎答案等信息的打印。

分别对应上述思路进行代码编写。

1. 调用第三方模块。

#-*- coding: UTF-8 -*-

# 爬取知乎答案

import requests

from bs4 import BeautifulSoup

2. 设置Http请求头:可以在Chrome谷歌浏览器的网页中的任意地方按下F12,打开chrome自带的调试工具,在调试工具中选择network标签,F5刷新网页后在左边找到该网页url,点击该url,选择Headers,就可以看到当前网页的Http头。复制到header={}中。

获取源代码并解析:利用requests和BeautifulSoup实现,并返回解析后的body。


#获取网页body里的内容

def get_content(url , data = None):

# 设置Http请求头,根据自己电脑查一下

header={

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',

'Accept-Encoding': 'gzip, deflate, sdch',

'Accept-Language': 'zh-CN,zh;q=0.8',

'Connection': 'keep-alive',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.235'

}


req = requests.get(url, headers=header)

req.encoding = 'utf-8'

bs = BeautifulSoup(req.text, "html.parser") # 创建BeautifulSoup对象

body = bs.body #


return body

3. 标签内容进行class匹配:问题标题——QuestionHeader-title,问题内容——RichText ztext,点赞量——Button VoteButton VoteButton—up,问题回答——ContentItem-time。

#获取问题标题

def get_title(html_text):

data = html_text.find('h1', {'class':' QuestionHeader-title '}) #匹配标签

return data.string.encode('utf-8')


#获取问题内容

def get_question_content(html_text):

data = html_text.find('span', {'class': 'RichText ztext'})

print (data.string)

if data.string is None:

out = ''

for datastring in data.strings:

datastring = datastring.encode('utf-8')

out = out + datastring.encode('utf-8')

print ('内容:\n' + out)

else:

print ('内容:\n' + data.string.encode('utf-8'))


#获取点赞数

def get_answer_agree(body):

agree = body.find('button',{'class': 'Button VoteButton VoteButton--up'})

agree_html = BeautifulSoup(str(agree), "html.parser")

all_buttons = agree_html.find_all("button", {"class": "Button VoteButton VoteButton--up"})

one_button = all_buttons[0]

agree_number = one_button["aria-label"]

print(agree_number)


#获取答案

def get_response(html_text):

out1 = ''

response = html_text.find_all('div', {'class': 'ContentItem-time'})

for index in range(len(response)):

#获取标签

answerhref = response[index].find('a', {'target': '_blank'})

if not(answerhref['href'].startswith('javascript')):

url = 'http:' + answerhref['href']

body = get_content(url)

get_answer_agree(body)

answer = body.find('span', {'class': 'RichText ztext CopyrightRichText-richText css-hnrfcf'})

if answer.string is None:

out = ''

for datastring in answer.strings:

datastring = datastring.encode('utf-8')

out = out + '\n' + str(datastring,encoding = 'utf-8')

else:

print (answer.string.encode('utf-8'))

out1 = out1 + '\n' + out

return url + '\n' + out1

4. 结果输出打印:以一个网址为例,调用之前编写的函数,进行信息的获取和打印。

# 输入要爬取的网址

URL_target = 'https://www.zhihu.com/question/505503990/answer/2276487889'

html_text = get_content(URL_target)

title = get_title(html_text)

print ("标题:" + str(title,encoding = 'utf-8') + '\n')

data = get_response(html_text)

print (data)


功能实现2:知乎图片下载

实现思路:

1. 首先实现安装好chromedriver模拟人为登录浏览器,模拟登录网页,中途拿手机扫码登录。

2. 安装好模块selenium、time、urllib.request 、bs4 和html.parser并调用。

3. 利用chromedriver打开浏览器并登录知乎,利用bs模块中的BeautifulSoup得到解析过后的html。

4. 随后,找到照片并进行下载。

5. 保存所有图片。

思路是先模拟登录网页,(中途拿手机扫码登录),然后逐步爬取所有回答。

1.下载对应Chrome版本的chromedriver。

通过chrome://version/查看版本,下载chromedriver后解压安装。详细可以参考这个说明。

selenium 安装与 chromedriver 安装 :https://www.cnblogs.com/lfri/p/10542797.html

我的Chrome版本是:94.0.4606.71(正式版本)(64 位),对应文件夹应该放在

C:\Program Files\Google\Chrome\Application

2.分别对应上述思路进行代码编写,安装好模块并调用。

# 爬取知乎问题下的所有图片 

from selenium import webdriver

import time

import urllib.request

from bs4 import BeautifulSoup

import html.parser

3.自动化打开浏览器并扫码登录知乎,并解析网页 HTML 信息,查找所有的noscript标签。

def main():

# 确保文件夹中有chromedriver.exe,有的在C:\Program Files x86

chromedriver = 'C:\Program Files\Google\Chrome\Application\chromedriver.exe'

driver = webdriver.Chrome(chromedriver)

time.sleep(5)

driver.get("https://www.zhihu.com/question/287084175") # 打开想要爬取的知乎页面

time.sleep(5)


# 模拟用户操作

def execute_times(times):

for i in range(times):

driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")

time.sleep(3)

try:

driver.find_element_by_css_selector('button.QuestionMainAction').click()

print("page" + str(i))

time.sleep(1)

except:

break


# 执行次数

execute_times(5)

# 原网页的信息

result_raw = driver.page_source # 这是原网页 HTML 信息

result_soup = BeautifulSoup(result_raw, 'html.parser')# 然后将其解析

result_bf = result_soup.prettify() # 结构化原 HTML 文件

with open("D:/python安装包/PycharmProjects/zhihutupian/raw_result.txt", 'w',encoding="utf-8") as raw_result: # 存储路径里的文件夹需要事先创建。

raw_result.write(result_bf)

raw_result.close()

print("爬取回答页面成功!!!")


with open("D:/python安装包/PycharmProjects/zhihutupian/noscript_meta.txt", 'wb') as noscript_meta:

noscript_nodes = result_soup.find_all('noscript') # 找到所有<noscript>node

noscript_inner_all = ""

for noscript in noscript_nodes:

noscript_inner = noscript.get_text() # 获取<noscript>node内部内容

noscript_inner_all += noscript_inner + "\n"


noscript_all = html.parser.unescape(noscript_inner_all).encode('utf-8') # 将内部内容转码并存储

noscript_meta.write(noscript_all)


noscript_meta.close()

print("爬取noscript标签成功!!!")

4.查找所有图片并命名下载。

img_soup = BeautifulSoup(noscript_all, 'html.parser')

img_nodes = img_soup.find_all('img')

with open("D:/python安装包/PycharmProjects/zhihutupian/img_meta.txt", 'w') as img_meta:

count = 0

for img in img_nodes:

if img.get('src') is not None:

img_url = img.get('src')


line = str(count) + "\t" + img_url + "\n"

img_meta.write(line)

urllib.request.urlretrieve(img_url, "D:/python安装包/PycharmProjects/zhihutupian/" + str(count) + ".jpg") # 一个一个下载图片

count += 1


img_meta.close()

print("图片下载成功")


if __name__ == '__main__':

main()


5.最后进行包括知乎图片的保存。

最后,有相关爬虫需求欢迎通过公众号联系我们.

公众号: 320科技工作室

相关推荐

Python入门学习记录之一:变量_python怎么用变量

写这个,主要是对自己学习python知识的一个总结,也是加深自己的印象。变量(英文:variable),也叫标识符。在python中,变量的命名规则有以下三点:>变量名只能包含字母、数字和下划线...

python变量命名规则——来自小白的总结

python是一个动态编译类编程语言,所以程序在运行前不需要如C语言的先行编译动作,因此也只有在程序运行过程中才能发现程序的问题。基于此,python的变量就有一定的命名规范。python作为当前热门...

Python入门学习教程:第 2 章 变量与数据类型

2.1什么是变量?在编程中,变量就像一个存放数据的容器,它可以存储各种信息,并且这些信息可以被读取和修改。想象一下,变量就如同我们生活中的盒子,你可以把东西放进去,也可以随时拿出来看看,甚至可以换成...

绘制学术论文中的“三线表”具体指导

在科研过程中,大家用到最多的可能就是“三线表”。“三线表”,一般主要由三条横线构成,当然在变量名栏里也可以拆分单元格,出现更多的线。更重要的是,“三线表”也是一种数据记录规范,以“三线表”形式记录的数...

Python基础语法知识--变量和数据类型

学习Python中的变量和数据类型至关重要,因为它们构成了Python编程的基石。以下是帮助您了解Python中的变量和数据类型的分步指南:1.变量:变量在Python中用于存储数据值。它们充...

一文搞懂 Python 中的所有标点符号

反引号`无任何作用。传说Python3中它被移除是因为和单引号字符'太相似。波浪号~(按位取反符号)~被称为取反或补码运算符。它放在我们想要取反的对象前面。如果放在一个整数n...

Python变量类型和运算符_python中变量的含义

别再被小名词坑哭了:Python新手常犯的那些隐蔽错误,我用同事的真实bug拆给你看我记得有一次和同事张姐一起追查一个看似随机崩溃的脚本,最后发现罪魁祸首竟然是她把变量命名成了list。说实话...

从零开始:深入剖析 Spring Boot3 中配置文件的加载顺序

在当今的互联网软件开发领域,SpringBoot无疑是最为热门和广泛应用的框架之一。它以其强大的功能、便捷的开发体验,极大地提升了开发效率,成为众多开发者构建Web应用程序的首选。而在Spr...

Python中下划线 ‘_’ 的用法,你知道几种

Python中下划线()是一个有特殊含义和用途的符号,它可以用来表示以下几种情况:1在解释器中,下划线(_)表示上一个表达式的值,可以用来进行快速计算或测试。例如:>>>2+...

解锁Shell编程:变量_shell $变量

引言:开启Shell编程大门Shell作为用户与Linux内核之间的桥梁,为我们提供了强大的命令行交互方式。它不仅能执行简单的文件操作、进程管理,还能通过编写脚本实现复杂的自动化任务。无论是...

一文学会Python的变量命名规则!_python的变量命名有哪些要求

目录1.变量的命名原则3.内置函数尽量不要做变量4.删除变量和垃圾回收机制5.结语1.变量的命名原则①由英文字母、_(下划线)、或中文开头②变量名称只能由英文字母、数字、下画线或中文字所组成。③英文字...

更可靠的Rust-语法篇-区分语句/表达式,略览if/loop/while/for

src/main.rs://函数定义fnadd(a:i32,b:i32)->i32{a+b//末尾表达式}fnmain(){leta:i3...

C++第五课:变量的命名规则_c++中变量的命名规则

变量的命名不是想怎么起就怎么起的,而是有一套固定的规则的。具体规则:1.名字要合法:变量名必须是由字母、数字或下划线组成。例如:a,a1,a_1。2.开头不能是数字。例如:可以a1,但不能起1a。3....

Rust编程-核心篇-不安全编程_rust安全性

Unsafe的必要性Rust的所有权系统和类型系统为我们提供了强大的安全保障,但在某些情况下,我们需要突破这些限制来:与C代码交互实现底层系统编程优化性能关键代码实现某些编译器无法验证的安全操作Rus...

探秘 Python 内存管理:背后的神奇机制

在编程的世界里,内存管理就如同幕后的精密操控者,确保程序的高效运行。Python作为一种广泛使用的编程语言,其内存管理机制既巧妙又复杂,为开发者们提供了便利的同时,也展现了强大的底层控制能力。一、P...