Scrapy笔记(一)入门
zhezhongyun 2025-03-10 22:30 36 浏览
一、Scrapy简介
Scrapy是一个基于Python的开源网络爬虫框架,用于快速高效地抓取网页数据。它提供了完整的爬虫开发工具链,包含请求处理、数据解析、存储管道等功能。
二、核心概念解释
1. 主要组件
- Engine:控制数据流的核心引擎,负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。
- Scheduler:管理请求的调度队列,它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。
- Downloader:处理HTTP请求并返回响应,负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理。
- Spiders:用户编写的爬虫逻辑,它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器)。
- Item Pipeline:处理抓取的数据(清洗、存储等),它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方。
- Downloader Middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。
- Spider Middlewares(Spider中间件):你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests)
2. 核心概念
- Item:数据容器,定义抓取的数据结构
- Selector:基于XPath/CSS选择器的数据提取工具
- Request:封装HTTP请求对象
- Response:封装HTTP响应对象
- Feed exports:数据导出格式(JSON/CSV/XML等)
三、环境准备
1. 安装Scrapy
# python2
pip install scrapy
# python3
pip3 install scrapy
2. 验证安装
scrapy version
# 应该显示版本号(如:Scrapy 2.12.0)
四、创建第一个项目
1. 创建项目
scrapy startproject tutorial
项目结构说明
# 项目结构
tutorial/
scrapy.cfg # 部署配置文件
tutorial/ # 项目模块
__init__.py
items.py # 数据模型定义
middlewares.py # 中间件配置
pipelines.py # 数据处理管道
settings.py # 项目设置
spiders/ # 爬虫目录
__init__.py
2. 创建第一个Spider
在spiders目录下新建quotes_spider.py:
import scrapy
class QuotesSpider(scrapy.Spider):
name = "quotes"
start_urls = [
'http://quotes.toscrape.com/page/1/'
]
def parse(self, response):
for quote in response.css('div.quote'):
yield {
'text': quote.css('span.text::text').get(),
'author': quote.css('small.author::text').get(),
'tags': quote.css('div.tags a.tag::text').getall(),
}
next_page = response.css('li.next a::attr(href)').get()
if next_page is not None:
yield response.follow(next_page, callback=self.parse)
五、运行爬虫
scrapy crawl quotes -o quotes.json
结果将保存到quotes.json文件
六、完整示例演示
1. 定义Item(items.py)
import scrapy
class TutorialItem(scrapy.Item):
text = scrapy.Field()
author = scrapy.Field()
tags = scrapy.Field()
author_info = scrapy.Field()
2. 完善Spider
import scrapy
from tutorial.items import TutorialItem
class AuthorSpider(scrapy.Spider):
name = 'author'
start_urls = ['http://quotes.toscrape.com/']
def parse(self, response):
for quote in response.css('div.quote'):
item = TutorialItem()
item['text'] = quote.css('span.text::text').get()
item['author'] = quote.css('small.author::text').get()
item['tags'] = quote.css('div.tags a.tag::text').getall()
author_page = quote.css('small.author + a::attr(href)').get()
yield response.follow(
author_page,
callback=self.parse_author,
meta={'item': item}
)
next_page = response.css('li.next a::attr(href)').get()
if next_page is not None:
yield response.follow(next_page, callback=self.parse)
def parse_author(self, response):
item = response.meta['item']
item['author_info'] = {
'birth_date': response.css('.author-born-date::text').get(),
'birth_place': response.css('.author-born-location::text').get(),
'description': response.css('.author-description::text').get().strip()
}
yield item
3. 配置Pipeline(pipelines.py)
import json
class JsonWriterPipeline:
def open_spider(self, spider):
self.file = open('authors.jl', 'w', encoding='utf-8')
def close_spider(self, spider):
self.file.close()
def process_item(self, item, spider):
line = json.dumps(dict(item), ensure_ascii=False) + "\n"
self.file.write(line)
return item
4. 启用Pipeline(settings.py)
ITEM_PIPELINES = {
'tutorial.pipelines.JsonWriterPipeline': 300,
}
七、常用命令
- 创建爬虫:
scrapy genspider myspider example.com
- 运行爬虫:
scrapy crawl
- 交互式调试:
scrapy shell "http://quotes.toscrape.com"
- 导出不同格式:
scrapy crawl quotes -o quotes.csv
scrapy crawl quotes -o quotes.xml
八、进阶功能 (后续陆续更新)
- CrawlSpider使用(
- 使用 CrawlerProcess 编程式运行爬虫
- 分布式爬虫
- 处理动态内容
- 数据处理与存储优化
九、注意事项
- 遵守网站的robots.txt协议
- 设置合理的下载延迟(DOWNLOAD_DELAY)
- 使用User-Agent轮换
- 处理反爬机制(验证码、IP封禁等)
- 注意数据存储格式和编码问题
十、调试技巧
- 使用scrapy shell进行快速测试
- 查看日志:
# settings.py
LOG_LEVEL = 'DEBUG'
LOG_FILE = 'scrapy.log'
- 使用中间件捕获异常
- 通过response.status检查HTTP状态码
这个教程涵盖了Scrapy的主要功能和典型使用场景。建议通过实际项目练习来加深理解,可以从简单的静态网站开始,逐步挑战更复杂的动态网站和数据抓取需求。
学习资料
Scrapy 2.12 文档 — Scrapy 2.12.0 文档 - Scrapy 框架
源代码合集
- 汽车之家车型数据抓取解析 (后续更新)
相关推荐
- Go语言标准库中5个被低估的强大package
-
在Go语言的世界里,开发者们往往对fmt、net/http这些“明星包”耳熟能详,却忽略了标准库里藏着的一批“宝藏工具”。它们功能强大却低调内敛,能解决并发控制、内存优化、日志管理等核心问题。今天就带...
- 作为测试人,如何优雅地查看Log日志?
-
作为一名测试工程师,测试工作中和Linux打交道的地方有很多。比如查看日志、定位Bug、修改文件、部署环境等。项目部署在Linux上,如果某个功能发生错误,就需要我们去排查出错的原因,所以熟练地掌握查...
- Java 从底层与接口实现了解String、StringBuffer、StringBuilder
-
String、StringBuffer和StringBuilder的接口实现关系:String:字符串常量,字符串长度不可变。Java中String是immutable(不可变)的。用于存放字符...
- FluentData 从入门到精通:C#.NET 数据访问最佳实践
-
简介FluentData是一个微型ORM(micro-ORM),主打「FluentAPI」风格,让开发者在保持对原生SQL完全控制的同时,享受链式调用的便捷性。它与Dapper、Massi...
- 团队协作-代码格式化工具clang-format
-
环境:clang-format:10.0.0前言统一的代码规范对于整个团队来说十分重要,通过git/svn在提交前进行统一的ClangFormat格式化,可以有效避免由于人工操作带来的代码格式问题。C...
- C# 数据操作系列 - 15 SqlSugar 增删改查详解(超长篇)
-
0.前言继上一篇,以及上上篇,我们对SqlSugar有了一个大概的认识,但是这并不完美,因为那些都是理论知识,无法描述我们工程开发中实际情况。而这一篇,将带领小伙伴们一起试着写一个能在工程中使用的模...
- Mac OS 下 Unix 使用最多的100条命令(收藏级)
-
MacOS内置基于Unix的强大终端(Terminal),对开发者、运维工程师和日常用户来说,掌握常用的Unix命令是提升效率的关键。本文整理了100条在MacOS下最常用的U...
- C语言字符串操作总结大全(超详细)
-
C语言字符串操作总结大全(超详细)1)字符串操作strcpy(p,p1)复制字符串strncpy(p,p1,n)复制指定长度字符串strcat(p,p1)附加字符串strncat...
- 经常使用到开源的MySQL,今天我们就来系统地认识一下
-
作为程序员,我们在项目中会使用到许多种类的数据库,根据业务类型、并发量和数据要求等选择不同类型的数据库,比如MySQL、Oracle、SQLServer、SQLite、MongoDB和Redis等。今...
- 电脑蓝屏代码大全_电脑蓝屏代码大全及解决方案
-
0X0000000操作完成0X0000001不正确的函数0X0000002系统找不到指定的文件0X0000003系统找不到指定的路径0X0000004系统无法打开文件0X0000005拒绝...
- 8个增强PHP程序安全的函数_php性能优化及安全策略
-
安全是编程非常重要的一个方面。在任何一种编程语言中,都提供了许多的函数或者模块来确保程序的安全性。在现代网站应用中,经常要获取来自世界各地用户的输入,但是,我们都知道“永远不能相信那些用户输入的数据”...
- css优化都有哪些优化方案_css性能优化技巧
-
CSS优化其实可以分成几个层面:性能优化、可维护性优化、兼容性优化以及用户体验优化。这里我帮你梳理一份比较系统的CSS优化方案清单,方便你参考:一、加载性能优化减少CSS文件体积压缩CSS...
- 筹划20年,他终于拍成了这部电影_筹划20年,他终于拍成了这部电影英语
-
如果提名好莱坞最难搞影星,你第一时间会联想到谁?是坏脾气的西恩·潘,还是曾因吸毒锒铛入狱的小罗伯特·唐尼,亦或是沉迷酒精影响工作的罗素·克劳?上述大咖,往往都有着这样或那样的瑕疵。可即便如此,却都仍旧...
- Keycloak Servlet Filter Adapter使用
-
KeycloakClientAdapters简介Keycloakclientadaptersarelibrariesthatmakeitveryeasytosecurea...
- 一些常用的linux常用的命令_linux常用命令有哪些?
-
在Linux的世界里,命令是与系统交互的基础。掌握常用命令不仅能让你高效地管理文件、进程和网络,还能为你进一步学习系统管理和自动化打下坚实的基础。本文将深入探讨一些最常用且功能强大的Linux...
- 一周热门
- 最近发表
- 标签列表
-
- HTML 教程 (33)
- HTML 简介 (35)
- HTML 实例/测验 (32)
- HTML 测验 (32)
- JavaScript 和 HTML DOM 参考手册 (32)
- HTML 拓展阅读 (30)
- HTML文本框样式 (31)
- HTML滚动条样式 (34)
- HTML5 浏览器支持 (33)
- HTML5 新元素 (33)
- HTML5 WebSocket (30)
- HTML5 代码规范 (32)
- HTML5 标签 (717)
- HTML5 标签 (已废弃) (75)
- HTML5电子书 (32)
- HTML5开发工具 (34)
- HTML5小游戏源码 (34)
- HTML5模板下载 (30)
- HTTP 状态消息 (33)
- HTTP 方法:GET 对比 POST (33)
- 键盘快捷键 (35)
- 标签 (226)
- HTML button formtarget 属性 (30)
- opacity 属性 (32)
- transition 属性 (33)