百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Scrapy笔记(一)入门

zhezhongyun 2025-03-10 22:30 36 浏览

一、Scrapy简介

Scrapy是一个基于Python的开源网络爬虫框架,用于快速高效地抓取网页数据。它提供了完整的爬虫开发工具链,包含请求处理、数据解析、存储管道等功能。

二、核心概念解释

1. 主要组件

  • Engine:控制数据流的核心引擎,负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。
  • Scheduler:管理请求的调度队列,它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。
  • Downloader:处理HTTP请求并返回响应,负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理。
  • Spiders:用户编写的爬虫逻辑,它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器)。
  • Item Pipeline:处理抓取的数据(清洗、存储等),它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方。
  • Downloader Middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。
  • Spider Middlewares(Spider中间件):你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests)

2. 核心概念

  • Item:数据容器,定义抓取的数据结构
  • Selector:基于XPath/CSS选择器的数据提取工具
  • Request:封装HTTP请求对象
  • Response:封装HTTP响应对象
  • Feed exports:数据导出格式(JSON/CSV/XML等)

三、环境准备

1. 安装Scrapy

# python2
pip install scrapy
# python3
pip3 install scrapy

2. 验证安装

scrapy version
# 应该显示版本号(如:Scrapy 2.12.0)

四、创建第一个项目

1. 创建项目

scrapy startproject tutorial

项目结构说明

# 项目结构
tutorial/
    scrapy.cfg           # 部署配置文件
    tutorial/            # 项目模块
        __init__.py
        items.py         # 数据模型定义
        middlewares.py   # 中间件配置
        pipelines.py     # 数据处理管道
        settings.py      # 项目设置
        spiders/         # 爬虫目录
            __init__.py

2. 创建第一个Spider

在spiders目录下新建quotes_spider.py:

import scrapy

class QuotesSpider(scrapy.Spider):
    name = "quotes"
    start_urls = [
        'http://quotes.toscrape.com/page/1/'
    ]

    def parse(self, response):
        for quote in response.css('div.quote'):
            yield {
                'text': quote.css('span.text::text').get(),
                'author': quote.css('small.author::text').get(),
                'tags': quote.css('div.tags a.tag::text').getall(),
            }

        next_page = response.css('li.next a::attr(href)').get()
        if next_page is not None:
            yield response.follow(next_page, callback=self.parse)

五、运行爬虫

scrapy crawl quotes -o quotes.json

结果将保存到quotes.json文件

六、完整示例演示

1. 定义Item(items.py)

import scrapy

class TutorialItem(scrapy.Item):
    text = scrapy.Field()
    author = scrapy.Field()
    tags = scrapy.Field()
    author_info = scrapy.Field()

2. 完善Spider

import scrapy
from tutorial.items import TutorialItem

class AuthorSpider(scrapy.Spider):
    name = 'author'
    start_urls = ['http://quotes.toscrape.com/']

    def parse(self, response):
        for quote in response.css('div.quote'):
            item = TutorialItem()
            item['text'] = quote.css('span.text::text').get()
            item['author'] = quote.css('small.author::text').get()
            item['tags'] = quote.css('div.tags a.tag::text').getall()
            
            author_page = quote.css('small.author + a::attr(href)').get()
            yield response.follow(
                author_page, 
                callback=self.parse_author,
                meta={'item': item}
            )

        next_page = response.css('li.next a::attr(href)').get()
        if next_page is not None:
            yield response.follow(next_page, callback=self.parse)

    def parse_author(self, response):
        item = response.meta['item']
        item['author_info'] = {
            'birth_date': response.css('.author-born-date::text').get(),
            'birth_place': response.css('.author-born-location::text').get(),
            'description': response.css('.author-description::text').get().strip()
        }
        yield item

3. 配置Pipeline(pipelines.py)

import json

class JsonWriterPipeline:
    def open_spider(self, spider):
        self.file = open('authors.jl', 'w', encoding='utf-8')

    def close_spider(self, spider):
        self.file.close()

    def process_item(self, item, spider):
        line = json.dumps(dict(item), ensure_ascii=False) + "\n"
        self.file.write(line)
        return item

4. 启用Pipeline(settings.py)

ITEM_PIPELINES = {
    'tutorial.pipelines.JsonWriterPipeline': 300,
}

七、常用命令

  1. 创建爬虫:
scrapy genspider myspider example.com
  1. 运行爬虫:
scrapy crawl 
  1. 交互式调试:
scrapy shell "http://quotes.toscrape.com"
  1. 导出不同格式:
scrapy crawl quotes -o quotes.csv
scrapy crawl quotes -o quotes.xml

八、进阶功能 (后续陆续更新)

  1. CrawlSpider使用(
  2. 使用 CrawlerProcess 编程式运行爬虫
  3. 分布式爬虫
  4. 处理动态内容
  5. 数据处理与存储优化

九、注意事项

  1. 遵守网站的robots.txt协议
  2. 设置合理的下载延迟(DOWNLOAD_DELAY)
  3. 使用User-Agent轮换
  4. 处理反爬机制(验证码、IP封禁等)
  5. 注意数据存储格式和编码问题

十、调试技巧

  1. 使用scrapy shell进行快速测试
  2. 查看日志:
# settings.py
LOG_LEVEL = 'DEBUG'
LOG_FILE = 'scrapy.log'
  1. 使用中间件捕获异常
  2. 通过response.status检查HTTP状态码

这个教程涵盖了Scrapy的主要功能和典型使用场景。建议通过实际项目练习来加深理解,可以从简单的静态网站开始,逐步挑战更复杂的动态网站和数据抓取需求。

学习资料

Scrapy 2.12 文档 — Scrapy 2.12.0 文档 - Scrapy 框架

源代码合集

  • 汽车之家车型数据抓取解析 (后续更新)

相关推荐

Go语言标准库中5个被低估的强大package

在Go语言的世界里,开发者们往往对fmt、net/http这些“明星包”耳熟能详,却忽略了标准库里藏着的一批“宝藏工具”。它们功能强大却低调内敛,能解决并发控制、内存优化、日志管理等核心问题。今天就带...

作为测试人,如何优雅地查看Log日志?

作为一名测试工程师,测试工作中和Linux打交道的地方有很多。比如查看日志、定位Bug、修改文件、部署环境等。项目部署在Linux上,如果某个功能发生错误,就需要我们去排查出错的原因,所以熟练地掌握查...

Java 从底层与接口实现了解String、StringBuffer、StringBuilder

String、StringBuffer和StringBuilder的接口实现关系:String:字符串常量,字符串长度不可变。Java中String是immutable(不可变)的。用于存放字符...

FluentData 从入门到精通:C#.NET 数据访问最佳实践

简介FluentData是一个微型ORM(micro-ORM),主打「FluentAPI」风格,让开发者在保持对原生SQL完全控制的同时,享受链式调用的便捷性。它与Dapper、Massi...

团队协作-代码格式化工具clang-format

环境:clang-format:10.0.0前言统一的代码规范对于整个团队来说十分重要,通过git/svn在提交前进行统一的ClangFormat格式化,可以有效避免由于人工操作带来的代码格式问题。C...

C# 数据操作系列 - 15 SqlSugar 增删改查详解(超长篇)

0.前言继上一篇,以及上上篇,我们对SqlSugar有了一个大概的认识,但是这并不完美,因为那些都是理论知识,无法描述我们工程开发中实际情况。而这一篇,将带领小伙伴们一起试着写一个能在工程中使用的模...

Mac OS 下 Unix 使用最多的100条命令(收藏级)

MacOS内置基于Unix的强大终端(Terminal),对开发者、运维工程师和日常用户来说,掌握常用的Unix命令是提升效率的关键。本文整理了100条在MacOS下最常用的U...

C语言字符串操作总结大全(超详细)

C语言字符串操作总结大全(超详细)1)字符串操作strcpy(p,p1)复制字符串strncpy(p,p1,n)复制指定长度字符串strcat(p,p1)附加字符串strncat...

经常使用到开源的MySQL,今天我们就来系统地认识一下

作为程序员,我们在项目中会使用到许多种类的数据库,根据业务类型、并发量和数据要求等选择不同类型的数据库,比如MySQL、Oracle、SQLServer、SQLite、MongoDB和Redis等。今...

电脑蓝屏代码大全_电脑蓝屏代码大全及解决方案

0X0000000操作完成0X0000001不正确的函数0X0000002系统找不到指定的文件0X0000003系统找不到指定的路径0X0000004系统无法打开文件0X0000005拒绝...

8个增强PHP程序安全的函数_php性能优化及安全策略

安全是编程非常重要的一个方面。在任何一种编程语言中,都提供了许多的函数或者模块来确保程序的安全性。在现代网站应用中,经常要获取来自世界各地用户的输入,但是,我们都知道“永远不能相信那些用户输入的数据”...

css优化都有哪些优化方案_css性能优化技巧

CSS优化其实可以分成几个层面:性能优化、可维护性优化、兼容性优化以及用户体验优化。这里我帮你梳理一份比较系统的CSS优化方案清单,方便你参考:一、加载性能优化减少CSS文件体积压缩CSS...

筹划20年,他终于拍成了这部电影_筹划20年,他终于拍成了这部电影英语

如果提名好莱坞最难搞影星,你第一时间会联想到谁?是坏脾气的西恩·潘,还是曾因吸毒锒铛入狱的小罗伯特·唐尼,亦或是沉迷酒精影响工作的罗素·克劳?上述大咖,往往都有着这样或那样的瑕疵。可即便如此,却都仍旧...

Keycloak Servlet Filter Adapter使用

KeycloakClientAdapters简介Keycloakclientadaptersarelibrariesthatmakeitveryeasytosecurea...

一些常用的linux常用的命令_linux常用命令有哪些?

在Linux的世界里,命令是与系统交互的基础。掌握常用命令不仅能让你高效地管理文件、进程和网络,还能为你进一步学习系统管理和自动化打下坚实的基础。本文将深入探讨一些最常用且功能强大的Linux...