Python

Python爬虫之 Scrapy

勤劳的小蜜蜂 · 1月2日 · 2020年 ·

爬模任务

抓取豆瓣 Top250 的电影信息,并将数据保存为 csv,json 格式和存到 mongoDB 数据库中(mac 安装 mongoDB 参考

Scrapy 处理流程

Scrapy 初始化项目

cd 到目标文件夹下,创建名为 douban 的项目

scrapy startproject douban

使用 ide 打开如下

  • spiders:存放爬虫文件
  • items.py:定义数据结构的地方
  • middlewares.py:下载中间件
  • pipelines.py:数据清洗和存储
  • settings.py:项目的设置文件,可以定义项目的全局设置,比如 UserAgent、RobotTxt、并发量、下载延时

生成爬虫文件

cd 到 spiders 目录下,命令行输入

scrapy genspider douban_spider movie.douban.com

douban_spider:爬虫名

movie.douban.com:爬取域名

spiders 目录下就会生成 douban_spider 文件

在 items 中定义数据结构

import scrapy

class DoubanItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()

    # 序号
    serial_number = scrapy.Field()
    # 电影的名称
    movie_name = scrapy.Field()
    # 电影的介绍
    introduce = scrapy.Field()
    # 星级
    star = scrapy.Field()
    # 电影的评价数
    evaluate = scrapy.Field()
    # 电影的描述
    describe = scrapy.Field()

编写 spider 文件

import scrapy
# 引入 items.py 中定义的数据结构
from douban.items import DoubanItem


class DoubanSpiderSpider(scrapy.Spider):
    # 爬虫名称
    name = 'douban_spider'
    # 允许的域名
    allowed_domains = ['movie.douban.com']
    # 入口 url,扔到调度器中
    start_urls = ['https://movie.douban.com/top250']

    # 默认的解析方法
    def parse(self, response):
        # 循环电影的条目
        movie_list = response.xpath("//div[@class='article']//ol[@class='grid_view']/li")
        for i_item in movie_list:
            # item 文件导进来
            douban_item = DoubanItem()

            # 写详细的 xpath,进行数据的解析
            douban_item['serial_number'] = i_item.xpath(".//div[@class='item']//em/text()").extract_first()
            douban_item['movie_name'] = i_item.xpath(".//div[@class='info']/div[@class='hd']/a/span[1]/text()").extract_first()
            content = i_item.xpath(".//div[@class='info']//div[@class='bd']/p[1]/text()").extract()
            # 数据的处理
            for i_content in content:
                content_s = "".join(i_content.split())
                douban_item['introduce'] = content_s
            douban_item['star'] = i_item.xpath(".//span[@class='rating_num']/text()").extract_first()
            douban_item['evaluate'] = i_item.xpath(".//div[@class='star']//span[4]/text()").extract_first()
            douban_item['describe'] = i_item.xpath(".//p[@class='quote']/span/text()").extract_first()
            # 将爬取到的数据 yield 到管道 piplines 中
            yield douban_item

        # 解析下一页
        next_link = response.xpath("//span[@class='next']/link/@href").extract()

        # 判断有无下一页,并且将数组形式的 next_link 转换成 String
        if next_link:
            next_link = next_link[0]

            # 将需要继续请求的 url 返回给调度器,请求下一页
            yield scrapy.Request("https://movie.douban.com/top250" + next_link, callback=self.parse)

extract():返回的是一个数组list,形如 [‘A’, B’, C’]

extract_first():返回的是一个string字符串,是list数组里面的第一个字符串。

Xpath 中双斜杠 “//” 和单斜杠 “/” 有什么区别?

双斜杠 // 表示当前节点任意子节点

单斜杠 / 表示当前节点的直接子节点(必须在当前节点的下面第一个)

在 settings 文件中设置请求头

USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36'

生成 csv 和 json 数据

生成 csv 格式文件

scrapy crawl douban_spider -o test.json

生成 json 格式文件(文件以 unicode 编码形式存放)

scrapy crawl douban_spider -o test.csv

将数据保存到 mongoDB 数据库中

在 settings 文件中添加如下属性,来设置 mongoDB 的连接数据

mongo_host = '127.0.0.1'
mongo_port = 27017
mongo_db_name = 'douban'
mongo_db_collection = 'douban_movie'

打开 pipelines 文件,编写连接 mongoDB 数据库,并保存数据的代码

import pymongo
from douban.settings import mongo_host, mongo_port, mongo_db_name, mongo_db_collection

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html


class DoubanPipeline(object):
    def __init__(self):
        host = mongo_host
        port = mongo_port
        dbname = mongo_db_name
        sheetname = mongo_db_collection
        client = pymongo.MongoClient(host=host, port=port)
        mydb = client[dbname]
        self.port = mydb[sheetname]

    # item 是 yield 过来的数据
    def process_item(self, item, spider):

        # 将数据转换成字典
        data = dict(item)
        self.port.insert(data)
        return item

打开 settings 中如下的配置

# 开启 pipeline 这个选项,否则数据不会保存到数据库中

ITEM_PIPELINES = {

‘douban.pipelines.DoubanPipeline’: 300,

}

运行爬虫项目

scrapy crawl douban_spider

相关的信息会在控制台打印出来,打开数据库就可以查看如下信息

两种反爬处理方式

设置代理

本文使用阿布云的 HTTP 代理

在 middlewares 文件中添加如下代码

class my_proxy(object):
    def process_request(self, request, spider):
        request.meta['Proxy'] = 'http-cla.abuyun.com:9030'
        proxy_name_pass = b'H7396667C64KE3FC:9C683CB9F8C82F9C'
        encode_pass_name = base64.b64encode(proxy_name_pass)
        request.headers['Proxy-Authorization'] = 'Basic' + encode_pass_name.decode()

在 settings 中配置如下

DOWNLOADER_MIDDLEWARES = {
   'douban.middlewares.my_proxy': 543,
}

再次运行代码就可以在控制台看到如下信息

设置随机请求头

在 middlewares 文件中添加如下代码

class my_useragent(object):
    def process_request(self, request, spider):
        USER_AGENT_LIST = [
            "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
            "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
            "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
            "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
            "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
            "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
            "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
            "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
            "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
            "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
            "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
            "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
            "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
            "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
        ]
        agent = random.choice(USER_AGENT_LIST)
        request.headers['User_Agent'] = agent

在 settings 中配置如下

DOWNLOADER_MIDDLEWARES = {
   # 'douban.middlewares.DoubanDownloaderMiddleware': 543,
   'douban.middlewares.my_proxy': 543,
   'douban.middlewares.my_useragent': 544,
}

再次运行代码就可以在控制台看到如下信息

源码下载

评论后可见此区域内容
0 条回应