博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python爬虫之scrapy的使用
阅读量:5127 次
发布时间:2019-06-13

本文共 2384 字,大约阅读时间需要 7 分钟。

一、Scarpy框架介绍

1、引擎(EGINE)     引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。     2、调度器(SCHEDULER)     用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址     3、下载器(DOWLOADER)     用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的     4、爬虫(SPIDERS)     SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求     5、项目管道(ITEM PIPLINES)     在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作     下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,     你可用该中间件做以下几件事:         (1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);         (2) change received response before passing it to a spider;         (3) send a new Request instead of passing received response to a spider;         (4) pass response to a spider without fetching a web page;         (5) silently drop some requests.     6、爬虫中间件(Spider Middlewares)     位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests

二、Scarpy的安装

1、pip3 install wheel     2、pip3 install lxml     3、pip3 install pyopenssl     4、pip3 install pypiwin32     5、安装twisted框架         下载twisted             http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted         安装下载好的twisted             pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl     6、pip3 install scrapy

三、Scarpy使用

1 1、进入终端cmd 2         - scrapy 3             C:\Users\administortra>scrapy 4             Scrapy 1.6.0 - no active project 5  6 2、创建scrapy项目 7       1.创建一个文件夹,专门用于存放scrapy项目 8           - D:\Scrapy_prject 9       2.cmd终端输入命令10           scrapy startproject Spider_Project( 项目名)11           - 会在 D:\Scrapy_prject文件夹下会生成一个文件12             Spider_Project : Scrapy项目文件13 14       3.创建爬虫程序15          cd Spider_Project  # 切换到scrapy项目目录下16                        # 爬虫程序名称     目标网站域名17          scrapy genspider   baidu     www.baidu.com  # 创建爬虫程序18 19 3、启动scrapy项目,执行爬虫程序20 21         # 找到爬虫程序文件进行执行22         scrapy runspider只能执行某个 爬虫程序.py23             # 切换到爬虫程序执行文件目录下24             - cd D:\Scrapy_prject\Spider_Project\Spider_Project\spiders25             - scrapy runspider baidu.py26 27         # 根据爬虫名称找到相应的爬虫程序执行28         scrapy crawl 爬虫程序名称29             # 切换到项目目录下30             - cd D:\Scrapy_prject\Spider_Project31             - scrapy crawl baidu

 

 

转载于:https://www.cnblogs.com/lweiser/p/11066949.html

你可能感兴趣的文章
Hexo瞎折腾系列(2) - 添加背景图片轮播
查看>>
vs------各种错误解决方法
查看>>
JavaScript基础---语言基础(3)
查看>>
团队站立会议08
查看>>
IOI1998 Polygon [区间dp]
查看>>
硬链接和符号链接的区别
查看>>
docker-swarm
查看>>
接口和抽象类
查看>>
poj2151 Check the difficulty of problems(概率dp)
查看>>
UI- UINavigationController UITabBarController 使用总结
查看>>
BZOJ3926: [Zjoi2015]诸神眷顾的幻想乡(广义后缀自动机)
查看>>
mysql 中 時間和日期函數大全
查看>>
mongodb基本语法
查看>>
[凯立德]2014全分辨率C-Car 4.0机车C2610版完美懒人包
查看>>
[LeetCode] Same Tree
查看>>
给Entity Framework添加执行的超时时间
查看>>
【总结】瞬时高并发(秒杀/活动)Redis方案(转)
查看>>
numpy模块
查看>>
iPhone图形开发绘图小结
查看>>
从零开始搭建微信硬件开发环境全过程——1小时掌握微信硬件开发流程
查看>>