第3章学习笔记:
Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中。
其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。
Scrapy 使用了 Twisted异步网络库来处理网络通讯。
Scrapy主要包括了以下组件:
Scrapy运行流程大概如下:
引擎从调度器中取出一个链接(URL)用于接下来的抓取
引擎把URL封装成一个请求(Request)传给下载器
下载器把资源下载下来,并封装成应答包(Response)
爬虫解析Response
解析出实体(Item),则交给实体管道进行进一步的处理
解析出的是链接(URL),则把URL交给调度器等待抓取
windows安装scrapy
(1)安装twisted
a. pip3 install wheel
b. 下载twisted https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
c. 进入下载目录,执行pip3 install Twisted-xxx.whl
(2)安装scrapy
d. pip3 install scrapy -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
(3)安装pywin32
e. pip3 install pywin32 -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
本质 sk = socket() # 阻塞 sk.connect((‘www.cnblogs.com‘,80)) sk.sendall(b"GET /wupeiqi http1.1\r\n.....\r\n\r\n") sk.sendall(b"POST /wupeiqi http1.1\r\n.....\r\n\r\nuser=alex&pwd=123") # 阻塞 data = sk.recv(8096) sk.close()
IO多路复用:
监听多个socket是否发生变化
IO多路复用的作用:
1.select,内部循环检测socket是否发生变化;最多只能检测1024个socket
2.poll,内部循环检测socket是否发生变化;检测socket数不限
3.epoll,通过回调的方式检测socket是否发生变化;检测socket数不限
什么是异步非阻塞?
非阻塞:
不等待(可能会报错,捕捉异常)
代码:
sk = socket.socket()
sk.setblocking(False)
异步:
回调,当达到某个指定的状态之后,自动调用特定函数。
如何自定义异步非阻塞模块?
本质:socket+IO多路复用
基于socket设置setblocking和IO多路复用来实现。
爬虫发送Http请求本质创建socket对象;
IO多路复用"循环"监听socket是否发生变化,一旦发生变化, 我们可以自定义操作(触发某个函数的执行)
协程
1. 是“微线程”,不存在;是由程序员人为创造出来并控制程序:先执行某段代码、再跳到某处执行某段代码
2.如果遇到非IO请求来回切换:性能更低
3. 如果遇到IO(耗时)请求来回切换:性能高、实现并发(本质上利用IO等待的过程,再去干一些其他的事
通过yield实现一个协程:
def func1(): print(‘adsfasdf‘) print(‘adsfasdf‘) print(‘adsfasdf‘) yield 1 print(‘adsfasdf‘) print(‘adsfasdf‘) print(‘adsfasdf‘) yield 2 yield 3 yield 4 def func2(): print(‘adsfasdf‘) print(‘adsfasdf‘) print(‘adsfasdf‘) yield 11 yield 12 yield 19 g1=func1() g2=func2() g1.send(None) g1.send(None) g2.send(None)
通过greenlet模块实现一个协程: from greenlet import greenlet def test1(): print 12 gr2.switch() print 34 gr2.switch() def test2(): print 56 gr1.switch() print 78 gr1 = greenlet(test1) gr2 = greenlet(test2) gr1.switch()
Python内置以及第三方模块提供异步IO请求模块,使用简便大大提高效率,而对于异步IO请求的本质则是【非阻塞Socket】+【IO多路复用】: import asyncio import requests @asyncio.coroutine def fetch_async(func, *args): loop = asyncio.get_event_loop() future = loop.run_in_executor(None, func, *args) response = yield from future print(response.url, response.content) tasks = [ fetch_async(requests.get, ‘http://www.cnblogs.com/wupeiqi/‘), fetch_async(requests.get, ‘http://dig.chouti.com/pic/show?nid=4073644713430508&lid=10273091‘) ] loop = asyncio.get_event_loop() results = loop.run_until_complete(asyncio.gather(*tasks)) loop.close()
2222 import gevent import requests from gevent import monkey monkey.patch_all() def fetch_async(method, url, req_kwargs): print(method, url, req_kwargs) response = requests.request(method=method, url=url, **req_kwargs) print(response.url, response.content) 发送请求 gevent.joinall([ gevent.spawn(fetch_async, method=‘get‘, url=‘https://www.python.org/‘, req_kwargs={}), gevent.spawn(fetch_async, method=‘get‘, url=‘https://www.yahoo.com/‘, req_kwargs={}), gevent.spawn(fetch_async, method=‘get‘, url=‘https://github.com/‘, req_kwargs={}), ]) #发送请求 协程池控制最大协程数量 # from gevent.pool import Pool # pool = Pool(None) # gevent.joinall([ # pool.spawn(fetch_async, method=‘get‘, url=‘https://www.python.org/‘, req_kwargs={}), # pool.spawn(fetch_async, method=‘get‘, url=‘https://www.yahoo.com/‘, req_kwargs={}), # pool.spawn(fetch_async, method=‘get‘, url=‘https://www.github.com/‘, req_kwargs={}), # ])
333
from twisted.web.client import getPage, defer from twisted.internet import reactor def all_done(arg): reactor.stop() def callback(contents): print(contents) d_list = [] url_list = [‘http://www.bing.com‘, ‘http://www.baidu.com‘, ] for url in url_list: d = getPage(bytes(url, encoding=‘utf8‘)) d.addCallback(callback) d_list.append(d) # 用于检查是否页面已经全部下载完成,如果已下载完成那么,就停止循环。 dlist = defer.DeferredList(d_list) dlist.addBoth(all_done) # reactor.run()
原文:https://www.cnblogs.com/zhange000/p/9304210.html