首页 > 其他 > 详细

写简单的爬虫都需要什么

时间:2018-11-24 19:41:44      阅读:172      评论:0      收藏:0      [点我收藏+]
写爬虫都需要些什么呢,
技术分享图片
A 要爬取的网址难度的大小 (选择谷歌对要爬取的网址源代码进行分析)
技术分享图片
B 借用Python中的模块urllib与requests 对网址进行请求与访问
以requests为例:(requests模块的导入见:http://blog.51cto.com/13747953/2321389)
a 下载图片

import requests            

ret=requests.get(‘http://×××w.xiaohuar.com/d/file/20180724/40d83a6709eca21137dcdd80ee28c31b.jpg‘)
print(ret,type(ret))
print(ret.status_code)
print(ret.content)
with open(r‘E:\text1\爬虫\text_png\p1.png‘,‘wb‘) as f:
    f.write(ret.content)

技术分享图片
b 基本文字信息的获取

import requests
from urllib import request

# ret=requests.get(‘http://maoyan.com/board‘)
headers={
    ‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36‘

}
ret=request.Request(‘http://maoyan.com/board‘,headers=headers)
resp=request.urlopen(ret)
print(resp,type(resp))
print(resp.read().decode(‘utf-8‘))

这里不用requests 模块是因为在请求的过程中返回了403的错误
猜想可能的原因是:网址的反爬虫机制发现了来自pycharm的请求;
所以可以用urllib(Python自带的模块)提供的request模块
技术分享图片
结果如下:
技术分享图片

C 如何从B-b中获取的文字数据中提取出自己想要的数据呢
a 分析数据的相同点
技术分享图片
技术分享图片

利用正则表达式与re模块
详见:(未完)

(程序猿很无聊多多指教交流)

写简单的爬虫都需要什么

原文:http://blog.51cto.com/13747953/2321430

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!