首页 > 其他 > 详细

正则爬虫案例

时间:2017-06-29 21:41:15      阅读:259      评论:0      收藏:0      [点我收藏+]
#coding:utf-8

import requests
import re
import json

url=https://movie.douban.com/top250?start=0&filter=‘ #豆瓣网

def get_page(url):
  #获取网页上的数据 response_html
=requests.get(url) #response_html.encoding = response_html.apparent_encoding return response_html.text def run(url): response=get_page(url)
  #编译匹配规则,找出用的数据 obj
=re.compile(<div class="item">.*?<em.*?>(?P<id>\d+)</em>.*?<span class="title">(?P<title>.*?)</span>.*?<p .*?>(?P<info>.*?)</p>.*?<span class="rating_num" .*?>(?P<rating>.*?)</span>.*?<span>(?P<appraise>\w+)</span>,re.S) res=obj.finditer(response) file={} for i in res: file[i.group(id)]=(i.group(title),i.group(rating),i.group(appraise)) # print(file)
     #将有用的信息转成json格式,以字典的格式储存到文件中
     content=json.dumps(file,ensure_ascii=False) f = open(doubian.txt, a) f.seek(0,2) f.write(content+\n) file={} i=0 while i < 251:
#循环取出所有网页里的内容(根据网页不同进行更改) a
=i run(url) i+=25 url=re.sub(start=\d+,start=+str(i),url) print(url)

 

正则爬虫案例

原文:http://www.cnblogs.com/mona524/p/7096190.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!