首页 > 编程语言 > 详细

python小说爬虫

时间:2020-02-09 20:57:06      阅读:59      评论:0      收藏:0      [点我收藏+]

今天简单的爬取了一个小说,小说的爬虫相对来说比较简单,爬虫的网址是:http://www.92kshu.cc/69509/

主要通过正则表达式进行的简单的爬虫,获取每个章节的url地址,之后将界面中的内容获取

通过html可以看到每章节的网址后面都是和a标签里面的href属性内容一样的,只要获取了属性中的内容,就可以获得每个章节网页的网址,通过每个章节的网址来获取每章小说的内容

技术分享图片

 

技术分享图片

 

 

 

import requests
import re

url = ‘http://www.92kshu.cc/69509/‘
response = requests.get(url)
response.encoding = ‘gbk‘
html = response.text
title = re.findall(r‘<meta property="og:novel:book_name" content="(.*?)"/>‘,html)[0]
fb = open(‘%s.txt‘ % title,‘w‘,encoding=‘utf-8‘)
#获取每章的内容
#print(html)
dl = re.findall(r‘<dl><dt><i class="icon"></i>正文</dt>(.*?)</dl>‘,html)[0]
print(dl)
chapter_info_list = re.findall(r‘<dd><a href="(.*?)">(.*?)</a></dd>‘,dl)
print(chapter_info_list)
for chapter_info in chapter_info_list:
    chapter_url,chapter_title = chapter_info
    chapter_url = "http://www.92kshu.cc%s" %chapter_url
    #print(chapter_url)
    chapter_response = requests.get(chapter_url)
    chapter_response.encoding = ‘gbk‘
    chapter_html = chapter_response.text
    chapter_content = re.findall(r‘<div class="chapter">(.*?)><br>‘,chapter_html)[0]
    #print(chapter_content)
    chapter_content = chapter_content.replace(‘<p>‘,‘‘)
    chapter_content = chapter_content.replace(‘</p>‘,‘‘)
    fb.write(chapter_title)
    fb.write(chapter_content)
    fb.write(‘\n‘)
    print(chapter_url)

 这是最后获取的小说的内容

 技术分享图片

 

python小说爬虫

原文:https://www.cnblogs.com/zhang12345/p/12288478.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!