本文实例讲述了Python实现可获取网易页面所有文本信息的网易网络爬虫功能。分享给大家供大家参考,具体如下:
#coding=utf-8 #--------------------------------------- # 程序:网易爬虫 # 作者:ewang # 日期:2016-7-6 # 语言:Python 2.7 # 功能:获取网易页面中的文本信息并保存到TXT文件中。 #--------------------------------------- import string import urllib2 import re import os class WangYi_Spider: #申明相关属性 def __init__(self): #给wangyiUrl属性赋值 self.wangyiUrl="http://www.163.com/" #用来保存页面中文字信息 self.pageinfor=[] print u'已经启动网易爬虫,爬爬...' #初始化加载页面并将其转码存储 def wangyi(self): #读取页面的原始信息并将其从gbk转码 Page=urllib2.urlopen(self.wangyiUrl).read().decode('gbk') #获取页面标题 title=self.find_title(Page) print u'网页名称:'+title #获取页面中文本信息 self.save_infor(title) #查找页面标题 def find_title(self,page): #匹配<title>xxxx</title> myTitle=re.search(r'<title>(.*"<em.*?>(\W+",page,re.S) #获取<span>XXXX</a>的文本信息XXXX spanTagItems=re.findall("<span>(\W+",page,re.S) #获取<a .*>XXXX</a>的文本信息XXXX aTagItems=re.findall("<a.*?>(\W+",page,re.S) #把em tag中获取的文本信息添加到数组pageinfor中 for emItem in emTagItems: #对获取的文本信息用gbk进行编码 self.pageinfor.append(emItem.encode('gbk')+'\n') #把span tag中获取的文本信息添加到数组pageinfor中 for spanItem in spanTagItems: #对获取的文本信息用gbk进行编码 self.pageinfor.append(spanItem.encode('gbk')+'\n') #把a tag中获取的文本信息添加到数组pageinfor中 for aItem in aTagItems: #对获取的文本信息用gbk进行编码 self.pageinfor.append(aItem.encode('gbk')+'\n') #------------程序入口处---------------- print u"""#--------------------------------------- # 程序:网易爬虫 # 作者:ewang # 日期:2016-7-6 # 语言:Python 2.7 # 功能:获取网易页面中的文本信息并保存到TXT文件中 #-------------------------------------------------- """ wangyiSpider=WangYi_Spider() wangyiSpider.wangyi()
更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。