博客
关于我
使用python将新闻爬取保存进sqlite数据库并读取输出屏幕
阅读量:746 次
发布时间:2019-03-22

本文共 4674 字,大约阅读时间需要 15 分钟。

将新闻爬取下来保存在sqlite中

直接看代码吧!

import sqlite3import urllib.requestimport re,os,sys,timeimport base64import requestsimport timeimport matplotlib.pyplot as pltimport matplotlib.image as mpingdef define():   #把新闻爬下来并保存进sqlite数据库中	conn=sqlite3.connect('news_sqlite.db')	c=conn.cursor()	url="http://news.hstc.edu.cn/info/1034/6918.htm"	htmlls=urllib.request.urlopen(url).read().decode('utf-8')	htmll= re.compile('class="(.*)
(.*?)

').findall(sign) x=0 for imgurl in imglist2: conn.execute("INSERT INTO News(id,content) VALUES(?,?)",(x,imgurl,)) #sqlite 使用?作为占位符,这样才可以存入图片。 x+=1 conn.commit() print("保存文字成功!!!") pat1='__local/.*?.jpg' imglist1 = re.compile(pat1).findall(htmlls) imglist1=list(set(imglist1)) #去重复元素 x = 0 # 遍历 for imgurl in imglist1: imgurl="http://news.hstc.edu.cn/"+imgurl#获取获得的从imglist中遍历得到的imgurl urllib.request.urlretrieve(imgurl, "D:/计科5181/xinwen{}.jpg".format(x)) print('第',x,'张') x +=1 for i in range(0,len(imglist1)): with open("D:/计科5181/xinwen{}.jpg".format(i), "rb") as f: res=base64.b64encode(f.read()) #将图片转换为字节。 c.execute("INSERT INTO Tupian VALUES(?)",(res,)) conn.commit() print("保存图片成功!!!") pat3='

(.*?)

' imglist3 = re.compile(pat3).findall(htmlls) x = 0 for imgurl in imglist3: conn.execute("update News set name=('%s') where id=('%d')"%(imgurl,x)) x+=1 conn.commit() print("保存新闻名成功") c.close() conn.close() print("保存进数据库成功!!!\n\n")

将sqlite中的数据输出屏幕

def printf():   #从数据库中读取并输出文字跟图片	conn=sqlite3.connect('news_sqlite.db')	c=conn.cursor()		c.execute("select * from News")	print("\n\n标题:\n")	for variate in c.fetchall():    #输出新闻名		print('\t\t'+variate[1])		print("\n\n")		print(variate[2])		break	c.execute("select * from News")	for variate in c.fetchall():		print(variate[2])	i = 0	c.execute("select * from Tupian")	for variate in c.fetchall():		img=base64.b64decode(variate[0])		file=open("D:/计科5181/tupian/s{}.jpg".format(i),'wb')		file.write(img)		file.close()			img=mping.imread("D:/计科5181/tupian/s{}.jpg".format(i)) #读取图片的路径。		plt.imshow(img)		plt.axis('off')#不显示坐标轴		plt.show()      #显示图片		time.sleep(2)		i+=1

完整代码

import sqlite3import urllib.requestimport re,os,sys,timeimport base64import requestsimport timeimport matplotlib.pyplot as pltimport matplotlib.image as mpingdef define():   #把新闻爬下来并保存进sqlite数据库中	conn=sqlite3.connect('news_sqlite.db')	c=conn.cursor()	url="http://news.hstc.edu.cn/info/1034/6918.htm"	htmlls=urllib.request.urlopen(url).read().decode('utf-8')	htmll= re.compile('class="(.*)
(.*?)

').findall(sign) x=0 for imgurl in imglist2: conn.execute("INSERT INTO News(id,content) VALUES(?,?)",(x,imgurl,)) x+=1 conn.commit() print("保存文字成功!!!") pat1='__local/.*?.jpg' imglist1 = re.compile(pat1).findall(htmlls) imglist1=list(set(imglist1)) #去重复元素 x = 0 # 遍历 for imgurl in imglist1: imgurl="http://news.hstc.edu.cn/"+imgurl#获取获得的从imglist中遍历得到的imgurl urllib.request.urlretrieve(imgurl, "D:/计科5181/xinwen{}.jpg".format(x)) print('第',x,'张') x +=1 for i in range(0,len(imglist1)): with open("D:/计科5181/xinwen{}.jpg".format(i), "rb") as f: res=base64.b64encode(f.read()) #将图片转换为字节。 c.execute("INSERT INTO Tupian VALUES(?)",(res,)) conn.commit() print("保存图片成功!!!") pat3='

(.*?)

' imglist3 = re.compile(pat3).findall(htmlls) x = 0 for imgurl in imglist3: conn.execute("update News set name=('%s') where id=('%d')"%(imgurl,x)) x+=1 conn.commit() print("保存新闻名成功") c.close() conn.close() print("保存进数据库成功!!!\n\n")def printf(): #从数据库中读取并输出文字跟图片 conn=sqlite3.connect('news_sqlite.db') c=conn.cursor() c.execute("select * from News") print("\n\n标题:\n") for variate in c.fetchall(): #输出新闻名 print('\t\t'+variate[1]) print("\n\n") print(variate[2]) break c.execute("select * from News") for variate in c.fetchall(): print(variate[2]) i = 0 c.execute("select * from Tupian") for variate in c.fetchall(): img=base64.b64decode(variate[0]) file=open("D:/计科5181/tupian/s{}.jpg".format(i),'wb') file.write(img) file.close() img=mping.imread("D:/计科5181/tupian/s{}.jpg".format(i)) #读取图片的路径。 plt.imshow(img) plt.axis('off')#不显示坐标轴 plt.show() #显示图片 time.sleep(2) i+=1 print("\n\n") conn=sqlite3.connect('news_sqlite.db')c=conn.cursor()try: c.execute('''CREATE TABLE News(id int,name text,content text)''') #建立保存文字的表。 c.execute('''CREATE TABLE Tupian(picture BOLB)''') #建立保存图片的表。 print("建立表成功!!!\n\n")except: print("表-Students创建成功!") while True: print("1--爬虫 2--输出 3-- 退出") sign=input("输入你的选择:") sign=int(sign) while sign not in range(1,4): sign=input("输入错误,请重新输入您的选择:") sign=int(sign) if sign==1: define() elif sign==2: printf() elif sign==3: print("退出程序!!!") break

注释

这个代码的网页是我学校的新闻网页。第一次爬取网页,正则表达式不了解,弄了很久才弄到我要的正则表达式。

链接

转载地址:http://gzewk.baihongyu.com/

你可能感兴趣的文章
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>