本人小白一枚,简单记录下学校作业项目,代码十分简单,主要是对各个库的理解,希望能给别的初学者一点启发。
一、项目要求
1、程序可以从北京工业大学首页上爬取新闻内容:http://www.bjut.edu.cn
2、程序可以将爬取下来的数据写入本地MySQL数据库中。
3、程序可以将爬取下来的数据发送到邮箱。
4、程序可以定时执行。
二、项目分析
1、爬虫部分利用requests库爬取html文本,再利用bs4中的BeaultifulSoup库来解析html文本,提取需要的内容。
2、使用pymysql库连接MySQL数据库,实现建表和插入内容操作。
3、使用smtplib库建立邮箱连接,再使用email库将文本信息加工成邮件消息并发送。
4、使用schedule库实现定时执行该程序。
三、代码分析
1、导入需要的库:
# 爬虫相关模块 import requests from bs4 import BeautifulSoup import pymysql # 发邮件相关模块 import smtplib from email.mime.text import MIMEText from email.header import Header import time # 定时模块 import schedule
2、获取html文件:
# 连接获取html文本 def getHTMLtext(url): try: headers={ "user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36", } # 浏览器请求头 r = requests.get(url, headers = headers, timeout = 30) # 获取连接 r.raise_for_status() # 测试连接是否成功,若失败则报异常 r.encoding = r.apparent_encoding # 解析编码 return r.text except: return ""
其中必须添加请求头headers否则get请求时会返回错误页面。
raise_for_status()可以根据状态码判断连接对象的状态,如果成功便继续执行,若连接失败则抛出异常,因此利用try-except捕获。
apparent_encoding()方法可以解析判断可能的编码方式。
3、解析html提取数据:
首先观察网页源码确定新闻标签位置:
# 解析html提取数据 def parseHTML(news, html): soup = BeautifulSoup(html, "html.parser") # 获取soup for i in soup.find(attrs = {'class' : 'list'}).find_all('li'): # 存放新闻的li标签 date = i.p.string + '-' + i.h2.string # 日期 href = i.a['href'] # 链接 title = i.find('h1').string # 标题 content = i.find_all('p')[1].string # 梗概 news.append([date, href, title, content]) # 添加到列表中
可见所有新闻内容全部存放在class为”list”的div标签中,而每条新闻又存放在li标签中,因此利用find和find_all方法遍历所有li标签。
每个li标签中a标签的href属性存放新闻链接,h1标签存放新闻标题,h2标签存放日期,第一个p标签存放年、月,第二个p标签存放新闻梗概。依次取出对应标签中的文本内容,并将年月日拼接后依次存入news列表中。
4、存入数据库
# 存入数据库 def toMysql(news): conn = pymysql.connect(host = 'localhost', port = 3306, user = 'root', passwd = '数据库密码', db = '数据库名称',charset = 'gbk', connect_timeout = 1000) cursor = conn.cursor() sql = ''' create table if not exists tb_news( 日期 date, 链接 varchar(400), 标题 varchar(400), 梗概 varchar(400)) ''' cursor.execute(sql) # 建表 for new in news: # 循环存入数据 sql = 'insert into tb_news(日期, 链接, 标题, 梗概) values(%s, %s, %s, %s)' date = new[0] href = new[1] title = new[2] content = new[3] cursor.execute(sql, (date, href, title, content)) conn.commit() conn.close()
由于新闻字数较多,存取时可能会有乱码以及数据过长存储失败的问题,与数据库编码有关,可以在MySQL的my.ini配置文件中修改默认编码为gbk。
5、发送邮件
# 发送邮件 def sendMail(news): from_addr = '发送邮箱' # 发送邮箱 password = '16位授权码' # 邮箱授权码 to_addr = '接收邮箱' # 接收邮箱 mailhost = 'smtp.qq.com' # qq邮箱的smtp地址 qqmail = smtplib.SMTP() # 建立SMTP对象 qqmail.connect(mailhost, 25) # 25为SMTP常用端口 qqmail.login(from_addr, password) # 登录邮箱 content = '' for new in news: # 拼接邮件内容字符串 content += '新闻时间:' + new[0] + '\n' + '新闻链接:' + new[1] + '\n' + '新闻标题:' + new[2] + '\n' + '新闻梗概:' + new[3] + '\n' content += '======================================================================\n' # 拼接题目字符串 subject = time.strftime('%Y-%m-%d %X', time.localtime(time.time())) + '时爬取的北工大首页主要新闻\n' # 加工邮件message格式 msg = MIMEText(content, 'plain', 'utf-8') msg['subject'] = Header(subject, 'utf-8') try: qqmail.sendmail(from_addr, to_addr, msg.as_string()) print('发送成功') except: print('发送失败') qqmail.quit()
注意其中的密码不是指邮箱的登录密码,而是指邮箱的smtp授权码,qq邮箱可以再设置中开启smtp服务,并获取授权码。
6、主函数
# 主函数 def main(): news = [] url = "http://www.bjut.edu.cn/" html = getHTMLtext(url) parseHTML(news, html) toMysql(news) print(news) sendMail(news)
输入北京工业大学官网的url并新建一个列表news用来存放消息,然后依次调用函数爬取新闻存入数据库并发到邮箱。为了检验上述程序是否可以完成任务,先调用依次main()函数并print(news)看看结果:
main() #测试需要,之后会删除
结果如下:
由此可见程序执行正常。
7、定时执行
# 定时执行整个任务 schedule.every().monday.at("08:00").do(main) # 每周一早上八点执行main函数 while True: schedule.run_pending() time.sleep(1)
用死循环保证schedule一直运行。设定的是每周一早上8:00执行程序。
为了方便检查效果,先将运行时间改为每5s运行一次:
schedule.every(5).seconds.do(main)
每5s便可以收到一封邮件,由此可见满足定时需求。至此程序结束。
四、完整代码
# 爬虫相关模块 import requests from bs4 import BeautifulSoup import pymysql # 发邮件相关模块 import smtplib from email.mime.text import MIMEText from email.header import Header import time # 定时模块 import schedule # 连接获取html文本 def getHTMLtext(url): try: headers={ "user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36", } # 浏览器请求头 r = requests.get(url, headers = headers, timeout = 30) # 获取连接 r.raise_for_status() # 测试连接是否成功,若失败则报异常 r.encoding = r.apparent_encoding # 解析编码 return r.text except: return "" # 解析html提取数据 def parseHTML(news, html): soup = BeautifulSoup(html, "html.parser") # 获取soup for i in soup.find(attrs = {'class' : 'list'}).find_all('li'): # 存放新闻的li标签 date = i.p.string + '-' + i.h2.string # 日期 href = i.a['href'] # 链接 title = i.find('h1').string # 标题 content = i.find_all('p')[1].string # 梗概 news.append([date, href, title, content]) # 添加到列表中 # 存入数据库 def toMysql(news): conn = pymysql.connect(host = 'localhost', port = 3306, user = 'root', passwd = '数据库密码', db = '数据库名称',charset = 'gbk', connect_timeout = 1000) cursor = conn.cursor() sql = ''' create table if not exists tb_news( 日期 date, 链接 varchar(400), 标题 varchar(400), 梗概 varchar(400)) ''' cursor.execute(sql) # 建表 for new in news: # 循环存入数据 sql = 'insert into tb_news(日期, 链接, 标题, 梗概) values(%s, %s, %s, %s)' date = new[0] href = new[1] title = new[2] content = new[3] cursor.execute(sql, (date, href, title, content)) conn.commit() conn.close() # 发送邮件 def sendMail(news): from_addr = '发送邮箱' # 发送邮箱 password = '16位授权码' # 邮箱授权码 to_addr = '接收邮箱' # 接收邮箱 mailhost = 'smtp.qq.com' # qq邮箱的smtp地址 qqmail = smtplib.SMTP() # 建立SMTP对象 qqmail.connect(mailhost, 25) # 25为SMTP常用端口 qqmail.login(from_addr, password) # 登录邮箱 content = '' for new in news: # 拼接邮件内容字符串 content += '新闻时间:' + new[0] + '\n' + '新闻链接:' + new[1] + '\n' + '新闻标题:' + new[2] + '\n' + '新闻梗概:' + new[3] + '\n' content += '======================================================================\n' # 拼接题目字符串 subject = time.strftime('%Y-%m-%d %X', time.localtime(time.time())) + '时爬取的北工大首页主要新闻\n' # 加工邮件message格式 msg = MIMEText(content, 'plain', 'utf-8') msg['subject'] = Header(subject, 'utf-8') try: qqmail.sendmail(from_addr, to_addr, msg.as_string()) print('发送成功') except: print('发送失败') qqmail.quit() # 主函数 def main(): news = [] url = "http://www.bjut.edu.cn/" html = getHTMLtext(url) parseHTML(news, html) print(news) sendMail(news) # 定时执行整个任务 schedule.every().monday.at("08:00").do(main) # 每周一早上八点执行main函数 while True: schedule.run_pending() time.sleep(1)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]