自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

手把手教你使用Python網(wǎng)絡爬蟲實現(xiàn)郵件定時發(fā)送(附源碼)

開發(fā) 后端
這篇文章主要給大家介紹了使用Python網(wǎng)絡爬蟲并實現(xiàn)郵件自動定時發(fā)送的小項目。實現(xiàn)的主要思路是構造一個爬蟲任務。

[[434046]]

大家好,我是Python進階者。

前言

前幾天【馮誠】大佬在群里分享了一個抓取讀書目錄并實現(xiàn)郵件定時發(fā)送的代碼,感覺還是蠻不錯的,這里分享給大家學習。

一、思路

思路倒是不難,構造一個爬蟲任務,抓取某書網(wǎng)站上的目錄,之后將獲取的內(nèi)容返回,然后利用Python實現(xiàn)郵件發(fā)送的功能,剩下的就是定時任務構建了,下面一起來看看具體的實現(xiàn)過程。

二、具體實現(xiàn)

這里直接丟大佬的代碼了,如下所示:

  1. # -*- coding: utf-8 -*- 
  2. import requests, bs4 
  3. import smtplib 
  4. import schedule 
  5. import time 
  6. from bs4 import BeautifulSoup 
  7. from email.mime.text import MIMEText 
  8. from email.header import Header 
  9.  
  10.  
  11. # account = '{0}'.format('發(fā)件人qq郵箱'
  12. password = '{0}'.format('qq郵箱授權碼'
  13. # receiver = '{0}'.format('收件人163郵箱或者qq郵箱'
  14. account = '{0}'.format('2352180977@qq.com'
  15. password = '{0}'.format('awmowqginzdijg'
  16. receiver = '{0}'.format('2352180977@qq.com'
  17.  
  18.  
  19. # 爬蟲任務,獲取sobooks網(wǎng)站上的書名和作者,其中頁面的話,可以根據(jù)自己需求進行修改 
  20. def recipe_spider(): 
  21.     list_all = '' 
  22.     num = 0 
  23.     for a in range(1, 3): 
  24.         n = '{0}{1}'.format('https://sobooks.cc/page/', a) 
  25.         res = requests.get(n) 
  26.         res.encoding = res.apparent_encoding 
  27.         bs = BeautifulSoup(res.text, 'html.parser'
  28. # print(bs) 
  29.      
  30.         books = bs.find_all('h3'
  31.         authors = bs.find_all('p'
  32.          
  33.         for i in range(len(books)): 
  34.             num = num+1 
  35.             book = books[i].text.strip() 
  36.             author = authors[i+1].text.strip() 
  37.         #list_books.append([book,author]) 
  38. #  list_books.append(list_book) 
  39.  
  40.             n = ''
  41.  書名%s: %s,作者: %s 
  42.             ''' % (num, book, author) 
  43.             list_all = list_all + n 
  44.     return list_all 
  45.  
  46.  
  47. # 將獲取到的內(nèi)容發(fā)送郵件 
  48. def send_email(list_all): 
  49.     global account, password, receiver 
  50.     mailhost = 'smtp.qq.com' 
  51.     qqmail = smtplib.SMTP() 
  52.     qqmail.connect(mailhost, 25) 
  53.     qqmail.login(account, password
  54.     content = '親愛的,今天書單' + list_all 
  55.     print(content) 
  56.     message = MIMEText(content, 'plain''utf-8'
  57.     subject = '今天看什么' 
  58.     message['Subject'] = Header(subject, 'utf-8'
  59.     try: 
  60.         qqmail.sendmail(account, receiver, message.as_string()) 
  61.         print('郵件發(fā)送成功'
  62.     except
  63.         print('郵件發(fā)送失敗'
  64.     qqmail.quit() 
  65.  
  66.  
  67. def job(): 
  68.     print('開始一次任務'
  69.     list_all = recipe_spider() 
  70.     send_email(list_all) 
  71.     print('任務完成'
  72.  
  73.  
  74. if __name__ == '__main__'
  75.     # 定時任務,其中0.05是間隔的意思,以分鐘為間隔,時間默認是整數(shù)。 
  76.     schedule.every(0.05).minutes.do(job) 
  77.     while True
  78.         schedule.run_pending() 
  79.         time.sleep(1) 

程序運行之后,即可實現(xiàn)郵件自動發(fā)送了。

稍等片刻,郵件便會自動給你發(fā)送過去,下圖是郵件通知。

下圖是郵件的具體內(nèi)容:

針對上述代碼,你只需要更改三個地方,其一是發(fā)件人的qq郵箱,其二是qq郵箱的授權碼,其三是收件人的郵箱,如下圖紅色框框所示。

三、常見問題

在運行過程中小伙伴們應該會經(jīng)常遇到這個問題,如下圖所示。

這個很可能是因為你的郵箱沒有填對或者授權碼錯誤,檢查下郵箱后綴是否添加或者檢查下授權碼是否復制完整。

有的小伙伴還不知道qq郵箱授權碼怎么獲得,這里引導下,首先你得打開自己的qq郵箱,然后點擊設置-->賬戶,如下圖所示:

拉到最下方,如下圖所示:

點擊生成授權碼,之后會彈出下圖界面:

手機發(fā)送“配置郵件客戶端”關鍵字,記得,是“郵件”,而不是“郵箱”,小編之前就是因為發(fā)錯了字,所以導致沒成功,論細心的重要性!發(fā)送成功之后,就會彈出下圖:

上圖左側(cè)中的條框字母部分就是qq郵箱的授權碼了,將其復制到代碼中進行粘貼即可。

四、總結

我是Python進階者,這篇文章主要給大家介紹了使用Python網(wǎng)絡爬蟲并實現(xiàn)郵件自動定時發(fā)送的小項目。實現(xiàn)的主要思路是構造一個爬蟲任務,抓取某書網(wǎng)站上的目錄,之后將獲取的內(nèi)容返回,然后利用Python實現(xiàn)郵件發(fā)送的功能,并進行定時任務構建,在最后還給大家例舉了常見問題的處理方法。

小伙伴們,快快用實踐一下吧!

責任編輯:姜華 來源: Python爬蟲與數(shù)據(jù)挖掘
相關推薦

2020-07-10 08:24:18

Python開發(fā)工具

2020-12-08 10:32:15

Python郵件tcp

2018-05-16 15:46:06

Python網(wǎng)絡爬蟲PhantomJS

2018-05-16 13:50:30

Python網(wǎng)絡爬蟲Scrapy

2018-05-14 15:27:06

Python網(wǎng)絡爬蟲爬蟲架構

2021-07-14 09:00:00

JavaFX開發(fā)應用

2021-04-01 09:02:38

Python小說下載網(wǎng)絡爬蟲

2018-05-22 15:30:30

Python網(wǎng)絡爬蟲分布式爬蟲

2018-05-14 16:34:08

Python網(wǎng)絡爬蟲Scrapy

2018-05-22 16:28:46

Python網(wǎng)絡爬蟲URL去重

2020-05-15 08:07:33

JWT登錄單點

2021-03-12 10:01:24

JavaScript 前端表單驗證

2023-04-26 12:46:43

DockerSpringKubernetes

2022-12-07 08:42:35

2021-01-30 10:37:18

ScrapyGerapy網(wǎng)絡爬蟲

2009-11-09 14:57:37

WCF上傳文件

2011-01-06 10:39:25

.NET程序打包

2021-09-01 14:49:48

curl2pypython工具

2021-08-02 07:35:19

Nacos配置中心namespace

2020-08-12 09:07:53

Python開發(fā)爬蟲
點贊
收藏

51CTO技術棧公眾號