<wbr id="wsjqy"></wbr>

          <form id="wsjqy"></form>
          <sub id="wsjqy"></sub>
          <nav id="wsjqy"><listing id="wsjqy"></listing></nav>
          更多課程 選擇中心


          Python培訓

          400-111-8989

          用Python完成一個簡單的自動化任務

          • 發布:Python培訓
          • 來源:Python練習題庫
          • 時間:2017-10-25 17:12

          時間過得飛快,如果不是刻意去記錄,你總會猛然發現一轉眼又是一年。

          去年也就是在差不多這個時節開通了自己的微信公眾號,從剛開始的興趣盎然,慢慢也更新頻率降低了很多。

          如果說一年間都沒有值得寫的東西,那也有失公允。其實,零零碎碎也學了一點東西,很多時候也想記錄下來,但是總是因為各種原因擱置了下來(可能是自己覺得沒什么價值吧)。

          好了,言歸正傳,回到今天的話題上來。

          很多時候,要有需求,自己才會有去稍微專研的動力。這一次想講一講最近產生的一個小需求,然后如何用Python完成這個小任務。

          首先明確需求:

          大致來說,就是幾個月前在某個存錢返利的網站,存了一點錢。然后,網站每天會返回大概幾百塊錢到網站上我的賬戶。重點是,我為了保證資金的安全,需要每天登陸網站將網站賬戶(類似于支付寶)的錢提現到銀行卡。每天都要登陸,進行簡單的幾步操作,輸入幾次密碼,久了也會感到厭倦的。

          最初的想法思路:

          很簡單,就是需要寫一個程序每天定時執行一次,然后每一次執行的時候模擬人類完成以下幾個對網頁的操作:

          登陸網站首頁,輸入賬戶名及密碼,點擊登陸;

          選擇賬戶提現,選擇要提現到的銀行賬戶;

          輸入提現金額,輸入提現密碼;

          點擊確認,完成提現。

          工具的選擇

          其實上面的描述來看,很像“按鍵精靈”完成的事情。但是我沒用過按鍵精靈,也不確定輸入賬戶名及密碼是否方便或者安全。我最先想到的還是用Python。然后,在Google中簡單的輸入類似于“website log in with Python automatically",然后在第一頁就會得到這樣的結果。

          點進去一看,文章介紹的是如果通過Python + Selenium這個庫,完成谷歌郵箱登陸的。基本滿足我們的需求。然后,查詢以下Selenium文檔,很簡單清晰的一個庫。無非就是,瀏覽器上按F12查找頁面元素位置,然后get到頁面元素后進行鍵盤輸入、點擊滑動等操作。最不濟,也可以通過Chrome瀏覽器復制Xpath進行定位。

          經過簡單的調試(主要就是在等待頁面加載這個坑,因為程序輸入密碼等操作是比人操作快很多的,有些網站如果是通過JavaScript加載的話,可能下一個頁面的元素還沒加載完畢,程序已經跑到下一步來。那么,程序必然會報錯,因為元素沒加載出來,程序找不到要操作的元素),小程序很快就可以工作了。

          錄屏的時候,電腦是連的手機熱點,網速稍微有點卡頓。雖然,沒有精確的算過比人工操作快多少,但是至少每天省去連一份機械化操作的任務。下一步,準備把這個小應用部署到云端,然后每天定時執行,這樣電腦都不用開機連,做到完完全全解放。

          正好在程序寫好的當天,有個好基友聞到可以做一個類似的機器人,完成公司網絡大學的考試不。因為,公司網絡大學的考試,每次其實都是有題庫的,只不過可能順序稍微有點變化。想了想,程序加入讀取本地題庫,然后搜索查找的方式,應該是可以完成的(不需要理解題目意思,這屬于高級的人工智能機器人領域連)。

          P.S 最后,發現還有一個彩蛋。就是,之前在寫爬蟲的時候,總是會苦惱JS動態加載網站內容的爬取。比如,下面網頁中的19200就是動態加載的,因為每天都會累計變化。

          動態加載數據的網站,使用傳統的beautiful soup + request是基本沒有辦法的。除非你具有高超的技能,能夠分析數據包,在Network中找到API地址或者實際請求服務器尋求加載數據的地址。否則,是抓不到數據的。判斷動態加載數據的方法也很簡單,打開網站源代碼,搜索19200,發現找不到結果,說明在HTML結構中是找不到數據的,因為數據是通過JS加載的。

          那么,對待這一類網站,除了分析API,另外的方法就是用Selenium這樣的headless瀏覽器來模擬操作網頁,對待網頁動態數據加載完畢后,再抓取數據。比如這里,我們就可以很容易抓到賬戶余額這樣動態加載的數據。

          好了,時間不早了,簡單地講了以下用Python完成一個自動化任務的思路過程。順便提到了意外收獲,用selenium抓動態數據。發揮腦洞,應該這一類自動化任務還是有蠻大需求的。

          本文內容轉載自網絡,本著分享與傳播的原則,版權歸原作者所有,如有侵權請聯系我們進行刪除!

          預約申請免費試聽課

          填寫下面表單即可預約申請免費試聽!怕錢不夠?可就業掙錢后再付學費! 怕學不會?助教全程陪讀,隨時解惑!擔心就業?一地學習,可全國推薦就業!

          上一篇:非常好用的19個Python爬蟲推薦
          下一篇:python中的變量和簡單的數據類型

          2021年Python面試題及答案匯總詳解

          python數據分析,你需要這些工具

          Python培訓講解二叉樹的三種深度

          Python培訓:如何實現窮舉搜索?

          • 掃碼領取資料

            回復關鍵字:視頻資料

            免費領取 達內課程視頻學習資料

          • 視頻學習QQ群

            添加QQ群:1143617948

            免費領取達內課程視頻學習資料

          Copyright ? 2021 Tedu.cn All Rights Reserved 京ICP備08000853號-56 京公網安備 11010802029508號 達內時代科技集團有限公司 版權所有

          選擇城市和中心
          黑龍江省

          吉林省

          河北省

          湖南省

          貴州省

          云南省

          廣西省

          海南省

          网友自拍 偷拍 校园性爱青青草曰逼视屏老鸭窝国产偷自视频区视频 百度 好搜 搜狗
          <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <文本链> <文本链> <文本链> <文本链> <文本链> <文本链>