不用代碼,新媒體人10分鐘就能學會的數據采集方法
學會信息和數據快速采集都是非常必要的,因為這能大大提高工作效率。在學會python和火車頭之前,web scraper是我最常用的采集工具了,設置簡單,非常高效,采集咪蒙文章標題僅需2分鐘,采集58同城5000條租房信息也就5分鐘而已。
我也常用web scraper做相關的采集分析,比如之前在數英網的文章《咪蒙文章數據分析:她都寫些什么內容?如何刺激轉發痛點?》,就是在采集咪蒙全部文章和微博的基礎上分析得到的,總共用時不到5分鐘。
Web scraper是google強大插件庫中非常強大的一款數據采集插件,有強大的反爬蟲能力,只需要在插件上簡單地設置好,可以快速抓取知乎、簡書、豆瓣、大眾、58等大型、中型、小型的90%以上的網站,包括文字、圖片、表格等內容,最后快速導出csv格式文件。Google官方對web scraper給出的說明是:
使用我們的擴展,您可以創建一個計劃(sitemap),一個web站點應該如何遍歷,以及應該提取什么。使用這些sitemaps,Web刮刀將相應地導航站點并提取所有數據。稍后可以將剪貼數據導出為CSV。
本系列是關于web scraper的系類介紹,將會完整介紹流程介紹,用知乎、簡書等網站為例介紹如何采集文字、表格、多元素抓取、不規律分頁抓取、二級頁抓取、動態網站抓取,以及一些反爬蟲技術等全部內容。
Ok,現在就介紹web scraper的安裝以及完整的抓取流程,后續會介紹多頁面抓取、反爬蟲、圖片、鏈接、表格抓取等內容。
一、web scraper的安裝
Web scraper是google瀏覽器的拓展插件,它的安裝和其他插件的安裝是一樣的。
如果無法下載webscraper可以通過微信或者公眾號和我聯系。
二、以知乎為例介紹web scraper完整抓取流程
1、打開目標網站,這里以采集知乎第一大v張佳瑋的關注對象為例,需要爬取的是關注對象的知乎名字、回答數量、發表文章數量、關注著數量。
2、在網頁上右擊鼠標,選擇檢查選項,或者用快捷鍵 Ctrl + Shift + I / F12 都打開 Web Scraper。
3、打開后點擊create sitemap選擇create sitemap創建一個站點地圖。
點擊create sitemap后就得到如圖頁面,需要填寫sitemap name,就是站點名字,這點可以隨便寫,自己看得懂就好;還需要填寫start url,就是要抓取頁面的鏈接。填寫完就點擊create sitemap,就完成創建站點地圖了。
具體如下圖:
4、設置一級選擇器:選定采集范圍
接下來就是重中之重了。這里先介紹一下web scraper的抓取邏輯:需要設置一個一級選擇器(selector),設定需要抓取的范圍;在一級選擇器下建立一個二級選擇器(selector),設置需要抓取的元素和內容。
以抓取張佳瑋關注對象為例,我們的范圍就是張佳瑋關注的對象,那就需要為這個范圍創建一個選擇器;而張佳瑋關注的對象的粉絲數、文章數量等內容就是二級選擇器的內容。 具體步驟如下:
(1) Add new selector 創建一級選擇器Selector:
點擊后就可以得到下圖頁面,所需要抓取的內容就在這個頁面設置。
l id:就是對這個選擇器命名,同理,自己看得懂就好,這里就叫jiawei-scrap。
l Type:就是要抓取的內容的類型,比如元素element/文本text/鏈接link/圖片image/動態加載內Element Scroll Down等,這里是多個元素就選擇element。
l Selector:指的就是選擇所要抓取的內容,點擊select就可以在頁面上選擇內容,這個部分在下面具體介紹。
l 勾選Multiple:勾選 Multiple 前面的小框,因為要選的是多個元素而不是單個元素,當勾選的時候,爬蟲插件會識別頁面下具有相同屬性的內容;
(2)這一步就需要設置選擇的內容了,點擊select選項下的select 得到下圖:
之后將鼠標移動到需要選擇的內容上,這時候需要的內容就會變成綠色就表示選定了,這里需要提示一下,如果是所需要的內容是多元素的,就需要將元素都選擇,例如下圖所示,綠色就表示選擇的內容在綠色范圍內。
當一個內容變紅后,我們就可以選擇接下來的第二個內容,點擊后,web scraper就會自動識別你所要的內容,具有相同元素的內容就都會變成紅色的。如下圖所示:
檢查這個頁面我們需要的內容全部變成紅色之后,就可以點擊 Done selecting選項了,就可以得到如下圖所示:
點擊save selector,保存設置。到這里后,一級選擇器就創建完成了。
5、設置二級選擇器:選擇需要采集的元素內容。
(1)點擊下圖中紅框內容,就進入一級選擇器jiawei-scrap下:
5、設置二級選擇器:選擇需要采集的元素內容。
(1)點擊下圖中紅框內容,就進入一級選擇器jiawei-scrap下:
(2)點擊add new selector創建二級選擇器,來選擇具體內容。
得到下圖,這跟一級選擇器的內容是相同的,但是設置是有區別的。
得到下圖,這跟一級選擇器的內容是相同的,但是設置是有區別的。
? id:代表抓取的是哪個字段,可以取該字段的英文,比如要選「作者」,就寫「writer」;
? Type:這里選Text選項,因為要抓取的是文本內容;
? Multiple:不要勾選 Multiple 前面的小框,因為在這里要抓取的是單個元素;
? 保留設置:其余未提及部分保留默認設置。
(3)點擊select選項后,將鼠標移到具體的元素上,元素就會變成黃色,如下圖所示:
在具體元素上點擊后,元素就會變成紅色的,就代表選定該內容了。
(4)點擊Done selecting后完成選擇,再點擊save selector后就可以完成關注對象知乎名字的選取了。
重復以上操作,直到選完你想爬的字段。
(5)點擊紅框部分可以看到采集的內容。
Data preview可以看到采集內容,edit可以對設置的內容做修改。
6、爬取數據
(1)只需要設置完所有的 Selector,就可以開始爬數據了,點擊 Scrape map,
選澤scrape;:
(2)點擊后就會跳到時間設置頁面,如下圖,由于采集的數量不大,保存默認就可以,點擊 start scraping,就會跳出一個窗口,就開始正式采集了。
(3)稍等一會就可以得到采集效果,如下圖:
(4)選擇sitemap下的export data as csv選項就可以將采集的結果以表格的形式導出。
以上就是簡單的采集,需要更多內容可以看我的微信公眾號:全棧全網營銷
評論
評論
推薦評論
暫無評論哦,快來評論一下吧!
全部評論(0條)