777精品出轨人妻国产,熟女av人妻一区二区三四区,国产精品无码中文在线av,美脚パンスト女教师在线观看

不用代碼,新媒體人10分鐘就能學會的數據采集方法

原創 1 收藏 評論
舉報 2018-01-06

學會信息和數據快速采集都是非常必要的,因為這能大大提高工作效率。在學會python和火車頭之前,web scraper是我最常用的采集工具了,設置簡單,非常高效,采集咪蒙文章標題僅需2分鐘,采集58同城5000條租房信息也就5分鐘而已。

我也常用web scraper做相關的采集分析,比如之前在數英網的文章《咪蒙文章數據分析:她都寫些什么內容?如何刺激轉發痛點?》,就是在采集咪蒙全部文章和微博的基礎上分析得到的,總共用時不到5分鐘。

Web scraper是google強大插件庫中非常強大的一款數據采集插件,有強大的反爬蟲能力,只需要在插件上簡單地設置好,可以快速抓取知乎、簡書、豆瓣、大眾、58等大型、中型、小型的90%以上的網站,包括文字、圖片、表格等內容,最后快速導出csv格式文件。Google官方對web scraper給出的說明是:

使用我們的擴展,您可以創建一個計劃(sitemap),一個web站點應該如何遍歷,以及應該提取什么。使用這些sitemaps,Web刮刀將相應地導航站點并提取所有數據。稍后可以將剪貼數據導出為CSV。

本系列是關于web scraper的系類介紹,將會完整介紹流程介紹,用知乎、簡書等網站為例介紹如何采集文字、表格、多元素抓取、不規律分頁抓取、二級頁抓取、動態網站抓取,以及一些反爬蟲技術等全部內容。

Ok,現在就介紹web scraper的安裝以及完整的抓取流程,后續會介紹多頁面抓取、反爬蟲、圖片、鏈接、表格抓取等內容。

一、web scraper的安裝

Web scraper是google瀏覽器的拓展插件,它的安裝和其他插件的安裝是一樣的。

1.jpg

如果無法下載webscraper可以通過微信或者公眾號和我聯系。

二、以知乎為例介紹web scraper完整抓取流程

1、打開目標網站,這里以采集知乎第一大v張佳瑋的關注對象為例,需要爬取的是關注對象的知乎名字、回答數量、發表文章數量、關注著數量。

3.jpg

2、在網頁上右擊鼠標,選擇檢查選項,或者用快捷鍵 Ctrl + Shift + I / F12 都打開 Web Scraper。

4.jpg

3、打開后點擊create sitemap選擇create sitemap創建一個站點地圖。

5.jpg

點擊create sitemap后就得到如圖頁面,需要填寫sitemap name,就是站點名字,這點可以隨便寫,自己看得懂就好;還需要填寫start url,就是要抓取頁面的鏈接。填寫完就點擊create sitemap,就完成創建站點地圖了。

6.jpg

具體如下圖:

8.jpg

4、設置一級選擇器:選定采集范圍

接下來就是重中之重了。這里先介紹一下web scraper的抓取邏輯:需要設置一個一級選擇器(selector),設定需要抓取的范圍;在一級選擇器下建立一個二級選擇器(selector),設置需要抓取的元素和內容。

以抓取張佳瑋關注對象為例,我們的范圍就是張佳瑋關注的對象,那就需要為這個范圍創建一個選擇器;而張佳瑋關注的對象的粉絲數、文章數量等內容就是二級選擇器的內容。 具體步驟如下:

(1) Add new selector 創建一級選擇器Selector:

9.jpg

點擊后就可以得到下圖頁面,所需要抓取的內容就在這個頁面設置。

10.jpg

l  id:就是對這個選擇器命名,同理,自己看得懂就好,這里就叫jiawei-scrap。

l  Type:就是要抓取的內容的類型,比如元素element/文本text/鏈接link/圖片image/動態加載內Element Scroll Down等,這里是多個元素就選擇element。

l  Selector:指的就是選擇所要抓取的內容,點擊select就可以在頁面上選擇內容,這個部分在下面具體介紹。

l  勾選Multiple:勾選 Multiple 前面的小框,因為要選的是多個元素而不是單個元素,當勾選的時候,爬蟲插件會識別頁面下具有相同屬性的內容;

(2)這一步就需要設置選擇的內容了,點擊select選項下的select 得到下圖:

11.jpg

之后將鼠標移動到需要選擇的內容上,這時候需要的內容就會變成綠色就表示選定了,這里需要提示一下,如果是所需要的內容是多元素的,就需要將元素都選擇,例如下圖所示,綠色就表示選擇的內容在綠色范圍內。

12.jpg

當一個內容變紅后,我們就可以選擇接下來的第二個內容,點擊后,web scraper就會自動識別你所要的內容,具有相同元素的內容就都會變成紅色的。如下圖所示:

13.jpg

檢查這個頁面我們需要的內容全部變成紅色之后,就可以點擊 Done selecting選項了,就可以得到如下圖所示:

14.jpg

點擊save selector,保存設置。到這里后,一級選擇器就創建完成了。

5、設置二級選擇器:選擇需要采集的元素內容。

(1)點擊下圖中紅框內容,就進入一級選擇器jiawei-scrap下:

15.jpg

5、設置二級選擇器:選擇需要采集的元素內容。

(1)點擊下圖中16.jpg紅框內容,就進入一級選擇器jiawei-scrap下:

16.jpg

(2)點擊add new selector創建二級選擇器,來選擇具體內容。

得到下圖,這跟一級選擇器的內容是相同的,但是設置是有區別的。

17.jpg

得到下圖,這跟一級選擇器的內容是相同的,但是設置是有區別的。

18.jpg

?  id:代表抓取的是哪個字段,可以取該字段的英文,比如要選「作者」,就寫「writer」;

?  Type:這里選Text選項,因為要抓取的是文本內容;

?  Multiple:不要勾選 Multiple 前面的小框,因為在這里要抓取的是單個元素;

?  保留設置:其余未提及部分保留默認設置。

(3)點擊select選項后,將鼠標移到具體的元素上,元素就會變成黃色,如下圖所示:

19.jpg

在具體元素上點擊后,元素就會變成紅色的,就代表選定該內容了。

20.jpg

(4)點擊Done selecting后完成選擇,再點擊save selector后就可以完成關注對象知乎名字的選取了。

21.jpg

重復以上操作,直到選完你想爬的字段。

22.jpg

(5)點擊紅框部分可以看到采集的內容。

23.jpg

Data preview可以看到采集內容,edit可以對設置的內容做修改。

24.jpg

6、爬取數據

(1)只需要設置完所有的 Selector,就可以開始爬數據了,點擊 Scrape map,

選澤scrape;:

25.jpg

(2)點擊后就會跳到時間設置頁面,如下圖,由于采集的數量不大,保存默認就可以,點擊 start scraping,就會跳出一個窗口,就開始正式采集了。

26.jpg

(3)稍等一會就可以得到采集效果,如下圖:

27.jpg

(4)選擇sitemap下的export data as csv選項就可以將采集的結果以表格的形式導出。

29.jpg

以上就是簡單的采集,需要更多內容可以看我的微信公眾號:全棧全網營銷


    評論

    文明發言,無意義評論將很快被刪除,異常行為可能被禁言
    DIGITALING
    登錄后參與評論

    評論

    文明發言,無意義評論將很快被刪除,異常行為可能被禁言
    800

    推薦評論

    暫無評論哦,快來評論一下吧!

    全部評論(0條)

    主站蜘蛛池模板: 沈阳市| 年辖:市辖区| 富川| 二手房| 徐闻县| 佳木斯市| 宜良县| 慈溪市| 郯城县| 翁牛特旗| 牙克石市| 策勒县| 章丘市| 繁峙县| 武威市| 沾化县| 迁西县| 思南县| 台湾省| 宜昌市| 云阳县| 昌宁县| 安吉县| 凌云县| 寻乌县| 焦作市| 蓝山县| 北安市| 桐城市| 高平市| 申扎县| 长岛县| 常熟市| 台南市| 桐柏县| 安化县| 道孚县| 丰原市| 长春市| 儋州市| 文昌市|