安裝模塊
| 1 | selenium | 
- selenium 
 主要先用於登入或js互動,剩餘的在使用scrapy進行爬取。
- scrapy 
Scrapy 是一个爬蟲框架,同時支持異步、多線程、速度非常快、高效,適合爬取海量數據及一層一層的爬取,
如何使用
- 命令行調試
| 1 | scrapy shell https://doc.scrapy.org/en/latest/_static/selectors-sample1.html | 
- python 調試
| 1 | from selenium import webdriver | 
輸出:1
2
3
4
5
6
7
8
9
10
11
12
13['<免費研討會> FB行銷@在地生活圈研討會',
 'AR/VR創新應用與視覺優化講座',
 '【免費】數位轉型系列講座:數位轉型趨勢和行動方案解析',
 '【免費】數位轉型系列講座:數位轉型勢在必行',
 '【免費】數位轉型系列講座:AIoT切入智慧醫療與照護的下一波革命',
 '【免費】數位轉型系列講座: AI電腦視覺讓你看得更清楚',
 '【免費】數位轉型系列講座:AI塑造新零售、新體驗',
 '【免費】數位轉型系列講座:AI金融科技的新突破 ',
 '【免費】數位轉型系列講座:AI迎向精準行銷的數位革命',
 '【免費】數位轉型系列講座:深度學習與各類影像應用',
 '【免費】數位轉型系列講座: 數位轉型怎麼做?從企業戰略到人力資本之導入步驟及方法',
 '【免費】數位轉型系列講座:AI啟動無人機的未來商業',
 '【免費】數位轉型系列講座: AIoT產業智慧轉型的發展模式']
啟動
- 新建專案項目
建立專案
| 1 | scrapy startproject tutorial | 
查看目錄
在終端輸入命令1
tree tutorial
新建一個myspider.py1
2
3
4
5
6
7
8
9
10
11
12
13tutorial/
├── tutorial
│   ├── __init__.py
│   ├── items.py
│   ├── middlewares.py
│   ├── pipelines.py
│   ├── __pycache__
│   ├── settings.py
│   └── spiders
│       ├── __init__.py
│       ├── myspider.py # 新建
│       └── __pycache__
└── scrapy.cfg
myspider.py1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36import scrapy
from selenium import webdriver
from scrapy.selector import Selector
import datetime
class mySpider(scrapy.Spider):
    name = "mySpider"
    start_urls = ["https://doc.scrapy.org/en/latest/_static/selectors-sample1.html"]
    def __init__(self):
        # 定義webdriver
        self.browser = webdriver.Chrome()
    def parse(self, response):
        # 先由self.browser進行請求
        self.browser.get(response.url)
        # 用scrapy選擇器獲取selenium的頁面源代碼
        sel = Selector(text=self.browser.page_source)
        baseurl = sel.xpath('//base/@href').extract_first()
        # 'http://example.com/'
        links = sel.xpath(".//a//@href").extract()
        # ['image1.html', 'image2.html', 'image3.html', 'image4.html', 'image5.html']
        for i in links:
            request = scrapy.Request(baseurl + i,
                                     callback=self.parse_2,
                                     )
        
    def parse_2(self, response):
        '''進入下一個頁面'''
        print(response.url)
執行
scrapy crawl
name為mySpider.py裡頭定義的name,並非腳本或項目名。
| 1 | scrapy crawl mySpider | 
小結
scrapy除了使用上比較繁瑣一點,基本上使用上沒什麼缺點。