網頁爬蟲是一個蠻常聽到的名詞,簡單的來說就是可以透過程式,去分析網站頁面,將想要的資訊抓下來!
wget
command line 下載檔案的指令 mac 本身沒有內建要另外安裝。
1
| |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 | |
open-uri 只能一個網址
curb 比較豐富
參考文件: RailsFun Ruby Crawler 輕輕鬆鬆做個 Ruby 爬蟲機器人 第十一篇 - 第一次自幹爬蟲就上手 - 使用 Ruby
網頁爬蟲是一個蠻常聽到的名詞,簡單的來說就是可以透過程式,去分析網站頁面,將想要的資訊抓下來!
command line 下載檔案的指令 mac 本身沒有內建要另外安裝。
1
| |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 | |
open-uri 只能一個網址
curb 比較豐富
參考文件: RailsFun Ruby Crawler 輕輕鬆鬆做個 Ruby 爬蟲機器人 第十一篇 - 第一次自幹爬蟲就上手 - 使用 Ruby