作者walelile (wakaka)
看板Programming
標題[問題] robots.txt處理
時間Mon Oct 20 12:30:01 2014
在robots.txt中,會有許多Disallow或Allow path的設定
e.g.
Disallow: /dir/myfile.html
Allow: /dir/
(在/dir/目錄下只允許存取/dir/myfile.html)
我現在處理robots.txt的方式是逐條將Disallow或Allow的設定轉成regex,
並分別存在Disallow與Allow的array中。
每次有URL需要進行處理時,先逐條比對Disallow中的regex然後在比對Allow中的regex
想請問是否有其他比較妥當的處理方式?
我目前看到規定最多的是維基百科的robots.txt, 約有700條設定
還不確定這對fetch url效能上的影響有多大...
謝謝指教
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.169.89.15
※ 文章網址: http://www.ptt.cc/bbs/Programming/M.1413779403.A.50A.html
→ suhorng: 擔心效能的話 把輸入的所有 regex 都先 140.112.16.135 10/20 13:58
→ suhorng: 合併成自動機呢 140.112.16.135 10/20 13:58
→ walelile: 喔 我會去試試看 謝謝建議 118.169.89.15 10/20 14:22
→ AndCycle: 同學,用之前查文件,沒有 Allow 這種東西 59.120.152.218 10/25 06:56