http://www.baidu.com/)無效~
但是 baidu 抓取的資料量又是最多的(死大陸仔)~
有沒有辦法可以阻擋?
--
※ Origin: 陽‧光‧椰‧林 <alway.twbbs.org>
◆ From: www.me.isu.edu.tw(140.127.180.130)
一般來說都是設定 robots.txt 即可~
但是要放在哪裡才能真正作用?
Apache 裡的 Document Root 指定的位置就好...
還是說連 Visual Host 的每個路徑都要?
而且發現, robots.txt 對大陸的 baidu(百度: