→ wild0921: 收到, 立馬試試看 01/12 11:11
※ 編輯: GALINE (61.227.54.209), 01/13/2015 22:43:54
<?php
$urls = getAllURL(); // 看你原本怎麼撈出 100 個 URL
foreach ($urls as $url) {
// edit: 如果 url 有帶 query string 的話指令要帶引號
// 不然「&」會把指令弄壞...
popen("curl '{$url}' > /dev/null 2> /dev/null", 'r');
}
----------------------------------------------
popen() 執行的指令會跟 PHP 分不同的 process 平行跑完。不過 PHP 會等他們都跑完
之後才結束
如果有需要把回應存下來,那麼把指令改成
"curl {$url} > /檔案/的/路徑 2>/dev/null"
就可以了
不需要把 lynx 扛出來跑 Javascript...
--
莉娜用魔法爆破進入屋內。
劫犯從另一個房間裡出現,大叫道︰「妳是誰!」
莉娜︰「我是個可疑的女人!」
劫犯無言以對。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.139.124.141
※ 文章網址: https://www.ptt.cc/bbs/PHP/M.1420964301.A.174.html
※ 編輯: GALINE (220.139.124.141), 01/11/2015 16:27:18
感覺像是你想做這樣的事情
- 從 DB (或什麼地方)撈出 100 個 URL
- 同時戳他們,你不需要管回應資料,只想快點戳完(所以想要多執行序)
其實你有主機實體權限的話,可以用 command line + php 幹一些事情。像是:
----------------------------------------------