推 chocopie: 我以前工作需求也是生成大量csv,從幾K到MB,但數量上千 04/06 15:28
→ chocopie: 個。 04/06 15:28
→ chocopie: 雖然沒碰過這種完全卡住問題,但後來為了提升IO效能,直 04/06 15:29
→ chocopie: 接改成SSD。 04/06 15:29
→ chocopie: 傳統硬碟只有一個讀寫臂, 04/06 15:32
→ chocopie: 這種大量生成的csv,資料容易散落在磁區各處且不連續, 04/06 15:32
→ chocopie: 讀寫臂跑來跑去搜尋資料,很不方便,跑個幾小時有可能。 04/06 15:32
→ chocopie: 當然最好的做法是將資料在記憶體內做運算,例如Spark 04/06 15:35
→ espeondoug: 謝謝c大分享經驗,這台電腦目前裝有4顆傳統硬碟,主要 04/06 16:24
→ espeondoug: 用途是做資料庫的伺服器 04/06 16:24
→ espeondoug: 用SSD雖然可預期處理的速度能變快,不過對於要拿來放 04/06 16:24
→ espeondoug: 資料的目的來說也許不太適合呢... 04/06 16:24
→ espeondoug: btw剛才嘗試的那次del,大概過了五個小時才恢復正常, 04/06 16:24
→ espeondoug: 實在是很久 04/06 16:24
推 seiya2000: 把臨時檔集中到一個空的磁區,用快速格式化來刪檔案 04/06 16:53
→ chocopie: 劃一個磁區出來,樓上說的這方法也可試試 04/06 17:04
→ espeondoug: 的確是個方法!我會參考的,謝謝s大 04/06 18:12
→ maniaque: 直接 shift + del ,不備份的刪除方式 04/07 01:23
→ espeondoug: shift+del我也試過,看來就是使用檔案總管刪,會卡@@ 04/07 12:49
→ commandoEX: 我刪1X萬CSV檔沒遇過@ @,SSD或HDD都用過 04/07 19:51
→ commandoEX: 不過我檔案都不是放在系統碟,會不會是這個原因? 04/07 19:53
→ commandoEX: 另外產生/刪除檔案時Windows defender會掃描影響系統 04/07 19:54
→ commandoEX: 反應,還有關閉索引應該也有機會改善,一些建議希望 04/07 19:55
→ commandoEX: 有用 04/07 19:55
→ espeondoug: 目前就一個c槽,算是存在同個磁區沒錯... 04/08 10:35
→ espeondoug: defender的即時掃描跟索引服務都已經關了,謝謝建議! 04/08 10:35
推 Hurricaneger: 裝個檔案總管處理 06/22 18:54
→ Hurricaneger: PowerShell可以del的比較快,但是下指令要小心 06/22 18:55