看板 Python 關於我們 聯絡資訊
最近常用JUPYTER讀取大量文件檔 必須讀取出1GB的TXT檔案 再作處理後就會變得更大 目前光是暫時只開400多MB出來作業 從工作管理員可以看到 記憶體使用率都過90%逼近100% 然後電腦所有動作就變得超級頓+卡卡 >"< 我的記憶體是一條8G ,電腦是64位元win 10 因為對硬體相關一竅不通 想問一下 如果我把記憶體全插滿比如4條8G甚至4條16G 會讓我讀取檔案比較順利 重點是電腦不要一直頓嗎~@@ 因為記憶體一買下去就是好幾千塊 想問問是否可以從這邊獲得改善 XD 非常感謝!! -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.25.43.35 ※ 文章網址: https://www.ptt.cc/bbs/Python/M.1508164418.A.0F6.html ※ 編輯: doasgloria (114.25.43.35), 10/16/2017 22:34:17
R119: 應該可以 10/17 00:15
goldflower: 處理到下一步的時候上一部的資料就能del掉 10/17 02:20
TitanEric: 個人覺得1g以上已經算超大資料了 可能要搭配hadoop會比 10/17 11:26
TitanEric: 較好處理 10/17 11:26
kenduest: 主要要看你要做什麼處理,很多時候不需要資料一口氣都 10/17 12:51
kenduest: 全部放在記憶體內 10/17 12:51