推 victor21813: 我覺得你把不要備份的資料夾先拿出該目錄比較快... 04/15 03:17
→ LonyIce: 我是整個雲端從根目錄備份…,這樣異動反而會讓他多備份 04/15 04:30
→ LonyIce: 一次吧? 04/15 04:30
推 Godist: "{A,B,C}/**" 04/15 05:49
→ Godist: 你原本的只會匹配資料夾不會匹配資料下的檔案,*匹配任意 04/15 05:50
→ Godist: 字元、**匹配包含/的所有字元 04/15 05:50
→ LonyIce: 我爬外國網站還以為是資料夾名稱[]會有影響,謝謝樓上我 04/15 07:01
→ LonyIce: 試試看 04/15 07:01
→ LonyIce: 試過Godist大的方法,也是不行,記得昨天我好像就試過了 04/15 08:08
→ LonyIce: 用了記事本列表排除也失敗 04/15 08:51
→ victor21813: 那就不要從根目錄阿 建個資料夾把要備份的放進去 04/15 12:50
→ victor21813: 路徑多 /資料夾名稱 就解決了 趕快繼續備份比較實際 04/15 12:50
→ LonyIce: 這樣等於又重新備份一份資料了吧?這樣反而花更多時間。 04/15 13:03
→ LonyIce: 而且只是想先跳過,之後還是會備份那些檔案。 04/15 13:03
推 Banrin: 之前有排除過 了解為啥麼原po要那樣設,我回去看我的rclon 04/15 13:08
→ Banrin: e指令跟版本 04/15 13:08
推 Banrin: "/{A,B,C}/**" 或"/{A,B,C}/"試試 04/15 13:14
我看網路介紹前面有/是根目錄的做法
所以沒有試,我來試看看
→ victor21813: 不太懂你說得重新備份是什麼意思@@ 04/15 13:55
→ victor21813: 而且照你的需求就只是拆兩個資料夾跑備份而已 04/15 13:56
→ victor21813: 第一個資料夾放優先項目 第二個放你想晚點跑的 04/15 13:59
→ victor21813: rclone copy gdrive:backup1 dst: 04/15 14:00
→ victor21813: rclone copy gdrive:backup2 dst: 04/15 14:00
→ victor21813: 當然只是另外一種作法供參 04/15 14:03
因為這個判斷是否重複檔案的方式
應該是根據資料夾結構去檢查吧(還是我錯了?)
所以我打亂結構後,他應該會判定成新的檔案備份?
※ 編輯: LonyIce (122.117.109.134 臺灣), 04/16/2022 00:20:44
→ victor21813: 比對檔案是用hash值之類的 跟結構無關 04/16 01:37
→ LonyIce: 囧 這樣有一點很尷尬的,有些檔案我還沒整理好,所以可 04/16 02:00
→ LonyIce: 能會有重複的相同檔案在裡面,這樣他是不是只會複製其中 04/16 02:00
→ LonyIce: 一個?然後我又要重新整理一次Orz 04/16 02:00
推 Banrin: 其實也可把東西都丟在一個資料夾避開根目錄問題吧? 04/17 11:46
→ LonyIce: 試過各種指令都沒辦法,只能放棄用排除的。只能用另外建 04/17 12:59
→ LonyIce: 資料夾來把檔案分開了 04/17 12:59
推 Godist: regex出現[]要加\轉義沒錯,否則[test]會匹配t,e,s,t 04/17 23:14
→ Godist: 試了一下沒什麼問題,為了測試方便用的是include 04/17 23:27
→ LonyIce: 感謝樓上解惑,這個的相關資料真的太少了 04/18 04:08
推 Godist: 其實官方文檔裡面都有 04/18 04:15
→ shengshampoo: ectories-in-check/6870 04/19 20:22
→ shengshampoo: Just use --exclude '/path/to/dir1/**' --exclude 04/19 20:23
→ shengshampoo: '/path/to/dir2/**' 04/19 20:23