精華區beta CSSE 關於我們 聯絡資訊
※ 引述《obov (哈特利廢藏)》之銘言: : 其實我比較希望能聽聽大家討論原po相關的議題 我正經討論 6G 影像檔是不是能壓縮成 5K 吧 (哈哈, 真正正經只有幾句話,其他都是廢話) 先要定義什麼是 6G 影像檔 (image file or arbitrary file), 如果 6G 的 content 只有 0 或只有 1,一定能壓到 5K (廢話 1) 還要定義壓縮,若是失真壓縮,當然能壓到 5K (廢話 2) 而 shannon 的 entropy 限制壓縮的最小大小 (有一點小廢話.. ) 問題是, entropy 要以什麼估算? 以本文? 以 user profile? 或是更大範圍的 statistic? 這邊就此打住 有興趣大家大家再討論 廢話說完,說幾個(或許可笑的) ideas, 讓任何 6G 無失真壓成 5K 以下的方法 1. 有人提到用除法。例如 'A' = 65, 'B' = '66', 'z' = 122 要儲存 ABzzzBB 可以很簡單的用 0.065066122122122066066 存 嗯.. 這個方法我沒有細想,但是 如何找到 p, q 使得 p/q = 文件轉化為小數, 且 encoding (p, q) < 5K 可能是個問題。還有待勤勞的人解解看 2. snapshot of network states (又名,不可能的任務) 若我們能知道 a. "過去的任何時間點" (至少 1990 開始) b. "任何網路" (小至一張網路卡, 大至 Internet; 近從自己身邊的 bluetooth, 遠到 FBI 內部網路) c. 的 states (例如 packet flow) 基本上等於擁有一個近乎無限大的字典 要儲存 6G 檔案就很容易,只要給定 "時間" "範圍" "states參考依據" 例如, 壓縮檔案內容像是 2004年4月7號 22:04.047 ~ 22:04.221, 臺大文學院 1F, packet bits 3. hyperlink 只要文件在網路上,要用的時候在網路上找就得了 (範例請見註 2) 註: 2 看起來很異想天開,但其實 3 只是 2 的特例,常靠 google, yahoo 幫我們蒐集資料 註2: 3 還是壓縮嗎? 有人說,這根本就是把資料放在資料庫中,要的時候下載嘛。的確 "類似" ! 不過這邊強調的 idea 不是如何儲存,而是如何把原文拆解為 fragment 並且有 fast algorithm 在網路上 search fragment, 並將 search 結果建立為 index (例如 URI 就是很好的 index) 最後將 index 儲存為壓縮檔 e.g., 原文: Hello world, 早安,大家好 可能的 fragments: "Hello world, " "早安," "大家好" 壓縮結果: <fragment>http://....../....</fragment> <fragment>http://.......</fragment> <fragment>ftp://....../..</fragment> 好像壓縮檔變大了,哈哈哈 It's just an idea! -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 218.184.163.27
I0O1:對不起 寫的很亂 因為愛睏 Zzz 218.184.163.27 05/13
I0O1:不過這篇重點是,未來很多應用可以藉著 internet完成 218.184.163.27 05/13
I0O1:例如電子字典, 未來可能要翻譯的時候才到網路上搜尋 218.184.163.27 05/13
I0O1:資料也類似,網路上夠多資訊了,總會兜出你的文章 218.184.163.27 05/13
I0O1:還有,看錯了,影音檔 (要用 bits 觀點看) 218.184.163.27 05/13