推 joh: 你這樣講就更矛盾,你如何定義訊號和雜訊? 09/24 19:15
→ innominate: 我矛盾什麼…我只是再科普香農的信息熵理論,你可以寫 09/24 19:19
→ innominate: 一篇論文推翻它,我相信你可以拿到香農獎 09/24 19:19
推 moslaa: 後半完全看不懂 XD 09/24 19:24
→ innominate: 後半你最簡單的理解就是陳述句的總合信息量,例如plam 09/24 19:27
→ innominate: c是男人又是前版主又是作家,是三個陳述句的機率相加 09/24 19:27
→ innominate: 取2為底變成bit就是一個計數單位,你也可以取10為底變 09/24 19:37
→ innominate: 成10進制。如果取2為底,你就可以得出這個信息量有多 09/24 19:37
→ innominate: 少bit ,然後這個值在工程應用上就可以拿來作為編碼系 09/24 19:37
→ innominate: 統來用 09/24 19:38
推 tomer: 其實講的大致上是對。不過我相信Z 麥本人原本是不懂的,因 09/24 19:52
→ tomer: 為照算常用漢字兩千多個字的底就是海放英文26個字母、信息 09/24 19:52
→ tomer: 量超豐富呀XD他為了補洞後來才去K 書、弄了個什麼1bit故弄 09/24 19:52
→ tomer: 玄虛講的好像他懂。其實這篇原po還懂得還多一些。 09/24 19:52
推 fw190a: 熵是表達混亂/複雜度的,機率低導致訊息量高是從中推導出 09/24 20:30
→ fw190a: 的概念,這要說也是訊息量的特性,而不是熵的。我知道這 09/24 20:30
→ fw190a: 很繞,但我認為我的表達是有涵蓋這些概念的 09/24 20:31
→ innominate: 香農引進熵的概念就是要表達越混亂,機率越低,信息量 09/24 20:40
→ innominate: 越大。就像「plamc是一個人」,這個機率很大,也不混 09/24 20:40
→ innominate: 亂,信息量就很低。 09/24 20:41
→ innominate: 所以信息量天然就跟不確定(機率)掛鉤 09/24 20:43
→ innominate: 你的文章說信息量首先跟信息的多少有關,這件事理解就 09/24 20:44
→ innominate: 是錯的 09/24 20:45
→ innominate: 我可以說一大串包括明天太陽會從東方升起,你跟我都是 09/24 20:46
→ innominate: 人,我們都要呼吸等等,這些東西堆再多信息量也是低的 09/24 20:46
→ innominate: 如果我說「明天台股會跌」,如果我說的為真,這短短的 09/24 20:48
→ innominate: 幾個字帶來的信息量就大了 09/24 20:48
→ innominate: 或者說「明天台股會跌105點」,那這個信息量更大 09/24 20:49
→ ZMittermeyer: 靠北啊這個定義是我寫成白話的什麼叫我不懂 09/26 22:24
→ ZMittermeyer: 你看不懂(而且剛好理解相反)不要牽拖我不懂 09/26 22:25