→ myty383: 取決於取得資訊的過程中是否會產生誤差 10/15 03:22
→ myty383: 例如,早期電腦沒有那麼強大的年代,收集資訊就已經是很 10/15 03:23
→ myty383: 難的事情,在加上人工整理資料,普查一定很容易產生誤差 10/15 03:23
→ myty383: 但現在電腦普及後,如果有必要我相信可以設計的十分精準 10/15 03:25
→ myty383: 的收集,加上確認資訊正確性的成本也許可以很低,所以可 10/15 03:25
→ myty383: 能可以大大降低非抽樣誤差 10/15 03:25
→ myty383: 非抽樣誤差是非常case by case 的問題,情境和細節改變基 10/15 03:26
→ myty383: 本上差異就很大 10/15 03:26
→ yhliu: 沒有. 這時如果需要抽樣, 大概只有當此資料庫非常鉅大時. 10/16 06:56
→ yhliu: 當然, 前提是 "假設會員資料庫是母體" . 10/16 06:58
→ evilove: 謝謝兩位大大的釋疑 10/17 01:32
→ yhliu: 資料庫的資料是否符合事實和電腦科技不必然有直接關係. 舉 10/17 15:08
→ yhliu: 個簡單的例子, 健保資料庫的疾病資料與真實的患病情形乖離 10/17 15:10
→ yhliu: 多少和電腦技術的發展毫無關係, 它是和健保醫療執行的力度 10/17 15:13
→ yhliu: 有關, 例如沒病去診所開藥, 有病者沒去就醫等等. 所以我強 10/17 15:15
→ yhliu: 調: "假設會員資料庫是母體" 那除非因嫌資料庫太大不便分 10/17 15:17
→ yhliu: 析, 否則不必抽樣. 當然鉅量資料的計算也是一項需要技巧的 10/17 15:18
→ yhliu: 事. 就算計算個簡單算術平均, 面對數以億計的資料, 普通計 10/17 15:20
→ yhliu: 算方式都可能出問題. 10/17 15:21
→ myty383: y大我只是舉某個例子,當然很多東西要真實面對問題才會知 10/17 17:49
→ myty383: 道 10/17 17:49
→ yhliu: 資料數位化的現代, 資料庫中的資料與事實的差距有兩方面, 10/18 08:41
→ yhliu: 一是傳統的調查誤差錯抽樣,非抽樣), 二是數位化過程的誤差. 10/18 08:43
→ yhliu: 前者, 與電腦科技幾乎是無關的; 後者, 反倒是在許多情形電 10/18 08:45
→ yhliu: 腦科技昌盛的現在反而可能錯誤機率大些. 何妁以故? 早期資 10/18 08:48
→ yhliu: 料電腦化是人工看著書面資料輸入到卡片, 而後轉成磁帶或磁 10/18 08:50
→ yhliu: 碟檔, 用的是專業打卡人員, 而且採一打卡一驗卡方式避免錯 10/18 08:51
→ yhliu: 誤. 而現在, 專業集中輸入採用直接 key in 成磁碟檔/磁帶檔 10/18 08:54
→ yhliu: 若採用 double key in 或一打一驗方式則如同以前, 但占若只 10/18 08:56
→ yhliu: 是一次鍵入動作, 甚或非專職者從事此工作, 則難免犯錯. 另 10/18 08:58
→ yhliu: 現在更多資料庫來自分散式現場輸入, 雖因各種原因患錯機率 10/18 09:01
→ yhliu: 不高, 也難說絕無錯誤可能. 10/18 09:02
→ yhliu: 不過, 資料電腦化或稱數位化過程在任何時代錯誤機率都是極 10/18 09:04
→ yhliu: 低的. 所以使用資料庫資料, 所需考慮的其實主要還是資料與 10/18 09:06
→ yhliu: 涉及的事實之間因不實或遺漏而產生的差距. 如果把資料庫看 10/18 09:08
→ yhliu: 成是普查結果, 這事實上就是非抽樣誤差. 不過, 如果抽樣資 10/18 09:10
→ yhliu: 料是從資料庫產生, 抽樣只是多了抽樣誤差, 卻未改變非抽樣 10/18 09:12
→ yhliu: 誤差. 10/18 09:12