看板 Grad-ProbAsk 關於我們 聯絡資訊
抱歉打擾~ 最近自修看到講重數/代數重數 問題如圖 https://i.imgur.com/27ttfDk.png
想請教,有沒有"直覺性"的聯想可以解釋 幾何重數=代數重數 (非defect matrix時) 還請各位高手教學@@ 圖片中的例子取自 https://www.youtube.com/watch?v=oafswPUBICg
-------------------------- 補問一個問題 若一個矩陣A 2x2 Rank=2 概念上能預期eigenvect會有兩條嗎? 如果可以,這方面的章節或概念會稱做??會是什麼定理?? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.228.245.144 ※ 文章網址: https://www.ptt.cc/bbs/Grad-ProbAsk/M.1552065607.A.A14.html
TEPLUN: 看rank就知道nullity 可用來求gm 03/09 02:10
Ricestone: 通常是翻重數,不是複雜度,那英文也不是複雜度吧? 03/09 02:13
感謝告知= =,剛讀了時間空間複雜度,搞的順手打了這個詞 ※ 編輯: rogerexe (61.228.245.144), 03/09/2019 03:31:06
Ricestone: 不能預期,例如{{1,1},{0,1}}特徵值1,1,但1的gm=1 03/09 10:24
rogerexe: 3qq@_@ 03/09 11:31
imadog: 如果已知矩陣可對角化 則am(入)=gm(入) for all 入 03/09 17:37
imadog: 這是充要條件 03/09 17:38
imadog: 或是算A-入I 通常rank很容易看得出來 再用n-rank=nullity 03/09 17:41
rogerexe: 嗷嗷~ 感謝各位提供想法~ 03/09 18:02
補問一下@@ 1,有沒非數學的想法說明:幾何重數>代數重數 不能成立呢?
Ricestone: 幾何重數本身就是想要知道到底那個特徵值可以張出多少 03/09 19:02
Ricestone: 維度的特徵空間,當然不會比最大的可能性還要大 03/09 19:04
感謝~這句話對我啟發良多 >>"不會比最大的可能性還要大" ※ 編輯: rogerexe (61.231.51.141), 03/09/2019 19:34:35
Dora5566: 實話 這科唸第一次不要唸筆記 小黃本已經寫很詳細了 03/09 20:26
rogerexe: 感謝各位前輩意見@@... 收穫良多 03/09 21:05
eggy1018: 同意Dora大,不補習的話可以先看MIT會大致對線代有個雛 03/09 22:21
eggy1018: 形,黃子嘉老師書上的證明可以讓你完整了解為什麼會這 03/09 22:21
eggy1018: 樣 03/09 22:21
rogerexe: 感謝建議~~ 03/09 22:23
※ 編輯: rogerexe (61.231.51.141), 03/09/2019 23:25:06