看板 car 關於我們 聯絡資訊
這個youtuber將FSD AI看到的畫面結合實際行車畫面 https://www.youtube.com/watch?v=qRjY55ELYnc
有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪 換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了 這個技術已經被特斯拉提出為專利 https://uspto.report/patent/app/20200265247 特斯拉一直在訓練深度學習神經網絡,該神經網絡可以說是“偽LiDAR”所以馬斯克 認為根本不需要光達.靠鏡頭模擬即可,不服的人去看看AI所看到的畫面跟實際差異 再來. 要問大家在1分27秒處, AI感應到馬路中間有行人, 我想問看看多少人能在影片中 看到.如果看不到就代表AI的感知能力已經大於人類 如果還找不到 請看這張圖 https://i.imgur.com/khEAyN8.jpg
AI看到行人,並且以藍色框表示 我相信隨著數據繼續增加,AI深度學習,最後特斯拉仍然在自動駕駛處於統治地位 其他關於特斯拉這項技術的解釋 https://tinyurl.com/ssrktpeh 機器翻譯 特斯拉發布專利:“使用視覺圖像數據評估對象特性”以增強自動駕駛系統 為了操作自動駕駛系統,通常在汽車上安裝大量各種昂貴的傳感器。但是,特斯拉決定避 免這種情況,並使用攝像頭構建自己的自動駕駛系統。這使AI學習過程變得複雜,但是它 具有許多關鍵優勢,並且可以為駕駛提供真正完整的自主權,被歸類為5級自主權。 特斯拉已經發布了一項專利“使用視覺圖像數據評估對象屬性”。公開的發明有助於基於 由車輛攝像機捕獲的圖像來接收數據,以便部分地識別物體與車輛的距離。 自主駕駛系統通常依賴於安裝眾多傳感器,包括視覺和發射距離傳感器的集合(例如,雷 達,激光雷達,超聲波等)。通過收集每個傳感器捕獲的數據,系統可以了解車輛的環境 並確定如何控制車輛。但是,隨著傳感器數量和類型的增加,系統的複雜性和成本也隨之 增加。 例如,將發射距離傳感器(例如激光雷達)包括在大眾市場的車輛中通常是昂貴的。此外 ,每個附加傳感器都增加了自動駕駛系統的輸入帶寬要求。因此,特斯拉開始尋找車輛上 傳感器的最佳配置。理想的配置應限制傳感器的總數,而不限制捕獲的數據的數量和類型 ,以準確描述周圍環境並安全地控制車輛。 該專利中描述的系統包括一個或多個耦合到存儲器的處理器。一個或多個處理器被配置為 基於由車輛攝像機捕獲的圖像來接收圖像數據。然後,目標是利用此數據(作為對經過訓 練的機器學習模型的輸入的基礎),以至少部分地識別物體與車輛的距離。機器學習模型 已經使用訓練圖像和發射距離傳感器的相關輸出進行了訓練。 該專利描述了一種用於從視覺數據生成高度準確的機器學習結果的訓練技術。使用輔助傳 感器數據(例如雷達和激光雷達結果),輔助數據與從視覺數據中識別出的對象相關聯, 以準確估算對象屬性(例如距離)。在各個部分中,輔助數據與視覺數據的收集和關聯都 是自動完成的,幾乎不需要人工干預。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.228.140.63 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1617882002.A.E4E.html
decolonize : 我先 https://i.imgur.com/Yd6zbEI.jpg 04/08 19:42
decolonize : https://i.imgur.com/RFFV9sK.jpg 04/08 19:43
decolonize : https://i.imgur.com/tjBRzSU.jpg 04/08 19:43
shamanlin : 看起來很炫泡但是連周圍靜止的自動停車都有機率撞 04/08 19:45
asdhse : 等上市再說吧,打槍文要多少有多少 04/08 19:52
chandler0227: 1.運算資源龐大 2.計算距離精度還是不如光達&雷達 04/08 20:02
asdhse : 會喜歡特斯拉的妹子跟特粉一樣,腦袋也不會多好 04/08 20:02
chandler0227: 3.VSLAM誤差模型複雜 4.深度學習無法做到100%成功 04/08 20:03
chandler0227: 接4,所以目前還是需要另一套系統(ex:光達或4D雷達) 04/08 20:05
shamanlin : 自動駕駛需要的是穩定的安全,但特的FSD更像是偶而 04/08 20:05
shamanlin : 會有高超表現,但也可能犯低級錯誤 04/08 20:05
aggressorX : 成本是個很大的問題吧目前 04/08 20:06
milichang : 可惜阿威喜歡的妹子愛特斯拉 04/08 20:06
chandler0227: 沒有喔 成本反而是鏡頭便宜 雖然光達也降超多了 04/08 20:06
LimYoHwan : 對我來說 這系統已經非常讓駕駛人舒緩疲勞度了 04/08 20:07
LimYoHwan : 就像用外掛 人類偶而幫忙操作一下即可 04/08 20:08
chandler0227: 犯低級錯誤的問題就出在"感知"上AI不如人類 04/08 20:08
LimYoHwan : 光達方案最後會在時間與金錢兩個前提上 先倒掉 04/08 20:09
asdhse : 笑死,你特斯拉會進步,光達就不會? 04/08 20:11
chandler0227: 你是不知道光達成本降多少了嗎XD 04/08 20:12
asdhse : 光達成本下降特斯拉就等著跟特粉一起被掃進歷史的殘 04/08 20:13
asdhse : 渣裡去後悔自己自大狂妄的夢吧 04/08 20:13
StarburyX : 重點其實不是光達 是高精地圖 04/08 20:13
LimYoHwan : 光達要高精地圖 我就問 哪個廠商來製作 維護? 04/08 20:13
LimYoHwan : 誰要出錢呢? 而且各家廠商自己做自己的 04/08 20:14
chandler0227: 純靠視覺+深度學習方案沒辦法保證100%成功,又不用 04/08 20:14
StarburyX : 高精地圖就像吸毒 如果不採視覺辨識就得用 04/08 20:14
StarburyX : 高精地圖其實是一個快速的區域解 04/08 20:14
LimYoHwan : 半導體製程也不會說因為沒有100%良率就終止方案 04/08 20:14
chandler0227: 其他方案,不就祈禱視覺都不能失效(犯錯) 04/08 20:15
LimYoHwan : 反事有個幾千幾萬PPM defect 很正常的 04/08 20:15
StarburyX : 但是區域解 目前看起來商業價值不高 04/08 20:15
chandler0227: 車用的你拿半導體來比.....天啊 04/08 20:15
StarburyX : 錢大,重點是平面資訊的辨認,你不採視覺辨識 04/08 20:15
StarburyX : 勢必就得用高精地圖 04/08 20:16
gx9900824 : 影片快轉過 沒快轉是能發現行人的 04/08 20:16
DYE : 高精地圖沒有表示會動的車輛行人與不會動的障礙物 04/08 20:16
chandler0227: 人家主流玩法就是光達+視覺+雷達三者都用互相彌補啊 04/08 20:16
StarburyX : 要不然地面的停止線,各類平面指示牌要怎麼處理 04/08 20:16
DYE : 副教part2來了 04/08 20:17
LimYoHwan : 所以我問你嘛 誰出錢維護? 04/08 20:17
StarburyX : 光達其實好過雷達很多沒有問題 04/08 20:17
LimYoHwan : 光達還互相干擾 04/08 20:17
StarburyX : 但是平面資訊 光達做不到 勢必就要高精或視覺擇一 04/08 20:18
chandler0227: 所以其他自駕團隊都是用多感傳器(光達視覺都用啊) 04/08 20:19
StarburyX : 光達其實很好 沒有問題 重點是平面資訊該怎麼處理 04/08 20:19
chandler0227: 沒人叫你擇一啊 截長補短不行? 別套當冗餘設計不行? 04/08 20:20
StarburyX : 現在看起來大部分還是採用光達+高精地圖多啊 04/08 20:20
StarburyX : 你一用高精地圖,何必還要努力做視覺辨識 04/08 20:20
StarburyX : 你訓練1個月才能認出消防栓 我高精地圖簡單多了 04/08 20:21
chandler0227: 最好是.....看看nuscenes資料庫數據種類好嘛 04/08 20:22
StarburyX : 其實光達+高精地圖簡單又安全啊 我覺得很棒 04/08 20:23
LimYoHwan : 就算你說的對 目前沒有一間公司有這麼多錢完成 04/08 20:23
StarburyX : 在一個區域內是很棒又穩定的答案 04/08 20:23
chandler0227: https://youtu.be/C6KbbndonGg 04/08 20:23
chandler0227: 一個技術不可行的 擔心人家技術可行的沒錢完成XD 04/08 20:24
StarburyX : 其實我也覺得純視覺方案能不能成功也很難講 04/08 20:25
chandler0227: 要嘛有把握視覺做到99.999% 要嘛別的方案redundancy 04/08 20:27
StarburyX : 比較完美還是視覺+光達,但現在還太貴 04/08 20:27
chandler0227: 視覺靠深度學習喔 把深度學習當萬靈丹XD 04/08 20:28
StarburyX : 我覺得馬斯克也是嘴砲居多,等光達價格下降 04/08 20:29
StarburyX : 特斯拉還是會採用光達的 04/08 20:29
eddie1209 : 大哥,我不信在車上的駕駛這個暗度看不到行人 04/08 20:33
eddie1209 : 那是影片視角你才看不到,除非重度近視 04/08 20:33
chandler0227: https://youtu.be/Yc4MfzbbtuI 04/08 20:34
chandler0227: 謠傳是用Arbe的4D雷達啦,Musk就討厭光達了啊 04/08 20:36
neverfly : 真的,2D初音也成功模擬成真人 04/08 20:40
GLUESTICK : 鏡頭看不到白色一樣撞車 04/08 20:42
LimYoHwan : 影片中很多白色車都有看到 04/08 20:43
LimYoHwan : eddie FSD在1:24就看到 人類看不到 04/08 20:45
LimYoHwan : 這個youtuber表示他在1:24是看不到的 04/08 20:46
walelile : 特斯拉最大的問題是Google地圖太爛 04/08 20:48
chandler0227: 不是很多白色車看得到就夠了捏 要實用商用化是要9 04/08 20:48
chandler0227: 9.999%都能成功辨識欸 畢竟只靠單一方案 04/08 20:48
walelile : 圖資錯了,除非特斯拉有內部修正,否怎怎樣都錯 04/08 20:49
LimYoHwan : 看人吧 你認為要100% 但這FSD我會花錢 04/08 20:49
walelile : 特斯拉不是單一方案,他是相機+雷達... 04/08 20:49
neverfly : 你自己看1:38,有一台車在左側,肉眼可見,結果車 04/08 20:50
neverfly : 子靜止後就從特斯拉的畫面消失了,一直到移動才又 04/08 20:50
neverfly : 出現,感謝你貼影片證明FSD beta還是會撞靜止貨櫃 04/08 20:50
walelile : 開特斯拉上高雄高鐵四樓接送區,導航給的跟手機還 04/08 20:51
walelile : 不一樣,什麼時候被陰都不知道 04/08 20:51
JEON : LV2 END 04/08 20:52
chandler0227: 講雷達的,你知道目前的車用雷達包含Tesla使用的都 04/08 20:52
chandler0227: 選擇不輸出靜止量測數據嗎..... 04/08 20:52
LimYoHwan : 路上靜止的車都有表示出來 04/08 20:52
walelile : 那你車在動,他有用到雷達有錯嗎? 04/08 20:53
walelile : 不然他車上裝雷達幹嘛,搞笑嗎? 04/08 20:53
chandler0227: 我講雷達你講視覺,那萬一靜止物視覺沒法正確感知 04/08 20:54
LimYoHwan : 那台車不到一秒馬上又出現了 04/08 20:54
chandler0227: 呢.....別的方案是? 04/08 20:54
LimYoHwan : 基本上 看YOUTUBE上的留言 大多是讚賞的 跟這不一樣 04/08 20:55
walelile : 我哪裡又說到視覺了?你可以看仔細點嗎? 04/08 20:55
LimYoHwan : 這裡也就從頭到尾那幾隻特黑 04/08 20:55
walelile : 現在不是在討論特斯拉的做法,又有什麼別的方案了? 04/08 20:55
walelile : 可以先搞清楚問題嗎 04/08 20:56
LimYoHwan : 我認為特黑應該貼一個很屌的自駕來打臉特斯拉 04/08 20:56
LimYoHwan : 而不是在推文理吹毛求疵 終究銷量會打臉你們 04/08 20:57
chandler0227: R止物只能純靠視覺,是覺得都能成功萬無一失喔 04/08 20:57
neverfly : 不到一秒?你看半天不知道這是縮時攝影喔? 04/08 20:57
callmelanpo : 認真覺得特斯拉可以開專版.可以自己人交流優不會被 04/08 20:57
StarburyX : 我覺得看到自駕進步很好啊,為何扯到特斯拉就反? 04/08 20:57
callmelanpo : 油羵牠黑干擾 04/08 20:57
StarburyX : 如果他成功,很多車廠都可以採用不是? 04/08 20:58
LimYoHwan : 有些人真的很崩潰XD 04/08 20:58
LimYoHwan : 每關係後面10年我可以讓你繼續崩潰 04/08 20:58
StarburyX : 自駕 原本就不是1和0,又不是他成功其他人就GG 04/08 20:59
neverfly : 你拿影片上來吹,推文看影片指出潛在危險不對嗎 04/08 21:00
walelile : https://i.imgur.com/KdxpDbi.png 說雷達往前看160m 04/08 21:00
chandler0227: 跟車輛安全相關是靠視覺+深度學習單一方案做到100 04/08 21:00
chandler0227: %安全? 不用有其他方案來避免失效 04/08 21:00
walelile : 我不曉得有什麼資訊明確說特斯拉沒有用雷達 04/08 21:01
chandler0227: 雷達不會輸出靜止物量測資訊啊,遇到靜止物視覺又 04/08 21:01
walelile : 他們官網自己說了,雷達往前看160m,專利也這樣發 04/08 21:01
chandler0227: 沒法辨識怎麼辦? 04/08 21:02
walelile : 所以什麼東西是靜止物?你確定特斯拉是照你說的做? 04/08 21:02
walelile : 你車在動,所有的東西都是相對在動 04/08 21:02
neverfly : 所有東西相對在動怎麼還會撞靜止貨櫃? 04/08 21:03
walelile : 你去問特斯拉啊XD 04/08 21:04
StarburyX : 因為這套FSD beta還不完美,還是很多問題 04/08 21:05
chandler0227: 現在車用的雷達就不具備高度資訊,你不把靜止物濾 04/08 21:05
chandler0227: 掉是想感測到號誌還是立牌就誤作動喔,問這種問題 04/08 21:05
chandler0227: ..... 04/08 21:05
StarburyX : 不過不錯了啦...不是嗎? 04/08 21:05
chandler0227: 不然幹嘛爭相研發4D雷達 04/08 21:07
LimYoHwan : 人去開都沒有100%安全了 04/08 21:08
neverfly : 人開當然沒有100%安全,但總不能肉眼清晰可見的車 04/08 21:11
neverfly : 輛,會忽然消失在特斯拉的視野中,然後還要相信它 04/08 21:12
neverfly : 很安全吧 04/08 21:12
LimYoHwan : 他沒有從頭到尾都不見 這些問題在beta可以改善的 04/08 21:15
TllDA : 我坐在車裡是能看到行人的 但影片被調過 我就無法 04/08 21:17
walelile : 目前車用毫米波雷達,2018年TI的產品解析度就到5cm 04/08 21:17
walelile : 歐美也訂了車用毫米波雷達標準77GHz,解析度約4cm 04/08 21:17
LimYoHwan : 而且我看了其他影片 停紅燈時 都有機率消失 04/08 21:17
walelile : 以前用24GHz,因此解析度較差 04/08 21:18
LimYoHwan : https://www.youtube.com/watch?v=rKG3eDppzm4 04/08 21:18
LimYoHwan : 7:25秒 右側多台等紅燈的車 一停後會消失 04/08 21:18
neverfly : 所以簡單來說FSD beta還是沒克服撞靜止物的問題 04/08 21:19
LimYoHwan : 個人推測是為了省運算力故意暫時排除 04/08 21:19
LimYoHwan : 不 我認為是故意的 04/08 21:19
neverfly : 省運算力…你文組的嗎? 04/08 21:19
LimYoHwan : 你說無法排除靜止物 明明影片那麼多靜止物 你文組? 04/08 21:23
chandler0227: 不是省略運送,是因為雷達只有平面資訊沒有高度資 04/08 21:29
chandler0227: 訊,不濾掉靜止物是想偵測到號誌人孔蓋三不五時就 04/08 21:29
chandler0227: 誤作動嗎? 04/08 21:29
neverfly : 這很難理解嗎?特斯拉早就能認出靜止的垃圾筒跟三 04/08 21:29
neverfly : 角錐,卻還是會撞上靜止的貨櫃,代表辨認靜止物並 04/08 21:29
neverfly : 不能一體適用,但偏偏路上的靜止車輛跟貨櫃會消失 04/08 21:29
neverfly : 在特斯拉的視野啊 04/08 21:29
chandler0227: 在講車用雷達限制,某w在你 04/08 21:30
chandler0227: 那扯精度..... 04/08 21:30
neverfly : 這就是推文一直在討論的,光靠2D的資訊有它的先天 04/08 21:32
neverfly : 限制與必要的妥協,你都沒在看推文? 04/08 21:32
LimYoHwan : 你怎麼一直講撞貨櫃阿 那時候是用FSD Beta? 04/08 21:32
maniaque : 錢大,有沒有覺得,某人跟水桶中某人很像?? 04/08 21:33
neverfly : 因為你的影片證明FSD beta對辨認靜止物還是不夠成 04/08 21:33
neverfly : 熟啊 04/08 21:33
LimYoHwan : 那你解釋一下路邊靜止的車怎麼都看的到 04/08 21:34
neverfly : 影像辨識啊,跟認垃圾筒不是一樣原理嗎 04/08 21:35
walelile : 請問現在毫米波雷達陣列掃3D場景資訊,有什限制 04/08 21:36
walelile : ? 04/08 21:36
walelile : T1 2019年出毫米波雷達陣列 04/08 21:37
squall410339: 好煩喔為什麼一直都有狂熱特粉再戰這種東西啦,走了 04/08 21:37
squall410339: 一個教主桶了一個副教現在有來一個不知哪邊的小丑, 04/08 21:37
squall410339: 你們煩不煩啊?還是都是同一個人一直買帳號?好啦特 04/08 21:37
squall410339: 斯拉最強啦爽了嗎? 04/08 21:37
neverfly : 它辨識的出來就等於它看到垃圾筒,反之影像認不出 04/08 21:38
neverfly : 來的垃圾筒會消失在它的視野,車輛跟貨櫃也是 04/08 21:38
neverfly : 所以你的影片證明FSD beta還是有撞靜止物的潛在風 04/08 21:38
neverfly : 險,這樣有很難懂嗎? 04/08 21:39
LimYoHwan : 我不知道你們說誰啊 還是你們從2018年黑到2021阿 04/08 21:39
DaveLu : 拿現場攝影機看到的跟螢幕書出來比?要比的話 04/08 21:51
DaveLu : 也是要人在現場看才能比 04/08 21:51
chandler0227: 目前車用毫米波雷達只有平面沒有高度資訊!所以地 04/08 21:58
chandler0227: 面人孔蓋懸在空中的號誌橋樑都有可能感測到,造成 04/08 21:58
chandler0227: 系統誤作動誤煞車,所以才有廠商在研發4D雷達 04/08 21:58
chandler0227: 就算雷達陣列,掃出來的都是在同個平面的data,系 04/08 22:00
chandler0227: 統哪知道是車還是號誌人孔蓋,所以才會需要濾掉雷 04/08 22:00
chandler0227: 達感測到的靜止物量測數據 04/08 22:00
aponderek : 你知道自駕車需要redundancy設計嗎 04/08 22:03
ingmu : 0227可以不要一直灌輸錯誤資訊嗎 雷達並非沒有高度 04/08 22:04
ingmu : 資訊 是高度方向的解析度差 所以無法有效辨識靜止物 04/08 22:04
ingmu : 2018就知道了... https://youtu.be/Yyak-U2vPxM 04/08 22:04
ingmu : 2018年 04/08 22:05
ingmu : neverfly應該是新朋友 這邊說明一下 之前V9大改版增 04/08 22:14
ingmu : 加很多物體顯示 例如車道線 一開始也是狂抖狂閃 這 04/08 22:14
ingmu : 只是畫面處理還沒做好 完全不代表辨識出問題... 04/08 22:14
Dracarys : 幫補血Haters gonna hate 04/08 22:24
fpafpaco : 特粉來傳教了嗎? 04/08 22:35
chandler0227: https://i.imgur.com/DTI73xh.jpg 04/08 22:35
chandler0227: 車用雷達量測物體距離、角度、相對逕向速度 04/08 22:37
airforce1101: 雷達不能測高,還是受限於波束成像問題 04/08 22:37
chandler0227: 請問如何分辨偵測物體是車、人、人孔蓋還是號誌? 04/08 22:37
airforce1101: 動靜物體還好分,可以算多普勒頻率 04/08 22:38
airforce1101: 靜態物體區別很難 04/08 22:39
chandler0227: 車廠常用作法是把雷達測到的靜止訊號濾掉省麻煩就是 04/08 22:39
nicktony : 人眼的動態範圍比鏡頭高很多 影片周邊這麼暗不代表 04/08 22:39
nicktony : 實際這麼暗 04/08 22:40
airforce1101: 雷達的脈寬相對於光達太長,並不適合 04/08 22:40
bcs : https://i.imgur.com/rf6FAfI.jpg 04/08 22:40
airforce1101: 最精準判別就是光達了 04/08 22:40
walelile : NXP認為他們的產品能達到的image radar效果 04/08 22:41
chandler0227: airforce1101對感測講的比我正確且清楚很多 04/08 22:41
walelile : 他們認為他們可以判斷通道空間高度 04/08 22:41
chandler0227: @walelile 那是4D雷達 目前市售車沒有配置4D雷達 04/08 22:42
bcs : 不是AI強,是Sony強。星光夜視,紅外線濾波,熱像 04/08 22:44
bcs : 鏡。濃霧都能看透。能看的到才能tag AI才能作功。 04/08 22:44
bcs : 索尼三星都很拼這塊,手機相機都是微利 04/08 22:44
chandler0227: RadSee 4D Radar https://youtu.be/h7t-6_wiZKM 04/08 22:44
chandler0227: Arbe 4D Radar https://youtu.be/Yc4MfzbbtuI 04/08 22:44
Killercat : CV(特斯拉的方法)其實滿受限於天氣的 04/08 22:47
Killercat : 他就是一個視力30倍的人眼 外加100倍的專注力 04/08 22:48
Killercat : 我倒是滿有興趣看看暴雨跟濃霧下FSD表現如何 04/08 22:49
airforce1101: 4D雷達看介紹,用連續波 04/08 22:49
airforce1101: 關鍵在於後級的處理器 04/08 22:49
airforce1101: 連續波就沒有解析度問題,回波也會是連續 04/08 22:51
airforce1101: 並不是脈衝雷達 04/08 22:52
airforce1101: 毫米波比多數的物體尺寸短,也落在光學反射區 04/08 22:53
airforce1101: 少了高頻光對於較差氣候的衰減影像 04/08 22:54
EvilDoom : 爆雨和濃霧AP就抓得到標線了 04/08 23:01
ykjiang : Musk三月的推文有說考慮把雷達取消掉,獨尊視覺 04/08 23:02
ykjiang : 小鵬贏特斯拉的自動停車是純視覺方案,台灣設計的 04/08 23:04
soyghcg : 沒光達想挑戰三寶 早點洗洗睡 04/08 23:18
soyghcg : 純視覺方案怎麼做最多就是人類水準 無法遠超人類 04/08 23:20
leoloveivy : AI一定比人好我相信 但純影像好不好 搞不好Tesla rd 04/08 23:23
leoloveivy : 想要光達到爆 04/08 23:23
soyghcg : 牽涉安全的電子系統最關鍵就是要盡可能多的設計冗餘 04/08 23:26
soyghcg : 量提高可靠度 04/08 23:27
lain2002 : 還是需要雷射跟光達來Double確認是不是誤判 04/08 23:28
jasonkey123 : ai眼力這麼好怎麼還會高速衝撞貨車@@ 04/09 02:07
Killercat : FSD跟目前在跑的AP不太一樣 衝撞貨車是因為AP目前主 04/09 06:06
Killercat : 要還是以雷達波為主 所有以雷達波的Lv2都有這問題 04/09 06:06
thid5335 : 教主鬼隱 副教主水桶 新教主來了? 04/09 10:29
DaveLu : 相位陣列雷達用連續波? 04/09 14:39
Rayearth2037: 雖然說江山代有才人出 不過 怎麼比教主和副教都弱 04/09 17:56
Rayearth2037: ? 04/09 17:56
bmw530li : 獨尊視覺,結果像素120萬……就像你開車近視不戴眼 04/10 04:15
bmw530li : 鏡說自己多強又多強,然後就撞躺平貨車惹QQ 04/10 04:15