推 sakyer: 喔喔喔 這個好10/08 19:38
※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 19:46:16
※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 19:52:14
※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 20:37:28
推 art1: 我想要讓電腦幫我識別的東西比較複雜,感覺這應該達不到需求 10/08 21:36
應該跟訓練的數量有關,越多越準吧。
→ LayerZ: 這東西可以訓練完後拿去餵大數據阿 10/09 02:59
沒錯!大數據是來源,現在缺有效分析它的工具。
推 dklassic: 其實逃離房間那類實境遊戲應該會最好用 XD10/09 11:24
→ dklassic: 可以刻意訓練成能辨識很特定的東西做出不同反應10/09 11:25
好像也不錯。
我突然想到,可以結合汽車行車記錄器與遊戲、每天任務是搜集幾種特定的號誌或標的物
、然後升級或換道具之類的。
營運資金來自於將大量的識別圖資賣給自動駕駛車公司之類的,哈哈。
※ 編輯: nfs258147 (110.28.64.29), 10/09/2017 19:09:35
→ Schottky: 跟訓練的數量沒有絕對關係,有可能再多也完全不會收斂 10/09 19:28
推 MBRSL: PVP遊戲的中~低等級的AI10/09 23:33
推 silverair: 拿來做恐怖遊戲不錯阿,在電腦前閃躲、閉眼時把jump10/10 01:53
→ silverair: scare延遲,等你表情放鬆的時候再突然嚇你10/10 01:53
這個應該會摔手機...拓展維修商機
→ LayerZ: 我現在幻想的是,任何人上傳照片都能靠分析直接判斷出位置10/10 06:34
→ LayerZ: 不需要紅外線鏡頭測準度等物理手段10/10 06:34
→ LayerZ: 當然前提是背景有拍到地標,而判斷來源是google擁有的10/10 06:35
→ LayerZ: 地球圖庫big data(街景車,fb ig等社群10/10 06:36
→ LayerZ: 當然射影機能即時運算更好,配合ar kit chip去達到全新的10/10 06:37
→ LayerZ: 射群體驗10/10 06:37
→ LayerZ: 社...(一個字毀了一串文10/10 06:37
同意。
只要資料量夠大,應該可以反推出自身位置的。這圖資可以用在自動駕駛車、室內自主導
航設備等等,也可以結合AR來推廣廣告(蘋果佈局AR也許是在鋪這條路)。
用一般鏡頭來偵測環境、也許是目前最有成本效益的作法(相較於Lidar),適合大量推
廣。
以前的google glass用來做這樣的用途剛剛好,無奈遇到許多現實的瓶頸..
推 cjcat2266: 樓樓上的讓我想到機車的P.T. (被下架的沉默之丘teaser)10/10 07:39
→ cjcat2266: 探頭往廁所裡面看好久都沒事,要轉身離去的時後才跳出10/10 07:39
→ cjcat2266: 來嚇人10/10 07:39
推 art1: 想讓電腦辨識的東西是題庫,從選擇題的題庫中得到題目+選項10/10 08:15
→ art1: 若題庫有附正確答案則也要辨識出來10/10 08:15
→ art1: 正規表達式能處理的只有文字,遇到數學題庫、化學題庫就沒輒10/10 08:16
→ art1: 選擇題對電腦來說難度應該是最小的,其他還有填充題、問答題 10/10 08:19
→ art1: ,配對題10/10 08:19
這好像是文書翻譯軟體(如蒙恬之類的,沒有研究)有機會達成吧?
※ 編輯: nfs258147 (27.246.198.210), 10/10/2017 14:45:18
推 ddavid: 上面那個判斷地點的其實有點誤判大數據的資料量跟目標了10/11 01:04
→ ddavid: 如果目標是「詳細地點」,則分母太大了,即便Google街景車10/11 01:05
→ ddavid: 累積拍了很多照片,但對於單一小地點的照片量就遠少且變化10/11 01:06
→ ddavid: 不足(例如,就不會每隔一小時、每個月的照片都有) 10/11 01:07
→ ddavid: 這樣你表面上看起來像是Big data,其實對於太細的目標來說10/11 01:07
→ ddavid: 完全沒有發揮出Big data的效果10/11 01:07
→ ddavid: 舉一個相對比較發揮Big data的用法,就是你拍張街景,讓它 10/11 01:08
→ ddavid: 自動猜出你在哪一個國家10/11 01:08
→ ddavid: 這個目標的分母就小得多了,而且對每個目標所擁有的資訊也10/11 01:09
→ ddavid: 豐富且多樣又帶有一定的重複性跟特徵,Big data的影響力能10/11 01:09
→ ddavid: 發揮得更好一點10/11 01:10
推 ddavid: 至於判斷詳細地點這件事,我必須說那是一件靠Big data意義 10/11 01:12
→ ddavid: 不大的事情,即便你做出來了,但現在每台手機直接就擁有的10/11 01:13
→ ddavid: 能力為什麼需要另外一個更麻煩、更不準確且Cost可能還更高10/11 01:14
→ ddavid: 的機制來做呢? 10/11 01:15
推 ddavid: 上面舉的判斷國家也不是一個很好的應用例子,只是用來說明 10/11 01:18
→ ddavid: 後端處理時它比較有發揮Big data感覺一些而已 10/11 01:19
大大,這並不是想要取代目前的GPS定位系統哦!而是讓機器透過攝影機能感知這個世界
。
以下是對未來比較美好的幻想,細節就不討論了。
「初期階段」
利用機器學習,提升自動駕駛車攝影機對於馬路物件的辨識成功率。圖資來源可以是每一
台車的行車記錄器;透過不斷上傳圖資,整個資料庫會越來越完善(當然要搭配效率越來
越好的分類裝置)。目前的Lidar還是太貴且無法對物件有效分類。
之後也可以當抓耙子,例如車開過路邊就自動抓拍紅線違規停車並上傳系統收獎金。
在此時期需要搜集大量的圖資,就像google map需要街景車一樣。但不同以往的是,任何
簡單的攝影機,有機會透過機器學習來變成圖資搜集裝置。而且現在行車記錄器都快變標
配且常開了,沒有續航力什麼的問題。
當然資料量會非常龐大,會需要一套有效率的系統來分類之。
「中期階段」
透過標定馬路上建築物的外型(並結合GPS來縮小搜尋範圍)、讓廣告透過某種AR裝置鑲
嵌在建築物外壁上。
想像一下,若google glass等AR裝置在未來已經大量普及,坐公車時只要對著外面服飾店
的虛擬看板點幾下,商品沒多久就出現在家裡了。
拜便宜的視覺系統所賜,家用機器人已經可以認知家中大部分的物品,並可以充當傭人使
用。人人都可以有JARVIS。
因為視覺系統夠安全,馬路上會有許多跑來跑去的機器人。
「後期階段」
強人工智慧被發展出來,機器意識以國家為單位組成。機器意識可以掌握整個國家的所有
機器,從車、電冰箱到軍事武器無一倖免,機器意識可以共享這些終端設備的所有資訊。
人類移民別的星球,搭的是不知道哪台機器設計的飛行器,也不知道飛行原理。「反正會
到就好了...」人們這麼想著。接著請把劇情接到魔鬼終結者,人類GG。
推 JackysNose: 還蠻有趣的w10/11 17:38
推 ddavid: 話說,這個如何XD: 10/11 23:52
很實用,推!
※ 編輯: nfs258147 (110.28.77.251), 10/12/2017 01:31:24
※ 編輯: nfs258147 (110.28.77.251), 10/12/2017 01:33:45
→ LayerZ: 那如果是 big data中已經被分類過的哩 10/12 13:45
→ LayerZ: 比如說利用所有tag #101的照片 自動建出101模型 10/12 13:46
→ LayerZ: 當然不可能拿全世界的地圖去跑單一地點 10/12 13:46
→ LayerZ: 就像機器人在玩3d建模拼圖一樣 10/12 13:47
→ LayerZ: 只是拼圖可能不完整 10/12 13:48
→ LayerZ: 或是亂七八糟的東西tag 101也能自動踢掉 10/12 13:49
→ LayerZ: 當然,這樣就能夠詳細從照片反推出很精準的坐標 10/12 13:49
推 LayerZ: 然後我覺得google glass還是太早..等隱形眼鏡的螢幕成熟吧 10/12 13:52
→ LayerZ: 目前能夠實用化是手機 10/12 13:53
→ LayerZ: 隱形眼鏡螢幕也不太對,更遠了,但是google glass能搞定 10/12 14:28
→ LayerZ: 成像時黑幕(其實有點像變色鏡片?) 跟眼球追蹤(eyes touch 10/12 14:29
→ LayerZ: 會比較有實用性吧.. 10/12 14:30
推 ddavid: 世界感知分析甚至自動從2D建3D模的話,問題會在於你在 10/14 02:47
→ ddavid: training階段要先有正確答案,否則你連Model怎麼training 10/14 02:47
→ ddavid: 都不知道 10/14 02:47
→ ddavid: 所有#101的照片,內容並不一定只有101。雖然101已經算是相 10/14 02:48
→ ddavid: 對明顯的建築物,所以搭配其他技術切割及比對是可能自動獨 10/14 02:49
→ ddavid: 立出來,不過這也是101的獨特性才比較有機會 10/14 02:49
→ ddavid: 不過其實我上面回那一大段主要針對Google Map的資料,如果 10/14 02:50
→ ddavid: 是圖片網站 + Tag的話,事情有點不一樣XD 10/14 02:51
→ ddavid: 有Tag當然就可以想辦法把Tag做為Class拿來玩分類,不瞞你 10/14 02:51
→ ddavid: 說我現在的研究其實就是跟這種Multi-label classification 10/14 02:53
→ ddavid: 重度相關的東西呢,只是做比較底層所以不限也沒針對圖片處 10/14 02:54
→ ddavid: 理、針對 10/14 02:55
→ ddavid: 其實及時從畫面中分離鎖定某種東西,這種技術早就存在了, 10/14 02:56
→ ddavid: 就是人臉鎖定。因為只要是人臉,有很多共通特徵幾乎不會改 10/14 02:57
→ ddavid: 變,所以可以細心調整出一個Model,然後所有人的手機所有 10/14 02:58
→ ddavid: 人的臉都可以用了 10/14 02:58
→ ddavid: 但是只要做以下的類比就知道辨識環境中所有事物的麻煩在哪 10/14 02:59
→ ddavid: :你現在是要為環境中所有你想到要分離出來的東西都各建一 10/14 03:00
→ ddavid: 個Model來判斷,光是每一個類別之中同類事物的差別就可能 10/14 03:02
→ ddavid: 天差地遠,不同類別的東西卻又可能搞不好長得很像,然後最 10/14 03:03
→ ddavid: 糟糕的是類別的數量可能很多,你每次分析環境都要一口氣跑 10/14 03:03
→ ddavid: 過每一個Model以把所有東西都辨識出來 10/14 03:04
→ ddavid: 如果上面這件事可以做得很準確又很有效率很即時,相比之下 10/14 03:05
→ ddavid: 要從那些資訊拿來查Google Map做定位應該反而簡單很多XD 10/14 03:06
推 ddavid: 事實上Tag最糟糕的一個問題就是很容易不完整,不可能把一 10/14 03:11
→ ddavid: 張照片中所有存在的要素都標出來,然後基本上分類演算法如 10/14 03:12
→ ddavid: 果沒有特別處理就會把沒標當真的沒有,然後就會錯誤一堆 10/14 03:13
推 art1: 前陣子看到一份簡報檔,裏面提到用深度學習辨識影片中場景, 10/15 04:49
→ art1: 、物件、事件,還標上Tags,聽說 Youtube 也有引進這技術? 10/15 04:50
→ art1: 所以可以做到用關鍵字搜尋影片的場景、物件之類的 10/15 04:50
→ art1: 還有標上出現時的影片時間點 10/15 04:51
→ art1: 說引進不太正確,而是自行開發的同類功能 10/15 04:54
→ GALINE: G社有拿圖片自動Tagging服務賣錢 10/16 13:35