看板 GameDesign 關於我們 聯絡資訊
大家好 Google這幾天發表了開源的machine learning程式碼。玩了一下覺得不得了,這實在太有 趣了。 在人人有手機的時代,結合AR與機器學習的元素後、手遊能有什麼新的玩法? 小弟目前還不知道它可以用在什麼地方,純粹只是感到興奮而已XD 小弟花兩分鐘的動手玩影片: https://youtu.be/aNENxOLd94Y
=== 以下是這次機器學習的故事背景: 藉由學習大量的照片,它可以識別出不同照片中的物體。 例如,拿著手機在攝影機前晃一晃、讓它拍下幾百張照片;然後再拿手錶做一樣的事。然 後,它馬上就可以即時判斷畫面中的物體是手錶還是手機了。即使物體角度、大小、光線 變化、只要樣本數夠多它都能判斷出來。 以上這些神奇的科技不用任何軟體費用,只要一台有攝影機的普通筆電、以及會按滑鼠的 人即可(還不用懂程式),真是太神奇了。 順帶一提,我只花五分鐘就從完全沒有基礎、到完成訓練了,這真的是個好工具。 新聞出處: https://www.cool3c.com/article/129697/amp 體驗網址(桌電需搭配chrome): https://teachablemachine.withgoogle.com/ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 39.12.1.136 ※ 文章網址: https://www.ptt.cc/bbs/GameDesign/M.1507460526.A.FB9.html
sakyer: 喔喔喔 這個好10/08 19:38
※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 19:46:16 ※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 19:52:14 ※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 20:37:28
art1: 我想要讓電腦幫我識別的東西比較複雜,感覺這應該達不到需求 10/08 21:36
應該跟訓練的數量有關,越多越準吧。
LayerZ: 這東西可以訓練完後拿去餵大數據阿 10/09 02:59
沒錯!大數據是來源,現在缺有效分析它的工具。
dklassic: 其實逃離房間那類實境遊戲應該會最好用 XD10/09 11:24
dklassic: 可以刻意訓練成能辨識很特定的東西做出不同反應10/09 11:25
好像也不錯。 我突然想到,可以結合汽車行車記錄器與遊戲、每天任務是搜集幾種特定的號誌或標的物 、然後升級或換道具之類的。 營運資金來自於將大量的識別圖資賣給自動駕駛車公司之類的,哈哈。 ※ 編輯: nfs258147 (110.28.64.29), 10/09/2017 19:09:35
Schottky: 跟訓練的數量沒有絕對關係,有可能再多也完全不會收斂 10/09 19:28
MBRSL: PVP遊戲的中~低等級的AI10/09 23:33
silverair: 拿來做恐怖遊戲不錯阿,在電腦前閃躲、閉眼時把jump10/10 01:53
silverair: scare延遲,等你表情放鬆的時候再突然嚇你10/10 01:53
這個應該會摔手機...拓展維修商機
LayerZ: 我現在幻想的是,任何人上傳照片都能靠分析直接判斷出位置10/10 06:34
LayerZ: 不需要紅外線鏡頭測準度等物理手段10/10 06:34
LayerZ: 當然前提是背景有拍到地標,而判斷來源是google擁有的10/10 06:35
LayerZ: 地球圖庫big data(街景車,fb ig等社群10/10 06:36
LayerZ: 當然射影機能即時運算更好,配合ar kit chip去達到全新的10/10 06:37
LayerZ: 射群體驗10/10 06:37
LayerZ: 社...(一個字毀了一串文10/10 06:37
同意。 只要資料量夠大,應該可以反推出自身位置的。這圖資可以用在自動駕駛車、室內自主導 航設備等等,也可以結合AR來推廣廣告(蘋果佈局AR也許是在鋪這條路)。 用一般鏡頭來偵測環境、也許是目前最有成本效益的作法(相較於Lidar),適合大量推 廣。 以前的google glass用來做這樣的用途剛剛好,無奈遇到許多現實的瓶頸..
cjcat2266: 樓樓上的讓我想到機車的P.T. (被下架的沉默之丘teaser)10/10 07:39
cjcat2266: 探頭往廁所裡面看好久都沒事,要轉身離去的時後才跳出10/10 07:39
cjcat2266: 來嚇人10/10 07:39
art1: 想讓電腦辨識的東西是題庫,從選擇題的題庫中得到題目+選項10/10 08:15
art1: 若題庫有附正確答案則也要辨識出來10/10 08:15
art1: 正規表達式能處理的只有文字,遇到數學題庫、化學題庫就沒輒10/10 08:16
art1: 選擇題對電腦來說難度應該是最小的,其他還有填充題、問答題 10/10 08:19
art1: ,配對題10/10 08:19
這好像是文書翻譯軟體(如蒙恬之類的,沒有研究)有機會達成吧? ※ 編輯: nfs258147 (27.246.198.210), 10/10/2017 14:45:18
ddavid: 上面那個判斷地點的其實有點誤判大數據的資料量跟目標了10/11 01:04
ddavid: 如果目標是「詳細地點」,則分母太大了,即便Google街景車10/11 01:05
ddavid: 累積拍了很多照片,但對於單一小地點的照片量就遠少且變化10/11 01:06
ddavid: 不足(例如,就不會每隔一小時、每個月的照片都有) 10/11 01:07
ddavid: 這樣你表面上看起來像是Big data,其實對於太細的目標來說10/11 01:07
ddavid: 完全沒有發揮出Big data的效果10/11 01:07
ddavid: 舉一個相對比較發揮Big data的用法,就是你拍張街景,讓它 10/11 01:08
ddavid: 自動猜出你在哪一個國家10/11 01:08
ddavid: 這個目標的分母就小得多了,而且對每個目標所擁有的資訊也10/11 01:09
ddavid: 豐富且多樣又帶有一定的重複性跟特徵,Big data的影響力能10/11 01:09
ddavid: 發揮得更好一點10/11 01:10
ddavid: 至於判斷詳細地點這件事,我必須說那是一件靠Big data意義 10/11 01:12
ddavid: 不大的事情,即便你做出來了,但現在每台手機直接就擁有的10/11 01:13
ddavid: 能力為什麼需要另外一個更麻煩、更不準確且Cost可能還更高10/11 01:14
ddavid: 的機制來做呢? 10/11 01:15
ddavid: 上面舉的判斷國家也不是一個很好的應用例子,只是用來說明 10/11 01:18
ddavid: 後端處理時它比較有發揮Big data感覺一些而已 10/11 01:19
大大,這並不是想要取代目前的GPS定位系統哦!而是讓機器透過攝影機能感知這個世界 。 以下是對未來比較美好的幻想,細節就不討論了。 「初期階段」 利用機器學習,提升自動駕駛車攝影機對於馬路物件的辨識成功率。圖資來源可以是每一 台車的行車記錄器;透過不斷上傳圖資,整個資料庫會越來越完善(當然要搭配效率越來 越好的分類裝置)。目前的Lidar還是太貴且無法對物件有效分類。 之後也可以當抓耙子,例如車開過路邊就自動抓拍紅線違規停車並上傳系統收獎金。 在此時期需要搜集大量的圖資,就像google map需要街景車一樣。但不同以往的是,任何 簡單的攝影機,有機會透過機器學習來變成圖資搜集裝置。而且現在行車記錄器都快變標 配且常開了,沒有續航力什麼的問題。 當然資料量會非常龐大,會需要一套有效率的系統來分類之。 「中期階段」 透過標定馬路上建築物的外型(並結合GPS來縮小搜尋範圍)、讓廣告透過某種AR裝置鑲 嵌在建築物外壁上。 想像一下,若google glass等AR裝置在未來已經大量普及,坐公車時只要對著外面服飾店 的虛擬看板點幾下,商品沒多久就出現在家裡了。 拜便宜的視覺系統所賜,家用機器人已經可以認知家中大部分的物品,並可以充當傭人使 用。人人都可以有JARVIS。 因為視覺系統夠安全,馬路上會有許多跑來跑去的機器人。 「後期階段」 強人工智慧被發展出來,機器意識以國家為單位組成。機器意識可以掌握整個國家的所有 機器,從車、電冰箱到軍事武器無一倖免,機器意識可以共享這些終端設備的所有資訊。 人類移民別的星球,搭的是不知道哪台機器設計的飛行器,也不知道飛行原理。「反正會 到就好了...」人們這麼想著。接著請把劇情接到魔鬼終結者,人類GG。
JackysNose: 還蠻有趣的w10/11 17:38
ddavid: 話說,這個如何XD: 10/11 23:52
ddavid: https://goo.gl/92rm3r10/11 23:52
很實用,推! ※ 編輯: nfs258147 (110.28.77.251), 10/12/2017 01:31:24 ※ 編輯: nfs258147 (110.28.77.251), 10/12/2017 01:33:45
LayerZ: 那如果是 big data中已經被分類過的哩 10/12 13:45
LayerZ: 比如說利用所有tag #101的照片 自動建出101模型 10/12 13:46
LayerZ: 當然不可能拿全世界的地圖去跑單一地點 10/12 13:46
LayerZ: 就像機器人在玩3d建模拼圖一樣 10/12 13:47
LayerZ: 只是拼圖可能不完整 10/12 13:48
LayerZ: 或是亂七八糟的東西tag 101也能自動踢掉 10/12 13:49
LayerZ: 當然,這樣就能夠詳細從照片反推出很精準的坐標 10/12 13:49
LayerZ: 然後我覺得google glass還是太早..等隱形眼鏡的螢幕成熟吧 10/12 13:52
LayerZ: 目前能夠實用化是手機 10/12 13:53
LayerZ: 隱形眼鏡螢幕也不太對,更遠了,但是google glass能搞定 10/12 14:28
LayerZ: 成像時黑幕(其實有點像變色鏡片?) 跟眼球追蹤(eyes touch 10/12 14:29
LayerZ: 會比較有實用性吧.. 10/12 14:30
ddavid: 世界感知分析甚至自動從2D建3D模的話,問題會在於你在 10/14 02:47
ddavid: training階段要先有正確答案,否則你連Model怎麼training 10/14 02:47
ddavid: 都不知道 10/14 02:47
ddavid: 所有#101的照片,內容並不一定只有101。雖然101已經算是相 10/14 02:48
ddavid: 對明顯的建築物,所以搭配其他技術切割及比對是可能自動獨 10/14 02:49
ddavid: 立出來,不過這也是101的獨特性才比較有機會 10/14 02:49
ddavid: 不過其實我上面回那一大段主要針對Google Map的資料,如果 10/14 02:50
ddavid: 是圖片網站 + Tag的話,事情有點不一樣XD 10/14 02:51
ddavid: 有Tag當然就可以想辦法把Tag做為Class拿來玩分類,不瞞你 10/14 02:51
ddavid: 說我現在的研究其實就是跟這種Multi-label classification 10/14 02:53
ddavid: 重度相關的東西呢,只是做比較底層所以不限也沒針對圖片處 10/14 02:54
ddavid: 理、針對 10/14 02:55
ddavid: 其實及時從畫面中分離鎖定某種東西,這種技術早就存在了, 10/14 02:56
ddavid: 就是人臉鎖定。因為只要是人臉,有很多共通特徵幾乎不會改 10/14 02:57
ddavid: 變,所以可以細心調整出一個Model,然後所有人的手機所有 10/14 02:58
ddavid: 人的臉都可以用了 10/14 02:58
ddavid: 但是只要做以下的類比就知道辨識環境中所有事物的麻煩在哪 10/14 02:59
ddavid: :你現在是要為環境中所有你想到要分離出來的東西都各建一 10/14 03:00
ddavid: 個Model來判斷,光是每一個類別之中同類事物的差別就可能 10/14 03:02
ddavid: 天差地遠,不同類別的東西卻又可能搞不好長得很像,然後最 10/14 03:03
ddavid: 糟糕的是類別的數量可能很多,你每次分析環境都要一口氣跑 10/14 03:03
ddavid: 過每一個Model以把所有東西都辨識出來 10/14 03:04
ddavid: 如果上面這件事可以做得很準確又很有效率很即時,相比之下 10/14 03:05
ddavid: 要從那些資訊拿來查Google Map做定位應該反而簡單很多XD 10/14 03:06
ddavid: 事實上Tag最糟糕的一個問題就是很容易不完整,不可能把一 10/14 03:11
ddavid: 張照片中所有存在的要素都標出來,然後基本上分類演算法如 10/14 03:12
ddavid: 果沒有特別處理就會把沒標當真的沒有,然後就會錯誤一堆 10/14 03:13
art1: 前陣子看到一份簡報檔,裏面提到用深度學習辨識影片中場景, 10/15 04:49
art1: 、物件、事件,還標上Tags,聽說 Youtube 也有引進這技術? 10/15 04:50
art1: 所以可以做到用關鍵字搜尋影片的場景、物件之類的 10/15 04:50
art1: 還有標上出現時的影片時間點 10/15 04:51
art1: 說引進不太正確,而是自行開發的同類功能 10/15 04:54
GALINE: https://cloud.google.com/vision/ 10/16 13:35
GALINE: G社有拿圖片自動Tagging服務賣錢 10/16 13:35