看板 DataScience 關於我們 聯絡資訊
借著這篇,想向版友們請益: 我弄了一個星期的yolov2,試著教會machine辮識車牌。 然而,得到的weights檔,跑出的結果,框了整個銀幕(即:亂框)。 我遇到的問題,和這個描述非常相近: http://keep.01ue.com/?pi=960547&_a=crawl&_c=index&_m=p 想請問懂這部份的版友們,是否能提供意見呢? 另外,是否有已經養好的辨識車牌的weights檔、cfg檔能提供,我想試試?(不妥會自刪) 若是有不方便在版上提的事宜,歡迎站內信給我。 謝謝各位熱心的版友。 ※ 引述《ching0629 (Syameroke)》之銘言: : 我覺得可能很多人並不懂卷積網路的基本概念,舉例來說,原始yolo可以接受的input size應該是32的倍數,而不是13的倍數... : 卷積網路在運算過程中經常會有pooling(或是現在比較喜歡用步輻為2的卷積器)做下採樣,原則上yolo所提出的概念是使用任意結構的網路皆可以進行目標檢測,而他厲害的地方是它訂出了一個output結構讓網路可以根據這個output來進行目標檢測 : 在講yolo2之前我們先講yolo,原始yolo版本的輸出是對最後一層的每個像素(也就是前面一直提到的13*13,但原始yolo的output是7*7)做一次預測,而預測內容包含: : 1. 2個最有可能的物件框,參數包含 : (1) 0~1的機率描述是否存在非背景物體 : (2) 物件框的相對x座標(以該範圍的百分比定義) : (3) 物件框的相對y座標(以該範圍的百分比定義) : (4) 物件框的相對寬度 (以n倍的原始範圍定義,如一個最終終像素在yolo中對應的是32*32個原始像素,所以這個數字為2代表對應到原來64的範圍) : (5) 物件框的相對長度 : 以上共有10個output。 : 2. 可能的類別數,描述這個框所框到的東西是甚麼,一樣輸出0~1之間的機率(一般後面這些output會經過softmax) : 有了這個概念後,假定有一個32*32的輸入圖像,這樣最終特徵圖就是1*1,那yolo就是輸出2個可能的方框供人參考,而假設原始輸入圖像是320*320,那就會輸出200個可能的方框 : 而yolo2和yolo的差別在,yolo是使用像素作為預測,如果有一個物件他大小接近整張圖,這樣一個32*32的範圍會預測的好也是滿奇怪的,所以精準度不夠,因此yolo2先使用一些clustering的方式先找出訓練集的方框大概都在哪,然後制定出ROI,並進行ROI pooling再做預測。除此之外,作者在訓練yolo2時,為了讓他能適應各種大小的物件,因此每10代會將所有圖片及相對應的label調整為一個任意32的倍數,用這種類似data augmentation訓練網路。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.248.187.109 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1562241605.A.FF7.html
hjk121: 框錯有很大可能是訓練樣本問題;車牌辨識是大眾題目,用英 07/04 23:27
hjk121: 文關鍵字去找應該有 07/04 23:27
fsvy: 但從jpg檔框後轉成xml檔,接著再轉成voc用的txt檔,都是ji31 07/05 00:03
fsvy: 我親自完成的,圖片上的車牌,都有框對。 07/05 00:12
fsvy: 有可能是cfg檔的設定問題。我在網路找遍了,都沒找到weight 07/05 00:18
jasonwu23: 可以把threshold調高試試看 可站內信給我 加我line聊 07/05 06:53
jasonwu23: 我可以架個跟你一樣的環境看看 07/05 06:53