看板 iOS 關於我們 聯絡資訊
很多人關心的是XR雖然號稱與其他兩個同梯同樣有景深與人像攝影功能, 但是只有單鏡頭會不會比較弱,我認為可以從Developer網站裡看出一些端膩 https://tinyurl.com/ydbkxguh On iOS devices with a back-facing dual camera or a front-facing TrueDepth camera, the capture system can record depth information. 意思是只有雙鏡頭或是TrueDepth鏡頭才能獲得深度資訊。 我們已經知道XR後鏡頭是單鏡頭了,那他是不是TrueDepth呢? 官網關於XR的介紹 https://www.apple.com/iphone-xr/cameras/ 如果你先轉到英文版網頁再去看XR的相機介紹,你會發現只有前鏡頭是 「7MP TrueDepth front camera」 但是後鏡頭就只有寫「12MP rear camera」 所以很明顯後鏡頭沒有TrueDepth,沒辦法靠鏡頭處理深度資訊 所以後鏡頭拍出來的照片應該是靠軟體來推算出影像中的深度資訊 至於軟體效果跟硬體效果的差距有多少,可能就有待專業評測網站測試了。 另外可以再回去看去年發表會裡的一個影片 https://developer.apple.com/videos/play/wwdc2017/507/ 提到iPhone 7的雙鏡頭如何計算出景深 (可以直接去下載投影片看34頁開始的地方) -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 218.187.96.189 ※ 文章網址: https://www.ptt.cc/bbs/iOS/M.1536977375.A.B79.html
yellowocean: 效果一定有差啊,不然何必雙鏡頭,但是至少把軟體景 09/15 10:18
yellowocean: 深的功能下放了,其實軟體可解,下放到8跟7應該也可 09/15 10:18
yellowocean: 以,只是這樣新手機就不用賣了…… 09/15 10:18
onollll: 靠神經網路 09/15 10:32
onollll: A12是八核心 11只有雙核心 09/15 10:34
類神經網路也是軟體(演算法)的一種啊大哥 只是神經網路的計算量太大,A12的8核心能加速他的運行 而且多數運用到神經網路的機械學習都是監督式學習(除了強化學習以外) 如果要他算的圖片類型跟之前餵給他的訓練資料差很多的話,就會影響精準度。 → eyecolor: 一顆鏡頭演算景深在安卓那兒玩的不亦樂乎 09/15 10:34
onollll: A12 單鏡頭能夠人像是因為背後有八核心的神經網路 09/15 10:34
onollll: A11根本沒辦法做到單鏡頭人像 神經網路 差好幾倍 09/15 10:35
eyecolor: 可以啦...蘋果不下放而已.... 09/15 10:35
onollll: 樓上 你自己去查A12跟A11神經網路差幾倍 09/15 10:36
onollll: 你就知道為何蘋果不下放 09/15 10:36
eyecolor: 那沒差啦...演算這個又不需要什麼深奧技術 09/15 10:37
onollll: https://i.imgur.com/D9B579u.jpg 09/15 10:39
onollll: 重點標出了 你看不懂我也沒辦法 09/15 10:40
eyecolor: 跟你說沒差還不信 XDDD 09/15 10:40
onollll: 建議你去查A11跟A12 神經網路差在哪 09/15 10:40
siegfriedlin: 等focos更新比較快 依蘋果的慣性,一定不滿意簡單計 09/15 10:40
siegfriedlin: 算的結果 09/15 10:40
eyecolor: 蘋果的術語要相信連雙卡雙待都是新發明了 09/15 10:40
eyecolor: 我整場發表會看到完我會不知道差在哪? 別來跟我說這種 09/15 10:41
eyecolor: 基本上只是功能不願意下放罷了 XD 09/15 10:42
kivan00: 就算蘋果不下放 反正過陣子第三方APP就會仿出類似的東西 09/15 10:43
onollll: 算了 懶得跟你說 A11跟A12差別搞不清楚 在辯下去也只 09/15 10:43
onollll: 是鬼打牆 09/15 10:43
eyecolor: 舉例一下..你以為Animoji需要face ID的結構光技術? 09/15 10:44
eyecolor: No..一顆鏡頭就可以Animoji..我把結構光遮光只剩一顆鏡 09/15 10:44
eyecolor: 頭...照樣可以Animoji 09/15 10:44
siegfriedlin: 投影片第86頁,有可能是啟動OIS機制→造成optical ce 09/15 10:46
siegfriedlin: nter位移→產生disparity→計算z depth 09/15 10:46
siegfriedlin: disparity越小,z depth誤差越大,所以需要神經網 09/15 10:48
siegfriedlin: 路cover? 09/15 10:48
fiiox3: 那pixel怎玩的?pixel有多加晶片? 09/15 10:49
gy6543721: 蘋果就是喜歡拿一些無關緊要的科技來唬人 偏偏有些人就 09/15 10:54
gy6543721: 是會被唬 沒在思考沒在瞭解科技還指責別人不懂蘋果 這 09/15 10:54
gy6543721: 種人非常多 09/15 10:54
eyecolor: https://goo.gl/V8dQwf 09/15 10:54
ohmylove347: on大的消息源在哪?只有說可以用在那些方面就代表那 09/15 11:01
ohmylove347: 些方面一定有用到?這是屬於上對下的問題了 09/15 11:01
※ 編輯: subgn (218.187.96.189), 09/15/2018 11:08:41
JuiFu617: 手機的景深什麼的還不都是模擬合成來的,要淺景深去買 09/15 11:01
JuiFu617: 單眼好嗎? 09/15 11:01
eyecolor: 會持續加強AI神經網路的演算能力.為的是自駕車 09/15 11:02
eyecolor: 手機這種小應用..A11就夠用了啦 09/15 11:03
jasonpttt: 坦白說,很多技術我相信只是蘋果的商業策略考量不願意 09/15 11:08
jasonpttt: 下放而已 09/15 11:08
eyecolor: 圖像分析都是為了自駕車而來.需要快速演算的神經網路AI 09/15 11:19
eyecolor: 手機需要判斷的資訊量沒那麼大..所以A11其實夠用 09/15 11:19
eyecolor: 完全是商業考量不下放罷了 09/15 11:19
eyecolor: 不然難道說其實A11我們也有這功能喔? 那誰還來買A12? 09/15 11:20
ooxxboy: 其實單鏡頭本來就能用後製做出景深,我相信前幾代的處理 09/15 11:37
ooxxboy: 器就能有這樣的本事,這在影像處理上不是很難的事情,只 09/15 11:37
ooxxboy: 要能選出主題的邊緣後虛化模糊就能做到,蘋果的處理器不 09/15 11:37
ooxxboy: 會比安卓差,且這主要靠軟體的影響比較大,當然做出來的 09/15 11:37
ooxxboy: 效果會很看相片本身質的好壞影響後製偵測的結果,這也是 09/15 11:37
ooxxboy: 單鏡頭跟雙鏡頭的差別 09/15 11:37
yellowocean: 如果下放,可能多花一點時間成像而已,但是使用體驗 09/15 11:37
yellowocean: 可能不會太好,但是蘋果財報也不會太好,大家就沒動 09/15 11:37
yellowocean: 力買新機啦 09/15 11:37
eyecolor: 我已經說過了.這種程度的演算並不需要用到A12這麼快AI 09/15 11:39
eyecolor: A11的AI處理肯定也不會讓各位發現比較慢.. 09/15 11:39
eyecolor: A11對手機而言都效能過剩了..何況A12的AI 09/15 11:40
eyecolor: A12的AI主要是給自駕車去使用的~~ 09/15 11:40
ooxxboy: 蘋果新功能舊款能做卻不願下放也不是第一次,就像XR明明 09/15 11:40
ooxxboy: 就能給雙鏡頭卻不願給你雙鏡頭一樣 09/15 11:40
ShauEn: 不管單或是雙鏡頭,效果看起來都是假 09/15 11:43
ooxxboy: 蘋果在考量產品定位及利潤最大化的情況下,往往會做出這 09/15 11:46
ooxxboy: 種旗艦價格卻缺東缺西的決定,通常入門價格往往都要再往 09/15 11:46
ooxxboy: 上買個一級才夠用,就像i6從16G起跳一樣,當年32G早就漸 09/15 11:46
ooxxboy: 漸成為主流,多少人買了16G後使用苦不堪言? 09/15 11:46
eyecolor: 因為很多人協助洗腦說16GB就夠用了 XDDDD 09/15 11:48
frfreedom: 虛化很早就有,但各家正確率各有差異 09/15 11:49
eyecolor: 自己有在用微單..其實這種假淺景深我都看不太下去 09/15 11:50
ooxxboy: 買XR又在意鏡頭的要想清楚,雙鏡頭已經是很普及的規格, 09/15 11:51
eyecolor: ....一看就知道是後製的...用過幾次就不用了 09/15 11:51
ooxxboy: 現在買單鏡頭以後會不會後悔成為換機的主因?可能明年你 09/15 11:51
ooxxboy: 的iPhone就比安卓機還不時髦了,科技買新不買舊。 09/15 11:51
eyecolor: 雙鏡頭的好處是遠距拍照會清晰點.如課堂上的黑板板書 09/15 11:52
eyecolor: 數位放大跟光學還是有差別的 09/15 11:52
ZzoozZ: 大大你文件好像沒看完整,裡面sample code:AVCaptureDevi 09/15 11:58
ZzoozZ: ce.default(.builtInWideAngleCamera, for: .video, posit 09/15 11:58
ZzoozZ: ion: .unspecified) 只選WideAngleCamera 下面再設定一下 09/15 11:58
ZzoozZ: 就可以拿到景深的東東了 09/15 11:58
bcs: XR的景深是可調,p2那個就一般景深,那個景深模式其它卓卓機 09/15 12:21
bcs: 也可以用,但就是要等他合成。 09/15 12:21
YongLunLin: 勸某人不要這麼嗆! 09/15 12:30
eyecolor: 單顆鏡頭google採用的是PDAF相位對焦去取得深度圖 09/15 12:33
eyecolor: 再來用立體演算法下去跑出一個淺景深圖像~ 09/15 12:34
eyecolor: :~ 被罵這麼嗆先脫離討論了 bye 09/15 13:20
cowbar5566: 實機都還沒出來,就講的頭頭是道的小心被打臉 09/15 13:24
cute15825: 笑了 一直扯a11不夠用 那845的pixel怎算出來的? 09/15 13:39
ethan5566: 笑死 a11是兩大四小核 共六核心 誰跟你雙核心 要比全 09/15 13:49
ethan5566: 部加起來的核心就是6核和八核 少在那裡用a11的大核數量 09/15 13:49
ethan5566: 去比a12的全部核心數 09/15 13:49
ethan5566: 營造那種升級感很大的感覺 另外神經網路也只是從六千 09/15 13:50
ethan5566: 億次提升到3兆次 我相信大多數人都不會用到或感受到差 09/15 13:50
ethan5566: 別 09/15 13:50
onollll: A11神經網路確實是雙核心啊 請問eth你是在搞笑嗎? 09/15 14:19
onollll: A12神經網路 八核心 速度是A11的9倍 09/15 14:23
onollll: 麻煩ethan5566 看清楚字好嗎 09/15 14:24
onollll: 我從頭到尾都是在說神經網路 09/15 14:24
onollll: 如果不相信 請自行Google 看A11 “神經網路”是幾核心 09/15 14:29
onollll: 記得順便查一下A12 “神經網路”幾核心 09/15 14:30
onollll: 兩個差9倍 人像模式怎麼下放到iPhone 8 09/15 14:30
w60904max: 舉例pixel 845的就夠算?..goolge 有另外再加AI晶片好嗎 09/15 14:34
w60904max: 不下放的舉例也超矛盾 他技術直接放下就能拔一個鏡頭 09/15 14:35
w60904max: 那他A11 i8+幹嘛不早單鏡頭省錢 09/15 14:36
eyecolor: 雙鏡頭主要不是景深運算.而是光學長焦應用.你誤會了吧 09/15 14:37
onollll: A12 紅線 https://i.imgur.com/Ny2btdb.jpg 09/15 14:38
onollll: A11 紅線 https://i.imgur.com/8HN1Z8I.jpg 09/15 14:38
w60904max: 這篇不是討論單鏡頭的景深嗎? 09/15 14:38
onollll: 我很好心的幫你找 也幫你畫線 自己看 09/15 14:39
onollll: iPhone Xr 人像就是靠神經網路 懂了嗎? 09/15 14:39
eyecolor: 不必...規格早就知道..多此一舉 09/15 14:39
onollll: A11神經網路根本沒辦法跑單鏡頭人像 蘋果才沒有下放 09/15 14:40
onollll: eye就是有人看不懂啊 所以我丟上來讓他看好看滿 09/15 14:40
w60904max: 不過我覺得 i8那時候NN model還沒train好也是原因 09/15 14:41
onollll: 還有 當初iPhone 8Plus“人像光線”出來的時候 09/15 14:42
onollll: 很多國外網友在問為何iPhone 7Plus沒有支援 09/15 14:43
onollll: 有網友自己去測試發現 iPhone 7+不是不支援人像光線 09/15 14:43
onollll: 是因為根本跑不動 所以蘋果才沒有下放給iPhone 7+ 09/15 14:43
onollll: iPhone Xr能夠單鏡頭拍出人像 iPhone 8卻不行 09/15 14:44
onollll: 就是差在一個“雙核心”神經網路 與“八核心” 神經網路 09/15 14:45
onollll: 蘋果也說過iPhone Xr 是靠神經網路下去 才能拍人像 09/15 14:45
onollll: 這也就說明 不是蘋果不支援 是8根本不行 09/15 14:46
onollll: 而且8的內存2GB iPhone Xr是3GB 也不夠跑 09/15 14:46
peatle: 鐵粉出現XDDDD 09/15 14:50
peatle: Apple說什麼就信什麼 09/15 14:51
onollll: 樓上一定是沒看完我說什麼 09/15 15:07
onollll: 不然你說說看 市面上有哪一款手機 內存2GB 09/15 15:08
onollll: 並且單鏡頭 能拍出人像攝影的 09/15 15:08
BigQs: 請問內存是什麼?跟外放是一體兩面的東西嗎 09/15 15:27
fiiox3: 話說速度幾倍,可以單看核心數來看,太神了 09/15 15:58
fiiox3: 話說,手機內應該都是放train好的model。這樣只差一代的真 09/15 16:01
fiiox3: 的不可能下放嗎?再找找看國外相關文章好了 09/15 16:01
hidexjapan: iPhone X的雙鏡頭景深合成演算法很怪,拍出來先不提 09/15 22:29
hidexjapan: 油畫感,那景深比較像小DC的景深,有種說不出的詭異 09/15 22:29
Wampire: 我比較覺得奇怪的是:有必要為了長焦攝影多塞一整組包括 09/16 00:58
Wampire: 感光元件、鏡頭和防手震組件嗎?既佔空間又提高成本、太 09/16 00:58
Wampire: 大才小用了吧! 連景深都能用算的,變焦何不就數位變焦 09/16 00:58
Wampire: 裁切後補差點運算就好? 09/16 00:58
fiiox3: 數位變焦一直都是補點啊,但那個畫質更屎一樣 09/16 10:46
fiiox3: 我還寧願裁切廣角的照片... 09/16 10:46
ridges: 腦補很強 09/17 00:10