[討論]iPhone XS 12.1Dev Beta 相機

看板 iOS
作者 a27615666 (你的周豬)
時間 2018-09-25 21:40:06
留言 119則留言 (21推 0噓 98→)

有爬文過,應該沒有人討論過 因為前一隻iPhone為了嚐鮮多人通話升了12.1 Developer Beta 備份還原需要同版本,於是iPhone XS拿到手就升級了 12.1 Developer Beta 今天無聊看看網路開箱和評測,才驚覺我的拍照功能跟大家不一樣。 如官網敘述:全新的「景深」控制功能還能讓你在拍攝後調整景深。 https://www.apple.com/tw/iphone-xs/cameras/ 12.1 Developer Beta 的相機是拍照前就可以調整的,不需要跑到後製來調整。 來段測試 https://youtu.be/x2Vnvjr5IEQ
f 16 https://i.imgur.com/eHcx0py.jpg
f 1.4 https://i.imgur.com/SNiV8NY.jpg
Apple實在是很低調呢 ! 自從AirPower無消無息後。 謝謝大家,不知道大家還有發現什麼好玩的新功能。 -- 假心得文曬皮卡丘
拍完可以做很多調整,照片大小也沒有很大耶。
※ 批踢踢實業坊(ptt.cc), 來自: 114.34.58.212
※ 文章網址: https://www.ptt.cc/bbs/iOS/M.1537882811.A.0E9.html

haleytll: 可惜iPhone X沒得玩… 09/25 21:41

eyecolor: https://goo.gl/RbkmtD 09/25 21:45

eyecolor: 下載Focus app也可以玩 09/25 21:45

eyecolor: 光圈多少都可以調,連散景的形狀都可以調 09/25 21:47

eyecolor: 老實說這功能本來就可以下放,蘋果不要的 09/25 21:48

eyecolor: 都已經演算出來景深範圍了,模擬光圈只是輕而易舉的事 09/25 21:49

eyecolor: 情 09/25 21:49

eyecolor: 我就不信一定要A12才能玩 09/25 21:49

a27615666: 不想給 09/25 21:50

cc5566cc: 那隻皮卡丘好可愛>_< 09/25 21:58

AirRider: 拍照前調整本來就有,是拍照完能調整比較屌....... 09/25 22:05

eyecolor: Focus app是拍完後調整 09/25 22:06

eyecolor: 基本上都是拍完後的調整 09/25 22:06

eyecolor: 因為你要抓出一個景深數據才能夠調整,這都是後製了 09/25 22:07

a27615666: https://youtu.be/4PdtfVSSZ9I?t=7m20s 拍照前調整沒 09/25 22:13

a27615666: 看到呢... 09/25 22:13

a27615666: https://youtu.be/zEOdUiLKNI8?t=53s 還是我真的看錯? 09/25 22:18

AirRider: 對傳統拍照者而言,控制景深,曝光增減都是使用者先備知識 09/25 22:19

AirRider: 蘋果這次神經網路的可怕之處就是把那一堆在按下快門前 09/25 22:20

AirRider: 你應該要具備拍對(不是指拍好)一張照片的知識,整合進 09/25 22:20

AirRider: 你按下快門之後,所記錄的東西,讓你以為拍下來還有選擇 09/25 22:21

AirRider: 實際上是他把非常多的拍對照片的可能通通包進去了 09/25 22:21

AirRider: 那些原本是光學特性,按下去就無可改變的那個瞬間 09/25 22:22

AirRider: 至於調整光圈快門,很多照相app都有了,只是蘋果希望 09/25 22:24

AirRider: 使用者專注於構圖,剩下的寬容度就讓進化後的處理器提供 09/25 22:25

AirRider: 為什麼檔案沒有很大,這就是神經網路篩出來的東西啊..... 09/25 22:26

AirRider: 抽離的攝影主體+眾多且正確的光線可能性 = 可控制的成像 09/25 22:28

AirRider: 這跟之前拍完照片拉亮減暗的後製,最大的差別就在於無損 09/25 22:30

AirRider: 大量的後製,會讓色階破壞斷階,那為什麼不讓大量的資訊 09/25 22:30

AirRider: 填補正確的光線,給足正確的階調??? 09/25 22:31

aaakillua: 皮卡丘好可愛呀~好想要噢噢! 09/25 22:38

AirRider: ref https://9vs1.com/course-play-photoshop-mask 09/25 22:38

AirRider: 在這個課程裡面,有介紹為什麼過多後製會破壞顏色階調 09/25 22:39

drmit: 圖片演算法好像有bug,右邊同一個平面沒有淺景效果 09/25 23:10

drmit: 皮卡邱尾巴上那塊也變成深景而非像左右兩測變淺景 09/25 23:12

drmit: 覺的應該要配合相同焦段跟光圈鏡頭的單眼拍一張才知道其 09/25 23:13

drmit: 模擬的真實度 09/25 23:13

supashang: 本來就是藏私 Xr單鏡頭都能有了 09/25 23:14

a27615666: 網美IG小心機啦別在意真實度 ! 09/25 23:24

eyecolor: 小感光元件扯不上光學,只是演算法算出景深 09/26 00:06

eyecolor: 這個在google以AI去處理景深的做法文件裡面有談的很清 09/26 00:09

eyecolor: 楚雙鏡頭跟單鏡頭如何抓取深度並建構景深,這完全是演 09/26 00:09

eyecolor: 算法罷了,光學只是抓出個Z軸可以讓AI知道深度,說穿了 09/26 00:10

eyecolor: ,根本用不上A12 09/26 00:10

eyecolor: 事前建構出的資料於事後都可以簡單去靠數據調整,難度在 09/26 00:15

eyecolor: 於事前靠AI判定的前景跟前景的前景以及後景跟輪廓,於 09/26 00:15

eyecolor: 事後調整景深這件事情根本不需要A12,因為這只是一個很 09/26 00:15

eyecolor: 粗暴的模擬罷了 09/26 00:15

eyecolor: 用過單眼都知道,真正的淺景深根本沒那麼糟糕又粗暴 09/26 00:16

eyecolor: 這個淺景深只是模擬,不是光學上的淺景深,模擬的東西只 09/26 00:17

eyecolor: 要有資料就可以演算 09/26 00:17

pttcrux: 沒什麼啊 I phoneX用ProCamera 裡面人像也能做到啊 09/26 03:34

AirRider: 淺景深跟光學無關?又是一個精闢的見解呢(掌聲鼓勵) 09/26 08:10

eyecolor: 我說的是虛擬淺景深並非實際光學表現,不懂沒關係但不要 09/26 09:34

eyecolor: 故意扭曲別人的話 09/26 09:34

eyecolor: 這種虛擬淺景深要跟光學比。我看那AI再來進化個比A12強 09/26 09:35

eyecolor: 個一千倍看看有沒有辦法吧 09/26 09:35

dc8: 請問還是只能用望遠鏡頭拍嗎 09/26 10:23

AirRider: 明明就很複雜的事情講的好像不用錢 09/26 10:29

AirRider: 演算法不用錢,運算速度不用錢,就問你有沒有實際用過嘛! 09/26 10:29

AirRider: 樓下那篇有玩過嗎?動不動就是什麼什麼罷了,笑你沒用過 09/26 10:30

AirRider: 需不需要找影片讓你跟著實做一遍什麼叫做抓輪廓兜景深? 09/26 10:32

AirRider: 光看到小感光元件瞎扯淺景深效果,前面文章不知awb為何物 09/26 10:38

AirRider: 請加油,很棒(掌聲) 09/26 10:41

eyecolor: 寫過不少相機評測文不知道AWB..我覺得你先搞清楚光學 09/26 10:48

bisedru: 雖不是專家但自己有寫演算法就知道,精準抓輪廓就已經很 09/26 10:49

eyecolor: 先讓自己搞清楚後.再來聊吧 09/26 10:49

bisedru: 不容易了,還要模擬景深,我要是工程師看到有人一語帶過 09/26 10:49

bisedru: 真的會欲哭無淚... 09/26 10:49

eyecolor: 一語帶過? 這中間的演算法判定自然很難.. 09/26 10:50

eyecolor: 但我說的是成像結果後再來後期調整根本不需要A12 09/26 10:50

eyecolor: 會不會被一堆推文搞混了我原本的意思 09/26 10:51

eyecolor: 我說是蘋果不願意下放..而不是A11做不到 09/26 10:51

AirRider: 為何A12之前不做,因為使用者體驗會很差,理由就這麼簡單 09/26 10:54

bisedru: 其實A11能確實是辦得到,但如同A大所說,體驗上會有差異 09/26 10:56

bisedru: 用到A12還是有其考量,但就每個人考量不同吧! 09/26 10:57

bisedru: 只是eye大的說法會讓不熟悉的人誤會這演算是很簡單的事 09/26 10:58

eyecolor: 景深的演算A11都完成了..那麼模擬景深的修改A11也會辦到 09/26 11:00

eyecolor: 輪廓還有深度等資訊.都在拍照完畢後已由A11完成資訊 09/26 11:01

bisedru: 辦到跟體驗又是兩回事了,除非去做測試,不然怎麼說都對 09/26 11:01

eyecolor: 那麼再來給一個調整景深程度的功能.A11不可能做得不好 09/26 11:01

bisedru: 說實在,你沒做測試怎麼會知道 A11 不可能做不好呢? 09/26 11:03

bisedru: 就連資深的工程師這樣說,我都覺得太武斷,將近9倍的ML演 09/26 11:04

bisedru: 算效率還是有其用處的 09/26 11:04

bisedru: 就像有人用最低配的規格玩遊戲,一樣可以玩但體驗很差 09/26 11:08

bisedru: 有的人不在乎體驗,只在意能玩到,那他就會覺得低配OK辦 09/26 11:09

eyecolor: 這個並不武斷..因為A11產生的景深圖本身就能夠自行處理 09/26 11:09

eyecolor: 那並不是由A12所描繪出來的資訊 09/26 11:09

bisedru: 到,但有得人不這樣認為,就不會選擇用低配去玩 09/26 11:09

bisedru: 所以我同意你說A11辦得到,但要說他做得好就有待討論 09/26 11:10

eyecolor: A11已經有人像模式.表示在他能力範圍內已經可以處理程度 09/26 11:11

eyecolor: A12跟A11所完成的程度自然不一樣.但是由A11產生的相片 09/26 11:12

eyecolor: 自然是A11可負擔下的處理 09/26 11:12

bisedru: 你說的我同意啊!我知道A11 都處理得了,但使用者體驗呢 09/26 11:13

bisedru: 你自己都說完程度不一樣,就代表體驗還是會不同,你能接 09/26 11:13

bisedru: 受體驗稍微差一點,但不代表大家會覺得OK,到時候有人又 09/26 11:14

eyecolor: 如果體驗有差.那麼A11自然要取消人像模式了 09/26 11:15

bisedru: 會說,拿不成熟的技術出來不負責任,總之,手機蘋果出的 09/26 11:15

eyecolor: 就完全拿掉這功能即可 09/26 11:15

bisedru: 我們只能接受了... 09/26 11:15

bisedru: 所以蘋果就覺得體驗不佳 拿掉A11的景深後處理功能 09/26 11:16

eyecolor: 實際使用Xs的淺景深.其實也是頗差強人意..限制也不少 09/26 11:16

bisedru: 取消人像模式,是連原本的景深功能的取消,這樣是犧牲使 09/26 11:16

eyecolor: 我是想等Xr出來這種用廣角大光圈的人像景深可以到什麼 09/26 11:16

bisedru: 用A11的消費者吧! 09/26 11:17

eyecolor: 程度....私心是覺得Xr這樣子比較實用 09/26 11:17

eyecolor: 因為Xs跟Xs MAX都是採用長焦鏡頭完成. 09/26 11:17

eyecolor: 長焦鏡頭限制多..而且本身畫質也低 09/26 11:17

bisedru: 確實到時單鏡頭可以看到純粹的演算技術做到什麼程度 09/26 11:17

bisedru: 我也很好奇 09/26 11:18

eyecolor: 可能靠鏡頭對焦模組取得深度資訊 09/26 11:18

eyecolor: 這個就完全看A12的實力了 09/26 11:19

bisedru: 但畢竟單鏡頭的景深資訊還是會再前後方向上誤差較大 09/26 11:19

bisedru: 整體表現一定是雙鏡頭較好,但是單鏡頭能做到什麼程度 09/26 11:20

bisedru: 這就是演算法跟A12 功力表現的所在了,個人很期待 09/26 11:21

bisedru: 另外不知道是否可以開放Xs可以選擇只用單顆廣角鏡頭做景 09/26 11:23

bisedru: 深,但以Apple 的個性我覺得是不會XD 09/26 11:24

eyecolor: XDDD APPLE怎麼肯..要也要當下一代的賣點 09/26 11:26

bisedru: 只能期待由第三方軟體來辦到了...QQ 09/26 11:30

您可能感興趣