[討論] Google Pixel2的單鏡頭人像模式

看板 MobileComm
作者 LIONDODO (LION)
時間 2017-10-05 15:22:18
留言 93則留言 (45推 0噓 48→)

無論是三星或是華為或是Apple或古早的HTC等等,人像模式淺景深的原理都是透過 雙鏡頭去計算距離或是重疊演算來得出主體與背景,並用軟體去做模糊。 也有一些廠商是用單鏡頭然後用軟體去判讀,但這類的解決方案多半效果很慘... 但是昨天發表的Google Pixel 2號稱能用機器學習來分辨主體以達成單鏡頭人像淺景 深的效果,且拍的愈多就能辨認的更準確,主鏡頭前鏡頭都可以啟用。 https://youtu.be/2iObySa91b0?t=7m24s
https://imgur.com/Yr4r284.jpg
截圖,這還是前鏡頭拍的 從測試影片跟照片中看起來,這很威啊!!難道是繼HDR+之後,又一個Google用軟體 硬幹硬體的黑科技...糟糕,心動動了! --

※ 批踢踢實業坊(ptt.cc), 來自: 59.115.54.48
※ 文章網址: https://www.ptt.cc/bbs/MobileComm/M.1507188140.A.26A.html

DaggerJ : 覺得比很多雙鏡頭劃得還準 10/05 15:23

hyghmax1202 : 我覺得是靠連續拍攝多張不同焦點照片來區分出前景與 10/05 15:24

hyghmax1202 : 背景 10/05 15:24

hyghmax1202 : google每年都會秀一次軟體黑科技不意外 10/05 15:25

hyghmax1202 : 去年HDR+根本強得不合理 10/05 15:26

gn01140216 : 那也得演算法給他學習前後景怎麼分辨 10/05 15:26

kissa0924307: 軟體真的很強大 10/05 15:27

hyghmax1202 : Google賣演算法會不會比賣Android還賺? 10/05 15:27

gn01140216 : 不過前鏡頭能拍這樣覺得有點猛 10/05 15:27

Gunslinger : google photos已經上路2年了 是非常龐大的資料庫 10/05 15:28

abc0922001 : 難怪AOSP一直沒有支援雙鏡頭 10/05 15:28

Kripp : 看到他前鏡頭拍的 真的是嚇到 10/05 15:28

playjosie : 好猛... 10/05 15:29

a27588679 : 真的超強 10/05 15:31

tennis1038 : Google用軟體打趴一堆人 10/05 15:34

stone0504 : 直接省下一顆鏡頭的成本 10/05 15:34

nuggca15 : 這個自拍我嚇到了…… 10/05 15:36

rockmanalpha: 去年就有了 但今年應該更進步 應該就是透過多張比對 10/05 15:41

jior : 這真的有點狂 10/05 15:41

Vett : 等實拍吧 別弄了半天結果是PS的 10/05 15:41

rockmanalpha: 背景來運算的 Google很有性格 人家用硬體他偏要用 10/05 15:41

rockmanalpha: 軟體方式來作 10/05 15:41

is1128 : Google 每年都用軟體打爆一堆廠商... 10/05 15:42

rockmanalpha: 去年看過RayMa比較 7+的人像還是強一點 但當時Pixel 10/05 15:42

rockmanalpha: 用軟體運算就有這種效果確實也是蠻強的 10/05 15:42

is1128 : 因為硬體沒辦法依靠 AI 快速進化,但是軟體可以 10/05 15:42

fiiox3 : 多張比對的話,panasonic相機也有類似功能@@ 10/05 15:43

kissa0924307: 可是大家比較常用手機啊 10/05 15:45

i9602283 : 我也剛看到這段影片,很神... 10/05 15:47

gn01140216 : PANASOINC相機有阿 先拍照後對焦的功能 讓全景清楚 10/05 15:52

gn01140216 : GOOGLE可能運算的方式相反去分離出前後景出來 10/05 15:53

gn01140216 : 不過覺得友勝可能說對了,因為去年PIXEL手機 模擬景 10/05 15:54

gn01140216 : 深就是移動相機改變焦點去多張合成 10/05 15:54

gn01140216 : 不過覺得模擬得也不是很好 10/05 15:55

aa8351489 : 不錯欸 我覺得這景深 比其他家都還好 10/05 15:55

hyghmax1202 : 多焦點連拍以前就有了 只是Google靠演算法計算出前 10/05 15:56

hyghmax1202 : 景與背景並自然的虛化背景 我覺得做得還算不錯 10/05 15:56

shoukashiwa : https://www.youtube.com/watch?v=PIbeiddq_CQ 10/05 15:56

gn01140216 : 現在可能就透過演算法改變對焦點跟大量學習 10/05 15:57

shoukashiwa : 這裡有解釋除了運用多張比對的方法,還有把單一像 10/05 15:57

shoukashiwa : 素分開,應該也是為什麼叫做dual pixel的原因? 10/05 15:58

hyghmax1202 : 的確有人把Dual Pixel拿來做雙鏡頭的應用 10/05 15:58

shoukashiwa : 想直接看人像模式的部分可以跳到5:29秒左右開始 10/05 16:00

shoukashiwa : 不是多張比對 我的意思是用AI學習的方法XD 10/05 16:01

hyghmax1202 : 應用名叫Dual Pixel RAW 原理簡單說就是利用Dual Pi 10/05 16:02

hyghmax1202 : xel一個像素中兩子像素的視差 10/05 16:02

kevinlin12 : 這大概是我覺得這次最有看頭的點 10/05 16:04

wl2995014 : 這自拍有點強 10/05 16:05

TZephyr : 這太猛了吧…好想買 10/05 16:20

gn01140216 : 想知道手機都能有這種效果,那google新的小相機拍 10/05 16:25

gn01140216 : 起來如何,那台不是也寫說有學習功能 10/05 16:25

pensees : 很強 10/05 16:26

avmm9898 : 感謝deep learning 讚歎deep learning 10/05 16:28

molsmopuim : 前鏡頭耶! google軟體能力好猛 10/05 16:49

WLR : 竟然是前鏡頭! 10/05 16:59

andy60128 : 這前鏡頭讓我決定買一隻水貨 10/05 17:05

supervieus : 那既然是軟體,一代可以用嗎? 10/05 17:06

Jasperrr : 求哪個大神再把它的app抓出來用 10/05 17:08

mainline : 發表會是說了很多回ML 這一項portrait mode並沒有喔 10/05 17:20

mainline : 根據verge nat 谷歌dual pixel說法倒推 他們用的就 10/05 17:20

mainline : 是對焦像素的資料 猛 10/05 17:20

LIONDODO : 欸?我怎麼有聽到他們說用資料演算去抓你的人臉,且 10/05 17:22

LIONDODO : 會愈來愈準確 10/05 17:22

kusoadm : 可是看規格前鏡頭沒dual pixel,這就有點可怕了~ 10/05 17:24

mainline : 能肯定不是連拍時切對焦目標 那得移動音圈馬達 會來 10/05 17:26

mainline : 不及 還有參考我上面剛說的 10/05 17:26

mainline : 你沒聽錯 但這是那是抓正確對象的部分 10/05 17:28

puput : 黑科技嗎 10/05 17:29

mainline : Panasonic那種模式 手機拍攝侷限時間會不夠 10/05 17:33

mainline : 也不是lytro的無景深照片 也不是谷歌和M8同時發表 10/05 17:33

mainline : 靠移動推算出假景深資料的lens blur 10/05 17:33

gn01140216 : 所以才是黑科技,每年都要來一個 10/05 17:39

peatle : panasonic的是真‧淺景深,只是用包圍曝光在每一個 10/05 17:44

peatle : 焦點各拍一張,手機感光元件小,整個散景就是假的, 10/05 17:45

peatle : 完全是不同原理 10/05 17:45

mainline : 對也 用Panasonic方案 只有對焦物在約一兩米距離內 10/05 17:51

mainline : 有效 再遠一點人物會一起blur掉 因為手機景深不夠 10/05 17:51

mainline : 重寫67樓 覺得我寫得不夠清楚 谷歌提到的ML是用在一 10/05 18:03

mainline : 般PDAF抓取對焦對象時 例如目前的DPAF情況會是 你在 10/05 18:03

mainline : 三米外目標人物與手機鏡頭前擺入你的手指 相機對焦 10/05 18:03

mainline : 就會立刻拉回到接近鏡頭的你的手 而透過學習後 機器 10/05 18:03

mainline : 能意會出與手指相比時人像才是有價值的目標 谷歌說 10/05 18:03

mainline : 的大致是這樣吧 10/05 18:03

ayaaya : 幹~這個前鏡頭好讚,這才是拍照更清晰吧!!! 10/05 18:52

naidier : 前鏡頭就有這種潛景深,雖然跟單眼比還是假假的,但已 10/05 19:40

naidier : 經是手機界沒有之一的強了。 10/05 19:40

eason550025 : 這自拍猛 10/05 22:04

eason550025 : 手上的m8:可…可惡 10/05 22:04

moto6163 : 又來……軟體硬幹完硬體後,不全世界上市…… 10/05 23:21

jack168168tw: 這錢鏡頭也太強!! 10/06 00:25

catlolikon : 哇靠 超強 10/06 02:42

neweb : 如果是機器學習,就應該知道要加問號才夯呀 10/06 07:32

limyeeshin : 背包肩帶糊掉了 10/06 16:07

您可能感興趣