[討論] 光達與毫米波雷達 自駕技術的未來之戰

看板 car
作者 POWERSERIES (Zen)
時間 2021-03-25 11:07:42
留言 97則留言 (13推 4噓 80→)

https://youtu.be/bPaSqgg7aws
今天網路有一位曲博士分析了未來自駕技術所使用的雷達與光達的差異 並大膽分析特斯拉未來自駕技術的選擇 因為影片很長相信大多數人不會看完 所以總結一下 特斯拉目前硬體配置能否在未來升級到LV2以上? 特斯拉目前搭配正前方的三個影像感測器作為偵測前中後車況 搭配AI演算,在數據量足夠分析後,有可能能達成 但曲博並不看好 為何人類兩個眼睛就能開車,特斯拉三個影像感測器的即時訊息量還不足以達成自駕? 人類兩個眼睛可以抓到同一物體的成像差別,足以判斷物體的遠近。並且人類眼睛對焦極 快,處理影像的速度也比電腦快,所以兩隻眼睛即能開車。 而特斯拉的三個鏡頭畫素太低,且都只能定焦前中後還需做影像處理,所以目前無法對多 變的路況做即時的分析。 光達與雷達兩者的優缺點為何? 雷達分辨率太低,角解析度量產只能做到2-5度,路況無法做精確的偵測。 但是價格便宜,且能跟車體做較好的整合 光達有很好的分辨率,但是整個硬體像個大水桶,用在車上不美觀又會有配置的麻煩,且 價格高達一萬美金大部分車廠都很難接受 光達與雷達的未來為何? 雷達分辨率正在進步,而光達的價格與體積也在進步 目前來看還不知道誰會勝出,但曲博看好光達 特斯拉未來有沒有可能採用光達? 曲博認為未來光達價格與體積都進步到一個程度,且有其他車廠採用後,特斯拉就有可能 改變目前的硬體規格採用光達。 其他的論點還有特斯拉明明沒有自動駕駛,取名卻叫做Auto Pilot有點誤導消費者,特斯 拉不想被加州監管,這樣子的行為在一個與生命有關的造車行業是不正確的。 -- 曲博有提到這個技術,但特斯拉似乎選擇用AI做deep learning 計算距離的方式。

※ 批踢踢實業坊(ptt.cc), 來自: 27.52.63.194 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/car/M.1616641664.A.C3C.html

d8613518 : 這樣打馬神跟信徒的臉很不厚道啦03/25 11:11

bill97385 : 3個鏡頭?前中後?基本調查都沒做好就來評論?03/25 11:14

l79cm : 知不知道人開車的反應時間是多少?看到不動手?03/25 11:18

EddieJeremy : 曲博士的背景是??03/25 11:23

dslite : 畫素太低的確可以嘴 但前三鏡頭的左右兩隻就等同於03/25 11:24

dslite : 人的雙眼可以有距離資訊 486的eyesight也是這樣幹 03/25 11:24

dslite : 的03/25 11:24

dslite : 畫素低就會造成看不夠遠 但他怎麼知道畫素多低?行03/25 11:26

dslite : 車記錄器錄的不見得等於sensor的原始解析度啊 03/25 11:26

StarburyX : 光達要搭配高精地圖 這點就GG了啦 不是普遍方案03/25 11:29

StarburyX : 要用高精地圖 注定只有在地車企能做03/25 11:29

StarburyX : 沒有國家會讓其他非本國車企掌握高精地圖的03/25 11:30

StarburyX : Tesla的視覺辨識 神經網路訓練才 有可能 成功03/25 11:31

StarburyX : 只能說 有可能 成功03/25 11:31

StarburyX : 如果像waymo這樣 我就是只做一個區域 也行03/25 11:31

StarburyX : 看車企的目標擺在哪 就會決定往哪走03/25 11:32

StarburyX : 高精地圖精密到幾公分的程度 這資安問題太嚴重03/25 11:33

dslite : 深度跟ai完全無關吧 他在鬼扯什麼03/25 11:34

StarburyX : 光達 目前都是要搭配 高精地圖 這是很棒的區域解 03/25 11:34

l79cm : 現在硬體的神經網路影像輸入解析度都不會太大,放4 03/25 11:34

l79cm : K sensor最後也要縮小再餵入,光達掃出來的矩陣解03/25 11:34

l79cm : 析度也很低 03/25 11:34

dslite : 深度是純光學跟數學03/25 11:35

StarburyX : 沒錯 深度學習是純光學+數學 03/25 11:36

sk2g : 如果搭配Garmin的圖資 03/25 11:37

plug : 光達+高速晶片,車可能直接產生智能視覺+高精地圖 03/25 11:41

StarburyX : 高精地圖跟garmin或估狗圖資等級差太多 03/25 11:42

plug : 就看車商要否把資訊上傳變資料庫,地圖商死光光 03/25 11:42

zyx12320 : 這些都是幾年前就知道的東西了.. 03/25 11:42

StarburyX : p光達的目的是判斷車在高精地圖上的哪一點用 03/25 11:43

StarburyX : 高精地圖的產生可能不是你開過去 就有的03/25 11:44

StarburyX : 高精地圖準確度達到幾公分的等級03/25 11:44

StarburyX : 目前汽車車上晶片的算力 是沒辦法達到這種程度的03/25 11:45

StarburyX : 特斯拉深度學習也是用dojo超級電腦訓練03/25 11:45

DYE : 主要還是電腦對圖形判斷太差03/25 11:46

StarburyX : 跟車上的晶片沒什麼關係03/25 11:46

DYE : 兩歲小朋友,只要幾筆畫的圖,就能說出是貓狗03/25 11:47

plug : 自駕不需要全部地圖,只要知道是路+可以通過,其他03/25 11:47

plug : 走線可用舊圖資03/25 11:47

DYE : 電腦需要大量數據還沒辦法快03/25 11:47

StarburyX : plug大 不行 你這樣就是特斯拉的方案 03/25 11:48

DYE : 所以人可以輕易判斷什麼是白色貨車,什麼是天際線 03/25 11:49

DYE : 電腦一出錯就撞 03/25 11:49

plug : 車載光達即時製作路面環境給AI判斷能不能過就好 03/25 11:49

StarburyX : AI判斷 就是特斯拉現在在做得 怎麼判斷?訓練! 03/25 11:51

zyx12320 : 內文都過時資訊 S大推的才是目前各方案的現況 03/25 11:51

plug : 現在很多公司用點雲建立機器視覺了,即時路面環境 03/25 11:51

StarburyX : AI能不能訓練成功? 天知道 03/25 11:51

plug : 不是問題 03/25 11:52

plug : 現在感測器可以一直裝,就看晶片多快算出視覺 03/25 11:53

plug : 把空載光達位態同步與計算晶片作一起放車上 03/25 12:01

plug : 陣列式光達鏡頭已經大幅降價,要多裝不是問題 03/25 12:11

dix : 曲建仲 成大化工學士 清大材料碩士 台大電機博士 03/25 12:12

dix : 德儀資深工程師 03/25 12:13

LimYoHwan : https://youtu.be/MvWWHgNm0_w 03/25 12:14

LimYoHwan : 高精度地圖誰來維護啊 花多少錢? waymo走不出鳳 03/25 12:15

LimYoHwan : 凰城 還看不出來嗎? 03/25 12:15

LimYoHwan : Tesla不是用3鏡頭 曲低能 做好功課再來 03/25 12:17

TaiwanNeko : 軟體才是關鍵 03/25 12:21

l79cm : 影片有解釋下雨光達就失效基本還是視覺作用,那下 03/25 12:24

l79cm : 雨可以自駕為何晴天就不能?精度較低不等於不能 03/25 12:24

StarburyX : 幫Lin大補充一下 Tesla是用8顆鏡頭在訓練 03/25 12:29

plug : 目前來看,混合影像+光達較能面對環境變數 03/25 12:34

l79cm : 樓上從哪裡看出來的 03/25 12:38

StarburyX : plug大 完全誤會這些東西的能力了 有空我發一篇 03/25 12:44

plug : 除了天氣,光達有反射率的差異,辨識距離會縮短, 03/25 12:46

plug : 還有噪訊,都會環境單純,在鄉村會搞死AI 03/25 12:48

plug : 舉例,90度正面,光達看鐵門300米、混凝土150、土 03/25 12:49

plug : 牆60,若時速90,偵測到牆要AI多遠開始煞車到停? 03/25 12:54

plug : 有勞S大,我只是對air bone 跟TSLR應用有興趣 03/25 12:59

lycosidae : 他的youtube 有很多謬論 當科普看就好 03/25 13:02

chandler0227: 主要還是在感知這塊,電腦遠不如人類,電腦99%情況 03/25 13:24

chandler0227: 做得比人類駕駛好,但還是卻會發生離譜錯誤 03/25 13:24

motan : 摻在一起就好啦,沒有影像辨識怎麼可能完全掌控路況 03/25 13:25

chandler0227: 主流是多感應器融合(sensor fusion),Tesla擺明不 03/25 13:29

chandler0227: 用lidar,那在視覺無法辨識&濾掉毫米波雷達的靜止 03/25 13:29

chandler0227: 物量測資訊下,就變成災難啊 03/25 13:29

chandler0227: 視覺在lane tracking的應用上就很成功,但全都丟給 03/25 13:32

chandler0227: 視覺&深度學習,有夢最美囉 03/25 13:32

plug : 看到白灰的翻覆貨車頂以為是天空就不意外了 03/25 14:18

DaveLu : 特斯拉的戰略蠻正確的,lidar又貴整合難度又高, 03/25 16:41

DaveLu : 裝這個根本拖累上市時程,至於少裝的後果就打媒體戰 03/25 16:42

DaveLu : 解決就好 03/25 16:42

bill97385 : Lidar也不是萬靈丹啦!即時有lidar資訊,還是需要 03/25 19:23

bill97385 : 去做後處理跟分類!一樣會有分錯類的可能性 03/25 19:23

wellkom : 我猜馬斯克打的算盤是幾年之後顯卡晶片效能滿出來 03/26 12:45

wellkom : 所以他的演算法賭的是軟改硬幹 03/26 12:46

wisdom : 影像辨識解析度會影響判斷結果沒錯,但是電腦需要的 03/26 17:34

wisdom : 解晰度比你想像的要低很多就能正確判斷。人眼看起來 03/26 17:34

wisdom : 根本馬賽克的東西只要training正確,ANN判斷的正確 03/26 17:35

wisdom : 率高的讓人莫名其妙。而實際上要拉高影像解析度以現 03/26 17:35

wisdom : 在的技術根本也沒有太多難度,ANN即時辨識的運算需 03/26 17:35

wisdom : 求也根本不龐大(運算慢是在training)。所以特不拉 03/26 17:35

wisdom : 高光學解析度,並不是技術難以克服,更多是不需要 03/26 17:36

wellkom : 應該是說解析度高反而增加 training 的成本與困難度 03/26 17:43

wellkom : 只要對物體有一定程度的辨別度,解析度是越低越好 03/26 17:43

answermangtr: 光達是Lidar嗎 03/27 11:55

您可能感興趣