Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
重點是其中一種傳感器出現問題誤判時,權限降低是依據什麼,系統要怎麼知道誤判再採取降低權限的方法,文獻中是依據場景調整權限,但沒有解釋誤判的問題。依舊不相信融合可以成氣候。比方說下雨的夜晚在高速公路上啟用,旁邊正好一束閃電照亮了整個道路與天空,前方車輛嚇到心臟病發作車輛打滑失控,這時候的權重變化是否跟得上突發其來的所有變化,能做出正確的判斷?這種情況純視覺就體現出了訓練的簡單性,不用去搞權重複雜的問題。
傳感器之間計算的結果會先交互驗證, 如果其中一個與另外兩個計算結果差異巨大時會降低其權重
@@xxtech_finance_and_life 不同的傳感器優勢不同,偵測的雷達圖指標也不同,融合如何做到交互驗證,它們本身處理的信息就是不同維度的,有的是顏色、形狀、距離各不相同,基本上能相互驗證的是相同作用的傳感器,比如光達與雷達在雨中距離訊息會交給毫米波。但比如一顆透明的充氣球突然滾向車輛,正好是毫米波的死角,在鏡頭眼裡是沒有的,在光達眼裡有物體被偵測到,這時候的權重很難正確分配;或者當兩種傳感器同時無辨識到物體,那第三種傳感器的權重基本上就會分配錯誤,最後導致偵測正確的傳感器被分配到較低的權重,這種場景要優化太複雜且太繁瑣了。
用多傳感器最大的問題在於感知後的決策端能否使用AI端到端處理,端到端的程度又到多少?現在看來用手寫程式碼在決策時都無法解決不協調的問題,這也是V12最大的改善,引進AI端到端大幅增加FSD的能力跟改進速度。所以重點已經不在是用什麼傳感器,而是用手寫程式碼處理自駕看起來就是死路
可以的,目前傳感器融合也都在導入end to end model
@@xxtech_finance_and_life 目前看起來華為似乎端到端的程度沒有特斯拉高,而且華為在算力被制裁的狀況下,能否解決自駕問題還未知數,誰能獲得越強的算力,誰的自駕就越強。今年特斯拉沒有AI DAY,對岸就沒東西可抄了
@StarburyX 是的,如我說的華為還需要更多的數據,另外高階晶片也是一個問題,這也是為什麼高階自動駕駛市佔最高的是Nvidia
我想请教下所谓的数据主要是指哪些呢?有没有一种可能当数据到了一定程度更多的就是无效数据或者是低效数据?比如在一条高速公路,或者道路条件很好,同时外部交通环境相对简单,这样的数据多了有意义吗?此外我看一些介绍说大模型可以根据一定的数据进行模拟相似环境下的场景,那么如果算力足够自己是不是也可以创造出一部分数据?从这个角度来说大模型、算法和算力才是最重要的,到了一定量级数据可能并没有想象中那么重要?
是的其實你的問題已經解答了一部分。目前所有自動駕駛開發的廠商都在追求大量的數據,而為何要這麼大量的原因在於,許多不常見的場景才是真正難以應付的。而要得到這些場景的數據就需要更大規模的部署汽車,假設1台車1個月能碰到一次特殊場景,那100台車跟1萬台車搜集的效率就差很多。而你說的用AI生成極端場景也是許多廠商在做的,可以參考我介紹Nvidia自動駕駛的技術影片。不過生成的場景要準,本身也是要有大量的數據,這是一個正向的循環
AR HUD很棒呢 TESLA有辦法做到嗎?😮😮我覺得自動駕駛 最後拼疊代時候要比效能 多重硬體感知恐怕要花很大的耗能才能產生一個版本,有可能最後會拖慢自己的疊代進度😮😮
ARHUD特斯拉理論上也是可以做到的~但成本會提高很多應該不會做
我特都歐印在FSD惹 幹嘛還去做HUD???
AR HUD是沒有意義的,至於為何,業內的人才能懂...我就不想多解釋了😑
@@TWALBEVA 我懂了 FSD成熟後就不需要AR HUD了
@@TWALBEVA 願聞其詳,認識一些業內工程師在做這個(也是tier1)看起來滿有熱情的
請問多傳感器融合的算法要多強的晶片算力才跑得動?
好問題,目前沒有硬性的規範,L2~L4需要的算力都不一樣,越高階的自駕越多,有一種說法(非權威認定哈)L2 2TOPS以上就夠但L2+ 10TOPS L3 20以上給你參考...
感謝分享🎉
感謝支持
博主这哥们是专业的。解释的很清楚
感謝支持哈哈
在做個軌道在軌道上跑就可以達到完全自動駕駛
…那不如去搭捷運XD
來了🎉
猴哥早!
據說兩車搭載光達 互相會車時後 ,兩個光達會造成干擾這是真的嗎???
現在有滿多方法可以避免干擾,例如對訊號編碼,這樣每一台光達打出來的光都是獨特的
我有询问过Tesla Autopilot 团队前工程师,他们提到华为的多融合方案是无法达到L5自动驾驶,最多只能达到FSD V11的上限
應該不至於,如果配置跟waymo一樣,可以達到無人車問題不大
fsd v11 是 L2 , waymo 是 L4 沒有駕駛。
@@xxtech_finance_and_life 是的,华为多融合方案想达到类似Waymo无人车问题并不大,但最多只能达到 L4无人车,如果想达到L5必须依赖AI Agent,而华为使用激光雷达是无法做到这一点的,因为AI Agent与激光雷达感知不相容,即使端到端也没用,激光雷达采集的数据形态与人类的自然感知并不符,无法真正有效让多模态大模型训练,只能硬编程弥补,所以无法实现真正L5全自动驾驶
@@xxtech_finance_and_life 是的,华为多融合方案想达到类似Waymo无人车问题并不大,但最多只能达到 L4无人车,如果想达到L5必须依赖AI Agent,而华为使用激光雷达是无法做到这一点的,因为AI Agent与激光雷达感知不相容,即使端到端也没用,激光雷达采集的数据形态与人类的自然感知并不符,无法真正有效让多模态大模型训练,只能硬编程弥补,所以无法实现真正L5全自动驾驶😀
是的,华为多融合方案想达到类似Waymo无人车问题并不大,但最多只能达到 L4无人车,如果想达到L5必须依赖AI Agent,而华为使用激光雷达是无法做到这一点的,因为AI Agent与激光雷达感知不相容,即使端到端也没用,激光雷达采集的数据形态与人类的自然感知并不符,无法真正有效让多模态大模型训练,只能硬编程弥补,所以无法实现真正L5全自动驾驶
12:36 說白話就是特斯拉雷達不夠多哈哈哈
特斯拉不是不夠多是沒有雷達
大部分人都没看过几条华为无人驾驶的视频,可能是国内的视频在国外不多.
我是去B站找~
小鹏也来了,快讲解一下
小鵬是用Nvidia 的Orin,加上又挖角了Nvidia相關的人…以Nvidia的解決方案為基礎去調整
华为称ADS3.0做到了车位到车位,驾驶全过程端到端。特斯拉还没做到。
特斯拉比華為還早做端到端喔
@@xxtech_finance_and_life你开特斯拉到了目的地不用接管,直接自动驾驶到车位?
@jackzeng9973 網絡上有很多影片可以自己參考補充一下華為3.0這次新添加的通用障礙物網絡就是參考特斯拉的occupancy network,華為2.0 2023才加入了occupancy network,因為2022年特斯拉第一次把occupancy網絡用在自動駕駛量產的車上,後來就一堆車廠跟進了
我看的视频就是FSD到了目的地必须人为接管,不能车位到车位,所以才问你。华为ADS2.0就有GOD网路但保留了BEV,而3.0则完全取消了BEV不再使用白名单。
@@jackzeng9973 這裡是我打錯了華為ADS 2.0 2023提出加入了occupancy network(特斯拉於2022提出來),特斯拉的end to end 今年年初就開始推送了(2023年測試)所以特斯拉從occupancy network到端到端一直都比華為先提出至於你說的車位到車位3個月前就有人分享了ruclips.net/video/G3QyLUTo0As/видео.html&ab_channel=oisiaa不過最新的版本特斯拉到停車,場駕駛要在螢幕上點你要停的車位,特斯拉會自己停進去像這樣ruclips.net/video/MPSlld2jIH4/видео.html&ab_channel=TeslaFSD%28FullSelfDriving%29
重點是其中一種傳感器出現問題誤判時,權限降低是依據什麼,系統要怎麼知道誤判再採取降低權限的方法,文獻中是依據場景調整權限,但沒有解釋誤判的問題。
依舊不相信融合可以成氣候。
比方說下雨的夜晚在高速公路上啟用,旁邊正好一束閃電照亮了整個道路與天空,前方車輛嚇到心臟病發作車輛打滑失控,這時候的權重變化是否跟得上突發其來的所有變化,能做出正確的判斷?
這種情況純視覺就體現出了訓練的簡單性,不用去搞權重複雜的問題。
傳感器之間計算的結果會先交互驗證, 如果其中一個與另外兩個計算結果差異巨大時會降低其權重
@@xxtech_finance_and_life 不同的傳感器優勢不同,偵測的雷達圖指標也不同,融合如何做到交互驗證,它們本身處理的信息就是不同維度的,有的是顏色、形狀、距離各不相同,基本上能相互驗證的是相同作用的傳感器,比如光達與雷達在雨中距離訊息會交給毫米波。但比如一顆透明的充氣球突然滾向車輛,正好是毫米波的死角,在鏡頭眼裡是沒有的,在光達眼裡有物體被偵測到,這時候的權重很難正確分配;或者當兩種傳感器同時無辨識到物體,那第三種傳感器的權重基本上就會分配錯誤,最後導致偵測正確的傳感器被分配到較低的權重,這種場景要優化太複雜且太繁瑣了。
用多傳感器最大的問題在於感知後的決策端能否使用AI端到端處理,端到端的程度又到多少?
現在看來用手寫程式碼在決策時都無法解決不協調的問題,
這也是V12最大的改善,引進AI端到端大幅增加FSD的能力跟改進速度。
所以重點已經不在是用什麼傳感器,
而是用手寫程式碼處理自駕看起來就是死路
可以的,目前傳感器融合也都在導入end to end model
@@xxtech_finance_and_life 目前看起來華為似乎端到端的程度沒有特斯拉高,而且華為在算力被制裁的狀況下,能否解決自駕問題還未知數,誰能獲得越強的算力,誰的自駕就越強。
今年特斯拉沒有AI DAY,對岸就沒東西可抄了
@StarburyX 是的,如我說的華為還需要更多的數據,另外高階晶片也是一個問題,這也是為什麼高階自動駕駛市佔最高的是Nvidia
我想请教下所谓的数据主要是指哪些呢?有没有一种可能当数据到了一定程度更多的就是无效数据或者是低效数据?比如在一条高速公路,或者道路条件很好,同时外部交通环境相对简单,这样的数据多了有意义吗?此外我看一些介绍说大模型可以根据一定的数据进行模拟相似环境下的场景,那么如果算力足够自己是不是也可以创造出一部分数据?从这个角度来说大模型、算法和算力才是最重要的,到了一定量级数据可能并没有想象中那么重要?
是的其實你的問題已經解答了一部分。
目前所有自動駕駛開發的廠商都在追求大量的數據,而為何要這麼大量的原因在於,許多不常見的場景才是真正難以應付的。
而要得到這些場景的數據就需要更大規模的部署汽車,假設1台車1個月能碰到一次特殊場景,那100台車跟1萬台車搜集的效率就差很多。
而你說的用AI生成極端場景也是許多廠商在做的,可以參考我介紹Nvidia自動駕駛的技術影片。
不過生成的場景要準,本身也是要有大量的數據,這是一個正向的循環
AR HUD很棒呢 TESLA有辦法做到嗎?😮😮
我覺得自動駕駛 最後拼疊代時候要比效能 多重硬體感知恐怕要花很大的耗能才能產生一個版本,有可能最後會拖慢自己的疊代進度😮😮
ARHUD特斯拉理論上也是可以做到的~但成本會提高很多應該不會做
我特都歐印在FSD惹 幹嘛還去做HUD???
AR HUD是沒有意義的,至於為何,業內的人才能懂...我就不想多解釋了😑
@@TWALBEVA 我懂了 FSD成熟後就不需要AR HUD了
@@TWALBEVA 願聞其詳,認識一些業內工程師在做這個(也是tier1)看起來滿有熱情的
請問多傳感器融合的算法要多強的晶片算力才跑得動?
好問題,目前沒有硬性的規範,L2~L4需要的算力都不一樣,越高階的自駕越多,有一種說法(非權威認定哈)L2 2TOPS以上就夠但L2+ 10TOPS L3 20以上給你參考...
感謝分享🎉
感謝支持
博主这哥们是专业的。解释的很清楚
感謝支持哈哈
在做個軌道
在軌道上跑就可以達到完全自動駕駛
…那不如去搭捷運XD
來了🎉
猴哥早!
據說兩車搭載光達 互相會車時後 ,兩個光達會造成干擾這是真的嗎???
現在有滿多方法可以避免干擾,例如對訊號編碼,這樣每一台光達打出來的光都是獨特的
我有询问过Tesla Autopilot 团队前工程师,他们提到华为的多融合方案是无法达到L5自动驾驶,最多只能达到FSD V11的上限
應該不至於,如果配置跟waymo一樣,可以達到無人車問題不大
fsd v11 是 L2 , waymo 是 L4 沒有駕駛。
@@xxtech_finance_and_life 是的,华为多融合方案想达到类似Waymo无人车问题并不大,但最多只能达到 L4无人车,如果想达到L5必须依赖AI Agent,而华为使用激光雷达是无法做到这一点的,因为AI Agent与激光雷达感知不相容,即使端到端也没用,激光雷达采集的数据形态与人类的自然感知并不符,无法真正有效让多模态大模型训练,只能硬编程弥补,所以无法实现真正L5全自动驾驶
@@xxtech_finance_and_life 是的,华为多融合方案想达到类似Waymo无人车问题并不大,但最多只能达到 L4无人车,如果想达到L5必须依赖AI Agent,而华为使用激光雷达是无法做到这一点的,因为AI Agent与激光雷达感知不相容,即使端到端也没用,激光雷达采集的数据形态与人类的自然感知并不符,无法真正有效让多模态大模型训练,只能硬编程弥补,所以无法实现真正L5全自动驾驶😀
是的,华为多融合方案想达到类似Waymo无人车问题并不大,但最多只能达到 L4无人车,如果想达到L5必须依赖AI Agent,而华为使用激光雷达是无法做到这一点的,因为AI Agent与激光雷达感知不相容,即使端到端也没用,激光雷达采集的数据形态与人类的自然感知并不符,无法真正有效让多模态大模型训练,只能硬编程弥补,所以无法实现真正L5全自动驾驶
12:36 說白話就是特斯拉雷達不夠多哈哈哈
特斯拉不是不夠多是沒有雷達
大部分人都没看过几条华为无人驾驶的视频,可能是国内的视频在国外不多.
我是去B站找~
小鹏也来了,快讲解一下
小鵬是用Nvidia 的Orin,加上又挖角了Nvidia相關的人…以Nvidia的解決方案為基礎去調整
华为称ADS3.0做到了车位到车位,驾驶全过程端到端。特斯拉还没做到。
特斯拉比華為還早做端到端喔
@@xxtech_finance_and_life你开特斯拉到了目的地不用接管,直接自动驾驶到车位?
@jackzeng9973 網絡上有很多影片可以自己參考
補充一下華為3.0這次新添加的通用障礙物網絡就是參考特斯拉的occupancy network,華為2.0 2023才加入了occupancy network,因為2022年特斯拉第一次把occupancy網絡用在自動駕駛量產的車上,後來就一堆車廠跟進了
我看的视频就是FSD到了目的地必须人为接管,不能车位到车位,所以才问你。华为ADS2.0就有GOD网路但保留了BEV,而3.0则完全取消了BEV不再使用白名单。
@@jackzeng9973 這裡是我打錯了華為ADS 2.0 2023提出加入了occupancy network(特斯拉於2022提出來),特斯拉的end to end 今年年初就開始推送了(2023年測試)
所以特斯拉從occupancy network到端到端一直都比華為先提出
至於你說的車位到車位3個月前就有人分享了
ruclips.net/video/G3QyLUTo0As/видео.html&ab_channel=oisiaa
不過最新的版本特斯拉到停車,場駕駛要在螢幕上點你要停的車位,特斯拉會自己停進去像這樣
ruclips.net/video/MPSlld2jIH4/видео.html&ab_channel=TeslaFSD%28FullSelfDriving%29