Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
直接加裝 環景😂
環景也是要相機哈哈😄
縮短生產製造時間就是降低很大成本,且大量交貨賺取更大利益。
麻煩阿財到時候借新的Model Y給我實測了(逃
阿這…阿財還在等毛巾測試影片…阿財沒錢錢買 嗚嗚嗚
原本訂車了 後來取消 沒有radar uss 心裡覺得不行
需要等更多的實驗,再等看看吧
这期学习了不少
希望有幫到大家~
結果...2個月後的現在,問題還在,前後沒有測距....鏡頭遇到下雨就完蛋,真的很糟...
在等等吧 需要時間~
感謝分享 倒車跟哨兵用的鏡頭 應該可解後方的問題前方就看怎解了
後方鏡頭可能會有死角,之後看看實測影片吧~
感謝阿財分享!想了解阿財對於 Luminar 光達技術以及其軟體整合方案的看法~ 期待未來阿財繼續出這麼專業的解說!
好的!!之後安排~
🤣🤣因為超音波一直探測到另一維度的生命,只好拿掉❓❓
這這…不好說哈哈哈
@@xxtech_finance_and_life 其實XBOX360 Kinect紅外感測器也能感測到! 有案例!
@@rossinigioacchino2785 那是神秘力量,不要問很可怕的~
車子有車子‘’最佳‘’視野的定位,駕駛者有駕駛者‘’最佳‘’的定位,沒有“完美”。超聲波感測器即是一個輔助的功能,畢竟環境是一個Chaos系統,多一點輔助,多一點保障!
是的,所以希望前後保桿多加鏡頭或是提升現有鏡頭的視角~
謝謝阿財
猴哥早~😁😁
終於阿財出片拉~
久等了😅
沒有低camera,理論上也有可能解決盲區問題,但是cameras 和 AI 需要一直運作,這才能分析四周環境,有沒有移動物件,分析移動路徑,會不會進入盲區,進入盲區有沒有離開等等
這確實是一個問題,目前這些技術還在發展中,值得探討~
@科技財知道 我覺得好像是朝着正確的道路走!
有沒有人在想想,人的視覺也有盲點😊
或者,在停定的時候,只用低象數紀錄近距離影像,到著車一刻,AI才分析有沒有東西在盲區,甚至AI分析盲區物體是什麼(未進入盲區之前如成功labeled 的東西)
這有可能,但盲區問題其實還是要解決,因為相機本身角度不夠大,可以期待之後HW4.0提升相機角度之後的成果。
前保險桿的鏡頭會髒,下雨也會被雨滴弄濕
這倒是,那只能升級目前車子理鏡頭了
很多车可以自动盖上摄像头,当高速运行的时候才会弄脏摄像头,这时这个摄像头反而没有用了,把它盖上就不会弄脏了
恩…近距離才開前後相機,這是一個好方法不過感覺Elon不會pass,畢竟使用場景太少他可能不喜歡哈哈哈
我想應該能用燈光被遮掉多少來推測有車輛前後方有東西的可能性
這也是有可能的~不過目前看來還不確定
AI-->HPC-->TSMC???
應該是台積代工
我们开车,眼睛看不到的地方是死角,先确认一下车上八个摄像头有没有死角,目前看应该没有死角。这样的话,如果训练好的话就应该没有问题,出状况应该是训练不到位。个人想,tsla 敢拿掉超音波雷达,应该是觉得没问题了,或者觉得训练一定会成功。
不過人有死角所以需要其他傳感器輔助,等之後更多的實測影片才知道。
@@xxtech_finance_and_life 摄像头都是装在车外边的,应该不会有死角。原来加装超声波雷达的时候就是为了克服人眼的死角。现在拿掉也就理所当然了。
@@xxtech_finance_and_life 我们不知道fsd现在的最真实情况,但特斯拉自己知道,从敢于拿掉摄像头这点来看,可能fsd估计快成功了。
@@ycy899 相機有死角我在8:38那裡有圖示
@@ycy899 我猜應該是減少成本跟計算資源
物體進入特斯拉鏡頭死角前也要經過特斯拉的鏡頭前是不是就可以先預判或是繪製圖了呢假設我停好車有個小朋友跑到我的前保桿下方躺著,無論他從任何方向跑來躲都必定經過特斯拉的視野內。唯一的盲區就剩下 停在水溝蓋上的特斯拉,有人搬開水溝蓋從下水道上去然後躺在特斯拉前保桿,那就必定是碾過去了。
如果是停好車然後才出現在相機死角處就不好解決了,也是我最後面提到的問題~另外如果要先記住所有經過的物體那特斯拉AI記憶模組可能要更加強化
@@xxtech_finance_and_life 但可以討論什麼東西可以走向特斯拉死角可以不經過攝影機至於特斯拉要怎麼做真的是需要給大家解答了😢
等更多人實測影片看看了~
光達方式或許比較穩定,光靠攝影機光是下雨真的就是容易出現障礙問題(超音波有超音波的優點)
光達方案也有光達的問題,可以參考我大PK的影片ruclips.net/video/oiRCnICAZKU/видео.html
@@大老鷹-h6v 物體辨識你用光達更難判斷,使用光達的車廠也要配備相機做物體的識別和辨識好嗎?你真的知道嗎?另外網絡上明明就很多特斯拉FSD 10.69版在heavy rain時的表現,你可以自己搜不要拿一個失誤的影片就否定全部。
@@大老鷹-h6v 你真的知道目前最前沿的電腦視覺在做什麼嗎? 不要發布一些完全沒有經過查證的言論好嗎?給你關鍵字每年CVPR ICCV ECCV的論文去看看好嗎?不只特斯拉在做,google, Fb, Nvidia等一線科技公司都在研發,包含之前AK的老師李飛飛就是圖像處理的大師,影像處理本來就是踩在巨人的肩膀上研發,AI算法開源所以才可以進步這麼快,你說什麼數十年做不到?以前電腦視覺沒有引入AI,當然效率和能力有限,自從NN的加入,讓電腦視覺上升一個維度,你自己看看全世界電腦視覺的發展趨勢就知道了,光達廠商目前做電腦視覺的方法也是引入AI,不知道你到底在講什麼?
@@大老鷹-h6v 我真的要笑死,機械的方式有很多,超聲波、雷達、光達都是,看來你連這些分類都不知道,可以輕鬆獲取指的是光達?另外就算輕鬆獲取也不代表數據量很少,需要的算力很少啊?邏輯在哪?蒐集大量語音不難啊,但你要train GPT3之類的NLP你家電腦可以?竟然會認為光達數據很少,須要很少的算力,你應該進去Nvidia教他們怎麼用很少的算力運行光達,來完成自動駕駛我可以幫你引薦~
@@大老鷹-h6v 光達3D建模比攝像頭少?哪個研究得出的?還反問,你完全沒有在研究就敢這樣說?真的笑死人…你可以看我採訪高精地圖中心主任那期影片,就是因為光達數據太龐大精確,現在正在想辦法降級應用在車上…
超声波无法识别物体具体是什么~ 如果权重过大会导致幽灵刹车 遇到个塑料袋可能以为是个石头就刹死了。 而且超声波分辨率太低~ 也许以后特斯拉会在车前保险杠加个摄像头。
那是雷達不是超音波
超聲波是近距離用的喔~幽靈煞車是毫米波雷達
人有眼睛,但还是要有耳朵。
但是現在車子隔音都越做越好,大概只能聽到喇叭聲了哈哈
特斯拉USS多貴我不知道三菱一顆不含烤漆600 常用色800但不含線束跟裝工
感謝補充,看起來價格其實也不貴~
但是零件成本不到100
@@JH-rf9mm 感謝補充
@@JH-rf9mm 車廠進價應該沒那麼便宜啦會用三菱當例子是因為三菱在台灣的零件算是便宜的而且我換過
@@catfoxlee 別懷疑,車廠一個進價120左右,供應商給車廠不到100
特斯拉有很強的研發技術,但是在應用方面做的不夠好。例如很強的自動駕駛技術,卻無法避免林志穎撞車起火事件。拿掉超音波就是很糟糕做法,因視覺加超音波有互補作用。
林志穎撞車,其實我蠻肯定是人為疏失。我有幾次以為我開了自動駕駛但其實我取消了或只有開到定速,沒注意的話就擦撞了。特斯拉自動駕駛目前我用下來,蠻實用的,但要記得開或確定有開啟…
@@leon7541 人難免會犯錯,所以需要科技輔助避免出錯。因誤設定自動駕駛及人與電腦溝通不良,發生華航大園及日本名古屋空難,造成幾百人死亡。
其實車禍來說電動車安全性並不會比油車低,而且modelY在撞擊測試中表現非常好,不過確實拔掉超音波感測器需要更多的實測來驗證了…
@@xxtech_finance_and_life 例如最近大陸廣東發生特斯拉暴衝造成2死1重傷。電動自行車時速超過25公里,控制器就停止給馬達供電。如果萬一油門踏板卡住或電子系統故障,電動車應該設計馬達斷電開關供駕駛人緊急使用及依據道路速限行駛。因全油門很短時間即可達到時速200公里,太危險了。
@@xxtech_finance_and_life 這無法類比,因為狀況不同。特斯拉宣傳的是很強的自動駕駛,容易誤導消費者。 NHTSA (美國國家公路交通安全管理局) 和美國司法部展開調查,認為特斯拉的 Autopilot 系統可能有缺陷,或是可能會讓消費者誤以為自己的車已經具備全自動駕駛機能。
魔幻光貫砲~~~~~~
童年的回憶😄
如果你買一隻蘋果但官方說我先把你自拍鏡頭拿掉,目前蘋果暫時不能用前鏡頭自拍,未來有天會更新,你會買蘋果嗎?這是一台超過百萬的東西。歐美地大也沒像台灣這麼多路邊停車,但亞洲只有台灣開放。
也是,不知為何亞洲只有台灣...是不是沒有先google台灣的街景
人工雷達那裡笑死…
哈哈 阿財特別找的 輕鬆一下~
講了16分鐘,結果什麼都沒說
單純分享看法跟資訊拉~
特斯拉的纯视觉路线会不会成功很难讲 但是没有高精地图我绝对不看好 因为人类的大脑本身就有绘制3D高精地图的能力 没地图人类根本活不了 就算是盲人也有类似惯性导航的能力 我不仅觉得4级的自动驾驶应该有3D高精地图 甚至本身也要具有绘制3D高精地图的功能。
目前就算是高精地圖的廠商策略也慢慢在轉變,實際上自動駕駛不需要用到像策繪車等級的高精地圖,會把高精地圖降階(例如mobileye叫AV map),而純視覺方案的車廠背後其實在行車時也會繪製自己的低精地圖,所以這滿常見的,非常高精度的地圖其實反而一般自動駕駛用不到,以後高精地圖的發展可能會慢慢變成提供類似飛機自動駕駛導航點的概念,詳細的可以參考阿財採訪高精地圖中心主任的影片
废话太多,占了一半时间
阿財日後改進~
都快2023年了五六万美元的车居然还跟古董车什么都靠驾驶员。
還是有輔助自動駕駛,只是暫時有三個功能沒開,之後會開放吧
有看過拔掉超音波雷達新 Model Y 的測試,在超近距離的測距大家會很擔心。但嚴格來說,在早期沒有超音波傳感器的時代,對車子熟悉的司機其實是有能力「感覺」距離剩多少的。
小時候剛學開車,長輩說,找一台車子,用很慢的速度輕輕前後撞一下,我們就能建立車子的本體覺。
確實,其實純視覺是可以測量近距離物體的距離,反而太遠差一個pixel就差好幾公尺誤差更大,但目前近距離需要訓練,除此之外...相機盲區是大問題~
@@xxtech_finance_and_life 如果套用我個人用眼開車,前後撞一撞就能精準判斷極限的經驗,我覺得這個訓練應該比路上開車還簡單。但你說的,停好車後是否記得問題不大,真正的問題是,停好車後在視覺死角出現新的東西,比方說蹲在盲區玩的小孩。畢竟人類可以先在車子週圍走一圈了解障礙但Tesla Vision不行。除非 Tesla 以後不提供自動停車功能。
@@keanuhsieh 對的這是一個很麻煩的問題,我個人認為之後在前後方各加一個相機是很好的解法,另外也可以讓FSD有更多的資訊
我覺得前方加一顆鏡頭就可以了,後面本來就有一顆鏡頭,加上後這樣的純視覺應該就能達到完全沒有盲區,不過看起來特斯拉不太可能再增加鏡頭(這樣舊車都會少一顆)😢
嘻嘻😁😁😁
直接加裝 環景😂
環景也是要相機哈哈😄
縮短生產製造時間就是降低很大成本,且大量交貨賺取更大利益。
麻煩阿財到時候借新的Model Y給我實測了(逃
阿這…阿財還在等毛巾測試影片…阿財沒錢錢買 嗚嗚嗚
原本訂車了 後來取消 沒有radar uss 心裡覺得不行
需要等更多的實驗,再等看看吧
这期学习了不少
希望有幫到大家~
結果...2個月後的現在,問題還在,前後沒有測距....鏡頭遇到下雨就完蛋,真的很糟...
在等等吧 需要時間~
感謝分享
倒車跟哨兵用的鏡頭 應該可解後方的問題
前方就看怎解了
後方鏡頭可能會有死角,之後看看實測影片吧~
感謝阿財分享!
想了解阿財對於 Luminar 光達技術以及其軟體整合方案的看法~
期待未來阿財繼續出這麼專業的解說!
好的!!之後安排~
🤣🤣因為超音波一直探測到另一維度的生命,只好拿掉❓❓
這這…不好說哈哈哈
@@xxtech_finance_and_life 其實XBOX360 Kinect紅外感測器也能感測到! 有案例!
@@rossinigioacchino2785 那是神秘力量,不要問很可怕的~
車子有車子‘’最佳‘’視野的定位,駕駛者有駕駛者‘’最佳‘’的定位,沒有“完美”。超聲波感測器即是一個輔助的功能,畢竟環境是一個Chaos系統,多一點輔助,多一點保障!
是的,所以希望前後保桿多加鏡頭或是提升現有鏡頭的視角~
謝謝阿財
猴哥早~😁😁
終於阿財出片拉~
久等了😅
沒有低camera,理論上也有可能解決盲區問題,但是cameras 和 AI 需要一直運作,這才能分析四周環境,有沒有移動物件,分析移動路徑,會不會進入盲區,進入盲區有沒有離開等等
這確實是一個問題,目前這些技術還在發展中,值得探討~
@科技財知道 我覺得好像是朝着正確的道路走!
有沒有人在想想,人的視覺也有盲點😊
或者,在停定的時候,只用低象數紀錄近距離影像,到著車一刻,AI才分析有沒有東西在盲區,甚至AI分析盲區物體是什麼(未進入盲區之前如成功labeled 的東西)
這有可能,但盲區問題其實還是要解決,因為相機本身角度不夠大,可以期待之後HW4.0提升相機角度之後的成果。
前保險桿的鏡頭會髒,下雨也會被雨滴弄濕
這倒是,那只能升級目前車子理鏡頭了
很多车可以自动盖上摄像头,当高速运行的时候才会弄脏摄像头,这时这个摄像头反而没有用了,把它盖上就不会弄脏了
恩…近距離才開前後相機,這是一個好方法不過感覺Elon不會pass,畢竟使用場景太少他可能不喜歡哈哈哈
我想應該能用燈光被遮掉多少來推測有車輛前後方有東西的可能性
這也是有可能的~不過目前看來還不確定
AI-->HPC-->TSMC???
應該是台積代工
我们开车,眼睛看不到的地方是死角,先确认一下车上八个摄像头有没有死角,目前看应该没有死角。这样的话,如果训练好的话就应该没有问题,出状况应该是训练不到位。个人想,tsla 敢拿掉超音波雷达,应该是觉得没问题了,或者觉得训练一定会成功。
不過人有死角所以需要其他傳感器輔助,等之後更多的實測影片才知道。
@@xxtech_finance_and_life 摄像头都是装在车外边的,应该不会有死角。原来加装超声波雷达的时候就是为了克服人眼的死角。现在拿掉也就理所当然了。
@@xxtech_finance_and_life 我们不知道fsd现在的最真实情况,但特斯拉自己知道,从敢于拿掉摄像头这点来看,可能fsd估计快成功了。
@@ycy899 相機有死角我在8:38那裡有圖示
@@ycy899 我猜應該是減少成本跟計算資源
物體進入特斯拉鏡頭死角前也要經過特斯拉的鏡頭前
是不是就可以先預判或是繪製圖了呢
假設我停好車
有個小朋友跑到我的前保桿下方躺著,無論他從任何方向跑來躲都必定經過特斯拉的視野內。
唯一的盲區就剩下 停在水溝蓋上的特斯拉,有人搬開水溝蓋從下水道上去然後躺在特斯拉前保桿,那就必定是碾過去了。
如果是停好車然後才出現在相機死角處就不好解決了,也是我最後面提到的問題~另外如果要先記住所有經過的物體那特斯拉AI記憶模組可能要更加強化
@@xxtech_finance_and_life 但可以討論什麼東西可以走向特斯拉死角可以不經過攝影機
至於特斯拉要怎麼做真的是需要給大家解答了😢
等更多人實測影片看看了~
光達方式或許比較穩定,光靠攝影機光是下雨真的就是容易出現障礙問題(超音波有超音波的優點)
光達方案也有光達的問題,可以參考我大PK的影片
ruclips.net/video/oiRCnICAZKU/видео.html
@@大老鷹-h6v 物體辨識你用光達更難判斷,使用光達的車廠也要配備相機做物體的識別和辨識好嗎?你真的知道嗎?
另外網絡上明明就很多特斯拉FSD 10.69版在heavy rain時的表現,你可以自己搜不要拿一個失誤的影片就否定全部。
@@大老鷹-h6v 你真的知道目前最前沿的電腦視覺在做什麼嗎? 不要發布一些完全沒有經過查證的言論好嗎?給你關鍵字每年CVPR ICCV ECCV的論文去看看好嗎?不只特斯拉在做,google, Fb, Nvidia等一線科技公司都在研發,包含之前AK的老師李飛飛就是圖像處理的大師,影像處理本來就是踩在巨人的肩膀上研發,AI算法開源所以才可以進步這麼快,你說什麼數十年做不到?
以前電腦視覺沒有引入AI,當然效率和能力有限,自從NN的加入,讓電腦視覺上升一個維度,你自己看看全世界電腦視覺的發展趨勢就知道了,光達廠商目前做電腦視覺的方法也是引入AI,不知道你到底在講什麼?
@@大老鷹-h6v 我真的要笑死,機械的方式有很多,超聲波、雷達、光達都是,看來你連這些分類都不知道,可以輕鬆獲取指的是光達?另外就算輕鬆獲取也不代表數據量很少,需要的算力很少啊?邏輯在哪?
蒐集大量語音不難啊,但你要train GPT3之類的NLP你家電腦可以?
竟然會認為光達數據很少,須要很少的算力,你應該進去Nvidia教他們怎麼用很少的算力運行光達,來完成自動駕駛我可以幫你引薦~
@@大老鷹-h6v 光達3D建模比攝像頭少?哪個研究得出的?還反問,你完全沒有在研究就敢這樣說?真的笑死人…你可以看我採訪高精地圖中心主任那期影片,就是因為光達數據太龐大精確,現在正在想辦法降級應用在車上…
超声波无法识别物体具体是什么~ 如果权重过大会导致幽灵刹车 遇到个塑料袋可能以为是个石头就刹死了。 而且超声波分辨率太低~ 也许以后特斯拉会在车前保险杠加个摄像头。
那是雷達不是超音波
超聲波是近距離用的喔~幽靈煞車是毫米波雷達
人有眼睛,但还是要有耳朵。
但是現在車子隔音都越做越好,大概只能聽到喇叭聲了哈哈
特斯拉USS多貴我不知道
三菱一顆不含烤漆600 常用色800
但不含線束跟裝工
感謝補充,看起來價格其實也不貴~
但是零件成本不到100
@@JH-rf9mm 感謝補充
@@JH-rf9mm 車廠進價應該沒那麼便宜啦
會用三菱當例子
是因為三菱在台灣的零件算是便宜的
而且我換過
@@catfoxlee 別懷疑,車廠一個進價120左右,供應商給車廠不到100
特斯拉有很強的研發技術,但是在應用方面做的不夠好。例如很強的自動駕駛技術,卻無法避免林志穎撞車起火事件。
拿掉超音波就是很糟糕做法,因視覺加超音波有互補作用。
林志穎撞車,其實我蠻肯定是人為疏失。我有幾次以為我開了自動駕駛但其實我取消了或只有開到定速,沒注意的話就擦撞了。特斯拉自動駕駛目前我用下來,蠻實用的,但要記得開或確定有開啟…
@@leon7541 人難免會犯錯,所以需要科技輔助避免出錯。因誤設定自動駕駛及人與電腦溝通不良,發生華航大園及日本名古屋空難,造成幾百人死亡。
其實車禍來說電動車安全性並不會比油車低,而且modelY在撞擊測試中表現非常好,不過確實拔掉超音波感測器需要更多的實測來驗證了…
@@xxtech_finance_and_life 例如最近大陸廣東發生特斯拉暴衝造成2死1重傷。電動自行車時速超過25公里,控制器就停止給馬達供電。如果萬一油門踏板卡住或電子系統故障,電動車應該設計馬達斷電開關供駕駛人緊急使用及依據道路速限行駛。
因全油門很短時間即可達到時速200公里,太危險了。
@@xxtech_finance_and_life 這無法類比,因為狀況不同。特斯拉宣傳的是很強的自動駕駛,容易誤導消費者。 NHTSA (美國國家公路交通安全管理局) 和美國司法部展開調查,認為特斯拉的 Autopilot 系統可能有缺陷,或是可能會讓消費者誤以為自己的車已經具備全自動駕駛機能。
魔幻光貫砲~~~~~~
童年的回憶😄
如果你買一隻蘋果但官方說我先把你自拍鏡頭拿掉,目前蘋果暫時不能用前鏡頭自拍,未來有天會更新,你會買蘋果嗎?這是一台超過百萬的東西。歐美地大也沒像台灣這麼多路邊停車,但亞洲只有台灣開放。
也是,不知為何亞洲只有台灣...是不是沒有先google台灣的街景
人工雷達那裡笑死…
哈哈 阿財特別找的 輕鬆一下~
講了16分鐘,結果什麼都沒說
單純分享看法跟資訊拉~
特斯拉的纯视觉路线会不会成功很难讲 但是没有高精地图我绝对不看好 因为人类的大脑本身就有绘制3D高精地图的能力 没地图人类根本活不了 就算是盲人也有类似惯性导航的能力 我不仅觉得4级的自动驾驶应该有3D高精地图 甚至本身也要具有绘制3D高精地图的功能。
目前就算是高精地圖的廠商策略也慢慢在轉變,實際上自動駕駛不需要用到像策繪車等級的高精地圖,會把高精地圖降階(例如mobileye叫AV map),而純視覺方案的車廠背後其實在行車時也會繪製自己的低精地圖,所以這滿常見的,非常高精度的地圖其實反而一般自動駕駛用不到,以後高精地圖的發展可能會慢慢變成提供類似飛機自動駕駛導航點的概念,詳細的可以參考阿財採訪高精地圖中心主任的影片
废话太多,占了一半时间
阿財日後改進~
都快2023年了五六万美元的车居然还跟古董车什么都靠驾驶员。
還是有輔助自動駕駛,只是暫時有三個功能沒開,之後會開放吧
有看過拔掉超音波雷達新 Model Y 的測試,在超近距離的測距大家會很擔心。
但嚴格來說,在早期沒有超音波傳感器的時代,對車子熟悉的司機其實是有能力「感覺」距離剩多少的。
小時候剛學開車,長輩說,找一台車子,用很慢的速度輕輕前後撞一下,我們就能建立車子的本體覺。
確實,其實純視覺是可以測量近距離物體的距離,反而太遠差一個pixel就差好幾公尺誤差更大,但目前近距離需要訓練,除此之外...相機盲區是大問題~
@@xxtech_finance_and_life 如果套用我個人用眼開車,前後撞一撞就能精準判斷極限的經驗,我覺得這個訓練應該比路上開車還簡單。
但你說的,停好車後是否記得問題不大,真正的問題是,停好車後在視覺死角出現新的東西,比方說蹲在盲區玩的小孩。
畢竟人類可以先在車子週圍走一圈了解障礙但Tesla Vision不行。
除非 Tesla 以後不提供自動停車功能。
@@keanuhsieh 對的這是一個很麻煩的問題,我個人認為之後在前後方各加一個相機是很好的解法,另外也可以讓FSD有更多的資訊
我覺得前方加一顆鏡頭就可以了,後面本來就有一顆鏡頭,加上後這樣的純視覺應該就能達到完全沒有盲區,不過看起來特斯拉不太可能再增加鏡頭(這樣舊車都會少一顆)😢
謝謝阿財
嘻嘻😁😁😁