Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
大问题的节目让我带着一个问题来,带着N个问题走😂
激起思考!這就是我為什麼喜歡大問題❤
不覺得賺翻了嗎😂
@@方晴玫 我想問大家有沒有一個察覺到一個現象,人們越來越喜歡拿角度不同,當作自己無能、技術不足的遮羞布我們假定一個情況一名廚師把應該要「煮熟」的菜煮到「半生不熟」,這種情況下廚師為自己辯護說廚師:我覺得我們都沒錯,只是角度不同廚師的論點是否能成立?
@@Scany_Zero 我想問大家有沒有一個察覺到一個現象,人們越來越喜歡拿角度不同,當作自己無能、技術不足的遮羞布我們假定一個情況一名廚師把應該要「煮熟」的菜煮到「半生不熟」,這種情況下廚師為自己辯護說廚師:我覺得我們都沒錯,只是角度不同廚師的論點是否能成立?
@@威豪黃-q7f 你跟我高中同學同名同姓欸
搁置派的设想更像是医疗保险而不是现在的车险,就像人生病了并不是谁的过错,因为谁也不想没事去主动生病。也可以想象自动驾驶汽车的乘客不会想主动撞人,所以出了事应该由社会虽有参保人员一起承担后果。这听起来是个不错的建议
我很喜歡這種節目形式,認為提出批評的立場的基本是要有配套的解決方案,在公開討論的情況下,提出讓大眾思考解決問題的方案,能夠避免單方面否定的死局。單純否定提案而不提出自己的方法是非常不負責任的。
謝謝!
前提:假设在车祸中,车企和车主均没有明显过错(比如车企重大设计失误或者车主违法改装)。思路:如果自动驾驶发展到一定高度,事故率相比人类驾驶大大降低,自动驾驶事故是否也可以近似认为是一种 “自然灾害”。具体方案:用应对自然灾害的思路1.让车企们成立某种保险基金,来平摊意外风险。2.让车主们强制缴纳保险(类似交强险),来赔付和处理意外交通事故。3.自动驾驶的逻辑应该有国家发布指导规范,比如受伤最小化原则(类似电车难题里,死1个强过死10个)。
就像是失火了一樣,如果不是故意縱火的話其實是沒有人需要負責任
成熟的自动驾驶时代是不需要追究谁的责任的(除非故意犯罪),到时候世界上可以有非常多的品牌的自动驾驶汽车,但是核心的涉及安全的部分全球应该只有少数几个供应商,而且这些供应商所提供的安全产品的性能是非常类似的,就像现在的CPU供应商。一旦出现交通事故,由保险公司来赔付就是了。
很喜歡大問題節目!這期AI自動駕駛的問題很值得思考。感覺現在沒有任何一個方案明顯更優,個人偏向支持擱置派。另外可以考慮其他新興科技的哲學相關問題和思考,例如區塊鏈(比特幣),元宇宙啊等等,常常聽這些題目技術上的問題和一些表面的倫理道德問題,很少從哲學方向思考這些新興科技
我比较赞同搁置派,但是同时我觉得除了让社会在事件中作为承担经济损失的结果以外,车主和厂商可以与受害人家属进行一种告慰仪式,类似葬礼或者医院看望,这也等同于双方都承担了责任,毕竟这个事情从根本上来讲是这两方的意志导致的不可避免的小概率结果。
作为程序员,这集的前提让我有点出戏:1.AI代码不是if/else,很可能不会有提前设计撞A还是撞B,而是由模型计算各种避险方案的概率。这个概率是由参赛决定的而不是程序员。训练模型当然有相当的影响,但不像写if/else那么直接。所以道德责任上没那么清晰。2.退一步讲,即使可以概括成类似撞A还是撞B的情形,厂商也可以做出参数设定由购车者决定而摆脱道德责任。市场营销上可以包装成积极避险型/消极避险型等等模凌两可的词来混淆。
@16yoseph79 自动驾驶汽车的最大受益者难道不是全社会么……理想情况下
這裡的道德責任不是在訓練後的結果如何,而是在訓練前應該如何定義evaluation function,AI的輸出結果雖然具有隨機性,但工程師在訓練階段就會決定AI的輸出傾向,以及在測試階段也可以判斷AI的輸出結果是否不符合道德預期而必須調整。
@@feeling38531 对的,就像数据可以有不同解释一样,ai的选择从不同角度的数据分析得到的结论也是截然不同的,而数据角度是提前由厂商设计好的
@@wenbozhao4325 广义上是的,但直接受益是厂商,减少交通事故之类的是所有人非直接受益
哲学的讨论必然包含一部分简化, 用来突出矛盾的本质, 我觉得无可厚非. 实际做参数的时候, 即便用更复杂的方式去训练模型, 你还是会面临一个你要优化什么的问题, 你是优化车主的幸存率呢, 还是路人的幸存率呢, 好吧你可以说你两者都考虑, 优化一个包含车主, 乘客, 路人, 乃至财产都全算进去的综合分数, 力求总伤害最小, 那你还是会面临不同参数给多少权重的问题...所以增加复杂性只是把罐子踢到下一个路口而已, 到时候还是要面对, 哪怕复杂了很多, 你还是会面对那个本质问题, 所以一开始就把它简化, 方便讨论, 我觉得无可厚非.
我支持搁置派,是未来自动驾驶最可能的解决方案,赔偿的来源可以和现在一样由车主每年交保费来解决。追究车主的责任完全不可能,完全自动驾驶,追究乘客责任就没有那个道理。厂商只要出场的汽车符合安全标准,能不断更新软件进行升级优化,也不应承担责任。总之,搁置派的方案是比较符合直接,也具有现实解决此问题的意义的。
只要保留由人駕駛汽車的設備就能簡單轉向停止.也就是即便有自動駕駛還是能由人駕駛,可以讓人轉向以及停止.就能簡單解決自動駕駛的判斷錯誤.現行技術就有防止自動駕駛判斷錯誤的設備.所以在更完善的自動駕駛出現前,由人監督就可以解決,自動駕駛的判斷錯誤.完全不需要有其他技術與考量,就能解決由純自動駕駛的錯誤.所以可以規則在車主身上,也就是不開放純自動駕駛.
像是台灣台中捷運的事故,只要保留人的停止功能,就能解決自動駕駛的問題
我说一下,我先假设一个前提,将来的车道上全都是无限接近完美的ai驾驶,如果车辆全都是AI驾驶,那基本不可能带责任的撞人,如果撞人必然是行人违规了。还有就是将来厂商都会提前买好ai驾驶的保险,只要使用ai驾驶造成的伤亡全都由厂商买的保险公司赔付。
这里讲解的不全是赔付问题。而是道德责任由谁来背,是否某一方要受到惩罚(金钱以外)的问题
@@dingzhong410 现在交通事故只要不能被证明主观违规和过错,也不需要坐牢。当然在中国司法实践是另一回事,一般是以重大损害后果追究。至于道德责任,任何时候都会有,没有AI也有这个问题。
請問既然是違規,那不是該由行人負責嗎?
我也認同 誰違規誰負責
大家有考虑过,当遇上被雷劈这种低概率的伤害事件时大家会去向天气,向云层,向上帝,向造物主去追究这些伤害的责任吗?那当自动驾驶与程序员的算法本就如上帝当年设计雷电设计洪水设计地震时一样,不存在故意伤害他人意图的话,我们真能就一起交通意外事件,去追究任何人的责任吗?
所有的學派都圍繞著一個主題: 告慰。如果對智慧AI賦予主體性依舊獲取不了人類的告慰,那必然又再度落入廠商派跟車主派的損益推辭及太極功裡,而不想落入這樣的太極活中又會進入擱置派的虛無空間裡。最後我要認同的是否決派裡的一小部分,也就是刑科的設立必須符合人類的道德直覺,一如您所說的為了效率而讓人活得不像人、活得擰巴,是對人的根本存在的閹割。至此,即將到來的無人駕駛技術是否值得推廣也進入重新審思的環節,也帶出了這種技術的成立是否代表每個國家都必須無條件接受?如果終將接受,那麼國家又能先行一步做到那些配套措施? 人車分流、規定賠償、人民意願簽屬、行人之究責、無人駕駛車輛硬體進一步改良(球狀外觀新型材料)、契約釐清、政府與車主與廠商的事故占比賠付額、甚至極端點全面落實無償付全民都可取得無人駕駛車輛但相對地人民必須無條件接受事故責任....方法繁多,但仍舊圍繞在告慰一事。這是一期具有前瞻性的哲思辯駁,我認為除了讓人們深思科技與意外的一體兩面風險,也提醒了人們面對未來科技我們真的做好觀念跟進了嗎? 便利性與危險性與人性的懶惰這三者的拉鋸永遠無法取得靜態平衡,而在這樣的權益爭奪動態中您有想過自己就是當事人了嗎? 身在江湖中若只想享受權益卻不履行責任義務那再多的掰扯都還只是停留在掰扯說教上,沉思不只證明自身存在過也映射出己身的分量,為有風險的益處博弈所押注的是身為人的價值。
您的注解令人深思。
1 否決派,早已有約定了,交通法就是,左胎盤右行車道的車,默認轉右,如果選擇規避左右時,默認選右
学到很多知识。感谢你们的工作。这么多年我第二个关注的频道
站搁置派,解决方案最符合新时代的道德直觉,车祸将变成近乎天灾的存在
這是一個選擇問題,要選擇技術進步,並且建立新的道德觀去適應新技術;或者選擇堅持精神價值不變,為此放棄物質進步。兩種選擇都有先例,人們也接受得很順暢,前者例如印刷術與資本主義的進步,需要建立新的著作權觀念,使得尊重他人著作權成為一種新的倫理。後者例如堅持人性尊嚴,不得不放棄某些生物科技的進步,例如克隆人。我們找不到一個倫理可以指導這兩種選擇,因為倫理本身是選擇的結果,而選擇的原因可能只是自然演化吧。
"搁置派"对我来说是个新思路,我觉得这个妥善解决了科技发展和道德伦理之间的问题。定统一的赔偿费率,还能规避当前交通事故后,车主可能无力赔偿的问题。我支持这个思路。科技是一定要发展的,不可阻挡
嗯。 责任: 估计会采取共同有限责任制,责任会由厂商,在车内的车主,和保险公司共同承担,根据事故发生时间段内的具体情况来判定各方负责多少。 危险情况的选择:估计会根据当地法律来设定程序。 比如没有紧急避险法的地方 肯定选择直接向前撞上去;有紧急避险法的地方就选择计算概率上比较不能避开的方向撞上去;如果概率一样, 这种可以在车主购车的时候就预先设定好紧急情况的选择偏好,如果车主不愿意设定就完全随机选择一个。 不知道这样的想法对不对。
自动驾驶程序应当设置为遵守交通规则,而不做任何道德判断。车撞人,在人和车之间,必然有违反交通规则的一方。如果人违反,车只要尽量刹车了,就不应该为相撞负责。如果车违反,厂商设计有问题那就厂商承担责任,如果车主未按要求维护导致失灵,则车主负责。
如果车和人都守规,还是相撞了,政府负责,并重新修订交通法规。
同意,當自動駕駛需要做出道德判斷,只代表道路設計有很大問題。
兩種情況 第一只要開車前乘客有按扭去啟動汽車 責任就歸乘客 (因為沒有乘客 該自動汽車是沒必要經過意外發生的地方) 而且乘客是可以選擇用或不用自動汽車第二種 最終目的的自動汽車系統是所有汽車一起建立 所以大部份意外都可以預先避免 而馬路就如火車的路軌一樣 闖入馬路那大部份責任就是行人
只要按鈕責任就歸乘客,那如果程式被人動過手腳,或本身機器就是有誤的話,那個乘客也太雖
有几个想法:有评论说是算自然灾害(我认为也算搁置派的一种),自然灾害自然可以设立保险和基金,但是遇到生命问题,还是需要设置规则保护哪方的生命倾向于算车主责任,同时立法规定有利于车主的条文如果是算汽车派,需要解决法律、赔偿(保险)还有人心的问题,某种意义上也像搁置派
真实的情况可能是自动驾驶汽车并不会违反交规。自动驾驶汽车能减少90%的事故,剩下的10%大部分是道路上的非自动驾驶汽车造成的。还有极小 一部分是纯纯的意外。自动驾驶汽车出了事,可能也得一事一议了。而且结果,可能大部分不是汽车的原因。保险可以给点人道主义赔偿。
如果是意外,很可能就是路设计的不合理。设计合理的路会给自动驾驶汽车足够的视野,在足够远的距离发现危险,并停下车。
@@longmask6277 不需要視野, 每輛車都是聯網的, 衛星天上看就可以了
@@diquark5431 路上除了车,还有石头,还狗和其它小动物。你说的只能在封闭道路上用,应用场景不多。
@16 Yoseph 车主是可以随时介入的,但是如果介入了,责任更不理不清了。毕竟人的介入可能是错误的。
@@lingchen9928 人类随时可以介入,这一点是肯定的。但是一旦人类介入了,责任就是操作者的。
在我看来,当涉及到汽车自动驾驶技术时,我认为除非存在明显的设计缺陷,否则应该由车主来承担突发物理惯性问题的责任。首先,作为消费者,我们有权选择购买不同品牌的汽车,因此我们应该为自己的选择负责。在市场经济中,消费者会选择对自己有利的产品,这有助于推动厂商竞争,促使其改进自动驾驶技术以提高产品质量。那些技术不足、口碑不好的厂商将会自然被市场淘汰,从而促使整个行业的技术水平不断提升。
通常是由产品提供者解决用户“焦虑”的问题。比如,购买和使用新能源车担心电池老化问题,蔚来就用换电池的方式解决了、当然消费者买单就是啦。自动驾驶的焦虑问题,还是由厂商(或驾驶软件提供者)单独或联合保险机构来解决。自动驾驶是系统工程,会循序渐进的、点对点、局部放开。
未来的可能性有很多种,有一种------路上行驶的车辆分在主人的角度分两类:私家车,共享车。 共享车的责任方由运营公司和车商协商,私家车的责任由车主承担。拥有私家车的车主对买保险并不在意,用金钱换私人空间。
我投搁置派,我也不认为搁置派就会消减行动者憾恨。如果真是L5自动驾驶,乘客和厂商在事故的责任上都极其有限。法律纠缠可能会在汽车保养,软件升级,产品设计等方面展开。
我觉得还是要回到算法的问题上,具体的事故具体定责,如果是行人的问题就行人负责,如果是算法导致了事故的发生那就让厂商负责,如果是乘客的干预导致的就让乘客负责。关键是事先要有一套完整的可追查的详细的日志系统去记录和追查,绝对不可能出现无事故责任的情况。搁置派的观点属于捡了芝麻丢了西瓜,为了解决一个人类社会中存在的一个具体应用,抛弃了做人的根本问题那就太得不偿失了,此例一开,道德滑坡会持续加剧
我觉得应该算厂商。厂商承担经济赔偿责任。但是厂商可以通过车价把这部分开销分摊到消费者头上。这样安全性高的汽车厂商支出的经济赔偿低,就可以低成本并提高价格竞争力。反过来刺激厂商提高车辆安全性。
确实,有些道德话题不是道学家们争论可以解决的。反而是靠经济学原理才能真正解决
其實不存在這樣討論的必要,解決方案。問題不在自動駕駛或者車,在基礎建設,直接把道路和人形道徹底隔離,類似於高速公路(不完全是),可以實現成本費用高而已,所以直接把問題拋給政府基建,倫理問題變成“政府罔顧人命,不願投入基建”
这个问题非常简单,事前考虑的程序里乘客李四一定是按照交通法在行驶,张三出现在车道上一定是意外或者违反交通规则。这种情况下直接开创,自动车必须优先保护顾客的生命权益。
我想這個問題可以分成兩種情況來討論,首先自動駕駛汽車最理想的情況應該是所有人都使用,如果這樣的話它的系統可以規劃所有車的行車路線,如此自然不會產生違規或是其他可能導致車禍的狀況,但是實際上如果沒有政府的法規限制,要求所有人都使用自動駕駛汽車似乎是不太可能的,因此或許會有一些人是使用自動駕駛汽車,而另一些人仍然選擇自己開車,在這種情況中,我認為可以比照寵物處理,如果一個人養的狗咬了人,飼主必須負責應該是符合道德直覺的判斷,因此我贊成車主負責,畢竟我們也不會怪收容所爲什麼讓我們領養了一隻會咬人的狗,我們做出這種選擇的同時就必須負擔可能的風險,當然前提是車商據實告知車子的情況,就好比收容所應該警告你這是一隻脾氣暴躁的狗,然後再由買家自行決定即可。
程式設計師對決否決派:那我不管優先級了,如果遇到兩難問題,我直接跑一個機率算法,骰骰子決定撞誰,交給老天爺決定,公平吧!
否决派的观点就是AI不应该被创造出来。所以不存在程序员写AI了。
機率算法還是會遇到道德困境,因為不可能在每個情況都使用機率算法,比方說:兩條路,第一條是一隻狗、第二條是人,總不可能也只用機率算法吧?機率算法的前提一定是先考慮"甚麼情況該使用機率算法?" 。但當遇到問題時,負責把關"是否使用機率算法?"的程式本身就是優先級再比方:100個路人 or 1個小孩 VS 1個死刑犯 or 病危垂死的人;此情況"該不該使用機率算法?"結果又是回到電車難題的死循環XD
如果有一名捉捕者把兩個人關起來然後要他們抽籤選一個去死,難道因為這個抽籤的過程是完全看機率的,就代表和捉捕者無關,完全看老天爺很公平嗎?雖然從物理學角度上汽車肯定有非常微少的機率會撞到人,但往往是廠商的設計和車主的指令加大了這個機率,例如車主要加速行駛或走繁忙道路,最終導致出現要「選擇撞甚麼」的情況,所以出現要「跑機率」的情況前,誰要為出現「跑機率」這情況負責的問題仍然存在。
和我想法一致。AI或者机器学习其实从技术层面看,本来就充斥着各种随机算法,所以很多时候大家提出的道德困境在AI看来并不存在,它就是根据权重概率进行选择,一定要问的话就是怎么确定各种权重了。只要定了权重,在AI看来就没有什么道德困境。。最后背锅的就是这个随机概率,而随机概率的主体是谁?我觉得是整个人类社会,所以比较合理的就是由国家或者社会进行公共赔偿。至于废除死刑,我其实没理解为啥功效就一定是好的。。而且不管是人或者动物或者植物其实从始至终从来就都是维持系统运行的组件,这个和科技其实并没有因果关系。。而行动者憾恨,怎么说呢,更多是一种主观感受吧。其实在L5自动驾驶车里,本来就没有司机一说,应该把每个人都理解为只是乘客。
@@delza-archipilot 誰說AI是隨機的= =,AI練完之後就是一個固定的模型了
不需要统一争论出哪一派观点对,而是根据每个具体案例来决定主要采取哪一种观点或者综合某几种观点更合理、更公平,由法官判决各方的刑事责任和经济责任。如有刑事责任则依法判刑;经济责任判决某方或几方赔付,不足部分由保险公司赔付,还不足则由政府托底。现有法律框架本身也有一定的弹性,也会逐步完善,到那个时候自然而然就会解决这些问题。
如果往前想這車的速度開太快的原因,是不是就能歸咎是演算法的問題.w.
为什么要研发自动驾驶? 这是个哲学问题。
1:自动驾驶汽车需尽到最大限度上减少伤亡的智力义务。若可以通过开放人工智能系统的运算过程等来证明,则免去刑事责任。2:所有车主购买自动驾驶汽车时强制购买事故保险,保险内容包括自动驾驶汽车发生事故致死伤时的赔款。如此将个人所承担的民事责任最小化。这样对各方都可以说是公平的。
我的道德直覺讓我傾向於擱置派,看來我被現代法律和科技‘過分’異化了。😂因為這如果要找廠商或者車主作負責人,那對廠商和車主都不見得公平,讓車做負責人很勉強,車只需要強化學習就好了,人工智能在實現了自動駕駛這一階段也還不至於具有道德主體性。那歸車不如擱置問題,放棄尋找所謂責任人,用合理的公攤方案做到受害者補償就算是優解了😂
同,看到视频第一反应就是这事儿大家都必须买保险,保险公司赔了,事情大了国际出面调解就完了😂
@16 Yoseph 等ai可以全自动了 估计也会留着方向盘什么的,保持车主介入的能力好给ai甩锅
@@doctort2853 但這個視頻討論的就是ai駕駛完全取代人類了的情況下,怎麼解決某些可能的道德困境啊。有那個能力還給人介入的權利顯然不合理,那樣代價太大,也沒充分利用到ai駕駛的優勢。
@@阮清瑗 是,就是说,如果当完全自主的ai出来以后,要是被判定为厂商的锅,可能厂商会装一个方向盘来甩锅
@@doctort2853 感覺不太會是這樣,也不太合理,應該會找個合理方案解決這個鍋,不是甩給某一方😂
如果這些選項沒有再有遺漏了,那麼接下來就是把這些選項交付公投,人民決定現階段想要活在哪一種生活背景。
我是擱置派的,但是要有個前提,就是自動駕駛可以藉由網路知道,我前面有一個人就像現在大部分人都有手機嘛,如果有一個東西像手機一樣,一直戴身上的,那樣AI不就能知道前面有人了
首赞 作为新能源厂商员工 应该认真学习😁
編寫如果我錯了就要擔責任受罰,AI會不會理解成如果我錯越多 系統就會更完善
如果行人突然出现而就算是人类驾驶也不能避免的话,那就是行人的责任。如果是能避免但还是撞上了,那就是设计缺陷,厂商就要负责。假如是车主指令要车高速行驶,而超过建议速度,那就是给予指令的人的责任;与此同时厂商一样需要付一部分责任,因为🚗不应该接受危险驾驶(超速)的指令。但是如果是车主本身篡改了厂商本来设计,责任自然在车主无疑
我個人是覺得,既然自動駕駛是自主選擇要開啟,那開啟前就應當考慮承擔極小概率的風險責任。就像今天我們在城市街區打棒球結果不小心打碎玻璃,總不能主張因為我們無法「預知」會打碎玻璃所以責任不在我方吧!在打之前就要承擔可能的風險,這樣權責才是對等的。
@16 Yoseph 我認為金融市場的銷售本身是合意行為,購買者本身可以自主選擇,且是否為得益者並不會與責任歸屬有衝突,最終選擇打開自動駕駛的是司機不是公司。公司可以以自動駕駛來獲利,可以當成宣傳的賣點,但其帶來的影響是要駕駛者自我承擔的(當然是公司也有義務要講明可能的風險)。今天有一款藥已經闡明了可能會造成某些副作用,而且不是本身品管問題,最終願意服藥的依然是自己,要承擔責任的固然也是自己(當然除非是本身有瑕疵的確廠商要負責)
@16 Yoseph 目前似乎也是這樣,車主只要干預方向盤、主動踩剎車油門,便會立即歸還駕駛權。
这个假设太过于草率,完全的自动驾驶的汽车肯定是根据交通规则来行驶的,那么突然出现的行人一定是违反交通规则的人,那这个人为什么会违反交通规则?自动驾驶时代的交通规则有谁去普及并监督执行,我想这应该由政府相关部门去做。那么出现这个问题应该由政府来承担责任,无关自动驾驶汽车的厂商和程序员,当然前提是自动驾驶汽车,并没有因为自身的错误导致事故。另外如果完全自动驾驶彻底普及,那么一定会有与之匹配的基础设施,例如一旦行人违反交通规则相应的指令,就会发送给驾驶中的汽车,甚至是通过更智能的方式,防止行人违反交通规则,做到防患于未然。我们不能片面的去看待智能驾驶。
看利润。车厂承担责任的成本大于增加销售带来的利润大于赔偿的成本,那就算车企的。当年福特(还是通用)汽车上明明知道安装十几美元的钢板可以减少死亡,但统计下来,安装铁板的成本远大于死亡赔偿金,所以他们选择不安装。
我是搁置派的這不等於發生意外後車主不去認真看待。只是社會不透過法律去制裁車主。但車主可以按照自己道德去照顧受傷者或者死者嘅家屬
算厂商,做法-但根据事故百分比预算赔付金额,再给卖的车加价,买车就是同意付这个“伦理道德税”,同时商家也会想减少这部分税来提升市场竞争力,于是改进技术,减小车的事故百分比。
遇到哲学问题,首先我们要问这究竟是不是一个问题,我认为,这是一个假问题。因为现有伦理和习惯完全能解决。首先算法,算法只可能分析各种概率,保护车主必须是第一优先,行人或者其它车突然出现在街道上,行人违规,当然要承担责任。刹车和躲避程序(保护车主前提下按照损失最小算法原则)肯定会启动的,只要正常启动了,无论车主厂商都不需要承担责任。如果不能正常启动,那当然厂商要承担部分责任。第二。不会出现分不清责任的情况,因为事故的减少,对每次伤亡事故由专家进行详细分析的社会成本已经可以承担,参照空难后的解决方案。目前这个分析任务是交给警察的,比较粗疏,但大家都能接受并分清责任,违规者承担责任,都违规共同承担责任,喝酒嗑药无条件承担责任。第三,不会出现厂商担心坐牢而导致自动驾驶技术自杀的情况,还是参照波音空客,非人为因素因技术缺陷导致的空难不在少数,只要没有主观故意,没有人坐牢,甚至赔偿都不需要自己支付,有保险公司。制造商只需要根据空难原因分析进行技术改进,最后民航飞机更安全了。第四,搁置派其实也不对,因为不需要搁置。
我想問大家有沒有一個察覺到一個現象,人們越來越喜歡拿角度不同,當作自己無能、技術不足的遮羞布我們假定一個情況一名廚師把應該要「煮熟」的菜煮到「半生不熟」,這種情況下廚師為自己辯護說(不煮熟會拉肚子,無關乎個人體質)廚師:我覺得我們都沒錯,只是角度不同廚師的論點是否能成立?不論你是處在廚師、客人的立場能寧接受這個結果,說一套做一套的不用跟我討論
@@威豪黃-q7f 你說這句話的時候就已經帶有既定立場而站在廚師的對立面了,為什麼這道菜「應該要」煮熟?廚師煎牛排給我阿公吃,我阿公認為肉就是要吃全熟的,廚師把「應該要」煎熟的肉煎的半生不熟,然後說廚師無能、技術不足,這很難讓廚師服氣吧。
@@feeling38531 行,那我換個說法1.這道菜應該要煮熟,否則會拉肚子(在台灣,本來大部分的料理都要煮熟,所以我一開始才沒有加這句)2.廚師純粹煮到不熟,沒有想嘗試甚麼高端的調理技法3.之所以預設廚師對立面,那我問你,東西煮不熟,吃了拉肚子,權益損害最大的是誰? 4.說一套做一套的,不用跟我討論,我自己會做菜,所以不論是站在誰的立場,我都不同意菜餚煮到給人吃會拉肚子
@@威豪黃-q7f 1. 拉肚子又怎麼了?早餐店大冰奶喝完一堆人拉肚子,生意還不是很好,就是有客人覺得東西好吃比較重要啊。2. 你怎麼知道廚師是不是為了食物美味而故意煮不熟的?而且說不定他用了很高端的調理方法,只是客人不知道而已,像我阿公就覺得握壽司只是把肉放在飯上面,哪有什麼難的。3. 廚師之前推出了煮熟但不好吃的餐點,結果生意很差,所以廚師為了避免失業,就要推出有客人願意付錢的餐點,而剛好好吃但會拉肚子的餐點就獲得一部分的客人喜歡,所以廚師就持續的推出這種餐點,而這時有一位怕拉肚子的客人來點餐,看到菜沒熟就生氣氣,說台灣大部份的料理都要煮熟,不然會拉肚子,廚師就說:「我覺得我們都沒錯,只是角度不同」,結果那位客人更生氣了,但如果那位客人強制廚師不能推出好吃拉肚子餐點而導致廚師失業,那廚師才是最大的受害者, 而且也會損害到其他喜歡好吃拉肚子餐點的客人權益,他如果真的不喜歡沒熟的菜,要嘛就不要去這家店消費,要嘛就點餐的時候註明要全熟。4.說一套做一套又怎麼了?叔本華還不是被說言行不一,而且會不會做菜跟要討論的議題無關吧?然後你說「不論站在誰的立場,我都不同意菜餚煮到給人吃會拉肚子」,阿這就是站在你的立場啊!這世界上很多人同意吃好吃但會拉肚子的菜餚喔!
@@feeling38531 很好,雙標仔不用跟我爭論,就已經跟你說『假定情況』還要再那邊挑刺
我是新的一派:被撞人自己負責派😅如果是ai駕駛,好端端的是不會撞上東西的,會撞上的肯定是突然冒出來的東西,例如有人亂過馬路。如果是這種情況我覺得ai唯一最好的算法就是緊急剎車,不要避,因為你一避,就引申無窮無盡的問題了:避了可能傷到其他無辜的人、傷到車內的人、其他車可能因為要避你又傷到其他人………唯有剎車對被撞的人,車內的人和其他車輛傷害最少。也不會牽涉到要選擇避誰撞誰的倫理問題。所以廠商可以公開這個算法給人知道,我只會剎車不會避哦,自己亂過馬路給撞死要自己負責。
定责认定是行人全责的情况,不管是不是自动驾驶,车厂/车主本来就没责任,我认为这种情况不在这条视频讨论的范畴。这里讨论的应该是当自动驾驶被认定有责任的时候,这个责任应该由谁来承担。毕竟程序也不会是完美的,现实中路况又千变万化,设定程序的时候不可能考虑到所有可能出现的情形。如果交通事故是因为没有识别出行人、信号灯等等,或者两辆自动驾驶汽车撞上了,那么责任谁来负呢?这才是需要好好讨论的地方
舉手同意並加入你這一派!個人還認為這樣反而能最大程度減少事故發生,因為人容易犯錯很大程度來自於一種「有人會替我負責啦」的僥倖心理,雖然人自己可能不會意識到。小孩子之所以那麼愛闖禍,就是因為他們確信會有大人為他們的行為負責,而當社會不再為冒失的人負責,人失去這種「底氣」,對交通規則(和各種規則)的違反也一定會少很多。畢竟「會死還要賠錢」的雙重虧本買賣會讓人本能的三思。
如果是个小孩呢,小孩子的脑子是没法完整理解社会规则的。过马路被撞死了怎么办
这要看自动驾驶的级别。四级以下,属于辅助驾驶,司机应该负责。如果系统故障,生产厂家应该负责。如果是5级自动驾驶,生产厂家应该负责。如果是第三方责任,不在此列。❤
等到第一次撞人事件發生後,各自為了自己的利益必定爭吵不休!干脆統一由保險公司理賠,賠償金額視車主的保險內容而定。
博主假设的是完美的AI驾驶,有无限接近100%的精准算法的,撞到人算谁责任。这个是对将来可能发生的,提前先假设一个最合理的法律规则。
我觉得可以比照工厂里机械设备产生的工伤事故,如果是在自动运行的机器上产生工伤,也不由操作员负责,可能就没有现场操作员,也不由设备厂家负责,总之责任主体还是工厂主,但需要透过保险来解决
這顯然是廠商的責任,只是要如何量化責任有問題
我属于算汽车派和算厂商派的折衷。我认为,人工智能可以算作半道德主体,也就是说,这个智能系统的设计者和这个人工智能属于“监护人-被监护人”的关系。汽车撞人应该参考和12岁小孩闯祸和精神病患者伤人来认定道德责任;而民事的经济赔偿可以通过技术手段解决(比如车主和厂商先前协定、政府、保险公司等)
最精彩的一期大問題
想請問 12:38 提到關於戰爭中的士兵大多不會真正朝敵人開槍的統計參考可以去哪找?
我有個解 並非出自哪一派每個自動駕駛車出售之後 需要定期支付"責任基金" 而責任基金中含有廠商&車主支付而出意外之後 由"制定好的法規"來裁定要從"責任基金"中支出多少"給被自動駕駛車撞傷的受害人"這樣一來意外都被大家支出的責任基金來承擔該意外的受損至於程序全由車主來進行
首先要看事故责任属于哪一方,如果属于车子这一方,那赔偿的责任归车主,但车主可以追索汽车制造商的责任,如果是因为汽车缺陷造成了事故的话!如果汽车没有缺陷,那算是意外事故,还是由车主负责,因为车主从汽车的使用中获益了。
我真的很服外国人钻牛角尖的精神!
用概率决定不好吗?比如人类A、B只能选其一的情况下,算法应当算出存活的概率、并且选择概率高的、概率持平(在同一区间)的情况下、则选择相对伤害最小的方式
我支持司机派,即司机应当承担责任. 因为人工驱动汽车和AI驾驶汽车的本质是一样的:司机(人)对汽车发起指令,汽车沿着道路运行,区别只是人工驾驶的指令是连续且繁多(转向,油门,刹车…),而自动驾驶人下达的指令只有“目的地”,或者路线。人工驾驶司机承担责任,因为司机是指令下达者,在自动驾驶时代当然谁下达指令驱动汽车,谁就应当撑伞责任。当然这个时候的司机不仅仅是汽车的拥有者,甚至公公租车的乘客也会成为“司机”。
可依駕駛調整自駕AI速度上限決定責任歸屬1、速度在低於某值時,緊急情況可以觸發暴力煞車系統,使車子損壞但能強制停車,低於這個值時還是出意外的話,駕駛無需負責任,因為照理能強行煞車,所以暴力煞車系統故障則是廠商責任。2、當速度高於某值時,超過暴力煞車系統能煞車範圍,則責任歸在車主上,因為車主把車子速度上限設置太高,需付一定風險責任。
要求车子必须有保险才能上路,让保险公司承担责任,比较合理。保险公司根据每家车子安全性设计保费
个人觉得自动驾驶的伦理问题其实不存在,如果自动驾驶可以被厂家定义为完全自动驾驶,那么它就不应该出现电车难题的问题,因为选择可以被软件无限的细分下去,如果撞人了那么就不能叫完全的自动驾驶,所以永远责任都在生产厂家。
我觉得在讨论前首先要将这个所谓的自动驾驶程度先做定义,就是车主能下达指令的程度,如果车主只能下达目的地指令又没对车辆进行任何修改,那么事故责任最大可能就是设计缺陷或者受害方违反交通规则。但如果车主可以高度介入自动驾驶或者自行修改过当然就是车主责任了。
很简单,在使用自动驾驶要想回答伦理问题由车主自行决定是优先保护车主还是优先保护其他人
用默认加选择退出的策略如何?不改配置由生产商和市政共同负责,但更改后则由车主负责。
個人覺得自動駕駛責任歸屬,首先基於汽車故障應當歸咎於廠商,但疏於保養應當歸於車主,而其他排除故障後的事故應當以是否出於自然人的行為進行責任判斷,但基於人道主義如果並不為自然人賠償則由政府負擔,以此為前提向自動駕駛使用者收稅,但也可以是以和廠商簽訂合約決定賠償比例。
當然個人心理道德方面,本人覺得無解,復仇心理在這尤為嚴重
在所有人都遵守交通規則的前提下根本不可能出現交通意外啊如果AI駕駛車撞到人就應當由違反交通規則的負責任車出故障就由廠商負責如果是車主沒做好保養/亂改車就由車主負責在AI和車主都沒做錯,行人亂沖紅燈被撞就只能自己負責當然這是建立在交通規則是完美的,只要所有人都遵守交通規則 就不會有車禍的前提下才成立的可能我遺漏了某些令前提不成立的情況也說不定
应当以某个业内AI机构设立一个赔偿基金,并且厂商以及AI制作方要参与。出事后责任算此AI机构的(不管过不过失),AI机构将研究并均有责任方进行制作方的审查以及索要额外费用。平常厂商则需交会费/登记/证明费用。不参与以及登记的厂商可以算是不达标,均不可将产品上市。结合各国家的交通管阀后,效果可能会更好。
再我的看法,责任该由主张者承担。若是我主张者,车主是凭着自己的自由选择而选择使用AI 驾驶。 那么车主就该承担失误杀人的风险以及后果,比如车主大可不必使用无人驾驶,直等到数据显示风险为0的时候再使用方可。若是制造公司以为人民最大效益化的理由,与政府协商,强迫人民必须使用无人驾驶,那么罪责就该归到所主张的政府以及生产汽车公司。归属论有个极大的危机,就是凡事物都可归属的危机。当人可以把主体性归属到凡复杂结构之事物之时,人将可能完全躲过任何追债。比如一个小偷偷了东西后,他可以说不是他的错,他偷东西的主要原因是因为嫉妒与羡慕富人能够以少工作时长便能得到更多的资源。因此小偷也采取一种以更短工作时常去得到不平等资源的方案,进行偷盗。而整个犯罪背后的问题是社会不平等资源非配的经融系统。这个经融系统的复杂性不必人工智能差,所以可以被赋予主体性,因此小偷能够完好无缺的退缩罪责,把罪责推给世界系统的错。而世界系统必须承担罪责,小偷各人便是完全无罪的。小偷的辩词就是加入世界的系统是完美的,人是不会生病的,没有贫富阶层,没有天生残疾等等的时候,他的偷窃之罪才能归到他身上,否则将应该由被赋予主体性的复杂之世界系统承担罪责。 这样说来,人类永远都可不必被归算为有罪了。 所以赋予主体性这说法不能成立。有主体性的事物是不需有推卸罪责的能力的事物,就不如人类。而复杂的 ai 与大环境的经融系统是不会推卸罪责的因此不能被定义为有主体性。
我是科技人,完全認同科技的發展對人類的貢獻❤重點在於產品尚未成熟就推出,這是不應該的😅就像疫苗一樣,應該進行三期臨床實驗後再推出,而非 EUA 後隨即推出😅以後無人駕駛車普及後,就不會看到駕駛員在無人駕駛車上,若該車撞死人,廠商應該負起法律責任才對😅我家以前安裝免治在衛浴馬桶,沒多久電子 IC 板就壞了,原因是因為衛浴濕氣,這就是產品尚為未成熟就推出的案例😢
我被說服了 真有道理
@@timmynimido2572 理想主义,怎么界定技术成不成熟?通信里的4G算成熟吗?但5G已经开始推行,6G已经开始研发了,技术和生活是很复杂的纠缠在一起的,不存在有什么技术完全成熟了才进入市场的,如果有,那一定是可有可无的产品,一定不是新技术产品。
@@roytube2499我不是這個意思 😁
@@roytube2499廠商早期宣稱疫苗可以防止感染 ,後來發現疫苗只可以降低重症機率, 病毒的傳播並沒有因為普羅大眾接種疫苗得到解決 😞
當然是看交規怎麼判定,如果高速行駛,那大概率這條路本身不允許行人隨便亂走,那麼行人被撞死顯然是行人自己的責任,汽車只要道義上進行了減速避讓即可。而車主顯然屬於無責方,自然不需要承擔責任。如果交規本身允許行人在高速道路上隨意行走,那就應該找道路管理部門負責,誰給的規則誰負責。然後如果交規本身不允許高速行駛,那車子能高速行駛要不就是網絡服務商對信息傳送存在問題,要不車廠本身設計有問題,要不車主改裝了汽車,那麼是哪一方讓車違規行駛,誰就負責。
感覺科技進步但使用的場所依舊是舊式的,那道路規則肯定也是舊式所以感覺比較像是物件跟場所沒有達到可以順暢運行的設計吧 不過確實民事和刑事紛爭確實是可很大的問題
一樣做車禍鑑定找出責任歸屬,如果是行人問題就行人負責,如果是駕駛人問題就駕駛人負責,如果是AI負責就讓廠商負責,則廠商可以保險
我认为电车难题是过度解读极端情形, 现实中不一定压主路的代价成本一定是最高的, 所以没有安全躲避方案可以无死伤办法的话, 那直接撞. 自动驾驶一定会有一套不断完善的验证测试作为出厂标准, 以提高它的安全性, 事故率可以量化, 那么自动驾驶产生的伤亡事故, 应该可以变成一类强制保险产品.
這其中很多顯然就是對自駕車一無所知的"雲哲學",機器學習的訓練過程首要就是給各種後果評分,只有分數最高的算法能存活比如算汽車派的反對者其論點與現在主流技術就完全矛盾而這個訓練的評分配點其實正好就是廠商派最好的論點:無論結果為何,都是廠商在進行訓練模型時模型設計的後果在這一點上與當今部分機械設計失誤造成比如煞車失靈的意外應由廠商承擔後果是完全相同的道理
請問訓練評分配點該怎麼給道德打個分數呢?舉例來說,你要餵車子訓練模型,剎車器故障時,該讓車主直直衝去死,還是冒著可能會撞死他人的風險緊急轉彎?左邊有一群幼兒園的小朋友,右邊有一群老人等等廠商該怎麼告訴機器哪個優先級更高?我想這個不是"雲哲學",而是需要公眾一起討論的議題喔:)
@@林大鈞-r4y本期問題是責任算誰的,而不是要撞誰,且自動駕駛無法判斷人命價值,優先任務是保護駕駛,所以會計算存活率最高的方式,不存在道德問題。
這個命題應該要有兩個前提1.自動駕駛遵循當地法規且無過失2.被撞者無任何蓄意或過失導致被撞如果前提成立,那就是道路或法規有問題、政府要背鍋,實際上自動駕駛一直是政治問題,因為自動駕駛會放大當地交通法規及道路問題不完善甚至有問題之處,本命題需要負責的只可能是政府、公司、被撞者,與司機毫無相干。
交通事故要解决的就是两个核心问题,无论是人类驾驶还是自动驾驶。责任界定和事后赔偿。这两个问题都有解决办法。路权可以解决责任界定问题,事故发生时候谁有路权谁就是无责一方。赔偿问题由保险制度来解决。
我覺得那應該將向自動駕駛汽車,收取責任稅費再將這些錢,在發生車禍時以補償的方式發給受害者。在全自動駕駛模式免除駕駛人責任。至於道德問題則用隨機計算模式做選擇。就不存在事先選擇的問題。再說舉的例子是有軌電車,汽車則可有其他的選擇,讓傷害降到最小。
本来想说挺赞成搁置派的,把事故当成是天灾就好了,该赔钱赔钱。但是这样会造成科技这个大系统使人异化的观点确实又说服了我。毕竟人造科技和天灾还是不一样的。
谁的过错就算谁的责任,如果自动驾驶设计不完美的前提下还把操纵权从车主手中拿走那就是厂商责任。如果行人不遵守交通规则那就是行人的责任。所有人都遵守了交通规则,事故还是发生了,那就是制定交通规则的部门的责任。
我有个疑问:有没有可能是受害者的责任?(就是有点被害者有罪论的意思)虽然这个问题说被撞者是无辜地,但是如果该技术被广泛应用的,它前提条件里应该有“遵守当地交通法规规定”也就是说按理无论是车主、厂家、车(ai)都不可违背交通法,谁犯法谁负责。如果三方都已经遵守了交通法,在这个前提下有没有可能那个路人就没那么无辜了呢?
我覺得是車主承擔責任,因為你明明知道它可能會撞人,但你依然選擇去買,那就是車主的錯了。但是如果你反駁説「可是你買普通汽車的時候你也會知道可能會撞到人啊?那是不是應該禁止汽車駕駛呢?」那我會回答「如果是普通汽車撞人了的話,那就是司機的疏忽所導致的(除非汽車有缺陷)而你購買AI自動駕駛汽車時,你知道會撞到人,但你執意去買,那就是你的錯,就是車主的錯,並且,獲得更多利益的是車主,你想一下,你因為AI而不用駕駛汽車,那肯定是車主利益更大了,還有的就是,你已經買了這個產品那麼這個物品就是你的東西,為什麼還要廠商幫你負責任,這不公平啊?所以我認為 如果Ai自動駕駛汽車撞人後应當是車主負責任。(我是一個升六年級的小學生喲,同意的點讚👍謝謝)
这问题很简单,公共管理机构应该先制定标准,把道路和车辆的人工智能交互硬件软件都做最优标准化,进行道路交通工业第三次革命(自马车和汽车以后).出事以后责任划分就可以和火车撞人的责任划分按相似的流程来认定了。
难道程序设置不能让制动驾驶汽车刹车?非要撞上路人吗?
不是撞上哪一个人 而是停止前行 激活临时emergency 灯 模式 及时停止汽车前行 换模式至人类驾驶了 我方认为还是 半AI 半人类自我控制车的行驶方向 拥有主动的控制权 才是人道的 做法 简而言之绝对不能纯完全 AI 模式 系统控制车子或任何器具和 交通运输工具 。
假设无人驾驶技术已非常成熟,撞死人的几率非常小,那么我们可以实行在买合约内容里究竟责任归谁。这也许在不同国度有不同做法,像美国可能会有选项,责任(赔偿)由车厂担当的车子会卖得较贵,车主选择责任归自己的话车价相对便宜等,共产或集权等国家,可能会要求车厂严格遵守赔偿责任,一如对面“同性恋合法性”在不同国家的不同做法,有争议性的事情总是有分化。总的来说,算汽车派太玄太前卫,大部分人应该很难接受,而搁置派我认为是之中就有道理的,虽然看起来有点不人性,但这是让特定科技向前走的一些代价。人的感受和道德无法量化,我们最终必须把责任集中在实际的赔偿上。另外,我同意人的伦理道德一直在发生变化,我们无法还去运用古罗马古希腊的伦理和刑法放到今天的法律,我们不难看到一些中东国家对古兰经的严格尊随的同时面对现代世界格格不入,这是“落伍”的必然后果。
很好的节目provoking critical thinking 我支持搁置派+厂商派:自动驾驶撞人后还是应该检视厂商的系统逻辑有没有出错 在所有系统都按预期运行时,就应该搁置责任让一个预先准备好的fund来赔偿就好了 (如果系统没有问题,事故其实很可能就是行人本身破环规则所造成的)
Fund就像強制險,若有保險公司願意以保險方式來承擔責任或損失,以換取更大的經濟價值,或許也是不錯的
那保險費用應該要由誰來付?如果由廠商付會不公平,因為廠商肯定會將成本攤給所有買家,那整天開車送貨的車子肯定會比整天待車庫的車子花費更多的理賠金。因為車主運用車子的頻率與方式會影響發生事故的機率,所以保險費用應該要由車主支付,出事故後就由保險公司賠償,而保險公司也可以依據各個車主的出事頻率調整保費。若車主在出事後被調高保費了,導致他的利益受損,但他覺得該事故應該由廠商負責,那此時車主可以向廠商提告究責,也就是說,事故的受害者向車主索賠,而車主可以評估是否向廠商索賠。如果車主不願意負擔車子可能出問題而必須花費時間提告廠商的風險,那車主可以選擇租賃車子,將風險轉嫁給租車公司。
@@feeling38531 既然都自動駕駛了,風險評估應該就不是這樣算到時候可能就是以當地國家的基礎設施完善度、意外發生的機率、其他用路人合規程度來決定,車主沒有介入車輛也就沒有運用車輛與否,除非是車主都不按廠商建議維護車輛導致系統失靈。
42:38 降维打击德云社
以法律的角度,自動駕駛肯定是車主負責如果是廠商負責,那還有哪間廠商要賣能自駕的車購買者本就該要有自己的判斷,不是全然都怪罪科技AI版的電車難題,程序員通常是會以車主生命為優先,繞道另一條路車主會死所以肯定會往前開可以設計AI隨機選擇,不一定要設定某種規則,讓命運介入參與
唉……看到 AI 不知道為什麼就想躲開 😢等我碩論 model train完再回來看 😂
很多以前从来没有想过的问题,居然都被你收集到了归总在这一起看,真是太了不起了。1号先生,我有个问题,想问你:在你的某一个节目当中,你有说过哲学家对幸福的定义要符合这三个条件。请问是哪一位哲学家说的?请问是哪三个条件?我都回去将你的10个节目都在看了一遍,想寻找出来是在哪一个节目里你这样说的,但是我怎么都找不到了。可是这个实在是太重要,太经典了,我在网上都搜不到这样的定义,请你可不可以告诉我是在哪一集?幸福需要符合哪三个定义?哲学家的英文名?非常感谢。
其實就跟船長與引水人的關係,雖然是後者在帶航,但仍然由船長負最終責任與最終操作權。K到碼頭依然抓船長去關
終於有AI題目了,先點讚再來看
自動駕駛也要買保險,由於自駕出意外出於不可控而非故意,最多賠錢,由保險公司來賠。
如果大街上走的都是联网的自动驾驶汽车,那么在行人不违反交通规则的时候是不可能撞死人的。所以到时候责任就是那个违反交通规则的人,所以汽车车主和厂商都不用负责。
个人感觉所以自动驾驶车主交个类似保险的车险出问题了从这个里面给非自动驾驶如果是自动驾驶碰撞自己驾驶赔不就好了嘛当然具体金额以实际情况决定
很簡單,如果在實際應用上已達到這樣的水平,之後發生了撞人的事故,就是一場「意外」,就比如電力很危險但又很有用,如果有人在家接觸電力死了,那算業主的問題、是電力公司問題,還是誰的問題?
可以透過網路讓後方車輛協同進行煞車嗎
大问题的节目让我带着一个问题来,带着N个问题走😂
激起思考!這就是我為什麼喜歡大問題❤
不覺得賺翻了嗎😂
@@方晴玫 我想問大家有沒有一個察覺到一個現象,人們越來越喜歡拿角度不同,當作自己無能、技術不足的遮羞布
我們假定一個情況
一名廚師把應該要「煮熟」的菜煮到「半生不熟」,這種情況下廚師為自己辯護說
廚師:我覺得我們都沒錯,只是角度不同
廚師的論點是否能成立?
@@Scany_Zero 我想問大家有沒有一個察覺到一個現象,人們越來越喜歡拿角度不同,當作自己無能、技術不足的遮羞布
我們假定一個情況
一名廚師把應該要「煮熟」的菜煮到「半生不熟」,這種情況下廚師為自己辯護說
廚師:我覺得我們都沒錯,只是角度不同
廚師的論點是否能成立?
@@威豪黃-q7f 你跟我高中同學同名同姓欸
搁置派的设想更像是医疗保险而不是现在的车险,就像人生病了并不是谁的过错,因为谁也不想没事去主动生病。也可以想象自动驾驶汽车的乘客不会想主动撞人,所以出了事应该由社会虽有参保人员一起承担后果。这听起来是个不错的建议
我很喜歡這種節目形式,認為提出批評的立場的基本是要有配套的解決方案,在公開討論的情況下,提出讓大眾思考解決問題的方案,能夠避免單方面否定的死局。單純否定提案而不提出自己的方法是非常不負責任的。
謝謝!
前提:
假设在车祸中,车企和车主均没有明显过错(比如车企重大设计失误或者车主违法改装)。
思路:如果自动驾驶发展到一定高度,事故率相比人类驾驶大大降低,自动驾驶事故是否也可以近似认为是一种 “自然灾害”。
具体方案:
用应对自然灾害的思路
1.让车企们成立某种保险基金,来平摊意外风险。
2.让车主们强制缴纳保险(类似交强险),来赔付和处理意外交通事故。
3.自动驾驶的逻辑应该有国家发布指导规范,比如受伤最小化原则(类似电车难题里,死1个强过死10个)。
就像是失火了一樣,如果不是故意縱火的話其實是沒有人需要負責任
成熟的自动驾驶时代是不需要追究谁的责任的(除非故意犯罪),到时候世界上可以有非常多的品牌的自动驾驶汽车,但是核心的涉及安全的部分全球应该只有少数几个供应商,而且这些供应商所提供的安全产品的性能是非常类似的,就像现在的CPU供应商。一旦出现交通事故,由保险公司来赔付就是了。
很喜歡大問題節目!這期AI自動駕駛的問題很值得思考。感覺現在沒有任何一個方案明顯更優,個人偏向支持擱置派。
另外可以考慮其他新興科技的哲學相關問題和思考,例如區塊鏈(比特幣),元宇宙啊等等,常常聽這些題目技術上的問題和一些表面的倫理道德問題,很少從哲學方向思考這些新興科技
我比较赞同搁置派,但是同时我觉得除了让社会在事件中作为承担经济损失的结果以外,车主和厂商可以与受害人家属进行一种告慰仪式,类似葬礼或者医院看望,这也等同于双方都承担了责任,毕竟这个事情从根本上来讲是这两方的意志导致的不可避免的小概率结果。
作为程序员,这集的前提让我有点出戏:1.AI代码不是if/else,很可能不会有提前设计撞A还是撞B,而是由模型计算各种避险方案的概率。这个概率是由参赛决定的而不是程序员。训练模型当然有相当的影响,但不像写if/else那么直接。所以道德责任上没那么清晰。2.退一步讲,即使可以概括成类似撞A还是撞B的情形,厂商也可以做出参数设定由购车者决定而摆脱道德责任。市场营销上可以包装成积极避险型/消极避险型等等模凌两可的词来混淆。
@16yoseph79 自动驾驶汽车的最大受益者难道不是全社会么……理想情况下
這裡的道德責任不是在訓練後的結果如何,而是在訓練前應該如何定義evaluation function,AI的輸出結果雖然具有隨機性,但工程師在訓練階段就會決定AI的輸出傾向,以及在測試階段也可以判斷AI的輸出結果是否不符合道德預期而必須調整。
@@feeling38531 对的,就像数据可以有不同解释一样,ai的选择从不同角度的数据分析得到的结论也是截然不同的,而数据角度是提前由厂商设计好的
@@wenbozhao4325 广义上是的,但直接受益是厂商,减少交通事故之类的是所有人非直接受益
哲学的讨论必然包含一部分简化, 用来突出矛盾的本质, 我觉得无可厚非. 实际做参数的时候, 即便用更复杂的方式去训练模型, 你还是会面临一个你要优化什么的问题, 你是优化车主的幸存率呢, 还是路人的幸存率呢, 好吧你可以说你两者都考虑, 优化一个包含车主, 乘客, 路人, 乃至财产都全算进去的综合分数, 力求总伤害最小, 那你还是会面临不同参数给多少权重的问题...所以增加复杂性只是把罐子踢到下一个路口而已, 到时候还是要面对, 哪怕复杂了很多, 你还是会面对那个本质问题, 所以一开始就把它简化, 方便讨论, 我觉得无可厚非.
我支持搁置派,是未来自动驾驶最可能的解决方案,赔偿的来源可以和现在一样由车主每年交保费来解决。追究车主的责任完全不可能,完全自动驾驶,追究乘客责任就没有那个道理。厂商只要出场的汽车符合安全标准,能不断更新软件进行升级优化,也不应承担责任。总之,搁置派的方案是比较符合直接,也具有现实解决此问题的意义的。
只要保留由人駕駛汽車的設備就能簡單轉向停止.也就是即便有自動駕駛還是能由人駕駛,可以讓人轉向以及停止.
就能簡單解決自動駕駛的判斷錯誤.
現行技術就有防止自動駕駛判斷錯誤的設備.
所以在更完善的自動駕駛出現前,由人監督就可以解決,自動駕駛的判斷錯誤.
完全不需要有其他技術與考量,就能解決由純自動駕駛的錯誤.
所以可以規則在車主身上,也就是不開放純自動駕駛.
像是台灣台中捷運的事故,只要保留人的停止功能,就能解決自動駕駛的問題
我说一下,我先假设一个前提,将来的车道上全都是无限接近完美的ai驾驶,如果车辆全都是AI驾驶,那基本不可能带责任的撞人,如果撞人必然是行人违规了。还有就是将来厂商都会提前买好ai驾驶的保险,只要使用ai驾驶造成的伤亡全都由厂商买的保险公司赔付。
这里讲解的不全是赔付问题。而是道德责任由谁来背,是否某一方要受到惩罚(金钱以外)的问题
@@dingzhong410 现在交通事故只要不能被证明主观违规和过错,也不需要坐牢。当然在中国司法实践是另一回事,一般是以重大损害后果追究。至于道德责任,任何时候都会有,没有AI也有这个问题。
請問既然是違規,那不是該由行人負責嗎?
我也認同 誰違規誰負責
大家有考虑过,当遇上被雷劈这种低概率的伤害事件时大家会去向天气,向云层,向上帝,向造物主去追究这些伤害的责任吗?
那当自动驾驶与程序员的算法本就如上帝当年设计雷电设计洪水设计地震时一样,不存在故意伤害他人意图的话,我们真能就一起交通意外事件,去追究任何人的责任吗?
所有的學派都圍繞著一個主題: 告慰。
如果對智慧AI賦予主體性依舊獲取不了人類的告慰,
那必然又再度落入廠商派跟車主派的損益推辭及太極功裡,
而不想落入這樣的太極活中又會進入擱置派的虛無空間裡。
最後我要認同的是否決派裡的一小部分,
也就是刑科的設立必須符合人類的道德直覺,
一如您所說的為了效率而讓人活得不像人、活得擰巴,是對人的根本存在的閹割。
至此,即將到來的無人駕駛技術是否值得推廣也進入重新審思的環節,
也帶出了這種技術的成立是否代表每個國家都必須無條件接受?
如果終將接受,那麼國家又能先行一步做到那些配套措施?
人車分流、規定賠償、人民意願簽屬、行人之究責、無人駕駛車輛硬體進一步改良(球狀外觀新型材料)、契約釐清、政府與車主與廠商的事故占比賠付額、甚至極端點全面落實無償付全民都可取得無人駕駛車輛但相對地人民必須無條件接受事故責任....方法繁多,但仍舊圍繞在告慰一事。
這是一期具有前瞻性的哲思辯駁,我認為除了讓人們深思科技與意外的一體兩面風險,
也提醒了人們面對未來科技我們真的做好觀念跟進了嗎?
便利性與危險性與人性的懶惰這三者的拉鋸永遠無法取得靜態平衡,
而在這樣的權益爭奪動態中您有想過自己就是當事人了嗎?
身在江湖中若只想享受權益卻不履行責任義務那再多的掰扯都還只是停留在掰扯說教上,
沉思不只證明自身存在過也映射出己身的分量,
為有風險的益處博弈所押注的是身為人的價值。
您的注解令人深思。
1 否決派,早已有約定了,交通法就是,左胎盤右行車道的車,默認轉右,如果選擇規避左右時,默認選右
学到很多知识。感谢你们的工作。这么多年我第二个关注的频道
站搁置派,解决方案最符合新时代的道德直觉,车祸将变成近乎天灾的存在
這是一個選擇問題,要選擇技術進步,並且建立新的道德觀去適應新技術;或者選擇堅持精神價值不變,為此放棄物質進步。
兩種選擇都有先例,人們也接受得很順暢,前者例如印刷術與資本主義的進步,需要建立新的著作權觀念,使得尊重他人著作權成為一種新的倫理。後者例如堅持人性尊嚴,不得不放棄某些生物科技的進步,例如克隆人。
我們找不到一個倫理可以指導這兩種選擇,因為倫理本身是選擇的結果,而選擇的原因可能只是自然演化吧。
"搁置派"对我来说是个新思路,我觉得这个妥善解决了科技发展和道德伦理之间的问题。定统一的赔偿费率,还能规避当前交通事故后,车主可能无力赔偿的问题。
我支持这个思路。
科技是一定要发展的,不可阻挡
嗯。 责任: 估计会采取共同有限责任制,责任会由厂商,在车内的车主,和保险公司共同承担,根据事故发生时间段内的具体情况来判定各方负责多少。
危险情况的选择:估计会根据当地法律来设定程序。 比如没有紧急避险法的地方 肯定选择直接向前撞上去;有紧急避险法的地方就选择计算概率上比较不能避开的方向撞上去;如果概率一样, 这种可以在车主购车的时候就预先设定好紧急情况的选择偏好,如果车主不愿意设定就完全随机选择一个。
不知道这样的想法对不对。
自动驾驶程序应当设置为遵守交通规则,而不做任何道德判断。车撞人,在人和车之间,必然有违反交通规则的一方。如果人违反,车只要尽量刹车了,就不应该为相撞负责。如果车违反,厂商设计有问题那就厂商承担责任,如果车主未按要求维护导致失灵,则车主负责。
如果车和人都守规,还是相撞了,政府负责,并重新修订交通法规。
同意,當自動駕駛需要做出道德判斷,只代表道路設計有很大問題。
兩種情況 第一只要開車前乘客有按扭去啟動汽車 責任就歸乘客 (因為沒有乘客 該自動汽車是沒必要經過意外發生的地方) 而且乘客是可以選擇用或不用自動汽車
第二種 最終目的的自動汽車系統是所有汽車一起建立 所以大部份意外都可以預先避免 而馬路就如火車的路軌一樣 闖入馬路那大部份責任就是行人
只要按鈕責任就歸乘客,那如果程式被人動過手腳,或本身機器就是有誤的話,那個乘客也太雖
有几个想法:
有评论说是算自然灾害(我认为也算搁置派的一种),自然灾害自然可以设立保险和基金,但是遇到生命问题,还是需要设置规则保护哪方的生命
倾向于算车主责任,同时立法规定有利于车主的条文
如果是算汽车派,需要解决法律、赔偿(保险)还有人心的问题,某种意义上也像搁置派
真实的情况可能是自动驾驶汽车并不会违反交规。自动驾驶汽车能减少90%的事故,剩下的10%大部分是道路上的非自动驾驶汽车造成的。还有极小 一部分是纯纯的意外。自动驾驶汽车出了事,可能也得一事一议了。而且结果,可能大部分不是汽车的原因。保险可以给点人道主义赔偿。
如果是意外,很可能就是路设计的不合理。设计合理的路会给自动驾驶汽车足够的视野,在足够远的距离发现危险,并停下车。
@@longmask6277 不需要視野, 每輛車都是聯網的, 衛星天上看就可以了
@@diquark5431 路上除了车,还有石头,还狗和其它小动物。你说的只能在封闭道路上用,应用场景不多。
@16 Yoseph 车主是可以随时介入的,但是如果介入了,责任更不理不清了。毕竟人的介入可能是错误的。
@@lingchen9928 人类随时可以介入,这一点是肯定的。但是一旦人类介入了,责任就是操作者的。
在我看来,当涉及到汽车自动驾驶技术时,我认为除非存在明显的设计缺陷,否则应该由车主来承担突发物理惯性问题的责任。
首先,作为消费者,我们有权选择购买不同品牌的汽车,因此我们应该为自己的选择负责。在市场经济中,消费者会选择对自己有利的产品,这有助于推动厂商竞争,促使其改进自动驾驶技术以提高产品质量。
那些技术不足、口碑不好的厂商将会自然被市场淘汰,从而促使整个行业的技术水平不断提升。
通常是由产品提供者解决用户“焦虑”的问题。比如,购买和使用新能源车担心电池老化问题,蔚来就用换电池的方式解决了、当然消费者买单就是啦。自动驾驶的焦虑问题,还是由厂商(或驾驶软件提供者)单独或联合保险机构来解决。自动驾驶是系统工程,会循序渐进的、点对点、局部放开。
未来的可能性有很多种,有一种------路上行驶的车辆分在主人的角度分两类:私家车,共享车。 共享车的责任方由运营公司和车商协商,私家车的责任由车主承担。拥有私家车的车主对买保险并不在意,用金钱换私人空间。
我投搁置派,我也不认为搁置派就会消减行动者憾恨。如果真是L5自动驾驶,乘客和厂商在事故的责任上都极其有限。法律纠缠可能会在汽车保养,软件升级,产品设计等方面展开。
我觉得还是要回到算法的问题上,具体的事故具体定责,如果是行人的问题就行人负责,如果是算法导致了事故的发生那就让厂商负责,如果是乘客的干预导致的就让乘客负责。关键是事先要有一套完整的可追查的详细的日志系统去记录和追查,绝对不可能出现无事故责任的情况。搁置派的观点属于捡了芝麻丢了西瓜,为了解决一个人类社会中存在的一个具体应用,抛弃了做人的根本问题那就太得不偿失了,此例一开,道德滑坡会持续加剧
我觉得应该算厂商。厂商承担经济赔偿责任。但是厂商可以通过车价把这部分开销分摊到消费者头上。
这样安全性高的汽车厂商支出的经济赔偿低,就可以低成本并提高价格竞争力。反过来刺激厂商提高车辆安全性。
确实,有些道德话题不是道学家们争论可以解决的。反而是靠经济学原理才能真正解决
其實不存在這樣討論的必要,解決方案。問題不在自動駕駛或者車,在基礎建設,直接把道路和人形道徹底隔離,類似於高速公路(不完全是),可以實現成本費用高而已,所以直接把問題拋給政府基建,倫理問題變成“政府罔顧人命,不願投入基建”
这个问题非常简单,事前考虑的程序里乘客李四一定是按照交通法在行驶,张三出现在车道上一定是意外或者违反交通规则。这种情况下直接开创,自动车必须优先保护顾客的生命权益。
我想這個問題可以分成兩種情況來討論,首先自動駕駛汽車最理想的情況應該是所有人都使用,如果這樣的話它的系統可以規劃所有車的行車路線,如此自然不會產生違規或是其他可能導致車禍的狀況,但是實際上如果沒有政府的法規限制,要求所有人都使用自動駕駛汽車似乎是不太可能的,因此或許會有一些人是使用自動駕駛汽車,而另一些人仍然選擇自己開車,在這種情況中,我認為可以比照寵物處理,如果一個人養的狗咬了人,飼主必須負責應該是符合道德直覺的判斷,因此我贊成車主負責,畢竟我們也不會怪收容所爲什麼讓我們領養了一隻會咬人的狗,我們做出這種選擇的同時就必須負擔可能的風險,當然前提是車商據實告知車子的情況,就好比收容所應該警告你這是一隻脾氣暴躁的狗,然後再由買家自行決定即可。
程式設計師對決否決派:那我不管優先級了,如果遇到兩難問題,我直接跑一個機率算法,骰骰子決定撞誰,交給老天爺決定,公平吧!
否决派的观点就是AI不应该被创造出来。所以不存在程序员写AI了。
機率算法還是會遇到道德困境,因為不可能在每個情況都使用機率算法,比方說:兩條路,第一條是一隻狗、第二條是人,總不可能也只用機率算法吧?機率算法的前提一定是先考慮"甚麼情況該使用機率算法?" 。但當遇到問題時,負責把關"是否使用機率算法?"的程式本身就是優先級
再比方:100個路人 or 1個小孩 VS 1個死刑犯 or 病危垂死的人;此情況"該不該使用機率算法?"
結果又是回到電車難題的死循環XD
如果有一名捉捕者把兩個人關起來然後要他們抽籤選一個去死,難道因為這個抽籤的過程是完全看機率的,就代表和捉捕者無關,完全看老天爺很公平嗎?
雖然從物理學角度上汽車肯定有非常微少的機率會撞到人,但往往是廠商的設計和車主的指令加大了這個機率,例如車主要加速行駛或走繁忙道路,最終導致出現要「選擇撞甚麼」的情況,所以出現要「跑機率」的情況前,誰要為出現「跑機率」這情況負責的問題仍然存在。
和我想法一致。AI或者机器学习其实从技术层面看,本来就充斥着各种随机算法,所以很多时候大家提出的道德困境在AI看来并不存在,它就是根据权重概率进行选择,一定要问的话就是怎么确定各种权重了。只要定了权重,在AI看来就没有什么道德困境。。最后背锅的就是这个随机概率,而随机概率的主体是谁?我觉得是整个人类社会,所以比较合理的就是由国家或者社会进行公共赔偿。至于废除死刑,我其实没理解为啥功效就一定是好的。。而且不管是人或者动物或者植物其实从始至终从来就都是维持系统运行的组件,这个和科技其实并没有因果关系。。而行动者憾恨,怎么说呢,更多是一种主观感受吧。其实在L5自动驾驶车里,本来就没有司机一说,应该把每个人都理解为只是乘客。
@@delza-archipilot 誰說AI是隨機的= =,AI練完之後就是一個固定的模型了
不需要统一争论出哪一派观点对,而是根据每个具体案例来决定主要采取哪一种观点或者综合某几种观点更合理、更公平,由法官判决各方的刑事责任和经济责任。如有刑事责任则依法判刑;经济责任判决某方或几方赔付,不足部分由保险公司赔付,还不足则由政府托底。现有法律框架本身也有一定的弹性,也会逐步完善,到那个时候自然而然就会解决这些问题。
如果往前想這車的速度開太快的原因,是不是就能歸咎是演算法的問題.w.
为什么要研发自动驾驶? 这是个哲学问题。
1:自动驾驶汽车需尽到最大限度上减少伤亡的智力义务。若可以通过开放人工智能系统的运算过程等来证明,则免去刑事责任。
2:所有车主购买自动驾驶汽车时强制购买事故保险,保险内容包括自动驾驶汽车发生事故致死伤时的赔款。如此将个人所承担的民事责任最小化。
这样对各方都可以说是公平的。
我的道德直覺讓我傾向於擱置派,看來我被現代法律和科技‘過分’異化了。😂因為這如果要找廠商或者車主作負責人,那對廠商和車主都不見得公平,讓車做負責人很勉強,車只需要強化學習就好了,人工智能在實現了自動駕駛這一階段也還不至於具有道德主體性。那歸車不如擱置問題,放棄尋找所謂責任人,用合理的公攤方案做到受害者補償就算是優解了😂
同,看到视频第一反应就是这事儿大家都必须买保险,保险公司赔了,事情大了国际出面调解就完了😂
@16 Yoseph 等ai可以全自动了 估计也会留着方向盘什么的,保持车主介入的能力好给ai甩锅
@@doctort2853 但這個視頻討論的就是ai駕駛完全取代人類了的情況下,怎麼解決某些可能的道德困境啊。有那個能力還給人介入的權利顯然不合理,那樣代價太大,也沒充分利用到ai駕駛的優勢。
@@阮清瑗 是,就是说,如果当完全自主的ai出来以后,要是被判定为厂商的锅,可能厂商会装一个方向盘来甩锅
@@doctort2853 感覺不太會是這樣,也不太合理,應該會找個合理方案解決這個鍋,不是甩給某一方😂
如果這些選項沒有再有遺漏了,那麼接下來就是把這些選項交付公投,人民決定現階段想要活在哪一種生活背景。
我是擱置派的,但是要有個前提,就是自動駕駛可以藉由網路知道,我前面有一個人
就像現在大部分人都有手機嘛,如果有一個東西像手機一樣,一直戴身上的,那樣AI不就能知道前面有人了
首赞 作为新能源厂商员工 应该认真学习😁
編寫如果我錯了就要擔責任受罰,AI會不會理解成如果我錯越多 系統就會更完善
如果行人突然出现而就算是人类驾驶也不能避免的话,那就是行人的责任。如果是能避免但还是撞上了,那就是设计缺陷,厂商就要负责。假如是车主指令要车高速行驶,而超过建议速度,那就是给予指令的人的责任;与此同时厂商一样需要付一部分责任,因为🚗不应该接受危险驾驶(超速)的指令。但是如果是车主本身篡改了厂商本来设计,责任自然在车主无疑
我個人是覺得,既然自動駕駛是自主選擇要開啟,那開啟前就應當考慮承擔極小概率的風險責任。就像今天我們在城市街區打棒球結果不小心打碎玻璃,總不能主張因為我們無法「預知」會打碎玻璃所以責任不在我方吧!在打之前就要承擔可能的風險,這樣權責才是對等的。
@16 Yoseph 我認為金融市場的銷售本身是合意行為,購買者本身可以自主選擇,且是否為得益者並不會與責任歸屬有衝突,最終選擇打開自動駕駛的是司機不是公司。
公司可以以自動駕駛來獲利,可以當成宣傳的賣點,但其帶來的影響是要駕駛者自我承擔的(當然是公司也有義務要講明可能的風險)。今天有一款藥已經闡明了可能會造成某些副作用,而且不是本身品管問題,最終願意服藥的依然是自己,要承擔責任的固然也是自己(當然除非是本身有瑕疵的確廠商要負責)
@16 Yoseph 目前似乎也是這樣,車主只要干預方向盤、主動踩剎車油門,便會立即歸還駕駛權。
这个假设太过于草率,完全的自动驾驶的汽车肯定是根据交通规则来行驶的,那么突然出现的行人一定是违反交通规则的人,那这个人为什么会违反交通规则?自动驾驶时代的交通规则有谁去普及并监督执行,我想这应该由政府相关部门去做。那么出现这个问题应该由政府来承担责任,无关自动驾驶汽车的厂商和程序员,当然前提是自动驾驶汽车,并没有因为自身的错误导致事故。另外如果完全自动驾驶彻底普及,那么一定会有与之匹配的基础设施,例如一旦行人违反交通规则相应的指令,就会发送给驾驶中的汽车,甚至是通过更智能的方式,防止行人违反交通规则,做到防患于未然。我们不能片面的去看待智能驾驶。
看利润。车厂承担责任的成本大于增加销售带来的利润大于赔偿的成本,那就算车企的。当年福特(还是通用)汽车上明明知道安装十几美元的钢板可以减少死亡,但统计下来,安装铁板的成本远大于死亡赔偿金,所以他们选择不安装。
我是搁置派的
這不等於發生意外後車主
不去認真看待。
只是社會不透過法律去制裁車主。
但車主可以按照自己道德
去照顧受傷者或者死者嘅家屬
算厂商,做法-但根据事故百分比预算赔付金额,再给卖的车加价,买车就是同意付这个“伦理道德税”,同时商家也会想减少这部分税来提升市场竞争力,于是改进技术,减小车的事故百分比。
遇到哲学问题,首先我们要问这究竟是不是一个问题,我认为,这是一个假问题。因为现有伦理和习惯完全能解决。
首先算法,算法只可能分析各种概率,保护车主必须是第一优先,行人或者其它车突然出现在街道上,行人违规,当然要承担责任。刹车和躲避程序(保护车主前提下按照损失最小算法原则)肯定会启动的,只要正常启动了,无论车主厂商都不需要承担责任。如果不能正常启动,那当然厂商要承担部分责任。
第二。不会出现分不清责任的情况,因为事故的减少,对每次伤亡事故由专家进行详细分析的社会成本已经可以承担,参照空难后的解决方案。目前这个分析任务是交给警察的,比较粗疏,但大家都能接受并分清责任,违规者承担责任,都违规共同承担责任,喝酒嗑药无条件承担责任。
第三,不会出现厂商担心坐牢而导致自动驾驶技术自杀的情况,还是参照波音空客,非人为因素因技术缺陷导致的空难不在少数,只要没有主观故意,没有人坐牢,甚至赔偿都不需要自己支付,有保险公司。制造商只需要根据空难原因分析进行技术改进,最后民航飞机更安全了。
第四,搁置派其实也不对,因为不需要搁置。
我想問大家有沒有一個察覺到一個現象,人們越來越喜歡拿角度不同,當作自己無能、技術不足的遮羞布
我們假定一個情況
一名廚師把應該要「煮熟」的菜煮到「半生不熟」,這種情況下廚師為自己辯護說(不煮熟會拉肚子,無關乎個人體質)
廚師:我覺得我們都沒錯,只是角度不同
廚師的論點是否能成立?
不論你是處在廚師、客人的立場能寧接受這個結果,說一套做一套的不用跟我討論
@@威豪黃-q7f 你說這句話的時候就已經帶有既定立場而站在廚師的對立面了,為什麼這道菜「應該要」煮熟?廚師煎牛排給我阿公吃,我阿公認為肉就是要吃全熟的,廚師把「應該要」煎熟的肉煎的半生不熟,然後說廚師無能、技術不足,這很難讓廚師服氣吧。
@@feeling38531 行,那我換個說法
1.這道菜應該要煮熟,否則會拉肚子(在台灣,本來大部分的料理都要煮熟,所以我一開始才沒有加這句)
2.廚師純粹煮到不熟,沒有想嘗試甚麼高端的調理技法
3.之所以預設廚師對立面,那我問你,東西煮不熟,吃了拉肚子,權益損害最大的是誰?
4.說一套做一套的,不用跟我討論,我自己會做菜,所以不論是站在誰的立場,我都不同意菜餚煮到給人吃會拉肚子
@@威豪黃-q7f
1. 拉肚子又怎麼了?早餐店大冰奶喝完一堆人拉肚子,生意還不是很好,就是有客人覺得東西好吃比較重要啊。
2. 你怎麼知道廚師是不是為了食物美味而故意煮不熟的?而且說不定他用了很高端的調理方法,只是客人不知道而已,像我阿公就覺得握壽司只是把肉放在飯上面,哪有什麼難的。
3. 廚師之前推出了煮熟但不好吃的餐點,結果生意很差,所以廚師為了避免失業,就要推出有客人願意付錢的餐點,而剛好好吃但會拉肚子的餐點就獲得一部分的客人喜歡,所以廚師就持續的推出這種餐點,而這時有一位怕拉肚子的客人來點餐,看到菜沒熟就生氣氣,說台灣大部份的料理都要煮熟,不然會拉肚子,廚師就說:「我覺得我們都沒錯,只是角度不同」,結果那位客人更生氣了,但如果那位客人強制廚師不能推出好吃拉肚子餐點而導致廚師失業,那廚師才是最大的受害者, 而且也會損害到其他喜歡好吃拉肚子餐點的客人權益,他如果真的不喜歡沒熟的菜,要嘛就不要去這家店消費,要嘛就點餐的時候註明要全熟。
4.說一套做一套又怎麼了?叔本華還不是被說言行不一,而且會不會做菜跟要討論的議題無關吧?然後你說「不論站在誰的立場,我都不同意菜餚煮到給人吃會拉肚子」,阿這就是站在你的立場啊!這世界上很多人同意吃好吃但會拉肚子的菜餚喔!
@@feeling38531 很好,雙標仔不用跟我爭論,就已經跟你說『假定情況』還要再那邊挑刺
我是新的一派:被撞人自己負責派😅
如果是ai駕駛,好端端的是不會撞上東西的,會撞上的肯定是突然冒出來的東西,例如有人亂過馬路。
如果是這種情況我覺得ai唯一最好的算法就是緊急剎車,不要避,因為你一避,就引申無窮無盡的問題了:避了可能傷到其他無辜的人、傷到車內的人、其他車可能因為要避你又傷到其他人………
唯有剎車對被撞的人,車內的人和其他車輛傷害最少。也不會牽涉到要選擇避誰撞誰的倫理問題。
所以廠商可以公開這個算法給人知道,我只會剎車不會避哦,自己亂過馬路給撞死要自己負責。
定责认定是行人全责的情况,不管是不是自动驾驶,车厂/车主本来就没责任,我认为这种情况不在这条视频讨论的范畴。这里讨论的应该是当自动驾驶被认定有责任的时候,这个责任应该由谁来承担。毕竟程序也不会是完美的,现实中路况又千变万化,设定程序的时候不可能考虑到所有可能出现的情形。如果交通事故是因为没有识别出行人、信号灯等等,或者两辆自动驾驶汽车撞上了,那么责任谁来负呢?这才是需要好好讨论的地方
舉手同意並加入你這一派!
個人還認為這樣反而能最大程度減少事故發生,因為人容易犯錯很大程度來自於一種「有人會替我負責啦」的僥倖心理,雖然人自己可能不會意識到。小孩子之所以那麼愛闖禍,就是因為他們確信會有大人為他們的行為負責,而當社會不再為冒失的人負責,人失去這種「底氣」,對交通規則(和各種規則)的違反也一定會少很多。畢竟「會死還要賠錢」的雙重虧本買賣會讓人本能的三思。
如果是个小孩呢,小孩子的脑子是没法完整理解社会规则的。过马路被撞死了怎么办
这要看自动驾驶的级别。四级以下,属于辅助驾驶,司机应该负责。如果系统故障,生产厂家应该负责。如果是5级自动驾驶,生产厂家应该负责。如果是第三方责任,不在此列。❤
等到第一次撞人事件發生後,各自為了自己的利益必定爭吵不休!干脆統一由保險公司理賠,賠償金額視車主的保險內容而定。
博主假设的是完美的AI驾驶,有无限接近100%的精准算法的,撞到人算谁责任。这个是对将来可能发生的,提前先假设一个最合理的法律规则。
我觉得可以比照工厂里机械设备产生的工伤事故,如果是在自动运行的机器上产生工伤,也不由操作员负责,可能就没有现场操作员,也不由设备厂家负责,总之责任主体还是工厂主,但需要透过保险来解决
這顯然是廠商的責任,只是要如何量化責任有問題
我属于算汽车派和算厂商派的折衷。我认为,人工智能可以算作半道德主体,也就是说,这个智能系统的设计者和这个人工智能属于“监护人-被监护人”的关系。汽车撞人应该参考和12岁小孩闯祸和精神病患者伤人来认定道德责任;而民事的经济赔偿可以通过技术手段解决(比如车主和厂商先前协定、政府、保险公司等)
最精彩的一期大問題
想請問 12:38 提到關於戰爭中的士兵大多不會真正朝敵人開槍的統計參考可以去哪找?
我有個解 並非出自哪一派
每個自動駕駛車出售之後 需要定期支付"責任基金" 而責任基金中含有廠商&車主支付
而出意外之後 由"制定好的法規"來裁定要從"責任基金"中支出多少"給被自動駕駛車撞傷的受害人"
這樣一來意外都被大家支出的責任基金來承擔該意外的受損
至於程序全由車主來進行
首先要看事故责任属于哪一方,如果属于车子这一方,那赔偿的责任归车主,但车主可以追索汽车制造商的责任,如果是因为汽车缺陷造成了事故的话!如果汽车没有缺陷,那算是意外事故,还是由车主负责,因为车主从汽车的使用中获益了。
我真的很服外国人钻牛角尖的精神!
用概率决定不好吗?比如人类A、B只能选其一的情况下,算法应当算出存活的概率、并且选择概率高的、概率持平(在同一区间)的情况下、则选择相对伤害最小的方式
我支持司机派,即司机应当承担责任. 因为人工驱动汽车和AI驾驶汽车的本质是一样的:司机(人)对汽车发起指令,汽车沿着道路运行,区别只是人工驾驶的指令是连续且繁多(转向,油门,刹车…),而自动驾驶人下达的指令只有“目的地”,或者路线。人工驾驶司机承担责任,因为司机是指令下达者,在自动驾驶时代当然谁下达指令驱动汽车,谁就应当撑伞责任。当然这个时候的司机不仅仅是汽车的拥有者,甚至公公租车的乘客也会成为“司机”。
可依駕駛調整自駕AI速度上限決定責任歸屬
1、速度在低於某值時,緊急情況可以觸發暴力煞車系統,使車子損壞但能強制停車,低於這個值時還是出意外的話,駕駛無需負責任,因為照理能強行煞車,所以暴力煞車系統故障則是廠商責任。
2、當速度高於某值時,超過暴力煞車系統能煞車範圍,則責任歸在車主上,因為車主把車子速度上限設置太高,需付一定風險責任。
要求车子必须有保险才能上路,让保险公司承担责任,比较合理。保险公司根据每家车子安全性设计保费
个人觉得自动驾驶的伦理问题其实不存在,如果自动驾驶可以被厂家定义为完全自动驾驶,那么它就不应该出现电车难题的问题,因为选择可以被软件无限的细分下去,如果撞人了那么就不能叫完全的自动驾驶,所以永远责任都在生产厂家。
我觉得在讨论前首先要将这个所谓的自动驾驶程度先做定义,就是车主能下达指令的程度,如果车主只能下达目的地指令又没对车辆进行任何修改,那么事故责任最大可能就是设计缺陷或者受害方违反交通规则。但如果车主可以高度介入自动驾驶或者自行修改过当然就是车主责任了。
很简单,在使用自动驾驶要想回答伦理问题由车主自行决定是优先保护车主还是优先保护其他人
用默认加选择退出的策略如何?不改配置由生产商和市政共同负责,但更改后则由车主负责。
個人覺得自動駕駛責任歸屬,首先基於汽車故障應當歸咎於廠商,但疏於保養應當歸於車主,而其他排除故障後的事故應當以是否出於自然人的行為進行責任判斷,但基於人道主義如果並不為自然人賠償則由政府負擔,以此為前提向自動駕駛使用者收稅,但也可以是以和廠商簽訂合約決定賠償比例。
當然個人心理道德方面,本人覺得無解,復仇心理在這尤為嚴重
在所有人都遵守交通規則的前提下
根本不可能出現交通意外啊
如果AI駕駛車撞到人
就應當由違反交通規則的負責任
車出故障就由廠商負責
如果是車主沒做好保養/亂改車就由車主負責
在AI和車主都沒做錯,行人亂沖紅燈被撞就只能自己負責
當然這是建立在交通規則是完美的,
只要所有人都遵守交通規則 就不會有車禍的前提下才成立的
可能我遺漏了某些令前提不成立的情況也說不定
应当以某个业内AI机构设立一个赔偿基金,并且厂商以及AI制作方要参与。出事后责任算此AI机构的(不管过不过失),AI机构将研究并均有责任方进行制作方的审查以及索要额外费用。平常厂商则需交会费/登记/证明费用。不参与以及登记的厂商可以算是不达标,均不可将产品上市。结合各国家的交通管阀后,效果可能会更好。
再我的看法,责任该由主张者承担。
若是我主张者,车主是凭着自己的自由选择而选择使用AI 驾驶。 那么车主就该承担失误杀人的风险以及后果,比如车主大可不必使用无人驾驶,直等到数据显示风险为0的时候再使用方可。
若是制造公司以为人民最大效益化的理由,与政府协商,强迫人民必须使用无人驾驶,那么罪责就该归到所主张的政府以及生产汽车公司。
归属论有个极大的危机,就是凡事物都可归属的危机。
当人可以把主体性归属到凡复杂结构之事物之时,人将可能完全躲过任何追债。
比如一个小偷偷了东西后,他可以说不是他的错,他偷东西的主要原因是因为嫉妒与羡慕富人能够以少工作时长便能得到更多的资源。因此小偷也采取一种以更短工作时常去得到不平等资源的方案,进行偷盗。
而整个犯罪背后的问题是社会不平等资源非配的经融系统。
这个经融系统的复杂性不必人工智能差,所以可以被赋予主体性,因此小偷能够完好无缺的退缩罪责,把罪责推给世界系统的错。而世界系统必须承担罪责,小偷各人便是完全无罪的。
小偷的辩词就是加入世界的系统是完美的,人是不会生病的,没有贫富阶层,没有天生残疾等等的时候,他的偷窃之罪才能归到他身上,否则将应该由被赋予主体性的复杂之世界系统承担罪责。
这样说来,人类永远都可不必被归算为有罪了。 所以赋予主体性这说法不能成立。有主体性的事物是不需有推卸罪责的能力的事物,就不如人类。
而复杂的 ai 与大环境的经融系统是不会推卸罪责的因此不能被定义为有主体性。
我是科技人,
完全認同科技
的發展對人類的貢獻❤
重點在於
產品尚未成熟就推出,
這是不應該的😅
就像疫苗一樣,應該進行
三期臨床實驗後再推出,而非 EUA 後隨即
推出
😅
以後無人駕駛車普及後,就
不會看到駕駛員在無人駕駛
車上,
若該車撞死人,廠商應該
負起法律責任
才對😅
我家以前安裝免治在衛浴馬桶,沒多久
電子 IC 板就
壞了,原因是
因為衛浴濕氣,這就是
產品尚為未成熟就推出的案例😢
我被說服了 真有道理
@@timmynimido2572 理想主义,怎么界定技术成不成熟?通信里的4G算成熟吗?但5G已经开始推行,6G已经开始研发了,技术和生活是很复杂的纠缠在一起的,不存在有什么技术完全成熟了才进入市场的,如果有,那一定是可有可无的产品,一定不是新技术产品。
@@roytube2499
我不是這個意思 😁
@@roytube2499
廠商早期宣稱疫苗可以防止感染 ,後來發現疫苗只可以降低重症機率, 病毒的傳播並沒有因為普羅大眾接種疫苗得到解決 😞
當然是看交規怎麼判定,如果高速行駛,那大概率這條路本身不允許行人隨便亂走,那麼行人被撞死顯然是行人自己的責任,汽車只要道義上進行了減速避讓即可。而車主顯然屬於無責方,自然不需要承擔責任。如果交規本身允許行人在高速道路上隨意行走,那就應該找道路管理部門負責,誰給的規則誰負責。然後如果交規本身不允許高速行駛,那車子能高速行駛要不就是網絡服務商對信息傳送存在問題,要不車廠本身設計有問題,要不車主改裝了汽車,那麼是哪一方讓車違規行駛,誰就負責。
感覺科技進步但使用的場所依舊是舊式的,那道路規則肯定也是舊式所以感覺比較像是物件跟場所沒有達到可以順暢運行的設計吧 不過確實民事和刑事紛爭確實是可很大的問題
一樣做車禍鑑定找出責任歸屬,如果是行人問題就行人負責,如果是駕駛人問題就駕駛人負責,如果是AI負責就讓廠商負責,則廠商可以保險
我认为电车难题是过度解读极端情形, 现实中不一定压主路的代价成本一定是最高的, 所以没有安全躲避方案可以无死伤办法的话, 那直接撞. 自动驾驶一定会有一套不断完善的验证测试作为出厂标准, 以提高它的安全性, 事故率可以量化, 那么自动驾驶产生的伤亡事故, 应该可以变成一类强制保险产品.
這其中很多顯然就是對自駕車一無所知的"雲哲學",機器學習的訓練過程首要就是給各種後果評分,只有分數最高的算法能存活
比如算汽車派的反對者其論點與現在主流技術就完全矛盾
而這個訓練的評分配點其實正好就是廠商派最好的論點:無論結果為何,都是廠商在進行訓練模型時模型設計的後果
在這一點上與當今部分機械設計失誤造成比如煞車失靈的意外應由廠商承擔後果是完全相同的道理
請問訓練評分配點該怎麼給道德打個分數呢?
舉例來說,你要餵車子訓練模型,剎車器故障時,該讓車主直直衝去死,還是冒著可能會撞死他人的風險緊急轉彎?左邊有一群幼兒園的小朋友,右邊有一群老人等等
廠商該怎麼告訴機器哪個優先級更高?我想這個不是"雲哲學",而是需要公眾一起討論的議題喔:)
@@林大鈞-r4y本期問題是責任算誰的,而不是要撞誰,且自動駕駛無法判斷人命價值,優先任務是保護駕駛,所以會計算存活率最高的方式,不存在道德問題。
這個命題應該要有兩個前提
1.自動駕駛遵循當地法規且無過失
2.被撞者無任何蓄意或過失導致被撞
如果前提成立,那就是道路或法規有問題、政府要背鍋,實際上自動駕駛一直是政治問題,因為自動駕駛會放大當地交通法規及道路問題不完善甚至有問題之處,本命題需要負責的只可能是政府、公司、被撞者,與司機毫無相干。
交通事故要解决的就是两个核心问题,无论是人类驾驶还是自动驾驶。责任界定和事后赔偿。这两个问题都有解决办法。路权可以解决责任界定问题,事故发生时候谁有路权谁就是无责一方。赔偿问题由保险制度来解决。
我覺得那應該將向自動駕駛汽車,收取責任稅費再將這些錢,在發生車禍時以補償的方式發給受害者。在全自動駕駛模式免除駕駛人責任。至於道德問題則用隨機計算模式做選擇。就不存在事先選擇的問題。再說舉的例子是有軌電車,汽車則可有其他的選擇,讓傷害降到最小。
本来想说挺赞成搁置派的,把事故当成是天灾就好了,该赔钱赔钱。但是这样会造成科技这个大系统使人异化的观点确实又说服了我。毕竟人造科技和天灾还是不一样的。
谁的过错就算谁的责任,如果自动驾驶设计不完美的前提下还把操纵权从车主手中拿走那就是厂商责任。如果行人不遵守交通规则那就是行人的责任。所有人都遵守了交通规则,事故还是发生了,那就是制定交通规则的部门的责任。
我有个疑问:有没有可能是受害者的责任?(就是有点被害者有罪论的意思)
虽然这个问题说被撞者是无辜地,但是如果该技术被广泛应用的,它前提条件里应该有“遵守当地交通法规规定”
也就是说按理无论是车主、厂家、车(ai)都不可违背交通法,谁犯法谁负责。如果三方都已经遵守了交通法,在这个前提下有没有可能那个路人就没那么无辜了呢?
我覺得是車主承擔責任,因為你明明知道它可能會撞人,但你依然選擇去買,那就是車主的錯了。但是如果你反駁説「可是你買普通汽車的時候你也會知道可能會撞到人啊?那是不是應該禁止汽車駕駛呢?」那我會回答「如果是普通汽車撞人了的話,那就是司機的疏忽所導致的(除非汽車有缺陷)而你購買AI自動駕駛汽車時,你知道會撞到人,但你執意去買,那就是你的錯,就是車主的錯,並且,獲得更多利益的是車主,你想一下,你因為AI而不用駕駛汽車,那肯定是車主利益更大了,還有的就是,你已經買了這個產品那麼這個物品就是你的東西,為什麼還要廠商幫你負責任,這不公平啊?所以我認為 如果Ai自動駕駛汽車撞人後应當是車主負責任。(我是一個升六年級的小學生喲,同意的點讚👍謝謝)
这问题很简单,公共管理机构应该先制定标准,把道路和车辆的人工智能交互硬件软件都做最优标准化,进行道路交通工业第三次革命(自马车和汽车以后).出事以后责任划分就可以和火车撞人的责任划分按相似的流程来认定了。
难道程序设置不能让制动驾驶汽车刹车?非要撞上路人吗?
不是撞上哪一个人 而是停止前行 激活临时emergency 灯 模式 及时停止汽车前行 换模式至人类驾驶了 我方认为还是 半AI 半人类自我控制车的行驶方向 拥有主动的控制权 才是人道的 做法 简而言之绝对不能纯完全 AI 模式 系统控制车子或任何器具和 交通运输工具 。
假设无人驾驶技术已非常成熟,撞死人的几率非常小,那么我们可以实行在买合约内容里究竟责任归谁。这也许在不同国度有不同做法,像美国可能会有选项,责任(赔偿)由车厂担当的车子会卖得较贵,车主选择责任归自己的话车价相对便宜等,共产或集权等国家,可能会要求车厂严格遵守赔偿责任,一如对面“同性恋合法性”在不同国家的不同做法,有争议性的事情总是有分化。总的来说,算汽车派太玄太前卫,大部分人应该很难接受,而搁置派我认为是之中就有道理的,虽然看起来有点不人性,但这是让特定科技向前走的一些代价。人的感受和道德无法量化,我们最终必须把责任集中在实际的赔偿上。另外,我同意人的伦理道德一直在发生变化,我们无法还去运用古罗马古希腊的伦理和刑法放到今天的法律,我们不难看到一些中东国家对古兰经的严格尊随的同时面对现代世界格格不入,这是“落伍”的必然后果。
很好的节目provoking critical thinking 我支持搁置派+厂商派:自动驾驶撞人后还是应该检视厂商的系统逻辑有没有出错 在所有系统都按预期运行时,就应该搁置责任让一个预先准备好的fund来赔偿就好了 (如果系统没有问题,事故其实很可能就是行人本身破环规则所造成的)
Fund就像強制險,若有保險公司願意以保險方式來承擔責任或損失,以換取更大的經濟價值,或許也是不錯的
那保險費用應該要由誰來付?如果由廠商付會不公平,因為廠商肯定會將成本攤給所有買家,那整天開車送貨的車子肯定會比整天待車庫的車子花費更多的理賠金。
因為車主運用車子的頻率與方式會影響發生事故的機率,所以保險費用應該要由車主支付,出事故後就由保險公司賠償,而保險公司也可以依據各個車主的出事頻率調整保費。
若車主在出事後被調高保費了,導致他的利益受損,但他覺得該事故應該由廠商負責,那此時車主可以向廠商提告究責,也就是說,事故的受害者向車主索賠,而車主可以評估是否向廠商索賠。
如果車主不願意負擔車子可能出問題而必須花費時間提告廠商的風險,那車主可以選擇租賃車子,將風險轉嫁給租車公司。
@@feeling38531 既然都自動駕駛了,風險評估應該就不是這樣算
到時候可能就是以當地國家的基礎設施完善度、意外發生的機率、其他用路人合規程度來決定,車主沒有介入車輛也就沒有運用車輛與否,除非是車主都不按廠商建議維護車輛導致系統失靈。
42:38 降维打击德云社
以法律的角度,自動駕駛肯定是車主負責
如果是廠商負責,那還有哪間廠商要賣能自駕的車
購買者本就該要有自己的判斷,不是全然都怪罪科技
AI版的電車難題,程序員通常是會以車主生命為優先,繞道另一條路車主會死
所以肯定會往前開
可以設計AI隨機選擇,不一定要設定某種規則,讓命運介入參與
唉……看到 AI 不知道為什麼就想躲開 😢
等我碩論 model train完再回來看 😂
很多以前从来没有想过的问题,居然都被你收集到了归总在这一起看,真是太了不起了。1号先生,我有个问题,想问你:在你的某一个节目当中,你有说过哲学家对幸福的定义要符合这三个条件。请问是哪一位哲学家说的?请问是哪三个条件?我都回去将你的10个节目都在看了一遍,想寻找出来是在哪一个节目里你这样说的,但是我怎么都找不到了。可是这个实在是太重要,太经典了,我在网上都搜不到这样的定义,请你可不可以告诉我是在哪一集?幸福需要符合哪三个定义?哲学家的英文名?非常感谢。
其實就跟船長與引水人的關係,雖然是後者在帶航,但仍然由船長負最終責任與最終操作權。K到碼頭依然抓船長去關
終於有AI題目了,先點讚再來看
自動駕駛也要買保險,由於自駕出意外出於不可控而非故意,最多賠錢,由保險公司來賠。
如果大街上走的都是联网的自动驾驶汽车,那么在行人不违反交通规则的时候是不可能撞死人的。所以到时候责任就是那个违反交通规则的人,所以汽车车主和厂商都不用负责。
个人感觉所以自动驾驶车主交个类似保险的车险出问题了从这个里面给非自动驾驶如果是自动驾驶碰撞自己驾驶赔不就好了嘛当然具体金额以实际情况决定
很簡單,如果在實際應用上已達到這樣的水平,之後發生了撞人的事故,就是一場「意外」,就比如電力很危險但又很有用,如果有人在家接觸電力死了,那算業主的問題、是電力公司問題,還是誰的問題?
可以透過網路讓後方車輛協同進行煞車嗎