自動駕駛汽車的「道德困境」

「意外發生時,自動駕駛汽車要撞向10個路人好,還是讓車主自己陷入危險的道德困境」是個假議題:如果你是車主,有另外一位人類司機幫你開車,在碰到同樣的狀況時,司機會面臨怎麼樣的「道德」問題、該如何做出符合「道德」的決定?

據說,自動駕駛汽車能使我們更加安全,因為人類是最危險的駕駛者。……當不可避免的事故即將發生,自動駕駛汽車應該做出怎樣的選擇?為了讓傷亡最小化,它應該犧牲車裡的乘客,還是盡全力保護他們?

──自动驾驶汽车的道德困境:它是否可以杀死自己的主人? | 爱范儿

或者讓我們來換個方式問幾個問題:

  • 如果你搭的是公車,在碰到相同的問題時,該如何瞬間做出決定?
  • 無論做出什麼樣的決定,最後負責的人是誰?
  • 如果是人類駕駛開車,會有「是否可以殺死自己的主人」的道德困境嗎?

附註:如果我們把自動駕駛汽車視為一種「機器人」,那麼還有已經被廣泛接受的「機器人三原則」可以參考。當然,如果你不同意這三原則也是可以的,但問題就會更複雜了。

這個命題與其說是「道德困境」,不如說是強迫讀者認為這是個道德困境的文字遊戲。

如果把題目改寫成這樣:

「在緊急狀況下,(人類)司機是否有權做出可能讓雇主(或路人)受傷的決定?」,

……可能意思就更清楚了。

如果是後者,你一定會問:

  • 什麼是緊急?
  • 什麼是傷害?
  • 司機有多少授權?
  • 司機決定之後需要負責嗎?

……之類的問題。是的,狀況太複雜,並不是我們可以隔空抓藥、或者只有是與否兩個答案的問題。

技術上來說,兩者之間唯一的差異是設計自動駕駛車輛的科學家通常不會在事故現場、通常也不必對結果負責,除非事故鑑定之後發現是設計上的明顯瑕疵。

以「殺死10個人,或是犧牲車主自己」這個極度簡化、不是車主自己開車、而且沒有第三個選擇的假設狀況而言,如果是由人類司機開車,只要司機自己沒死,無論做哪個決定,都必須面對道德和法律的責難。

但顯然自動駕駛汽車這個「機器人」是不必、也無法負責的。

至於科學家,只要不是明顯的設計瑕疵(以下都使用這個假設),因為路況瞬息萬變、難以預測,有太多的正當理由可以不必對結果負責。

而且放心好了,每一家做自動駕駛汽車的公司一定都會準備好滴水不漏的免責條款、以及「在緊急時必須由車主自行人力操控(override)並做出決定」的聲明和行車機制。

(你的電腦因為Excel當掉而損失數十億,電腦公司、硬碟或記憶體製造商、還有微軟也不會賠償你的損失吧。XD)

事實上,除非在理論上完美的情況下(例如車子在禁止行人進入的軌道上行駛、配備自動煞車和偵測功能、並且有行車控制中心監管──基本上就是捷運了),汽車公司也有必要制定這樣的自我保護條款、以及緊急時由車主強制接手並負責的機制。

這樣的機制並不全是為了保護汽車公司、也不全是為了保護車主,而是為了保護在自動駕駛功能「威脅」之下的用路人。

如果不是這樣,這整個產業可能遲早會因為幾次嚴重意外事故而遭到重新檢討、甚至一蹶不振。

也就是說,用「讓10個路人還是車主傷亡」這個單一假設狀況來討論,並不能看見自動駕駛問題的全貌、而且也絕對不是道德問題;而是在不完美的路況下,同樣也不可能完美的自動駕駛運算機制該如何做決定,而幾然兩者都不完美,那麼人類是否值得把自己的生命交付給它?

與其用虛幻的、而且可能沒有結果的「道德困境」去詰責自動駕駛汽車,還不如思考如何創造一個適合自動駕駛的道路架構。如果現今的路況不完美、自動駕駛機制也難以完美,至少得先從其中之一開始吧?

或者把鏡頭拉近一點來看,在這個極度簡化的假設下,最後的結果無論是什麼,究竟誰能、誰會負責?

Facebook回應