應該怎麼選?自動駕駛車的「道德困境」
鄭寧
2016-12-06 17:00

隨著科技不斷進步,近年也有越來越多企業致力研究「自動駕駛」技術,日前蘋果公司也證實正在研發無人駕駛的技術。然而,雖然自動駕駛技術堪稱使人們更加安全,甚至能改善道路壅塞的現象,但伴隨而來的問題卻不如想像中容易解決。

 

自動駕駛汽車該如何選擇?

 

當自動駕駛汽車發生了不可避免的事故時,雖然自動駕駛會依據演算法的調整而下決策,但最關鍵的道德倫理的抉擇卻很難算出標準答案;自動駕駛究竟該保護「行人」,還是保護「乘客」?

 

儘管研發廠商承諾盡量保證雙方安全,在事故發生前就會立即煞車,但若真出現了僅能選擇一方的緊急狀況,「道德困境」也就成了技術無法解決的難題。

 

Google工程師就曾指出,雖然電腦會因不知道如何做出選擇而以「降低車速」來試圖避免意外發生,但該做法絕非最佳答案,畢竟在可能發生各種狀況的行駛過程中,僅透過煞車來處理緊急狀況顯然是不足的。

 

 

而據《中時電子報》報導,日前一項最新研究統計發現,接受調查的人當中,有76%的人認為即使可能會犧牲車內乘客,自動駕駛車仍應優先保護行人,這樣才是符合道德的。但調查也發現,若法規決定強制保護行人時,他們原先的購買意願也會比起沒有強制法規時來的低;顯示道德與技術間的矛盾仍待解決。

 

當人們交出汽車的控制權,「道德困境」也成了研發自動駕駛技術時必然會面對的挑戰,若要徹底解決,看來還須經過長時間反覆的測試研究,讓電腦不斷學習,最後才能運用在自動駕駛技術上。

 

 

(圖片皆為示意圖/來源為維基百科、Pixabay)