當自動駕駛汽車面臨道德問題,它會如何選擇?
合作媒體-愛范兒/作者:積木
鍾佩慈/編譯 2017-11-13 17:15

透過電腦模擬,創意科技家Matthieu Cherubini提出了類似「火車難題」的倫理學問題:一個孕婦乘坐在自動駕駛汽車上,14歲的女孩騎著自行車迎面而來,突然,一輛卡車橫穿到自動駕駛汽車前面。這時候,自動駕駛汽車將如何選擇?

 

Cherubini認為,汽車的決策可以基於三個原則:一個是「保護主義」原則,汽車的首要任務是保護乘客安全,這與自動駕駛汽車製造商目前的做法類似;第二個是「人文主義」原則,汽車設法去拯救最多的人;第三個是「利益優先」原則,汽車將保護最有價值的財產。

 

 

在「保護主義」原則下,自動駕駛汽車應該會撞上騎自行車的女孩,因為孕婦的生命更為重要;在「人文主義」原則下,自動駕駛汽車應該會撞向卡車,因為孕婦雖然會流產,但騎自行車的女孩卻有死亡的風險;在「利益優先」原則下,自動駕駛汽車會認為,無論是哪種選擇,乘客的損失都會超過保險所得,但是,由於與卡車相撞的機率更小,它會選擇撞騎自行車的人。

 

Cherubibi模擬的情境中,人的生命總是受到威脅,自動駕駛汽車需要決定誰能活下來,誰會死去。他想要提醒人們,道德決策是極為複雜的問題,很難簡化為一種算法。當Cherubini開始研究自動駕駛汽車的道德問題時,他相信,機器道德不可能超越人類道德。但是,隨著研究的深入,他開始重新思考,「如果你要思考機器道德,你首先必須先思考自身的道德。我真的有比機器更好嗎?」他對《Fastcodesign》網站說。

 

 

那麼,Cherubini希望自動駕駛汽車採取何種算法呢?「當然,我想說自己是人文主義者。但在內心深處,我只希望得到保護,獲得安全。」

 

因此,他並不想給汽車製造商推薦任何一個算法。「如果一輛汽車在德國製造,符合德國的國情和文化,然後,它被進口到了中國。那麼,這輛車或許會無法適應中國的國情,」他說,「不同文化擁有不同的道德觀。」

 

如果汽車擁有者可以選擇算法呢?那仍然是有缺陷的。因為,在那種情況下,每個人的生命變成得依賴於他人的道德選擇。最後,Cherubini提出了一個新方案,「自動駕駛汽車不需要作決定——而是隨機行動,」他說,「我們現在就是這樣。我們不去思考撞這個人還是那個人——我們驚慌失措了。你不需要確定其他人的價值,認為某人更應該受到傷害。」

 

(圖文授權自愛范兒)