無人駕駛汽車的道德困境:危險時保護行人還是保護車主?

一年後再談無人駕駛汽車的道德困境:危險時保護行人還是保護車主?

一年前,就有人提出過這樣的問題:當你的無人駕駛汽車在高速行進中,前方突然出現一個橫過馬路的小孩。如果要避開他就必須要撞向兩邊的水泥牆,乘客受傷可能性極高。如果不避讓車輛一定會撞上小孩。這種情況下,無人駕駛汽車系統會做出什麼選擇?或者說,你希望無人車作出什麼選擇?

《Science》雜誌最近做了一個無人駕駛汽車道德困境的社會調查,瞭解人們對無人駕駛汽車在事故中的行動方式的態度。

調查結果顯示,受訪者認為無人駕駛汽車車主應該選擇最小化對他人的傷害,即使會致使自己受傷。但當問及會選擇購買「車主保護優先」還是「行人保護優先」的無人駕駛汽車,受訪者更傾向於購買「車主保護優先」的。

調查者之一、美國加州大學歐文分校的心理學副教授 Azime Chariff 認為,著名的道德悖論「電車悖論」即將無數次在現實中上演。

電車悖論的內容是:一輛失控的電車前方有五個無法避開的行人,片刻後電車就要碾壓到他們。駕駛員可以拉一個拉桿,讓電車開到另一條軌道上,但另一個電車軌道上有一個無法避開電車的人。這種狀況下,駕駛員是否應該拉拉桿?

無人駕駛汽車系統的開發者,正是握有這個「拉桿」的人。在無人駕駛汽車面臨交通事故時,它的迴避動作很可能決定乘客和行人的生死。而究竟讓誰的傷害最小化,車輛顯然是根據事先的系統設置行動的。

儘管這是一個虛構的情節,但也是無人駕駛技術在全面推廣之前無法迴避的問題。

從功利主義角度看,電車難題根本不算難題:犧牲 1 個人比犧牲 5 個人付出的數量上的代價要低。但結果上看,駕駛員拉拉桿的行為確實導致了另一條車道上那個無辜的人的死亡。而有了人為參與,就會有責任歸屬。

據 Google 自動駕駛計畫公佈的試乘結果,大部分的 Google 自動駕駛汽車事故都是被追撞。在這個場景下,如果把無人駕駛汽車系統設置為「傷害人數最小化」的話,無人駕駛汽車可能會為了規避後方車輛而沖上人行道。

去年圖盧茲經濟學院的 Jean-Francois Bonnefon 與同事們也做過類似的調查。比起《Science》的社會調查,他們更重視對無人駕駛汽車開發者的調查。

令他們感到悲觀的是,他們發現開發者希望其他人坐在「行人保護優先」的無人駕駛汽車中,而自己不會購買這樣的無人駕駛汽車。

無人駕駛汽車上路意味著我們把判斷權轉移給了計算機系統,但道德責任和法律責任無法轉移。Chariff 希望人們能重視這個問題,在技術上和法律上能有更為明確清晰的標準。

不同於一般的電車悖論,無人駕駛汽車的道德困境的特別之處在於:它造成的結果,很可能一開始就被我們設置的指令決定了。


危險時保護行人還是保護車主?think當然是兩個都要保護!可以用「大型車外氣囊」 +「大型車內氣囊」一次保護兩個!tongue-out 

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏
Forums  ›  新聞話題  ›  生活