無人駕駛汽車的道德困境:危險(xiǎn)時(shí)保護(hù)行人還是保護(hù)車主?
當(dāng)你的無人駕駛汽車在高速行進(jìn)中,前方突然出現(xiàn)一個(gè)橫過馬路的小孩。如果要避開他就必須要撞向兩邊的水泥墻,乘客受傷可能性極高。如果不避讓車輛一定會(huì)撞上小孩。
這種情況下,無人駕駛汽車系統(tǒng)會(huì)做出什么選擇?或者說,你希望無人車作出什么選擇?
據(jù) The Verge 報(bào)道,《Science》雜志最近做了一個(gè)無人駕駛汽車道德困境的社會(huì)調(diào)查,了解人們對無人駕駛汽車在事故中的行動(dòng)方式的態(tài)度。
調(diào)查結(jié)果顯示,受訪者認(rèn)為無人駕駛汽車車主應(yīng)該選擇最小化對他人的傷害,即使會(huì)致使自己受傷。但當(dāng)問及會(huì)選擇購買“車主保護(hù)優(yōu)先”還是“行人保護(hù)優(yōu)先”的無人駕駛汽車,受訪者更傾向于購買“車主保護(hù)優(yōu)先”的。

(圖自:inhabitat)
調(diào)查者之一、美國加州大學(xué)歐文分校的心理學(xué)副教授 Azime Chariff 認(rèn)為,著名的道德悖論“電車悖論”即將無數(shù)次在現(xiàn)實(shí)中上演。
電車悖論容是:一輛失控的電車前方有五個(gè)無法避開的行人,片刻后電車就要碾壓到他們。駕駛員可以拉一個(gè)拉桿,讓電車開到另一條軌道上,但另一個(gè)電車軌道上有一個(gè)無法避開電車的人。這種狀況下,駕駛員是否應(yīng)該拉拉桿?

(圖自:nybooks)
無人駕駛汽車系統(tǒng)的開發(fā)者,正是握有這個(gè)“拉桿”的人。在無人駕駛汽車面臨交通事故時(shí),它的回避動(dòng)作很可能決定乘客和行人的生死。而究竟讓誰的傷害最小化,車輛顯然是根據(jù)事先的系統(tǒng)設(shè)置行動(dòng)的。
盡管這是一個(gè)虛構(gòu)的場景,但也是無人駕駛技術(shù)在全面推廣之前無法回避的問題。

(圖自:wired)
從功利主義角度看,電車難題根本不算難題:犧牲 1 個(gè)人比犧牲 5 個(gè)人付出的數(shù)量上的代價(jià)要低。但結(jié)果上看,駕駛員拉拉桿的行為確實(shí)導(dǎo)致了另一條車道上那個(gè)無辜的人的死亡。而有了人為參與,就會(huì)有責(zé)任歸屬。
據(jù) Google 自動(dòng)駕駛項(xiàng)目公布的試乘結(jié)果,大部分的 Google 自動(dòng)駕駛汽車事故都是被追尾。在這個(gè)場景下,如果把無人駕駛汽車系統(tǒng)設(shè)置為“傷害人數(shù)最小化”的話,無人駕駛汽車可能會(huì)為了規(guī)避后方車輛而沖上人行道。

(圖自:datamanager)
去年圖盧茲經(jīng)濟(jì)學(xué)院的 Jean-Francois Bonnefon 與同事們也做過類似的調(diào)查。比起《Science》的社會(huì)調(diào)查,他們更重視對無人駕駛汽車開發(fā)者的調(diào)查。
令他們感到悲觀的是,他們發(fā)現(xiàn)開發(fā)者希望其他人坐在“行人保護(hù)優(yōu)先”的無人駕駛汽車中,而自己不會(huì)購買這樣的無人駕駛汽車。
無人駕駛汽車上路意味著我們把判斷權(quán)轉(zhuǎn)移給了計(jì)算機(jī)系統(tǒng),但道德責(zé)任和法律責(zé)任無法轉(zhuǎn)移。Chariff 希望人們能重視這個(gè)問題,在技術(shù)上和法律上能有更為明確清晰的標(biāo)準(zhǔn)。
不同于一般的電車悖論,無人駕駛汽車的道德困境的特別之處在于:它造成的結(jié)果,很可能一開始就被我們設(shè)置的指令決定了。