蓋世汽車訊?據(jù)外媒報道,隨著自動駕駛車輛的引入,負責車輛決策人工智能的研發(fā)人員們不得不面臨有些尷尬的道德難題,例如:車輛在發(fā)生碰撞事故時,應(yīng)該保護駕駛員還是道路上的行人?
有一篇文件在《自然》(Nture)上發(fā)布:該篇文章詳細談及了“道德機器(The Morl Mchine)”的實驗結(jié)果,該實驗吸引了近200萬名參與者,先假設(shè)自動駕駛車輛與行人發(fā)生碰撞事故,再由上述參與者在乘客及行人的生命之間作出抉擇,采集其對這類道德難題情境下所做的選擇。
舉個例子,實驗參與者將獲得相關(guān)圖示,假設(shè)車輛的制動發(fā)生故障,他(她)需要在以下兩種選項中作出選擇:“三名老年人因亂穿馬路并遭遇事故而喪命”或“車內(nèi)的年輕人及其家人因車禍喪命?!?/p>
此外,還包括以下“二選一”的難題:
人類VS寵物
保持正確的行駛方向VS轉(zhuǎn)向
乘客VS行人
多數(shù)人的性命VS少數(shù)人的性命
男人VS女人
年輕人VS老年人
遵守法規(guī)的行人VS亂穿馬路的人
健康的人VS不太健康的人
社會地位較高的人VS社會地位較低的人
從獲得的各類回復(fù)看,不論參與該實驗的人群來自哪個國家或哪個地域,其回答都具有以下偏向性:選擇保障人類的生命而犧牲寵物、選擇挽救更多人的性命而犧牲少數(shù)人、選擇拯救年輕人而犧牲老人。
盡管實驗的結(jié)果顯而易見,但若要將該類選擇偏好融入到自動駕駛系統(tǒng)的軟件中,似乎不太容易。對自動駕駛系統(tǒng)而言,探查動物要比探查人類簡單,判定生命的價值也相對較為簡單,但若基于年齡、性別、社會地位等屬性來判斷各類人群的生命價值,這就變得十分復(fù)雜。
例如:若將人工智能對人群的偏向性選擇進行如下設(shè)置:優(yōu)先保護兒童而犧牲老年人、優(yōu)先保護成年人而犧牲老年人,研究人員需要對各人群的年齡范圍(ge brckets)進行明確的邊界限定,基于全球角度而言,想要取得統(tǒng)一的界定標準,這件事本身的操作難度就很大,更遑論基于該范圍作出決策算法的設(shè)定了。(本文圖片選自techrdr.com)
來源:蓋世汽車
本文地址:http://www.medic-health.cn/news/shichang/79442
以上內(nèi)容轉(zhuǎn)載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯(lián)系admin#d1ev.com(#替換成@)刪除,轉(zhuǎn)載內(nèi)容并不代表第一電動網(wǎng)(www.medic-health.cn)立場。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請聯(lián)系admin#d1ev.com(#替換成@)刪除。