德國奧斯納布呂克大學認知科學研究所的研究人員,利用沉浸式虛擬現(xiàn)實技術,對人類駕車時作出的道德決策和行為做了一場實驗,并將研究結果發(fā)布在了《行為神經(jīng)科學前沿》雜志上。
研究人員將實驗情景設定在有霧的一天,實驗參與者模擬駕駛一輛汽車行駛在典型的郊區(qū)道路上,此時他們會遇到突然間出現(xiàn)的無生命物體、動物或者人類,他們必須要在這幾種對象之中選擇撞上哪個、躲避哪個。參與者的行為數(shù)據(jù)被統(tǒng)計模型獲取,并推導出一系列規(guī)則。這項研究表明,在不可避免的交通碰撞事故發(fā)生時,對于人類、動物或無生命物體的生命價值,人類是有倫理判斷的,而這些判斷能夠通過算法建立模型。
該論文的第一作者萊昂·蘇特菲爾德說,到目前為止,人們普遍認為,人類的道德決策往往是根據(jù)事發(fā)時情境來確定的,因此它不能用算法進行模擬或描述?!暗覀兊陌l(fā)現(xiàn)恰恰相反,在進退兩難的情境下,實驗參與者會依據(jù)對人類、動物或無生命物體生命價值的判斷來進行反應,根據(jù)人類這種生命價值觀,我們可以建立人類行為的模型,然后通過算法植入機器中。
目前,人們對于無人駕駛汽車和其他人工智能機器的行為仍有爭論,這項研究結果則會對這些爭論產(chǎn)生重要影響,尤其在發(fā)生不可避免的意外情況下。比如,德國聯(lián)邦交通運輸和數(shù)字基礎設施(BMVI)最近發(fā)布了20條與無人駕駛汽車相關的倫理原則。其中一條是,如果一個孩子突然沖到馬路上,為了躲避孩子,汽車就必須撞到人行道,但此時人行道上恰好有一個成年人。那么,無人駕駛汽車會選擇撞上孩子,因為他導致了這次重大風險,所以失去了得救的資格。但是否所有人都會做出這樣的選擇?
研究人員高登·皮帕說,既然現(xiàn)在已經(jīng)知道機器能作出類似人類的道德決策,那么趕緊對這些倫理問題進行討論是非常必要的。“我們需要討論,自動駕駛系統(tǒng)是否應該接受這種價值判斷,如果應該,它是否應該模仿人類的決策,又是否應該遵循人類的道德理論呢?如果答案是肯定的,那么萬一它的判斷出現(xiàn)錯誤,誰又應該負責任呢?”
“首先,我們需要決定是否將道德價值觀植入機器的行為準則中來。其次,如果植入的話,機器是否應該像人類一樣行事?”研究人員彼得·柯尼希解釋說。
研究人員表示,現(xiàn)在,無人駕駛汽車只是個開始,醫(yī)療機器人和其他人工智能設備正變得越來越普遍。他們警告說,人類現(xiàn)在處于一個新時代的開始,在這個時候,我們要制定明確的規(guī)則,否則機器將擺脫人類的束縛,自己作出決定。
更多資訊請關注PC BASED頻道