人們有時會遇到道德困境,從而不得不面對兩難選擇。在人工智能越來越發達的今天,機器也會遇到同樣的問題。

無人駕駛汽車如何應對道德困境 谷歌也沒有答案

據CNET報道,谷歌工程總監Ray Kurzweil最近在奇點大學(Singularity University)演講時表示,關于無人駕駛汽車在面臨道德困境時如何做選擇,這個問題目前沒有答案。

人們有時會遇到道德困境,從而不得不面對兩難選擇。在人工智能越來越發達的今天,機器也會遇到同樣的問題。

最近,Uber在美國賓夕法尼亞州匹茲堡推出無人駕駛汽車,這是一個令人興奮的消息。

但是,如果無人駕駛汽車面臨一種道德困境,它會如何選擇,設計者是否已經為它們設計好了應對方式?

例如,假使無人駕駛汽車快要撞上另一輛汽車,那輛車里坐著三個人。它可以轉彎閃開,但這樣它就會撞上人行道上的三個孩子。

它會如何選擇?

巧合的是,谷歌的工程總監 Ray Kurzweil本周在奇點大學演講時為這個問題提供了一個答案:我們不知道。

Ray Kurzweil解釋說,“不可殺人”的戒律過于簡單。他說,如果有人將要炸毀一幢建筑物或一個城市,那么除掉這個人就是符合道德的。

就無人駕駛汽車來說,他認為有必要進行“道德設計”。他說,艾薩克阿西莫夫(Isaac Asimov)的機器人三法則(Three Rules of Robotics )是一個很好的示范。

這三條法則是:

機器人不得傷害人類,也不得因為不作為而使人類受到傷害。

機器人必須服從人類的命令,除非這樣做違背第一條法則。

在不違背第一條和第二條法則的情況下,機器人必須保護自己。

Ray Kurzweil不知道,不作為——你可以挽救某人的生命卻沒有這樣做——是否等同于殺戮。

他承認,在無人駕駛汽車的道德品性方面,他現在完全沒有現成的答案。

“我要考慮更長的時間。我還沒有做過這種分析。”他說。

谷歌的首席工程師Andrew Chatham認為,當無人駕駛汽車面臨兩難選擇時,“答案差不多總是‘踩剎車’。”

他承認,這可能并不總是正確的答案。但他表示,如果連踩剎車都不是一種正確的應對,那就是面臨極端情形了。

但是,這個世界上不是充滿了極端情況嗎?

美國麻省理工學院的研究人員最近創建了一個名為道德機器(Moral Machine)的調查平臺。此舉意在調查人們希望無人駕駛汽車在面臨道德困境時如何選擇。

“研究人員不僅想知道人類會做出怎樣的選擇。他們也希望‘清楚地了解人類如何看待在道德困境下作出了某種選擇的機器智能’。”

這似乎是相當明智的。

Uber沒有回復記者的置評請求,因此目前還不清楚該公司是怎樣處理無人駕駛汽車的“道德設計”問題的。

[責任編輯:趙卓然]

免責聲明:本文僅代表作者個人觀點,與電池網無關。其原創性以及文中陳述文字和內容未經本網證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性,本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。涉及資本市場或上市公司內容也不構成任何投資建議,投資者據此操作,風險自擔!

凡本網注明?“來源:XXX(非電池網)”的作品,凡屬媒體采訪本網或本網協調的專家、企業家等資源的稿件,轉載目的在于傳遞行業更多的信息或觀點,并不代表本網贊同其觀點和對其真實性負責。

如因作品內容、版權和其它問題需要同本網聯系的,請在一周內進行,以便我們及時處理、刪除。電話:400-6197-660-2?郵箱:[email protected]

電池網微信
谷歌
無人駕駛汽車