關于電車難題,你可能并不陌生:一輛失控的電車正沿著一條軌道向下沖去。軌道前方有五個工人, 如果電車沖過去,他們肯定會被撞死。但你可以用一個操縱桿把電車轉向鄰近的軌道上,但是那個軌道上也有一個工人,如果電車沖過去了,他也同樣會被撞死。你是讓電車變換軌道撞死一個人,還是什么都不做,讓它撞死五個人?
這是電車難題最著名的版本,一個在20世紀70年代普及開來的哲學思想實驗。它還有其他變體:比如你是否愿意把一個胖子從橋上推下來,讓電車停下來,而不是殺死那些較瘦的工人?電車難題除了作為一個哲學實驗外,還被用作心理學實驗中的一種工具——最近,人們已經(jīng)把它當作衡量自動駕駛汽車的道德標準了。
自動駕駛汽車應該優(yōu)先保護行人還是先保護乘客?那老人與小孩相比呢?如果汽車可以獲得與車禍發(fā)生相關的信息,它是否應該使用這些數(shù)據(jù)來做出決定?電車難題已經(jīng)在自動駕駛汽車領域流行起來了。事實上,麻省理工學院的工程師們已經(jīng)建立了一個名為“道德機器”(Moral Machine)的測試,旨在記錄人們對自動駕駛汽車在各種條件下應如何反應的看法。
但是,用電車難題來理解當前的自動駕駛汽車是存在問題的。它在解決自動駕駛汽車或工人的道德問題上做得非常糟糕。為這些目的部署它,尤其是將其作為工程上或政策制定上的答案或參照,會讓機器道德變得不完整或者更加危險。
哲學家朱迪思·賈維斯·湯姆森(Judith Jarvis Thomson)在1976年創(chuàng)造了“電車難題”。不過,這一設想最早是由另一位哲學家菲利帕?福特(Philippa Foot),在1967年發(fā)表的論文《墮胎問題和教條雙重影響》中提出的,他認為,人們的意圖和他們所能預見的東西之間是有區(qū)別的。福特以墮胎為例, 外科醫(yī)生對一名孕婦進行子宮切除術時,能預見到嬰的兒死亡,他應該這么做嗎?與此同時,一位外科醫(yī)生為了挽救母親的生命而終止了胎兒的生命,應該這樣做嗎?雖然案例非常相似,但最后得出的道德結論卻不盡相同。
福特提出了許多相關的場景, 其中之一就是現(xiàn)在著名的電車難題。 另一種假設是, 一群暴徒威脅說,如果法官不處決一個無辜的人,他們就會報復,殺死更多的人。法官該怎么辦?這看起來似乎是一個電車難題——在更多或更少的死亡之間做出選擇。 但是,大多數(shù)支持電車操縱員撞死一名工人的人,也會對陷害無辜的人感到震驚,福特寫道。
她的結論是, 一個人做什么和一個人被允許做什么是有區(qū)別的。福特寫道, 特別是“避免傷害和提供援助之間的區(qū)別確實非常重要。”
福特的簡短論文為當代讀者提供了一種更細致入微的方法,來思考涉及自動駕駛汽車的道德場景,而不是只用所謂的電車難題來分析。 在某種程度上,這是因為福特遵循了在亞里士多德之后一種被稱為道德倫理的傳統(tǒng)。
但是,遵循道德規(guī)范并不會引發(fā)目前大多數(shù)關于自動駕駛汽車的爭論。相反,對最終結果是自動駕駛汽車占主導的社會的關注,是最令人擔憂的。在道德哲學中,這種不同于道德倫理學的方法被稱為結果主義。結果主義者——包括最著名的功利主義者——首先關心的是行為的結果和后果。
這種功利主義思想已經(jīng)深深植根于自動駕駛汽車的修辭之中。甚至,在自動駕駛汽車的擁護者們開始決定車禍發(fā)生時撞誰之前,就已經(jīng)存在了。推動自動駕駛車輛大規(guī)模采用的一個共同理由是,它們能把道路上的安全性大幅度提高。2016年,美國有37000多人死于車禍。由于94%以上的車禍都是由司機的錯誤造成的,用可靠的機器代替容易出錯的人,對于社會來說,顯然具備凈效益。
問題是,把注意力集中在結果上,可能會使人們對自動駕駛汽車的優(yōu)點和缺點視而不見。 正如福特提出的,工人面對電車難題和法官面對暴徒威脅的道德場景是不同的。因此,同樣的以人為代價的自動駕駛汽車的結果,可能會帶來截然不同的道德、法律和公民后果。
最近, 亞利桑那州坦佩市的一輛Uber的自動駕駛汽車撞死了49歲的伊萊恩 · 赫茨伯格(Elaine Hertzberg)——一個騎著自行車過馬路的行人。 在我寫下關于這場車禍可能產(chǎn)生的法律影響的文章之后, 一些讀者以功利主義的冷笑回應。 畢竟,2015年美國有5376名行人被汽車撞死, 新聞媒體也不會把每一個人都當作特例來報道。 很快, 自動駕駛汽車可以減少或消除行人死亡。 如果你用電車難題的術語來說,軌道代表的是時間而不是空間。一個人死亡仍然是一個悲劇。但如果她的死亡,意味著在預防成千上萬個人死亡方面取得進展,那么也許這是合理的。
問題在于, 這種立場的假設是,赫茨伯格的死與普通的汽車造成的數(shù)千人的死亡完全相同。 從統(tǒng)計學上來說, 這可能是正確的, 但從道德上講, 并不一定如此。
在未來,如果它們能有效地運行,自動駕駛汽車就有可能預防像坦佩市這樣的車禍事故了。傳感器和計算機對周圍環(huán)境的反應比人類更好,也會表現(xiàn)得更加理性。 隨著Uber這次車禍的細節(jié)逐漸浮出水面,一些專家得出結論,這次車禍本來是能夠避免的。此外,Uber的自動駕駛汽車似乎沒有達到公司的目標,即在3月份發(fā)生車禍時,每行駛13英里的路程只需要人為干預一次。與此同時,谷歌的兄弟公司W(wǎng)aymo聲稱,它的自動駕駛汽車在不需要人為干預的情況下,平均可以行駛5600英里。
那么, 在亞利桑那州的道路上,Waymo的自動駕駛汽車和Uber的自動駕駛汽車之間的區(qū)別,可能比人操作汽車和計算機操作汽車之間的區(qū)別更重要。但是,為了吸引更多的公司到亞利桑那州研究、測試,從而推動就業(yè)。亞利桑那州州長道格·杜西(Doug Ducey)允許在沒有重大監(jiān)管的情況下,讓所有的這類汽車上路測試。
這些條件的存在,決定了不能從電車難題的角度來考慮這個問題。如果要問Uber是否應該撞上赫茨伯格還是突然轉向(讓安全員員面臨危險,避免行人被撞),則需要假定Uber的車輛可以先看到行人并做出相應的響應。需要假定這種能力是可靠和有保證的——相當于一種機械行為,就像切換電車軌道那樣。這種背景,在發(fā)生在坦佩市的車禍事故中消失了。
不過,福特已經(jīng)預料到了在她的案例中背景缺失的情況?!霸诂F(xiàn)實生活中,”她寫道,“很難確定電車轉向后,站在軌道上的那個人會被殺死。 也許他會在車身側面找到一個立足點,并在車輛駛過時緊緊抓住?!苯鉀Q這種無限可能性的一種方法是運行無限的電車難題,從公眾對這些問題的反應中收集模式。這就是麻省理工學院道德機器的方法,它與機器學習系統(tǒng)工作的最佳方式相匹配:使用大數(shù)據(jù)集。但還有一種辦法——在最適當?shù)牡赖卤尘跋驴紤]具體問題。
碰巧的是, 福特也提出了一個不同的例子, 與電車難題相比,這個例子與坦佩市實際發(fā)生的事情有更多的共同點。 想象一下, 在醫(yī)院里有五個病人。 通過使用某種氣體可以挽救他們的生命, 但是使用這種氣體,會向另一個無法移動的病人的房間里釋放致命的煙霧。 在這種情況下, 產(chǎn)生的后與經(jīng)典的電車難題是相同的。然而,對許多人來說,結果并不那么明顯。這僅僅是因為預期效果和可預見的效果之間的差別,也是因為避免傷害,導致的道德欲望有著不同的運作方式。
在電車難題中,司機面臨兩種相似的傷害之間的矛盾,沒有其他的選擇。但在醫(yī)院的氣體例子中,醫(yī)生面臨著提供援助和造成傷害之間的矛盾。事實上,Uber的情況更為棘手,因為所有參與方——不管是汽車制造公司、駕駛它的司機還是監(jiān)管它的政府——似乎都沒有充分了解車輛目前(而不是未來)造成損害的能力。這使得 Uber這場事故的道德背景不再是關于未來減少車禍,更多的是關于政府監(jiān)管、公司信息披露和交通政策的現(xiàn)狀的問題。但是,這些話題遠不如一輛失控的電車更吸引人。
如果這是技術專家、公民和政策制定者真正想要的道德哲學的先例。那么,他們最好把Uber的這場車禍看作是一個關于道德運氣(moral luck)的例子,這是哲學家托馬斯·內格爾( Thomas Nagel )提出的一個觀點。有一個經(jīng)典的例子:一個喝醉的人晚上開車回家。雖然喝醉了,但他最后還是毫無意外地到達了目的地。然后想象另一個場景。一個人在同樣的情況下開車的時候, 但他意外撞死了一個過馬路的孩子。
認為后者比前者更應受責備似乎是理所當然的,但兩人都采取了同樣的自愿行動。唯一不同的就是結果。
從這個角度來看,Uber帶來的車禍并不代表一種價值中立,更不是所謂的正義:犧牲一個行人,來確保有效部署自動駕駛汽車的世界里確保更多人的安全。相反,它強調了這樣一個事實,即積極的結果——更安全的汽車、更安全的行人等等——很容易成為自動駕駛汽車的道德運氣的一部分,因為它沒有犯下一個應受譴責的行為。當然,現(xiàn)在不是了。
道德運氣也為自動駕駛汽車開辟了其他的審議途徑。在自動駕駛汽車的情況下,自愿行動更難確定。Uber的司機是否知道并理解他們行為的所有后果?假設人類駕駛員可以干預其正在觀察的機器的操作而不是主動操作,這種假設是否合理?在亞利桑那州明確邀請自動駕駛汽車在實際道路上進行實驗性的測試的情況下,Uber是否也應受到譴責?所有這些問題現(xiàn)在都在亞利桑那州和其他地方被問及。 但這對伊萊恩·赫茨伯格來說,只是一種冷漠的安慰。
這一切的意義并不在于指責或贊揚最近Uber車禍中的特定行為者。也不是為了慶?;虬@自動駕駛汽車的未來。相反,這表明,無論是現(xiàn)在還是將來, 解決和應對自動駕駛汽車需要更高的道德修養(yǎng)。
道德不是將簡單的計算應用于任何情況下的問題,也不是將人類對一個模型案例的一整套意見應用于在整個模型下的實例問題。事實上,采取這些立場從一開始就能得出功利主義的結論。當工程師、評論家、記者或普通人,把電車難題當做是一個非常適合(或許是為了方便)思考自動駕駛汽車問題的時候,他們拒絕考慮這些機器操作的更復雜的道德狀況。
對于哲學家來說,思想實驗提供了一種考慮未知結果或重新考慮已接受的結果的方法。但它們只是思考的工具,而不是現(xiàn)成行動的指南。特別是,電車難題的普及,讓人們誤認為自動駕駛汽車是一種已經(jīng)存在、可靠、同質的技術——這樣就可以提出、甚至回答關于其假想道德行為的抽象問題。但是,想要這種情況發(fā)生,還需要等上好幾年。與此同時,公民、政府、汽車制造商和科技公司,必須就自動駕駛汽車在今天和明天可能產(chǎn)生的道德后果,提出更困難、更復雜的問題。是時候在電車把所有人撞死之前踩剎車了。
來源:蓋世汽車
本文地址:http://ewshbmdt.cn/news/shichang/66201
以上內容轉載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯(lián)系admin#d1ev.com(#替換成@)刪除,轉載內容并不代表第一電動網(wǎng)(ewshbmdt.cn)立場。
文中圖片源自互聯(lián)網(wǎng),如有侵權請聯(lián)系admin#d1ev.com(#替換成@)刪除。