面對自駕車技術(shù)在發(fā)生意外時(shí)的道德標(biāo)準(zhǔn)和底線何在,這一直是技術(shù)突破以外的另一重大議題。汽車大國德國就在 6 月的時(shí)候通過聯(lián)邦運(yùn)輸和數(shù)字基礎(chǔ)設(shè)施部,成立了一個(gè)由 14 科學(xué)家和法律學(xué)者組成的道德委員會,他們的研究報(bào)告也正式出爐了,目的是要制定規(guī)例來跟自駕車系統(tǒng)開發(fā)者跟隨,而且他們更指這些規(guī)例要在本周開始強(qiáng)制實(shí)行。
其中最重要的一點(diǎn)是人類的性命應(yīng)該永遠(yuǎn)都要排在首位,比任何物件、動物或其他系統(tǒng)認(rèn)為有重要性的東西都要高,而且系統(tǒng)應(yīng)該包含類似黑盒一樣的活動記錄器,萬一有意外發(fā)生后,還是可以幫助判決意外是由哪方引起 — 駕駛者還是自駕車系統(tǒng)。而且系統(tǒng)也需要給使用者自行決定要讓汽車收集哪些個(gè)人資料,從而限制資料被用作個(gè)性化廣告的用機(jī)會。
Nathan Ingraham / Engadget
另一個(gè)準(zhǔn)則就是用以對應(yīng)所謂的"電車問題"難題,就是當(dāng)電車在原本的軌道上必然會撞到 5 個(gè)人,但切換到別的軌道上卻還是會撞到一個(gè)人,那車子應(yīng)該怎么做呢?換作是你,又會怎樣做呢?
這個(gè)問題會應(yīng)用在自駕車被傳統(tǒng)車廠也開始涉足之前就有提到,Google 在 2015 年時(shí),Google 的自駕車部門主管就指他們的車子沒有處理這種問題的能力,反而系統(tǒng)會盡力保護(hù)最無辜的民眾,也就是行人。在 2016 年時(shí),Mercedes Benz 的 CEO 為這問題作出回應(yīng),當(dāng)時(shí)他就指車子應(yīng)該在無辜民眾以外,最優(yōu)先保護(hù)的是司機(jī)。不過德國政府卻認(rèn)為,這個(gè)問題不應(yīng)該由自駕車系統(tǒng)選擇,因?yàn)樗腥嗣际潜YF的。
在聲明中,德國運(yùn)輸部部長 Alexander Dobrindt 表示人類和機(jī)器間的互動,引起了在數(shù)碼化和自我學(xué)習(xí)系統(tǒng)的新類型道德問題。道德委員會這次是完成了一份前瞻性的工作,建立了世上首份適用于自駕車的規(guī)例。
往期推薦
英國科學(xué)家:2022年電動車成本或與傳統(tǒng)汽車齊平