無人駕駛來了,我們就能跟駕照說拜拜?
摘要: 無人駕駛來了,我們就能跟駕照說拜拜?
你知道中國規(guī)模最大的統(tǒng)一考試是什么嗎?高考?不,是駕考。根據(jù)公安部交管局的統(tǒng)計,截至2020年9月,中國擁有汽車駕駛證的人數(shù)達到了4.1億,而從1977年恢復高考至2020年,參加過高考的總數(shù)是2.5億。
在2007年年底的中國,只有1.1億人擁有汽車駕照,接著就開始了每4年新增“一個億”的速度。
如果問“地球上最慘的消費體驗是什么”,學車必須有姓名,無論你家里有幾套房,高考成績有多高,在公司有多么威嚴,都要經(jīng)歷科一到科四的智商檢測,難、兇、貴、等、曬。如果要用一個詞來高度概括,那恐怕就是“花錢受虐”。
天下苦駕考久矣,以至于無人駕駛的出現(xiàn),在群眾中呼聲最高的并不是其未來感跟科技感,而是“終于可以不用考駕照了”,在無人駕駛時代,駕照真的不用考了嗎?
如何才能取消駕考?
現(xiàn)在請大家設想一個場景:過年過節(jié),乘坐無人駕駛汽車回老家,路過一家飯館,想下車吃點東西,此時飯館門口立著一塊牌“比處禁停”,商家寫了個錯別字,應該是“此處禁停”才對,無人駕駛汽車只能識別禁停圖案與文字,對于錯別字無法自己理解其含義,所以按照規(guī)劃好的路線直接停在禁停區(qū)。
無人駕駛汽車并不能根據(jù)錯誤信息作出正確判斷,這時候要么人為干涉,要么放任不管。如果人為可以干涉,意味著在某種情況下,無人駕駛依舊需要有判斷力的人來進行操作,既然涉及到人為操作,駕照就必考。
想取消駕照必須得先滿足一個前提:無人駕駛可以完全不用人類干涉,我們開車所遇到的所有場景無人駕駛都能應對。上得雪山下得沙漠,開得了鄉(xiāng)間小路認得出重慶9D道路,只要是現(xiàn)在汽車能應付的極端場景,無人駕駛都能勝任。
達到了這個條件之后,取消駕照這件事才能“新建文件夾”,開始納入國家考慮中。但也僅僅只是考慮,想完全取消駕照,還得解決另一個更復雜,更燒腦的問題——無人駕駛倫理問題。
大家思考下這樣一個場景:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。此時你可以拉一個拉桿,讓電車開到另一條軌道上。然而問題在于,另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉拉桿?
電車難題是倫理學領域最為知名的思想實驗之一,很顯然,這題無解,但我們?nèi)绻堰@樣的問題放在無人駕駛上,就會發(fā)現(xiàn)無人駕駛遲早會面臨類似的倫理問題。無人駕駛在面對倫理問題時該如何判斷?帶著這個疑問,我們接著往下看。
想取消駕考,倫理問題排第一
2016年,麻省理工上線一個名為“道德機器”的網(wǎng)站,網(wǎng)站的功能很簡單,就是以問卷的形式面向大眾收集無人駕駛選擇的數(shù)據(jù)。例如,面對不可避免的事故,選擇撞向人還是動物?選擇罪犯還是普通人?選擇幾位小孩還是多位成年人?這些數(shù)以萬計的選擇,將通過后臺被麻省理工的研究團隊采集,為未來自動駕駛汽車面臨的倫理問題提供參考。
在這個測試中,答題者會面臨一個必須在兩難情況下做出選擇的道德困境題目,例如選擇犧牲車內(nèi)的 2 名乘客或撞死路上的 5 名行人,你需要判斷二者之一哪個是更可以接受的情形。
其中測試題中的犧牲對象包括:車上乘客、前方行人;男人、女人、老人、小孩、孕婦;不僅有人類,還有動物,不同題目中,人類或動物的數(shù)量也不同。
來自 233 個國家和地區(qū)的數(shù)百萬用戶參與了這項道德測試,在最后收回的約 4000 萬個答案中,研究人員發(fā)現(xiàn)了一些全球一致的傾向,例如:當發(fā)生事故時,所有人都一致表現(xiàn)出更偏向救人類而非動物、救更多的人、救兒童而非成年人。
現(xiàn)在將研究對象換成無人駕駛汽車,智能AI會作出怎樣的選擇?
關于這類倫理問題,Google X 創(chuàng)始人 Sebastian Thrun 曾表示,他們的無人駕駛汽車在發(fā)生碰撞需要二選一時,會選擇撞擊體積更小的一方。另外,谷歌的自動駕駛汽車會盡可能保護行人和騎行者,因為他們的保護措施更少。
而一名來自梅賽德斯奔馳的管理人員曾表示,他們的無人駕駛汽車在事故中會把駕駛員和乘客的安全放在首位,但隨后又否認了這個說法。
事實上,一些科技公司在算法寫入時就已有了大致的偏好,但其中的決定可能會產(chǎn)生倫理爭議,因此他們并不樂意公開討論這類敏感話題。對車企來說,只能選擇避免最大損失,而不是靠倫理來做判斷,想解決問題,必須得政府介入,制定一些必要的指導方針才行。
2017年,德國政府出臺了全球首個“無人駕駛道德指引”:無人駕駛汽車應該優(yōu)先考慮保護人類生命,即使會因此傷害動物和導致財產(chǎn)損失。這份“無人駕駛道德指引”由14名科學家和法律專家提出,制定了約20條無人駕駛應遵循的規(guī)則。
其中有這么兩項規(guī)則:
1、保護人類生命始終是首要任務。如果道路情況惡化,并且很可能發(fā)生事故,車輛必須拯救人類以免于死亡或受傷,即使這意味著破壞財產(chǎn)或傷害其他生物。
2、如果發(fā)生意外是不可避免的,無人駕駛車不能選擇去救誰,例如,不能犧牲老人救孩子。不應該就年齡,性別,種族,殘疾等做出決定,所有人類生命都是平等的。
但這兩項規(guī)則無法獲得所有人的認同,并不是每個人在生死關頭作出的選擇都一樣,這與每個國家與地區(qū)間的文化和經(jīng)濟差異有關,甚至宗教也對其有所影響,無人駕駛倫理問題,又成為了一道無解題。
到目前為止,人類從未允許一臺機器在沒有實時監(jiān)控的情況,在一瞬間自主決定誰該生、誰該死。但不久的將來,它將發(fā)生在我們生活中最常見的場景中。
在我們允許汽車做出道德決定之前,取消駕照可以說是不現(xiàn)實的,因為駕照代表乘車人有資格對汽車進行直接控制,從而干涉機器決定。想取消駕照,我們還需要進行一次全球?qū)υ挘瑏碇贫ㄈ驑藴室?guī)范無人駕駛即將面臨的倫理問題。
取消駕照,撞到人怎么辦?
假設無人駕駛技術問題、倫理問題都已解決,那么接下來該解決社會問題了,也就是新理論、新法規(guī)的建立。比如最典型的責任劃分問題,當我們身邊的人被無人駕駛汽車撞到,我們應該去起訴誰?
2018年3月19日,美國桑納州坦貝市19日發(fā)生一輛Uber自駕車撞死一名女子的車禍。這是全球首宗自駕車撞死人的交通事故,事故發(fā)生時,自駕車處于自動駕駛狀態(tài),也就是“無人駕駛”狀態(tài)。
這起事件意味著無人駕駛領域所代表的科學技術與法律制度發(fā)生了第一次碰撞,最后的判決大家猜猜是Uber被起訴,還是車上的人被起訴?
答案是車上的人被起訴,當?shù)貦z察官通過一封公開信表示,Uber沒有刑事責任,但車上乘客的行為需進一步調(diào)查。根據(jù)2018年6月的一份報告,車上乘客可能面臨駕駛車輛過失殺人的指控。
這樣的判決就是建立在車上乘客有駕照的前提下,因為有駕照意味著乘客有能力駕駛汽車避免慘劇發(fā)生,主要責任還是在乘客身上。
如果未來取消駕照,當無人駕駛汽車發(fā)生事故時,起訴乘車人明顯不現(xiàn)實,乘車人不用考取駕照,說明乘車人在乘坐無人汽車時不具備正確控制汽車的能力,既然與人無關,那這場事故的主要負責人是誰,我們該起訴制造企業(yè)?還是在無人駕駛汽車開發(fā)中涉及到的所有利益相關者,當事情發(fā)生時,我們必須知道誰是罪魁禍首。
很顯然,相比現(xiàn)在的事故判責,在無人駕駛時代想劃分責任是一件很復雜的事情,保險公司需要將事故前后的各種因素梳理清楚,在以算法為主的無人駕駛時代,保險人員估計得經(jīng)常加班了。
除此之外,取消駕照也意味著任何人不需要任何證件,就可以使用任何一輛無人駕駛汽車,這可能會造成無人駕駛汽車濫用的問題。普通人的濫用倒還控制得住,萬一被犯罪份子或恐怖份子利用,將炸彈放在無人駕駛汽車上,指定到達某個地點,后果不堪設想。
據(jù)據(jù)英國《衛(wèi)報》報道,早在7年前美國FBI就有一份報告警告無人駕駛汽車可能會被用于恐怖份子的自殺式爆炸活動。
美國的一家安全策略機構的高層也透露,有證明表明恐怖組織ISIS其實也一直都在研發(fā)無人駕駛汽車,目的就是為了扔炸彈。
在美國的一次安全會議上,安全策略機構高層表示他們有ISIS正在研發(fā)無人駕駛汽車的確切證據(jù),甚至他們還在座位上放上了模特假人,配置了類似人體熱量散發(fā)的裝置,以欺騙一些檢測裝置,以偽裝成一輛有人駕駛汽車。
有了無人駕駛汽車,恐怖份子們可能就再也不需要招募人肉炸彈了。他們只要把炸藥綁上車,然后遠程輸入目的地,利用高科技去執(zhí)行人類最黑暗的任務。
為了避免此類事件發(fā)生,未來搭乘無人駕駛汽車時可能會采用實名制制度,而駕照就是實名登錄的工具,不僅代表著在緊急狀況下,乘車人有資格介入控制汽車,還防止了無人駕駛汽車被濫用的問題。
最后,在無人駕駛成熟時,駕考要不要取消,在現(xiàn)階段,答案是否定的。駕照的存在能解決很多我們短期內(nèi)無法解決的無人駕駛問題,但好消息是當無人駕駛時代來臨時,駕考的難度也將會大大降低,畢竟我們不用再考什么倒車入庫了。
我們把時間線拉長一點,在更遙遠的未來,駕照有沒有可能取消?中國人有句話是這么說的,發(fā)展中的問題,一定要用發(fā)展的方法,在發(fā)展中解決,我們不會因為這些問題因噎廢食,等時代發(fā)展到一定階段,駕照或?qū)⑦z留在歷史的長流中,畢竟周總理說過:“人民群眾喜聞樂見,你不喜歡,你算老幾?”
無人駕駛