北京2017年11月30日電 /美通社/ -- 英特爾公司高級副總裁以及英特爾子公司Mobileye公司首席執(zhí)行官兼首席技術官Amnon Shashua 教授發(fā)表了《自動駕駛:通向更安全道路》,分析了責任敏感安全模型是如何推動自動駕駛行業(yè)發(fā)展的。以下是他的文章全文:
我們認為責任敏感安全(RSS)模型是一種催化劑,它能夠推動行業(yè)組織、汽車制造商和監(jiān)管機構進行跨行業(yè)討論。自發(fā)布以來,我和該模型的合著者們都收到了廣泛肯定,但與此同時還存在一些問題,我們的初衷就是將這些問題一一攻克。
其中一個關鍵問題就是:人類的判斷處于法律、安全和文化等多方面考量,而RSS模型似乎只專注在法律層面。有人說“RSS旨在讓制造商免于承擔責任”這是一種誤解,我們會進一步解釋。
是數(shù)學,不是道德:RSS如何規(guī)范駕駛困境
首先重申一下什么是RSS。RSS規(guī)范了在一系列復雜路況中的人類判斷。它明確界定了什么是安全駕駛、什么是魯莽駕駛。對于人類駕駛員來說,碰撞和其它事故責任的解釋不是一成不變的。駕駛員的失誤,都是根據(jù)事件發(fā)生后不完整的信息和各類因素來判定的。而對于機器來說,這些定義可以是正式的、精準的。機器擁有周圍環(huán)境的高度精確信息,機器知道其反應時間和制動力,并且永遠不會分心、走神或是被干擾。通過機器,我們不需要在事后解釋其行為。相反,我們可以對機器進行編程,使其遵循一個既定模式--只要我們有辦法去規(guī)范這種模式。
RSS模型的核心,就是要把當今的駕駛困境形成書面文字,并把它放在特定語境中理解:例如,并道和超車時的安全距離和安全車距;哪輛車超車并應由其保持安全距離;如何把路權融入模型;如何通過有限的感應來界定安全駕駛(比如,當行人從建筑或停泊的車后突然出現(xiàn)),等等。顯然,人類判斷包含避免事故,而不僅僅是逃避責任。RSS旨在打下基礎,在駕駛過程中設定人類判斷的方方面面,其目標就是為自動駕駛汽車出具一份正式的“安全證明”。
RSS = 減少交通事故
接下來,讓我們聊一聊RSS不做什么。RSS不允許自動駕駛汽車(AV)做出導致碰撞的判斷--即使自動駕駛汽車擁有路權。另一方面,RSS不允許自動駕駛汽車執(zhí)行非法操作,例如:為了避免碰撞而跨過實線,或者為了避免危險而繞過并排??康钠?。它不允許自動駕駛汽車魯莽行動,因為,這有可能會造成其它碰撞。
RSS不允許自動駕駛汽車通過造成輕微事故來避免另一起事故。換句話說,要想避免由人類駕駛員造成的碰撞,RSS模型允許自動駕駛汽車在不造成其它事故的前提下,采取任何行動(包括違反交通法規(guī))。這種約束是恰當?shù)?,因為,對事故嚴重性的判斷十分主觀,很可能會忽略隱藏的關鍵變量,例如:一起看似“不太嚴重”的事故中,后座上有一個嬰兒。
無論如何,如果社會允許通過一起碰撞而緩解另一起碰撞,那么,在某種情況下,它可通過“責任傳遞性”的概念添加到RSS公式中。這樣,一起完整事故的責任就可以分配給啟動連鎖事件的車輛。我們決定,不在模型中加入這種可能性--盡管這是可以做到的。
“擁有路權,而不是爭搶路權”,這個常識性觀念也是RSS的一部分。以穿越十字路口的汽車為例,路燈為車輛通行提供合法路權,但是,如果另一輛汽車闖紅燈,就會擋住路口。在這種情況下,RSS并不為自動駕駛汽車提供權利,去撞擊擋路的汽車。根據(jù)RSS,如果自動駕駛汽車這樣做,那它就是過錯方。
軟件思維
從邏輯上說,要想批判RSS模型,你必須找到一個事故場景。在這個場景中,RSS確定的責任與“常識性”人類判斷不一致。但即便研究了國家高速公路交通安全管理局的各種撞車類型之后,我們也沒有發(fā)現(xiàn)這樣的場景。該研究把600萬起撞車事故歸納為37種情景,覆蓋所有這些事故的99.4%。它們都符合RSS模型,作為RSS持續(xù)開源的一部分,我們會發(fā)布相關分析。
隨著時間的推移,隨著與業(yè)界同儕、標準機構和監(jiān)管機構的合作不斷深入,肯定會出現(xiàn)更多使用場景。我們會把這些場景與RSS相匹配,并在必要的時候更新模型--就像人類判斷有時候也需要更新一樣。
總之,我們必須說服業(yè)界--軟件能夠做出較安全的決策。最關鍵的是,一個模型要想有用,人們就必須證明一種可能性,即開發(fā)出一種軟件,它永遠不會導致事故、同時還能維持正常交通運轉。
還有一點不容忽視。人們必須證明,該模型不會受到“蝴蝶效應”的影響,即:目前一個看似無害的行為,將通過一系列行動,演變成災難事件。例如,一次具有侵犯性的并道,會導致后車剎車而滑入另一條車道,最終導致撞車。
魔鬼總在細節(jié)處
我們公布RSS模型,以此引發(fā)爭辯、討論和探索--這些都是通向正解的必經(jīng)之路。現(xiàn)實情況是:目前并沒有RSS模型的替代方案。所以,在缺乏清晰模型的情況下,行業(yè)應該怎么做?僅僅是支持“較佳做法”?這將轉化成另一場爭論--“我的自動駕駛汽車上的傳感器比你的更多”,或“我們的測試項目里程數(shù)比你們更多”。如果是在一個沒有清晰模型來評估安全的世界中,這些量化聲明,可能會保護自動駕駛汽車的開發(fā)者,但它們并不能保證安全。更糟的是,它會使自動駕駛汽車過度設計、造價昂貴,以至于無法惠及普通人,尤其是最應該從中受益的弱勢群體,例如老年人和殘疾人,而我們期待自動駕駛能為他們提供靈活、可負擔、安全、按需提供的交通方式。
只把RSS模型融入自動駕駛技術還不夠。要想真正確保安全,透明度必不可少,并讓社會接受“人類判斷將被納入自動駕駛決策”這一點。我們堅信,就汽車安全而言,精密設計的自動駕駛汽車,其安全性比人類駕駛汽車提高上千倍。
要想為自動駕駛汽車成功上路做好準備,需要澄清許多問題。這些問題不只是技術創(chuàng)新,或者是對比不同公司的產(chǎn)品。英特爾押注這一領域,是為了推動行業(yè)達成共識--絕對有必要把判斷規(guī)則、責任和過錯規(guī)范化,以實現(xiàn)對社會的巨大效益。RSS不是一個旨在規(guī)避責任的系統(tǒng),而是一個創(chuàng)新模型,其目的就是能夠讓自動駕駛汽車按照較高安全標準來運行。
我們并不會孤身前行。自動駕駛要想獲得成功,就要舉整個生態(tài)系統(tǒng)之力,讓我們從科學實驗進入真正的市場。