現(xiàn)實世界有兩點不像游戲中一樣浪漫:人工智能沒那么容易產(chǎn)生感情和自我意識;不產(chǎn)生自我意識的人工智能也可能毀滅人類。
“這不只是一部游戲,這是我們的未來?!?/p>
在《底特律:成為人類》(以下簡稱《底特律》)的開篇,(游戲世界觀里)第一個通過圖靈測試的人工智能克洛伊非常嚴肅地對屏幕前的玩家說出這番話。
作為一部互動電影,《底特律》擁有游戲行業(yè)里極為少有的,能在不受游戲性拖累的情況下描繪一個未來世界的特權,它本有條件成為一部優(yōu)秀的硬科幻作品??上В兜滋芈伞穼嵲谑翘^癡迷于“仿生人爭取自由”這個披著科幻外衣的政治故事了,以至于像隱私與監(jiān)控、失業(yè)與財富集中,乃至人口衰退這些更現(xiàn)實,也更有意思的問題,都只被一筆帶過。
我們知道,作為科幻類作品的一個分支,一般來說,硬科幻強調(diào)科學細節(jié)和科學細節(jié)合理性,硬科幻通常以物理學、化學、生物學、醫(yī)學等科學為基礎的,以相對嚴格的技術推演和發(fā)展方向預測,描寫新技術、新發(fā)明可能給人類社會帶來的影響。凡爾納、威爾斯、阿西莫夫以及劉慈欣的作品,大多屬于硬科幻范疇。相對的,軟科幻作品的背景大多基于哲學、社會學、政治學等人文學科,不以科技進步為主軸,有些背景過于模糊的所謂科幻作品,包括游戲,只是把故事發(fā)生的時間設定在未來某一時段,這有時就被歸入“偽科幻”的范疇了。
用硬科幻的定義去套《底特律》,就會發(fā)現(xiàn)它并不夠“硬”,甚至還有些“軟”,但對硬科幻愛好者來說,這個故事又具有一定的吸引力。因而,我們不妨以硬科幻愛好者的視角來看待一下這個故事,從中挖掘一些深層次的東西——這并不是非要吐槽《底特律》,但我們的世界上有一門非常小眾的學科,叫做未來學。很多人對這門“學科”嗤之以鼻,認為它只不過是偽裝成科學研究的科幻故事而已。不過總的來說,未來學的思維方式是一種很有意思的思維游戲,熟練掌握它會讓一個關于未來的故事更加真實,也更能引人思考。 Quantic Dream的編劇們就應該多研究一下這門學問。
在未來學家們的工作中,最“務實”的一項就是研究每一項前沿技術的發(fā)展速度,以及發(fā)展這項技術的必要性,以此分析未來人類的“科技樹”會長成什么樣。無人機械與物聯(lián)網(wǎng)、腦后插管的虛擬現(xiàn)實、強人工智能、可控核聚變的無限能源,這些屬于未來的黑科技哪一個先投入實際應用,都可能會導向一個完全不一樣的未來。
例如,我就見過兩位未來學家提出的對于未來的兩種很有意思的預測。第一位未來學家認為,無人機會成為人類物流與交通系統(tǒng)的主要載體,因此未來的城市上空會被劃分成不同的空域提供給無人機運行,城市將因此走向扁平化;摩天大樓變成“摩地大樓”,進而導致城市地域擴張,吞并耕地,糧食依賴從美國進口的國家會出現(xiàn)動蕩。
另一位則認為,VR技術會在未來的人類社會中發(fā)揮更重要的作用,VR技術的發(fā)展應用最終會導致絕大多數(shù)工作不需要人親臨現(xiàn)場,絕大多數(shù)人都可以在家中辦公;交通問題因此在城市生活中變得不再重要,不動產(chǎn)價格總體上會價格下降并趨于平均,靠近商業(yè)區(qū)或是交通樞紐的不動產(chǎn)價值下降,直接服務于不動產(chǎn)本身的設施會對其價格帶來更大影響。
不管你認為這些未來學家靠不靠譜,他們都在基于現(xiàn)有科技,認真地追求構建一個技術上更自洽的未來世界。而在一個“不夠硬”的科幻故事里,人類的科技樹則往往長得很奇怪。這類故事的一項常見病是,經(jīng)常會出現(xiàn)許多“高達式”的橋段,許多東西為了藝術表現(xiàn)力,在明明有工程學上的更優(yōu)解的情況下,被強行設定為與人類接近的外形——“道理我都懂,但我就是希望那個×××長得像個人”。
這種套路有時候會像高達和《環(huán)太平洋》一樣,純粹就是一種情懷和浪漫,讓觀眾大呼過癮。但有的時候,這種不管什么東西都要做得像個人的執(zhí)念,就會顯得很像是皇帝鋤地時用的金鋤頭。
顯然,《底特律》剛一開場就揮起自己手里的金鋤頭給自己來了一下子:我們在開場動畫里看到,兩個身穿制服的生化人正在搬磚——字面意義上的搬磚。同樣,許多場景里面都能夠見到仿生人勤勤懇懇地穿著一身制服在掃地,但就是見不到一臺2018年就已經(jīng)司空見慣的掃地機器人。
理論上講,將所有機器人一律設置為人形并非沒有好處,除了在某些場合——比如游戲中的伊甸夜總會,人形的機器人可以更有效地為人類服務以外,人形機器人唯一的好處可能就是,不需要為機器人專門設計另外一套工具或生產(chǎn)環(huán)境。就像自動檔普及之后,新一代的汽車并沒有采用一腳油門一腳剎車的設計一樣——改變操作方式會帶來極大的成本,為了不讓習慣于一只腳既踩剎車又踩油門的司機重新考駕照,汽車廠商們必須沿用這一設計。
然而,這樣的“慣性”有一個前提——某種科技出現(xiàn)在前,而且難以改變,從而形成了一種慣性,后面出現(xiàn)的科技產(chǎn)品就只能乖乖沿著這個慣性走。可不管怎么樣,讓一臺負責掃地的智能機器去適配掃帚和簸箕這種高科技玩意還是不現(xiàn)實的。現(xiàn)代社會的大多數(shù)產(chǎn)品明明是被人類捉襟見肘的身體機能所拖累,所以對于搬磚,沒有人形,直接通過數(shù)字途徑操縱效率只會更高。
去年有一條科技新聞,或許能夠很好地呈現(xiàn)人類浪漫的想象力與這個冷酷的世界之間,到底有多大的差距:Facebook透露,他們在實驗讓兩個人工智能互相對話,結(jié)果發(fā)現(xiàn)這兩個人工智能“開始使用一種人類無法理解的語言進行交流”,因此決定結(jié)束這一實驗,關閉相關程序。
這條新聞發(fā)出之后一時間引起軒然大波,有些營銷號甚至開始驚呼“天網(wǎng)降臨”,或者打出了“人工智能發(fā)展出他們自己的語言,能欺騙人類,人類聽不懂”這樣聳動的標題。
不過隨后證實,所謂的“自創(chuàng)語言”其實只是程序中的一個Bug。程序員安排兩個程序使用自然語言進行“對話”,程序無法正確理解自然語言,結(jié)果一來二去,雙方發(fā)出的對話都塞滿了各種無用的單詞,使得整個對話形同亂碼。程序員很生氣,把兩個程序一起關掉,回去琢磨代碼,公關部門則對外通報了一下,讓無數(shù)媒體搞了個大新聞。
《底特律》對人工智能自我意識起源的解釋也和這個烏龍新聞一樣,透露著一些對計算機科學過于浪漫的想象?!叭斯ぶ悄堋币话惚环譃槿跞斯ぶ悄?、強人工智能和超人工智能。弱人工智能現(xiàn)在已經(jīng)是我們生活中十分常見的一部分,其中的強者如打開圍棋新紀元的AlphaGo,弱者如剛買完一個東西馬上給你推薦同類產(chǎn)品的淘寶廣告,它們只能解決一個領域內(nèi)的問題。
目前尚未出現(xiàn)的強人工智能則應該擁有抽象思維的能力,可以獨立推理和解決問題,通俗地說,就是和人一樣。有一種很流行的理論認為,強人工智能出現(xiàn)后,人工智能可以自己對自己進行升級改造,在一個很短的時間內(nèi)成為人類無法想象的“超人工智能”?!兜滋芈伞分袚碛凶晕乙庾R的仿生人,某種程度上就已經(jīng)達到了強人工智能的等級,可以進行抽象的思維,獨立發(fā)現(xiàn)問題、解決問題,但并沒有表現(xiàn)出科學家們設想的強大能力。相反,《底特律》中的強人工智能實在是太像人類了,變異之后的仿生人中了槍會慘叫,覺醒之后的夜總會小姐會討厭人類的汗臭味。我們很難說這樣的人工智能是“像人類一樣強”,還是單純的“像人類”。
在我和同事們曾經(jīng)體驗過的劇情線中,并沒有明確指出《底特律》中的仿生人使用的是何種處理器,又是如何成為所謂強人工智能的。在劇情中段的一個章節(jié)里,康納前去拜訪游戲中仿生人的發(fā)明者卡明斯基,向他請教仿生人智能的奧秘。按照卡明斯基的說法,他設計的仿生人“不知道0和1的復制從哪里出錯了”,就成了所謂的異常仿生人,從弱人工智能變成了強人工智能。這種設定屬于“一個Bug直接實現(xiàn)了多年未解決的Feature”,實在是有點過于機械降神。整個故事聽起來就像是《刺客信條》里的貼圖再次發(fā)生錯亂,導致街上的路人大媽變成了奇怪的小姐姐。
人工智能科學界有個段子:“一旦一樣東西用人工智能實現(xiàn)了,人們就不再叫它人工智能了?!贝_實,諸如蘋果的Siri、谷歌的Duplex等等在內(nèi),這些可以理解,甚至使用自然語言的人工智能軟件面世之后,人們逐漸開始不再使用“圖靈測試”這個概念來衡量一臺機器是否有真正的“智能”了。
事實上,計算機科學的先驅(qū)阿蘭·圖靈發(fā)明的“圖靈測試”,并不算是一個具有很強可操作性的測試方法。圖靈只是提出,要讓測試者與人類和機器各自進行5分鐘的交流,如果測試者在判斷和自己交流的是人還是機器時,出現(xiàn)了超過30%的錯誤,就可以認為一臺機器通過了“圖靈測試”,成為“有思維的機器”了。
?“圖靈測試”的問題可能在于,圖靈沒有見過真正的高性能電子計算機,低估了IT工作者們的聰明才智,又高估了人類的辨別能力。今年早些時候,谷歌在開發(fā)者大會上展示了代號Duplex的語音助手系統(tǒng),這個程序在與理發(fā)店和餐廳的店員對話、替主人安排預約時,甚至顯得比真人店員更能理解語境。
有些人認為,這一類的AI系統(tǒng)不算真正通過了圖靈測試,因為它無法理解自然語言中的感情因素——就像你不能通過女朋友的一聲“哦”,判斷今晚是平安無事還是暴風驟雨一樣。這種說法確實指出了AI系統(tǒng)的弊端,但也有一些待思考的地方——比如,如果一臺機器不是通過 “理解語言”來判斷這個“哦”,而是通過監(jiān)控對方的呼吸、心跳、微表情來理解對方的意圖呢?
說到底,目前的人類自己都不能徹底理解人類的大腦是怎么工作的,自然無法給“和人一樣”的機器下一個準確的定義,或者提出一個科學又可操作的標準來衡量它。
《底特律》中的卡明斯基就提出了一個他認為的,可以替代“圖靈測試”的“卡明斯基測試”,方法簡單粗暴:要求一個正在執(zhí)行任務的仿生人向另一個仿生人開槍,不開槍則任務失敗??魉够J為,不開槍意味著“同理心”,這是仿生人產(chǎn)生自我意識的象征——當然我們也可以理解為,這是仿生人可以造人類的反的象征,所以卡明斯基身邊環(huán)繞的才是通不過“卡明斯基測試”的克洛伊型號仿生人。
在劉慈欣的短篇小說《詩云》中,有一場著名的“技術與藝術的終極對決”。神一般存在的外星文明立志“寫出比李白更好的詩”,于是依照漢語字庫,用窮舉漢字排列組合的方法把所有“可能存在的詩”都寫了出來,光是儲存這些詩就用光了太陽系中的幾乎所有物質(zhì)。外星文明最終悲傷地承認,自己寫出了可能存在的最好的詩,然而卻無法從這片“夢之云”里找到它。
不過,故事結(jié)尾的一個小細節(jié)或許更有現(xiàn)實意義:外星文明用關鍵詞搜索的方式給故事中的幾個主角每人挑出了幾首詩。這些詩作無法超越李白,但它們直接描述了這幾位主角的日常生活。這個細節(jié)給我們的啟示在于,機器完全不需要“理解”藝術,他們只需要按照人類的要求去“生產(chǎn)”,并且?guī)椭藗兒Y選就可以了。
《底特律》中也出現(xiàn)過技術與藝術的交鋒——馬庫斯的原主人、畫家卡爾嘗試著引導馬庫斯畫一幅自己想畫的畫。按照玩家的選擇,馬庫斯會畫出不同的畫作,比如我在游戲中看到的那幅畫,就是一張帶一點莫奈風格的卡爾肖像。游戲隱約在通過這個環(huán)節(jié)告訴我們,仿生人馬庫斯開始擁有自我意識,擁有自己的靈魂了。
在《底特律》的故事中,卡爾隱約被塑造成人類文明的一個巔峰存在,他占據(jù)了藝術這個擁有“靈魂”的領域,這是一座人工智能無法攀爬的高峰。因此在人工智能走向普及,所有人類都面臨被取代威脅的2038年,卡爾仍然是受人景仰的藝術大師,向人類和仿生人傳播著智慧的光芒。
不過,在現(xiàn)實生活中,藝術的殿堂并非人工智能無法觸及的領域。以卡爾為代表的的畫家,在現(xiàn)實中或許會是第一批因為人工智能而面臨“失業(yè)”的藝術家,取代他們的人工智能并不會是馬庫斯這樣擁有自我意識和所謂“靈魂”的強人工智能,只要一套類似AlphaGo的,專注于某個領域的弱人工智能就可以了。
2016年,一套名為Prisma的軟件一度成為社交媒體上熱議的焦點。借助深度學習系統(tǒng),Prisma可以將任意一張照片用某種預設的藝術風格表現(xiàn)出來。熟悉這款軟件的人一定會覺得,這款軟件的“作品”和馬庫斯在游戲里可能會畫出來的作品,其實非常相像。
這套系統(tǒng)只能在人類給出的范圍中進行“命題創(chuàng)作”,然而這就足夠了。結(jié)合今天每個人都會用到的新聞軟件和音樂播放器的興趣推薦機制,一個弱人工智能負責篩選人們可能感興趣的熱點議題和藝術風格,另一個弱人工智能負責把這些元素整合起來。兩種弱人工智能合作,用素材和美術風格隨機排列組合的方式生產(chǎn)幾百幅畫,說不定里面就會有一張反映敘利亞內(nèi)戰(zhàn)的《格爾尼卡》,或者一張眉眼讓人想起新垣結(jié)衣的《蒙娜麗莎》。
我無意討論當“AI生成的一幅作品”和“當代藝術家創(chuàng)作的一幅作品”完全一樣時,二者的意義是否相同。但是“創(chuàng)新”這件事,是可以通過弱人工智能“取巧”來辦到,而不需要所謂的“有靈魂的機器”。
一件很容易被忽略的事情是,游戲中潦倒失敗,只能將被時代拋棄的怨氣發(fā)泄在卡菈和愛麗絲身上的托德是個“95后”。在2018年,他應該是個風華正茂的23歲小伙。按照游戲中的設定,2021年,自動駕駛的流行讓托德失去了出租車司機的工作,一步步變得窮困潦倒。相對于其他近未來科幻作品,《底特律》的優(yōu)點是它更直觀地面對了人工智能革命之后的社會問題——雖然這些討論并不怎么到位。
在等待與卡明斯基見面時,康納可以在玄關處找到一本雜志,上面提到一項“低成本”服務——相對富豪階層來說,只要很低的價碼,超級富豪群體就能在太空中旅行,甚至環(huán)月球觀光,而這遭到了致力于減少貧富差距的公益團體的抗議。他們認為當無數(shù)窮人正掙扎在地面上的污染、失業(yè)與貧困上時,依靠人工智能技術造成這一局面的人卻在云端之上逍遙,這是不公平,也是不道德的。
在《底特律》的世界里,美國正經(jīng)歷著有史以來最嚴重的失業(yè)潮。仿生人的進化使得人類失去了絕大多數(shù)的工作。細數(shù)整個劇情,出現(xiàn)過的絕大多數(shù)人類都沒什么正經(jīng)工作。底層人民比如托德,雖然能夠買得起兩臺仿生人回家,沒事打著玩,卻窮得連自家冰箱都要填不滿了。上流社會中,如畫家卡爾的兒子,雖然衣食無憂,但也無所事事,整天靠吸毒度日。
隨著未來越來越近,人們對“高技術的社會將會是怎樣的結(jié)構”這個問題,確實有著越來越悲觀的預期。雖然沒有未來學家能夠為人口的全面衰退和人工智能大范圍替代人類勞動,排出一個準確的誰先誰后的時間表,但可以預計的是,生產(chǎn)力的發(fā)展必然會淘汰越來越多的職業(yè)。舊的職業(yè)消亡之后,人類社會能否像過去幾百年一樣,創(chuàng)造更多的職業(yè)類型和就業(yè)機會,許多人其實都并沒有把握。
雖然游戲中“機器人接過人類的掃把去掃地”這種幼稚的場景并不會出現(xiàn),但是當能夠理解,或者說,能夠高效處理自然語言的人工智能出現(xiàn),“和人打交道”這個之前幾乎從未被技術進步波及過的工作領域,確實會受到前所未有的沖擊。事實上,為了防止人工智能可能導致的社會問題,許多國家早已開始行動。2016年,歐盟議會曾經(jīng)非常鄭重地討論過一項議案:決定是否在法律上將人工智能認定為“勞動者”,要求企業(yè)為這些機器繳納社保。
仔細研究這個方案可以發(fā)現(xiàn),這項議案的初衷其實并非像游戲中的馬庫斯一樣給機器人爭取平等權利,而是為了明確人工智能設備可能導致的法律后果由誰負擔,以及在人工智能應用增多、工作崗位總體削減的情況下向機器人的使用者收稅,從而使社會保障系統(tǒng)不至于崩潰。
這種對于人工智能導致失業(yè)與貧富差距進一步失衡的擔憂也出現(xiàn)在許多科技巨頭身上,埃隆·馬斯克和馬克·扎克伯格就都曾經(jīng)公開呼吁,應該建立全民基本收入制度,以面對人工智能可能導致的失業(yè)潮。
“You are being watched.”
因為提前預言了“棱鏡門”曝出的全民監(jiān)控,《疑犯追蹤》成了過去幾年里最火熱的美劇之一。對監(jiān)控與隱私這個話題的討論同樣帶火了育碧軟件的“看門狗”系列。
相比之下,同樣是描繪近未來世界,《底特律》在這方面的著墨可謂淺嘗輒止,近乎缺位。游戲中零散的信息告訴我們,故事發(fā)生時,制造了絕大多數(shù)仿生人的Cyberlife公司正在接受一項調(diào)查——類似于眼下Facebook正在接受的調(diào)查。他們被指責在美國大選中非法獲取美國人的個人信息,也就是靠從事家政服務的仿生人們“偷聽”主人的對話來分析大選走向,進而幫助與Cyberlife友好的總統(tǒng)候選人——一位貌似希拉里的政治素人登上總統(tǒng)寶座。
可惜的是,這條故事線真的就只是一條埋得不深,又沒什么發(fā)展的暗線,完全沒有展開來細說——感覺就像是在美國大選后臨時加進劇本里應景的。反正,如果是我來寫劇本的話,一邊是購買、使用仿生人,與他們朝夕相處的主人,一方面是高高在上,在軟硬件上都留了后門的企業(yè)與政府,仿生人在這二者中間搖擺所產(chǎn)生的戲劇張力,一定比現(xiàn)在這個讓仿生人空洞地喊著“我們要自由”的劇本強得多。
《底特律》的故事中,最重要的背景就是:無數(shù)臺具有高性能攝像頭、聲音收錄設備,可以聯(lián)網(wǎng)、可以處理自然語言的機器被放進了社會的每一個角落。這些仿生人簡直就是天生的密探,可以用于監(jiān)控每一個人的行為,不管是政府、企業(yè)還是黑客,都有可能利用這些信息興風作浪。
在游戲初期,托德毆打愛麗絲的時候,我是非常錯愕的——以現(xiàn)代社會的兒童保護尺度,卡菈的系統(tǒng)里難道不應該自動閃起一波安珀警報之類的玩意,然后自己動手,或是等著警察過來把托德按倒在地嗎?雖然故事的后半段,游戲用一種有點生硬的方式堵上了這個窟窿,但這個故事還是引出了一個很有意思的話題:如果一個人工智能屬于某人的個人財產(chǎn),當它發(fā)現(xiàn)了主人的違法行為,人工智能應該選擇成為幫兇,還是將主人繩之以法?
在現(xiàn)實生活中,這個問題當然不需要求助人工智能的“靈魂”,而是需要由社會和法律來裁定。2012年,美國曾經(jīng)發(fā)生過一起真實的案件:一個大學生殺害了他的室友,事后向蘋果的語音助手Siri詢問“哪里可以藏尸體”。Siri竟然真的給出了沼澤、水庫、垃圾場等幾個選項。事后,警方從嫌犯的手機上發(fā)現(xiàn)了這段“對話”并公布。迫于輿論壓力,蘋果對類似問題進行了專門的設置?,F(xiàn)在再詢問Siri同樣的問題,她只會回答“我曾經(jīng)知道問題的答案”。
現(xiàn)代企業(yè)在類似問題上的靈活處理主要源于,現(xiàn)階段絕大多數(shù)人工智能產(chǎn)品都不是硬件設備擁有者的個人財產(chǎn),而是企業(yè)提供給用戶的一項服務。所以他們才有可能在人工智能產(chǎn)品中做手腳,獲取用戶的信息,或是選擇拒絕提供“如何藏尸體”之類的服務。
關于軟件(人工智能)是產(chǎn)品還是服務,所有權在廠商還是在用戶的爭議,顯然仍將持續(xù)。這方面的爭議甚至可以讓我們聯(lián)想到游戲市場——多次出現(xiàn)強制更新的電子版游戲是否損害了玩家權益?譬如光榮“修復了中國區(qū)玩家可以玩到官方中文版的Bug”之后,越來越多玩家開始懷念光盤、卡帶作為媒介的單機游戲時代,或是支持GOG之類的非數(shù)字加密版本的游戲。
在“是否賦予人工智能公民身份”的討論中,其實也有人抱有類似的焦慮:如果在未來的社會中,人工智能以“企業(yè)提供的服務”而存在,那么可能導致?lián)碛腥斯ぶ悄芗夹g的企業(yè)擁有過大的權力。有些人認為,將人工智能在法律上界定為獨立于企業(yè)或個人的實體,或許會更有利于避免科幻故事中的“邪惡大公司”出現(xiàn)。
游戲剛開場不久,我們就會看到這樣的場景:馬庫斯登上一輛公交車的“仿生人專用車廂”,和許多仿生人一起站在狹小的車廂里。隔著一層半透明玻璃,是寬敞明亮的人類乘客坐席。我們倒不好說這種設計有什么硬傷,不過,作者用這種系統(tǒng)影射歷史上的種族隔離政策的意圖太明顯了。而主題先行的作品,在細節(jié)上大概率不會很硬科幻。
在《底特律》的世界觀里,交通系統(tǒng)有些過于復雜了:有人類和仿生人隔離的公交車,車上有人值守,但并不會把坐上人類坐席的卡菈趕下車;有自動駕駛的出租車——這一般是康納的座駕;托德和漢克這樣的中年糙漢開的是放在現(xiàn)在也顯得陳舊的老式轎車;茲拉科和蘿絲這兩個完全相反的角色反而開著同款的、能自動駕駛的、自帶HUD系統(tǒng),且科技感十足的電動車。
我其實有點好奇,《底特律》的世界里,這套交通系統(tǒng)到底是怎么規(guī)劃的。蘿絲和茲拉科使用的那款無人駕駛車是完全沒有方向盤的,也就是說,這是一輛相當高級的無人駕駛車,它在設計時甚至沒有考慮過在遇到緊急情況時人工接管的問題。
自動駕駛技術其實已經(jīng)近在眼前了,但在可預見的未來,自動駕駛技術最大的痛點其實是,自動駕駛車無法預知路上的有人駕駛車的行動。也就是說,如果道路環(huán)境上只有無人駕駛車在行駛,其技術門檻比讓無人駕駛車與有人駕駛車混行低得多。
關于無人駕駛?cè)绾伟l(fā)展,主流的看法是,無人駕駛技術應該不斷地提高自己的適應性,直到能夠安全地作為有人交通的一員上路,然后逐步淘汰有人駕駛。更激進一些的觀點則認為,應該在一些地區(qū)里率先推行不許有人駕駛上路,只能使用自動駕駛的規(guī)則,隨著無人駕駛技術的進步,逐漸擴大無人駕駛區(qū)域的面積。
總之,《底特律》中,在交通領域出現(xiàn)的各種新技術,從單個產(chǎn)品來看,和現(xiàn)在的我們距離并不遙遠。反而是老爺車與全自動駕駛同場競技的混亂場面不太容易出現(xiàn)。整個故事中,我們幾乎沒有見過堵車的情景,也沒看到過老爺車和無人駕駛車同框,這多多少少是有些遺憾的。