《西部世界》(Westworld)級別的人工智能會有多危險(xiǎn)呢?國外媒體Futurism撰文稱,該電視劇探討了有關(guān)人工智能倫理和意識的一些哲學(xué)問題,雖然現(xiàn)實(shí)中不大可能會出現(xiàn)劇中那樣的血腥場景,但我們最好還是要好好對待我們的AI機(jī)器人。
“這些殘暴的歡愉,終將以殘暴結(jié)局。”在莎士比亞和邁克爾·克萊頓的助力下,HBO的《西部世界》揭示了打造先進(jìn)的人工智能技術(shù)會帶來的一些隱憂。
在《西部世界》里,外表跟人沒什么兩樣的AI居住于一個看似美國西部的園區(qū)。游客只要花大筆的錢就能前往園區(qū),進(jìn)行老式的西部冒險(xiǎn)活動。期間,他們可以隨意跟AI打斗,也可以奸淫殺害AI。游客的槍支能傷害AI,但后者的則傷害不了游客。每一次有機(jī)器人“死掉”,它的身體就會被回收清理,擦除記憶,然后再被送回園區(qū)。
《西部世界》中的AI安全問題
《西部世界》的創(chuàng)作靈感來自克萊頓以前的一部同名電影,它讓我們不禁思考我們將能夠在多大程度上掌控先進(jìn)的科學(xué)創(chuàng)造物。但與最初的電影不同,《西部世界》電視劇里的機(jī)器人并不是無惡不作的反派角色,而是被描寫成富有同情心、甚至很有人性的角色。
不出意外的是,該園區(qū)的安全隱憂很快就浮現(xiàn)。園區(qū)由一位老人負(fù)責(zé)打理,他能夠隨意給機(jī)器人升級程序,不經(jīng)過其他人的安全檢查。那些機(jī)器人出現(xiàn)回憶起被虐待的跡象。當(dāng)中有個角色提到,只有一行代碼能夠阻止機(jī)器人傷害人類。
該節(jié)目只是談到了會帶來AI安全隱憂的一部分問題:一個“有惡意的機(jī)器人”利用先進(jìn)的AI蓄意傷害人類;軟件小小的故障可帶來致命影響;在代碼層面對人類的保護(hù)不足。
不過,該節(jié)目揭示的很多安全和倫理道德問題都取決于機(jī)器人是否有意識。事實(shí)上,該電視劇在非常認(rèn)真地探究一個非常困難的問題:什么是意識?除此之外,人類能夠創(chuàng)造出有意識的東西嗎?如果能的話,我們能控制它呢?我們是否想要找出這些問題的答案?
為了思考這些問題,筆者采訪了喬治亞理工大學(xué)AI研究員馬克·里德爾和紐約大學(xué)哲學(xué)家大衛(wèi)·查爾莫斯(David Chalmers)。里德爾致力于研究打造創(chuàng)造性的AI,查爾莫斯則以其“意識難題”闡述而著稱。
AI能感受到疼痛嗎?
被問到進(jìn)行了相關(guān)編程的機(jī)器人會在多大程度上感受到疼痛時,里德爾說道,“首先,我反對對人類、動物、人形機(jī)器人或者AI實(shí)施暴力行為。”他接著解釋道,對于人類和動物來說,感覺到的疼痛是一種“避開特定刺激”的警報(bào)信號。
然而,對于機(jī)器人來說,“最接近的類比可能是強(qiáng)化學(xué)習(xí)的機(jī)器人會碰到的體驗(yàn),這類機(jī)器人需要進(jìn)行試錯學(xué)習(xí)。”這種AI在進(jìn)行某種行動后會收到或正面或負(fù)面的反饋,然后它會相應(yīng)調(diào)整它未來的行為。里德爾說,那種負(fù)面的反饋會更“類似于在計(jì)算機(jī)游戲中輸?shù)舴謹(jǐn)?shù)”,而不是感覺到疼痛。
“機(jī)器人和AI可以通過編程來像人類那樣‘表達(dá)’疼痛,”里德爾說道,“但那種疼痛會是一種幻覺。制造這種幻覺是有理由的:讓機(jī)器人能夠以一種很容易得到理解和引起共鳴的方式向人類表達(dá)自己的內(nèi)心狀態(tài)。”
里德爾并不擔(dān)心AI會感受到疼痛的問題。他還說,如果機(jī)器人的記憶每晚都被完全擦除,它會感覺什么都沒發(fā)生過一樣。然而,他指出了一個潛在的安全問題。強(qiáng)化學(xué)習(xí)要能夠正常運(yùn)作,AI需要采取因正面反饋而優(yōu)化的行動。如果機(jī)器人的記憶沒有被完全擦除——如果機(jī)器人開始記起曾發(fā)生在自己身上的糟糕經(jīng)歷——那它可能會試圖規(guī)避那些觸發(fā)負(fù)面反饋的行動或者人 。
里德爾說,“理論上,這些機(jī)器人能夠?qū)W習(xí)預(yù)先計(jì)劃以最合算的方式降低獲得負(fù)面反饋的可能性……如果機(jī)器人除了知道獲得正面反饋還是負(fù)面反饋之外,并不清楚自己的行動會帶來的影響,那這也可能意味著它們會提前行動來防止遭到人類的傷害。”
但他指出,在可預(yù)見的未來,機(jī)器人的能力還不足以帶來這種擔(dān)憂。假如機(jī)器人真有那么強(qiáng)大的能力,那會給它們帶來負(fù)面反饋的問題可能會給人類帶來威脅。
AI能夠獲得意識嗎?
查爾莫斯的看法則略有不同。“我是這么看意識問題的,這些存在有意識似乎不存在什么疑問……它們表現(xiàn)得擁有非常豐富的情感生活……這體現(xiàn)在它們能夠感覺疼痛和思考問題上……它們并不只是表現(xiàn)出條件反射式的行為,它們還會思考它們所在的處境,它們有在進(jìn)行推理。”
“很顯然,它們是有知覺的。”他補(bǔ)充道。查爾莫斯說,與其嘗試定義機(jī)器人怎樣才算有意義,還不如想想它們?nèi)鄙倭耸裁?。他指出,最重要的是,它們?nèi)鄙僮杂梢庵竞陀洃?。然而,我們很多人都會不自覺地陷入習(xí)慣當(dāng)中,難以自拔。不計(jì)其數(shù)的人都存在極端的記憶問題,但沒有人覺得強(qiáng)奸或者殺害他們并無不妥。
“在這個節(jié)目中,如果說虐待AI是被允許的,那是因?yàn)樗鼈內(nèi)鄙倭耸裁?,還是因?yàn)閯e的原因?”查爾莫斯問道。在查爾莫斯看來,《西部世界》描繪的特定場景或許并不現(xiàn)實(shí),因?yàn)樗⒉徽J(rèn)為二分心智理論會帶來意識,甚至對于機(jī)器人也不會。“相比之下,通過編程讓機(jī)器人直接監(jiān)控自己的想法要來得簡單得多”
但這還是會帶來風(fēng)險(xiǎn)。“如果你面對的是像這么復(fù)雜、像這么聰明的機(jī)器人,你會想它是否很容易控制?”查爾莫斯問道。任何情況下,以不當(dāng)?shù)姆绞綄Υ龣C(jī)器人都可能會給人類的安全帶來威脅。打造無意識的機(jī)器人,我們會面臨它們學(xué)到錯誤的教訓(xùn)的風(fēng)險(xiǎn);非故意地(或者像《西部世界》那樣有意地)打造有意識的機(jī)器人,我們也面臨它們因?yàn)楸慌按蛪阂侄纯谷祟惖娘L(fēng)險(xiǎn)。
在《西部世界》第二集中,接待員被問她是不是“真人”,她回答說,“如果你分辨出來,又有什么所謂呢?”這番話聽上去似乎很有道理。