Matt Reynolds 近期在 New Scientist 網(wǎng)站上發(fā)表了一篇名為“Robots will be more useful if they are made to lack confidence”的文章。文章介紹了最近的一項實驗,科學(xué)家把 AI 賦予充分的自信之后,AI 會認(rèn)為自己做的才是對的,進(jìn)而會阻止人類關(guān)掉自己。讓我們看看文中怎么說吧。
相信自己的能力通常是一件好事,只要你意識到什么時候需要尋求幫助。當(dāng)我們想設(shè)計更智能的軟件時,我們應(yīng)該將這種想法同樣地賦于機(jī)器上。最近,我們進(jìn)行了一項探索機(jī)器人對自己用處的感知的實驗,或許可以幫助指導(dǎo)未來人工智能的發(fā)展。
加利福尼亞大學(xué)伯利克分校的 Dylan Hadfield-Menell教授認(rèn)為,過度自信會導(dǎo)致各種各樣的問題。以Facebook新聞推送的算法為例,這種算法的目的是推送給人們他們想要看到的和想要分享的文章。然而毫無疑問,這種方法最終會發(fā)展為制造虛假新聞來滿足人們的胃口。
對于Hadfield-Menell和他的同事來說,解決問題的答案,是使自動操作系統(tǒng)能夠?qū)で蟛⒔邮苋祟惖谋O(jiān)督。“如果Facebook事先想到這方面,我們可能不會為虛假新聞的事情煩惱。”
一個不能確定其能力的算法將更傾向于遵從人類的判斷,而不是將它們所認(rèn)為的所有用戶想看的文章都推送給他們。
機(jī)器人開關(guān)實驗
伯里克團(tuán)隊為了探索計算機(jī)的“自信”,設(shè)計了一個人與機(jī)器之間相互作用的數(shù)學(xué)模型,稱之為“開關(guān)游戲”。
在這個理論游戲中,人們給予一個有著開關(guān)按鈕的機(jī)器人一定的任務(wù)。而一個人可以隨意愿自由的按下機(jī)器人的關(guān)閉按鈕,但是機(jī)器人可以選擇禁用其開關(guān),使這個人無法關(guān)閉。
當(dāng)機(jī)器人被設(shè)定為高度“自信”模式時,它們認(rèn)為它們所做的都是有用的,這會使得它們永遠(yuǎn)也不會讓人們把它關(guān)掉,因為它們試圖最高效的完成任務(wù)。相反,一個被設(shè)置為低度自信的機(jī)器人常常會讓人們關(guān)掉它們,即使它們做得很好。
然而, Hadfield-Menell 并不認(rèn)為我們應(yīng)該讓自動操作系統(tǒng)沒有安全保障。例如,如果一個自動駕駛的汽車正載著一個孩子去學(xué)校,那么這輛汽車永遠(yuǎn)也不應(yīng)該讓孩子去控制它。在這種情況下,自動操作系統(tǒng)應(yīng)該相信自己的能力是超過這個孩子的,并且,無論什么時候,它都不應(yīng)該允許孩子關(guān)掉它的開關(guān)。
Hadfield-Menell 認(rèn)為,“最安全的機(jī)器應(yīng)該在兩種極端之間取得平衡”。
至關(guān)重要的框架結(jié)構(gòu)
來自牛津大學(xué)的Marta Kwiatkowska認(rèn)為,那些拒絕讓人類關(guān)閉的自動操作系統(tǒng)聽起來可能有些牽強(qiáng),但是這樣的考慮應(yīng)該是制造在人們身邊工作的這類機(jī)器人時所必須具備的。
她同樣認(rèn)為,在建造無人駕駛汽車、消防機(jī)器人時,都要求為人類的安全考慮,因此,對于這些倫理框架的決策宜早不宜遲。
Hadfield-Menell認(rèn)為,關(guān)閉開關(guān)的游戲只是個開始。他計劃探索當(dāng)機(jī)器人獲得更多有關(guān)自身能力的信息時,其決策機(jī)制是如何變化的。例如,一個咖啡制作機(jī)器可能會覺得它的工作在早晨是更有用的。
最終,他希望他的研究可以使自動操作系統(tǒng)更容易預(yù)測,并且能夠做出人類更容易理解的決定。“如果你將一臺機(jī)器人投放到真實世界里去,你會想要了解它在做什么。”