世上并沒有那么多非黑即白的事情。
馬斯克一邊高喊人工智能是人類威脅,一邊又在做L5自動駕駛,很多人認為他這種做法表里不一。最近,哈佛大學教授Steven Pinker就是直接跳出來指責馬斯克的人。Pinker曾被《時代》列為“當前100位最有影響力的人”之一,聲譽顯赫。
不過,“鋼鐵俠”馬斯克也不是吃素的,他在推特下留言說:如果連Pinker都不清楚功能性/狹義人工智能(例如自動駕駛汽車)和通用人工智能之間的區(qū)別……人類就有大麻煩了。”
馬斯克怒懟哈佛教授:不懂人工智能
“如果伊隆·馬斯克真的認真對待人工智能的威脅,他會停止制造這些自動駕駛汽車,這是我們將要看到的第一種先進的人工智能。”Pinker在上個月24日的Wired雜志上稱。目前,特斯拉汽車號稱已經(jīng)支持L5完全無人駕駛,但相關軟件還未升級。
Steven Pinker
Pinker是哈佛大學教授,也是美國國家科學院院士,并兩次入圍普利策獎,獲得9個名譽博士學位,被《時代》列為“當前100位最有影響力的人”之一。此外,在Wired雜志上, 他還認為高度發(fā)達的外星文明傾向于和平與寬容,因此先進的外星人更可能是友好的。
Pinker半個月前說的這些話在當時并沒有引起太多關注,但看熱鬧的不嫌事兒大,有好事的推特網(wǎng)友轉發(fā)Pinker評價馬斯克的上述言論,并手動@馬斯克,一下子就引起了“鋼鐵俠”的注意。
“哇,如果連Pinker都不清楚功能性/狹義人工智能(例如自動駕駛汽車)和通用人工智能之間的區(qū)別,當后者擁有100萬倍于計算機的處理能力時候,人類就有大麻煩了。”
很明顯,馬斯克認為Pinker這樣聲譽顯赫的學者是不懂人工智能的,“非黑即白”的問題出現(xiàn)在了這名大教授身上。
開發(fā)自動駕駛可能會對開發(fā)通用人工智能做出一些貢獻,這肯定會引發(fā)關于我們如何培訓機器的道德問題。但是,正如馬斯克所指出的那樣,即使是完全完美的自動駕駛汽車,也不會出現(xiàn)邊緣化或傷害人類的“想法”。
馬斯克“非黑即白”的煩惱:自動駕駛不是通用人工智能
上個月,馬斯克退出了他親手創(chuàng)辦OpenAI董事會。
OpenAI是一家非盈利的、用開放的方法研究通用人工智能、防止AI被大公司壟斷的研究機構,馬斯克是OpenAI最大的投資人之一。
官方宣稱,馬斯克的退出是為了避免OpenAI將來與特斯拉可能發(fā)生的利益沖突。消息一出,很多人認為馬斯克不再覺得人工智能是人類的威脅,并全力推進特斯拉的L5。
而此次馬斯克怒懟哈佛大學教授Pinker, 也可以看做是對這種“非黑即白”的看法進行回應。 實際上,馬斯克并沒有完全與OpenAI做切割,他仍然是OpenAI的捐贈者,并將繼續(xù)為該團隊提供建議。
此外,馬斯克曾頻繁警告人工智能的危險已經(jīng)觸及到它們可能用于控制武器或操縱信息來引發(fā)全球性沖突。物理學家霍金以及比爾·蓋茨也以類似的方式警告說,AI在超過我們的生物智能時可以“取代”人類。
但這些擔憂是關于所謂的“通用”人工智能(AGI),即系統(tǒng)能夠復制所有人類決策。但像特斯拉的Autopilot、AlphaGo和Facebook的新聞推送算法等系統(tǒng)是馬斯克口中的功能性/狹義人工智能,兩者完全不同的,狹義的AI系統(tǒng)旨在處理一項離散任務。
人工智能多久“統(tǒng)治”人類?谷歌前CEO:起碼還有一二十年的時間
雖然 狹義人工智能并不會給人類造成威脅,但馬斯克等人對通用人工智能的擔憂并非杞人憂天,可至于多少年之后通用人工智能會成為人類的威脅,現(xiàn)在還沒有準確的說法。
日前,谷歌前CEO Eric Schmidt 在慕尼黑安全會議上發(fā)言時稱, 至少在下一個十年,機器人還不可能奴役或消滅人類。 他說:
“每個人都喜歡談論電影風格的世界末日場景,但我可以很自信地預測,這樣的場景距離我們起碼還有一二十年的時間。所以我們可以擔憂,但那是很久以后的事情。”
谷歌前CEO Eric Schmidt
Schmidt的話并沒有十分令人欣慰。
近年來,人工智能和機器人技術的飛速發(fā)展已經(jīng)擴大了討論的范圍。整整一代人都是在科幻電影中長大的,電影描繪的是機器人的起義,幾乎可以肯定的是,當我們想到機器人的未來時,這些場景正是我們想象的場景。
這樣想當然是合理的,但不太可能。 Schmidt接著說:
“另外一點,我想提醒大家,這些技術本身存在著嚴重的錯誤,它們不應該被用于生命攸關的決策。所以我不想坐在一架由電腦負責有關飛行的一切決策的飛機上。這項技術還不夠可靠——在使用上存在太多錯誤。 它可以建議,它使你更聰明等等,但我不會讓它負責指揮和控制。 ”
最后一句話是關鍵。
研究者很清楚(盡管大多數(shù)普通人不這樣認為),AI并不適合取代人類,因為它是為了增強人類的。人類的大腦很復雜。雖然普遍來說,40歲的人無法記住維基百科,也不能打敗最厲害的撲克玩家,但典型的機器人并不能處理人類擅長的簡單的即興創(chuàng)作。
但事實上,AI和機器人擅長的大部分工作都是不需要技巧的工作,既簡單而可重復的目標,這些目標都很容易定義和測量。機器人并不擅長即興創(chuàng)作; 他們需要一套明確的規(guī)則,這些規(guī)則將越來越需要包含故障安全措施,以在發(fā)生故障時關閉機器。
盡管這些技術將會繼續(xù)得到改進,但感知還不會出現(xiàn)。如果一個機器人要編程危險的機器人,它必須被編程為危險的。 所以我們不是應該擔心機器人,而是應該擔心負責寫代碼的人。