亚洲色无码国产精品网站可下载,亚洲h成年动漫在线观看网站,亚洲av中文无码乱人伦在线观看,亚洲国产一成人久久精品,亚洲av成人精品网站在线播放

如何迎接人工智能?我們需要倫理算法和道德編程

   2020-09-01 中國(guó)機(jī)器人網(wǎng)中國(guó)鑄造網(wǎng)3890
核心提示:  鮮為人知的是:著名科幻小說作家艾薩克阿西莫夫一開始并沒有在《I, Robot》這部小說中寫出著名的機(jī)器人
如何迎接人工智能?我們需要倫理算法和道德編程

   鮮為人知的是:著名科幻小說作家艾薩克·阿西莫夫一開始并沒有在《I, Robot》這部小說中寫出著名的“機(jī)器人三大定律”。
 
  實(shí)際上,機(jī)器人三定律第一次出現(xiàn)是在1942年的短篇小說《Runaround》中。三定律寫道:
 
  1、機(jī)器人不能傷人,或見到傷人事件無作為;2、機(jī)器人不能違背人類的命令,除非違反第一條定律;3、機(jī)器人必須保護(hù)自己,除非違反第一第二條定律。
 
  75年過去了,我們?nèi)匀辉谔接懓⑽髂蛐≌f中的未來。阿西莫夫的三定律似乎更專注于“強(qiáng)人工智能”,你可以在《2001:太空漫游》中人工智能哈爾(HAL)身上發(fā)現(xiàn)這樣的特質(zhì),但這并不能適用于亞馬遜新型人工智能Echo。
 
  強(qiáng)人工智能模仿人類的大腦,就像一個(gè)不斷進(jìn)化的孩子,直到它變得有知覺,并能處理你扔給它的任何問題,就像人類一樣。要想實(shí)現(xiàn)這一目標(biāo),還有很長(zhǎng)的路要走,但今天我們要處理的是狹義的人工智能,在這種情況下,算法可以處理有限的任務(wù)。它識(shí)別人臉,理解你對(duì)它發(fā)出的“明天天氣怎樣”的問題,或者試圖預(yù)測(cè)你是否應(yīng)該給某人一筆貸款。
 
  不過,JonathanM.Smith說,為這種人工智能制定規(guī)則已經(jīng)相當(dāng)困難了。Jonathan是計(jì)算機(jī)機(jī)械協(xié)會(huì)組織的一員,也是賓夕法尼亞大學(xué)的計(jì)算機(jī)科學(xué)教授,他說,即便是在目前弱人工智能的水準(zhǔn)上,也仍有大量的倫理問題需要解開。“短期問題非常重要,因?yàn)槿斯ぶ悄芴幱诩夹g(shù)和政策的邊界,”他說,“你肯定不希望有人利用人工智能來鉆法律的空子,逃避或轉(zhuǎn)移我們努力在做出的社會(huì)政治決策。”
 
  無論是真實(shí)的還是想象的,人工智能在倫理上已經(jīng)出現(xiàn)了一些棘手的難題。其中一個(gè)是著名的電車問題,這是《蘇菲的抉擇》這部電影中的場(chǎng)景:一列進(jìn)行中的火車將在兩組人身上駛過。如果你什么都不做,火車會(huì)駛過,然后殺死5個(gè)人。如果你主動(dòng)拉動(dòng)一個(gè)閘刀,改變火車軌跡,火車就會(huì)壓死另外一行軌道上的一個(gè)人。你必須做出選擇。
 
  因此,人工智能的批評(píng)者經(jīng)常會(huì)把這個(gè)應(yīng)用到自動(dòng)駕駛汽車上。一個(gè)孩子跑到馬路上,汽車沒有時(shí)間停下來,但是自動(dòng)駕駛可以選擇轉(zhuǎn)向,并撞到一個(gè)老人。AI該怎么做,誰(shuí)來做這個(gè)決定?
 
  這一主題有很多不同之處在于,麻省理工學(xué)院甚至將其中的一部分收集到了一個(gè)在線游戲中。有一個(gè)經(jīng)典的反駁觀點(diǎn)是:自動(dòng)駕駛汽車不會(huì)在學(xué)校里超速行駛,所以不太可能發(fā)生上述的情形。
 
  功利主義者可能會(huì)爭(zhēng)辯說,通過消除注意力分散、醉酒或疲勞的司機(jī),全球范圍內(nèi)的死亡人數(shù)將會(huì)減少,這意味著整個(gè)社會(huì)贏了,即使一個(gè)人死亡。你可能會(huì)指出,就算是人類可能也會(huì)在這個(gè)場(chǎng)景中選擇殺死其中一個(gè)人,那么,我們?yōu)槭裁催€要進(jìn)行這樣的對(duì)話呢?
 
  YaseminErden是瑪麗女王大學(xué)的哲學(xué)高級(jí)講師,她對(duì)此有一個(gè)答案。她指出,她花了大量的時(shí)間考慮倫理和計(jì)算機(jī)在人工智能和行為模擬方面的研究,事情沒有發(fā)生之前模擬做出的決定表明了人的道德取向,并會(huì)招致他人的評(píng)判,但現(xiàn)場(chǎng)做出的決策則沒有。
 
  她說:“有道德判斷的自動(dòng)駕駛編程,知道風(fēng)險(xiǎn)是什么,這意味著公眾可能不太愿意把事情看成是事故。”或者換句話說,只要你在駕駛中足夠負(fù)責(zé)任,你就可以在撞了任何人之后說:“是那個(gè)人自己突然跳出來的。”,你的任何行為都可以被原諒。但是人工智能算法在道德上并沒有獲得這么奢侈的諒解。如果計(jì)算機(jī)在某些情況下比我們更快速、更能判斷,那么它們的編程方式就很重要了。

 
如何迎接人工智能?我們需要倫理算法和道德編程
  專家們?cè)诤粲踟?zé)任,但指望算法能夠得出電子倫理這件事合適嗎?
 
  凱菲特-巴特菲爾德說:“我需要對(duì)我的算法進(jìn)行交叉檢查,或者至少知道如何找出事故發(fā)生時(shí)的情況。”她是一名專攻人工智能問題的律師,同時(shí)也是艾奧斯汀的執(zhí)行董事。她說,今年3月成立的非營(yíng)利人工智能智庫(kù)“道德顧問委員會(huì)”是由人工智能公司露西建立的倫理委員會(huì)。
 
  ”我們需要一種方法來理解人工智能算法在做事情時(shí)“思考”的方式。你怎么能對(duì)一個(gè)病人的家人說,他們因?yàn)?lsquo;我們不知道是怎么發(fā)生的’AI干預(yù)而死亡?”因此,問責(zé)和透明度是很重要的。讓你困惑的是為什么你的車會(huì)因?yàn)楸茏屢恢回埻蝗晦D(zhuǎn)向了一條狗,這并不是唯一需要提高透明度的人工智能問題。
 
  有偏見的人工智能算法會(huì)導(dǎo)致各種各樣的問題。例如,面部識(shí)別系統(tǒng)可能會(huì)忽略有色人種,因?yàn)锳I的訓(xùn)練數(shù)據(jù)庫(kù)中沒有關(guān)于有色人種的足夠的面部特征,又比如:帶有偏見的人工智能可能會(huì)自我強(qiáng)化,從而損害社會(huì)。如果社交媒體知道你喜歡看到一種政見的新聞,并且只向你展示這樣的新聞,那么隨著時(shí)間的推移,我們可能會(huì)失去批判性辯論的能力。
 
  'J.S穆勒提出了一個(gè)論點(diǎn),如果想法沒有受到挑戰(zhàn),那么它們就有可能成為教條。”Erden回憶道,很好地總結(jié)了她所說的“過濾泡沫”問題。(穆勒是一位19世紀(jì)的功利主義哲學(xué)家,他強(qiáng)烈支持基于經(jīng)驗(yàn)證據(jù)的邏輯和推理,所以他很可能不會(huì)喜歡和Facebook上的人爭(zhēng)論。)因此,如果人工智能創(chuàng)造出了數(shù)十億人,他們不愿意,甚至沒有能力分辨彼此的想法,這難道不是一個(gè)需要解決的道德問題嗎?
 
  另一個(gè)問題是與機(jī)器人的情感關(guān)系的形成。菲爾德-巴特菲爾德感興趣的是兩種不同的范圍——兒童和老年人。孩子們喜歡把自己不信任的東西放在身邊,這使得他們與人工智能交流變得更容易接受。她擔(dān)心人工智能機(jī)器人可能會(huì)讓孩子們成為他們產(chǎn)品的理想客戶。同樣,另一方面,她也在思考人工智能機(jī)器人如何為老年人提供照顧和陪伴。
 
  “這是否會(huì)讓人類沒有與人類互動(dòng)的權(quán)利,而只是被機(jī)器人照顧?”她說,“我認(rèn)為這將是我們這個(gè)時(shí)代最重大的決定之一。”
 
  這凸顯了人工智能的一個(gè)區(qū)別,即算法是如何做到的,以及我們想用它來實(shí)現(xiàn)什么。亞歷克斯倫敦是卡內(nèi)基梅隆大學(xué)道德與政策中心的哲學(xué)教授和主任,他說,推動(dòng)問題的本質(zhì)是機(jī)器想要做什么。這可能是最根本的問題之一。
 
  “如果機(jī)器出了問題,這是有問題的,那么道德編程(即它如何能在道德上提高這一目標(biāo))聽起來是錯(cuò)誤的,”他說,“這很棘手,因?yàn)楹芏喽际浅鲇谌祟愖陨淼囊鈭D。”
 
  如果它能提高老年人的生活質(zhì)量,作為頻繁拜訪和與家人通話的補(bǔ)充,機(jī)器人可能會(huì)很棒。但同樣,以機(jī)器人作為借口忽視年長(zhǎng)的親戚,將會(huì)帶來相反的后果。
 
如何迎接人工智能?我們需要倫理算法和道德編程
 
  就像從廚房刀到核聚變的任何技術(shù)一樣,這個(gè)工具本身不是好是壞,取決于使用它的人的意圖。即使是這樣,亞歷克斯倫敦也指出,如果有人認(rèn)為他們用這個(gè)工具做得很好,而其他人則不好,又是什么樣的情況呢?
 
  對(duì)于這些道德問題,我們自己又是清醒的嗎?隨著人工智能的發(fā)展,這些問題已經(jīng)開始顯現(xiàn)出來。我們離智能機(jī)器人不遠(yuǎn)了,目前正在和那些愿意停止懷疑的人進(jìn)行可行性的對(duì)話。
 
  自動(dòng)汽車廠商正在將狹義的人工智能技術(shù)結(jié)合起來,生產(chǎn)出能夠解決復(fù)雜問題的產(chǎn)品。然而,專家警告說,大多數(shù)人所認(rèn)為的強(qiáng)人工智能,即具有模仿人類大腦功能的人工智能,離我們還遠(yuǎn)。
 
  SteveTorrance是蘇塞克斯大學(xué)信息學(xué)院認(rèn)知科學(xué)研究中心的高級(jí)研究員,他花了幾十年的時(shí)間來思考一個(gè)強(qiáng)大的人工智能會(huì)產(chǎn)生的問題。什么是意識(shí),而強(qiáng)大的人工智能會(huì)有嗎?我們是否應(yīng)該建立強(qiáng)大的人工智能,如果有的話,它會(huì)有情感嗎?它應(yīng)該擁有人權(quán)嗎?
 
  谷歌工程負(fù)責(zé)人RayKurzweil甚至提出,你能不能創(chuàng)造出許多你自己的意識(shí)副本?“我認(rèn)為這引發(fā)了可怕的問題,”Torrance說。“不止一次,而是千萬次,你可以創(chuàng)作出很多個(gè)自我。”并且每個(gè)自我都可以獲得投票的權(quán)利。
 
  算法解放!政治人士對(duì)這一點(diǎn)很感興趣。今年1月,歐洲議會(huì)投票通過了一項(xiàng)關(guān)于人工智能研究和使用監(jiān)管框架的提案。在許多情況中,它解決了機(jī)器人的治療問題。這一提議,雖然僅為人工智能的一個(gè)可能的法律框架,但也可能會(huì)帶來一些法規(guī),讓機(jī)器人擁有一種類似企業(yè)人格的地位。
 
只要你關(guān)注機(jī)器人,你就無法錯(cuò)過睿慕課
 
舉報(bào) 收藏 打賞 評(píng)論 0
 
更多>同類資訊
推薦圖文
【2025泰國(guó)壓鑄業(yè)考察團(tuán)】泰國(guó)新能源汽車產(chǎn)業(yè)鏈深度考察之旅(6.18-21 日)—— 搶占東南亞千億市場(chǎng)先機(jī)!】 壓鑄要聞速覽|技術(shù)突破、政策動(dòng)態(tài)、企業(yè)大事件全掌握!
【泰國(guó)壓鑄業(yè)考察團(tuán),欲報(bào)從速!】2025泰國(guó)新能源汽車產(chǎn)業(yè)鏈深度考察之旅(6.18-21 日)—— 搶占東南亞千億市場(chǎng)先機(jī)! 【2025泰國(guó)壓鑄業(yè)考察團(tuán)】泰國(guó)新能源汽車產(chǎn)業(yè)鏈深度考察之旅(6.18-21 日)—— 搶占東南亞千億市場(chǎng)先機(jī)!
推薦資訊
點(diǎn)擊排行
網(wǎng)站首頁(yè)  |  付款方式  |  關(guān)于我們  |  聯(lián)系方式  |  使用協(xié)議  |  版權(quán)隱私  |  網(wǎng)站地圖  |  排名推廣  |  廣告服務(wù)  |  積分換禮  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報(bào) 營(yíng)業(yè)執(zhí)照  |  粵ICP備18059797號(hào)-1
×