據(jù)英國(guó)《衛(wèi)報(bào)》報(bào)道,曾撰寫(xiě)過(guò)一本有關(guān)人工智能的權(quán)威教科書(shū)的美國(guó)科學(xué)家表示,在將人工智能的進(jìn)步比作原子彈技術(shù)的發(fā)展時(shí),專(zhuān)家們被自己在該領(lǐng)域的成就“嚇壞了”。
美國(guó)加州大學(xué)伯克利分校人類(lèi)兼容人工智能中心(CHAI)的創(chuàng)始人斯圖爾特·拉塞爾(Stuart Russell)教授表示,大多數(shù)專(zhuān)家認(rèn)為本世紀(jì)就會(huì)開(kāi)發(fā)出比人類(lèi)更聰明的機(jī)器,并呼吁制定一些國(guó)際條約來(lái)規(guī)范這一技術(shù)的發(fā)展。
他對(duì)《衛(wèi)報(bào)》表示,人工智能界還沒(méi)有適應(yīng)人工智能技術(shù)開(kāi)始在現(xiàn)實(shí)世界中產(chǎn)生真正的重大影響的事實(shí)。但是,在人工智能歷史上,過(guò)往大多數(shù)時(shí)候都不是這樣的——專(zhuān)家只是待在實(shí)驗(yàn)室里開(kāi)發(fā)產(chǎn)品,試圖讓這些產(chǎn)品發(fā)揮作用,但大多數(shù)情況下都失敗了。因此,人工智能對(duì)現(xiàn)實(shí)世界的影響與科學(xué)家并沒(méi)有太大聯(lián)系,所以科學(xué)家必須快速成長(zhǎng)、趕上潮流。
人工智能支撐著現(xiàn)代生活的許多方面,包括搜索引擎和銀行業(yè)務(wù)等,而在圖像識(shí)別和機(jī)器翻譯領(lǐng)域所取得的進(jìn)步是近年來(lái)的重要發(fā)展之一。
拉塞爾在1995年合著了《人工智能技術(shù):一種現(xiàn)代方法》一書(shū)。他表示,在緊迫的關(guān)鍵領(lǐng)域仍需要確保人類(lèi)對(duì)有超常智慧的人工智能的控制權(quán)。
他指出,人工智能是用一種特定的方法和某種通用方法進(jìn)行設(shè)計(jì)的,而在復(fù)雜的現(xiàn)實(shí)環(huán)境中使用這種系統(tǒng)仍然不夠謹(jǐn)慎。
例如,要求人工智能盡快治愈癌癥可能會(huì)有危險(xiǎn)。拉塞爾認(rèn)為,它可能會(huì)找到在整個(gè)人類(lèi)中誘發(fā)腫瘤的方法,這樣它就可以并行進(jìn)行數(shù)百萬(wàn)個(gè)實(shí)驗(yàn),把我們所有人都當(dāng)作實(shí)驗(yàn)品。這是因?yàn)槿斯ぶ悄茉趫?zhí)行我們所設(shè)定目標(biāo)的解決方案;但我們只是忘了作具體說(shuō)明,忘了告訴人工智能不能把人類(lèi)當(dāng)作實(shí)驗(yàn)品、不能用全世界的GDP來(lái)完成人工智能實(shí)驗(yàn),以及其他的禁忌等。”
他還表示,如今的人工智能技術(shù)與《機(jī)械姬》等電影中描述的技術(shù)仍有很大差距,但未來(lái)的機(jī)器勢(shì)必會(huì)比人類(lèi)更聰明。
拉塞爾認(rèn),為這一目標(biāo)最快可以在10年內(nèi)實(shí)現(xiàn),慢則需要長(zhǎng)達(dá)幾百年的光陰。不過(guò),幾乎所有人工智能研究人員都認(rèn)為這將一展望將在本世紀(jì)得以實(shí)現(xiàn)。
一個(gè)擔(dān)憂(yōu)的問(wèn)題是,機(jī)器不需要在所有方面都比人類(lèi)更聰明,否則會(huì)帶來(lái)嚴(yán)重的風(fēng)險(xiǎn)。拉塞爾表示,這是目前科學(xué)家們正在做的事情。如果了解一下社交媒體和那些通過(guò)計(jì)算給人們推送閱讀和觀看內(nèi)容的算法,就會(huì)知道它們?cè)诤艽蟪潭壬峡刂浦覀兊恼J(rèn)知輸入。
他表示,結(jié)果就是算法操縱著用戶(hù),不停地給他們洗腦,這樣算法就可以預(yù)測(cè)用戶(hù)的行為和喜好,所推送的內(nèi)容也會(huì)獲得更多的點(diǎn)贊及收入。
以于人工智能研究人員是否被自己的成就嚇到的問(wèn)題,拉塞爾明確表示,“是的,我認(rèn)為我們的恐懼正與日俱增”。
這讓拉塞爾想起了在物理學(xué)領(lǐng)域發(fā)生的事情:物理學(xué)家知道原子能的存在,他們可以測(cè)量出不同原子的質(zhì)量,還可以計(jì)算出在不同類(lèi)型的原子之間進(jìn)行轉(zhuǎn)換可以釋放多少能量。但是,專(zhuān)家們總是強(qiáng)調(diào)這些想法只是理論上的。隨后當(dāng)原子能真正運(yùn)用到實(shí)際生活中時(shí),這些專(zhuān)家還沒(méi)有準(zhǔn)備好。
拉塞爾表示,人工智能在軍事領(lǐng)域上的應(yīng)用,比如造小型殺傷性武器等,十分令人擔(dān)憂(yōu)。這些武器是可以量產(chǎn)的,這意味著可以在一輛卡車(chē)上安裝一百萬(wàn)個(gè)小型武器,之后你打開(kāi)后車(chē)廂讓它駛離,就足以摧毀整座城市。
拉塞爾認(rèn)為,人工智能的未來(lái)在于開(kāi)發(fā)出一種機(jī)器,知道真正的目標(biāo)是不確定的,就好像人們的偏好也是不確定的一樣。這意味著它們?cè)谧龀鋈魏螞Q定時(shí)都必須與人類(lèi)進(jìn)行溝通,而不是像管家一樣自行決定。但是,這個(gè)想法很復(fù)雜,尤其是因?yàn)椴煌娜擞胁煌?、或相互沖突的偏好,而這些偏好不是固定的。
拉塞爾呼吁人們采取措施,包括制定研究人員行為準(zhǔn)則、立法和條約,以確保使用的人工智能系統(tǒng)的安全,還應(yīng)該培訓(xùn)研究人員來(lái)確保人工智能免遭種族偏見(jiàn)等問(wèn)題的影響。他表示,歐盟禁止機(jī)器模仿人類(lèi)的相關(guān)立法應(yīng)該在世界范圍內(nèi)實(shí)施。
他希望讓公眾參與到這些選擇中來(lái)是很重要的,因?yàn)楣姴攀亲罱K受益與否的對(duì)象。
另一方面,在人工智能領(lǐng)域取得進(jìn)步需要一段時(shí)間才能實(shí)現(xiàn),但這也不會(huì)讓人工智能變成科幻小說(shuō)。
上一篇: 鍋爐房防火防爆
下一篇: 防爆平板電腦的設(shè)計(jì)要求
違法和不良信息舉報(bào)投訴電話(huà):0377-62377728 舉報(bào)郵箱:fbypt@ex12580.com
網(wǎng)絡(luò)警察提醒你 a> 中國(guó)互聯(lián)網(wǎng)舉報(bào)中心 網(wǎng)絡(luò)舉報(bào)APP下載 掃黃打非網(wǎng)舉報(bào)專(zhuān)區(qū)