您的位置:首頁(yè) > 資訊 > 行業(yè)動(dòng)態(tài) > 正文

人工智能“政變”將使人類滅亡?

2015-01-16 08:22 性質(zhì):轉(zhuǎn)載 作者:中國(guó)機(jī)器人網(wǎng) 來(lái)源:中國(guó)機(jī)器人網(wǎng)
免責(zé)聲明:中叉網(wǎng)(htyl001.com)尊重合法版權(quán),反對(duì)侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識(shí)產(chǎn)權(quán)均系原作者和機(jī)構(gòu)所有。文章內(nèi)容觀點(diǎn),與本網(wǎng)無(wú)關(guān)。如有需要?jiǎng)h除,敬請(qǐng)來(lái)電商榷?。?/div>
不少科幻電影中,一些人工智能機(jī)器拒絕服從人類指揮,甚至殺死或控制人類,最終統(tǒng)治世界。為避免這類情況出現(xiàn),包括英國(guó)理論物理學(xué)家霍...

  不少科幻電影中,一些人工智能機(jī)器拒絕服從人類指揮,甚至殺死或控制人類,最終統(tǒng)治世界。為避免這類情況出現(xiàn),包括英國(guó)理論物理學(xué)家霍金在內(nèi)的數(shù)百名科學(xué)家和企業(yè)家聯(lián)合發(fā)表一封公開(kāi)信,敦促人們重視人工智能安全,確保這類研究對(duì)人類有益。
  英、法等國(guó)媒體1月13日?qǐng)?bào)道,這封信由非營(yíng)利機(jī)構(gòu)“未來(lái)生活研究所”發(fā)布。除霍金外,在信上簽名的還有美國(guó)機(jī)器人和智能機(jī)械研究中心主任盧克·米爾豪澤、2004年諾貝爾物理學(xué)獎(jiǎng)獲得者弗蘭克·維爾切克、美國(guó)網(wǎng)絡(luò)通訊軟件Skype創(chuàng)始人之一揚(yáng)·塔利英以及一些來(lái)自美國(guó)哈佛大學(xué)、斯坦福大學(xué)等知名高校的頂尖學(xué)者和一些來(lái)自谷歌公司、微軟公司等高科技企業(yè)的工作人員。這封公開(kāi)信說(shuō),人工智能技術(shù)穩(wěn)定發(fā)展已獲廣泛共識(shí),而且未來(lái)能夠給人類帶來(lái)巨大益處。人工智能已經(jīng)為人類生活提供便利,包括語(yǔ)音識(shí)別技術(shù)、圖像分析技術(shù)、無(wú)人駕駛汽車和翻譯工具。但是,如果沒(méi)有針對(duì)人工智能的安全防護(hù)措施,可能導(dǎo)致人類的未來(lái)變得黯淡,甚至讓人類滅亡。

  短期而言,人工智能可能導(dǎo)致數(shù)以百萬(wàn)計(jì)的人失業(yè);長(zhǎng)期而言,可能出現(xiàn)一些科幻電影中的情況,人工智能的智力水平超過(guò)人類,開(kāi)始“政變”。按人工智能的發(fā)展進(jìn)度,在不久的將來(lái),機(jī)器可能以不斷加快的速度重新設(shè)計(jì)自己,超越受制于生物進(jìn)化速度的人類,最終擺脫人類的控制。
  這封公開(kāi)信說(shuō):“我們的人工智能系統(tǒng)必須按照我們的要求工作。”
  去年早些時(shí)候,霍金提醒,需警惕人工智能科技過(guò)度發(fā)展,防止人工智能科技失控并超越人類智慧,最終破壞整個(gè)星球。

網(wǎng)友評(píng)論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機(jī)掃碼看新聞