霍金再發(fā)警告:人類應建立有效機制防范AI威脅

時間:2017-03-14

來源:網絡轉載

導語:強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案。

據外媒報道,英國劍橋大學物理學家霍金日前在接受媒體采訪時,再次強調人類建立有效機制,防止人工智能(AI)對人類的威脅進一步上升。

據報道,霍金在接受采訪時表示,包括AI在內的新科技若持續(xù)發(fā)展,可能會通過核戰(zhàn)爭或生物戰(zhàn)爭摧毀人類;人類則需要利用邏輯和理性去控制未來可能出現的威脅。

霍金還就應對AI的威脅建議稱,人類可以組成某種形式的聯合政府來防范AI可能帶來的威脅。

數年前霍金已經表示,發(fā)展全面的人工智能可能導致人類的毀滅。

霍金說,人工智能的發(fā)展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產生人們不愿意看到的種種后果,包括產生自主武器,造成經濟災難,以及發(fā)展出同人類發(fā)生沖突時擁有自己意愿的機器。

“簡言之,強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案?!?/p>

更多資訊請關注工業(yè)機器人頻道

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.connectcrack.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業(yè)內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發(fā)表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0