雷火电竞app-中国知名电竞赛事平台

?
您好 ,歡迎您來到邯鄲之窗! 
?資訊 視頻 文化 科技 體育 娛樂 旅游 原創 財經 美食 分類 人才招聘 汽車 建材家居 房產 返回首頁

霍金:人工智能一旦失控 將很難被阻止!

來源:人民網編輯:大洋2016-06-29 15:47:14
分享:

  據俄衛星新聞中文信息專線,著名天體物理學家史蒂芬·霍金日前在接受美國記者拉里·金的專訪時表示,人工智能一旦脫離控制,將極難被阻止。

  霍金稱,自己不認為發展人工智能“一定能讓人類朝好的方向發展”,“當機器發展到能自己演化的重要階段之時,它們的目標與人類愿望之間的相符程度就很難預料了。”他強調,人工智能應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器將很難被阻止。

  霍金指出,人工智能可以比人類的智慧發展得更快。“有益的人工智能可以與人類共存,并擴大人類的可能性...想象一下那些可以對科學家想法迅速作出評價、更早地查出癌癥、并預測證券市場走勢的人工智能!它們將影響到我們的經濟,影響到我們的決策,并在整體上影響我們的生活。”

  霍金被譽為是繼阿爾伯特·愛因斯坦之后最杰出的理論物理學家。他提出宇宙大爆炸的理論,在統一20世紀物理學的兩大基礎理論——愛因斯坦的相對論和普朗克的量子論方面走出了重要一步。遺憾的是,他21歲就患上肌肉萎縮性側索硬化癥(盧伽雷病),全身癱瘓,不能言語,唯一能動的地方只有一雙眼睛和3根手指。

資訊 視頻 文化 科技 體育 娛樂 旅游 原創 財經 美食 分類 人才招聘 汽車 建材家居 房產 返回首頁 視頻

地址:邯鄲市水院北路甲23號 客服熱線:400-707-4888 經營許可證:030030號
邯鄲之窗  www.bm-sj.com  版權所有 未經同意不得復制或鏡像 在線交流
文明辦網文明上網舉報電話:010-82615762 通信管理局ICP證:冀B2-20080045 冀ICP備12015509號-4