添加收藏 设为首页

霍金再次警示人类有被人工智能毁灭的风险

中企天津报道 www.zqtjnews.com.cn 时间:2022-06-20 22:22:21点击:

4月27日,2017全球移动互联网大会(GMIC)北京国家会议中心开幕。英国的著名科学家斯蒂芬·霍金教授通过视频,在全球领袖峰会论坛上发表开幕演讲《让人工智能造福人类及其赖以生存的家园》。在人工智能热潮迭起的时刻,霍金提醒科学界、政府和产业界,应联手未雨绸缪地防范人工智能可能带来的社会风险。霍金表示,人工智能的研究与开发正在迅速推进,人工智能的崛起究竟是好是坏现在仍未确定。“也许我们所有人都应该暂停片刻,把我们的研究从提升人工智能能力,转移到最大化人工智能的社会效益上面。”他说,“我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。”霍金认为,人工智能的发展本身就是存在着问题的一种趋势。人工智能的发展遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。“但我们无法知道,我们将无限地得到人工智能的帮助,还是将被藐视并被边缘化,或者很可能被它毁灭。”他表示。关于人工智能的研究正在迅速发展,但人

工智能已经在引起很多社会伦理问题。例如,在医疗领域,人工智能有根除疾患和贫困的能力,但是研究人员必须创造可控的人工智能;在交通领域,无人驾驶汽车,在自三决定小风险的大事故和大概率的小事故之间,该如何进行选择?在安全领域,智能自主武器是否应该被禁止?如果是,“自主”该如何精确定义?如果不是,任何使用不当和故障的过失应该如何问责?在个人隐私方面,由人工智能可以解读大量监控数据,已经引起对侵犯个人隐私和担忧;在社会经济方面,如何管理因人工智能取代工作岗位带来的经济影响?霍金指出,从长期来看,担忧主要来自人工智能系统失控的潜在风险,他担心不遵循人类意愿行事的超级智能的崛起会威胁到人类,“人工智能的成功有可能是人类文明史上最大的事件,但也有可能是人类文明史的终结,除非我们学会如何避免危险”。

【主持者言】这已经不是霍金第一次会开警示人工智能对于人类的威胁了,霍金还与特斯拉CEO埃隆·马斯克及多位人工智能专家签署过一份关于人工智能的公开信,呼吁就人工智能对社会所造成的影响做认真调研。不过,霍金话音刚落,就有人工智能专家站出来指出,霍金并非研究人工智能的科学家,而是一个理论物理学家,他的话从专业上来说并经不起推敲。关于科学的问题,主持者也不敢多言,在主持者看来,霍金所提出的这些问题,更多是接近于科学的哲学层面,而非具体技术层面,不过,作为全球最著名的科学家,很多普通人眼中科学的“化身”,无论专业与否,霍金的意见都能够引起人们对于人工智能话题的重视和探讨,此时正确不正确倒并不那么重要了。

深度

Depth更多

圈点

Punctuate更多

思维Reversed更多

版权所有 © 2006-2023 中企天津报道 | | 举报电话:16710267953