侵权投诉
技术:
GPU/CPU 传感器 基础元器件 网络通信 显示 交互技术 电源管理 材料 操作系统 APP 云技术 大数据 人工智能 制造 其它
应用:
可穿戴设备 智能家居 VR/AR 机器人 无人机 手机数码 汽车 平衡车/自行车 医疗健康 运动设备 美颜塑身 早教/玩具 安防监控 智能照明 其它
当前位置:

OFweek智能硬件网

人工智能

正文

霍金今日演讲:即使它终结人类,人类也别无选择

导读: 迅猛发展的人工智能,已经能够替人类完成部分工作,究竟是解放人类还是有朝一日会取代人类?如何让人工智能造福人类及其赖以生存的家园。 “GMIC2017北京大会”今天开幕,霍金专门为GMIC录制的珍贵视频,我们听听他对于人工智能的独到见解。

人工智能,要么是最好的,要么是最糟的

在我的一生中,我见证了很多社会深刻的变化。其中最深刻,同时也是对人类影响与日俱增的变化就是人工智能的崛起。

简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。

是好是坏,我不得不说我们依然不能确定。但我们应该竭尽所能,确保其未来发展对我们的后代和环境有利。

我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

人工智能的研究与开发正在迅速推进。也许科学研究应该暂停片刻,从而使研究重点从提升人工智能能力转移到最大化人工智能的社会效益上面。

基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛。他们近期在目的导向的中性技术上投入了大量的关注。但人工智能系统的原则依然必须要按照我们的意志工作。

跨学科研究可能是一条可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

文明所提产生的一切都是人类智能的产物,我相信生物大脑总有一天会达到计算机可以达到的程度,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。

blob.png

但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧这样这个结果,即创造一个可以等同或超越人类的智能的人工智能:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。

人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。

很多人认为人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定,尽管我对人类一贯持有乐观的态度。

人工智能对社会所造成的影响,需要认真调研

2015年1月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信。目的是提倡就人工智能对社会所造成的影响,做认真的调研。

在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益。但如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”担任科学顾问委员会的职务,这是一个旨在缓解人类所面临的存在风险的组织。

之前提到的公开信也是由这个组织起草的。这个公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时致力于让人工智能的研发人员更关注人工智能安全。

对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能,我们认为这一点非常重要。比如,人工智能具有根除疾患和贫困的潜力,但是研究人员必须能够保证创造出可控的人工智能。

那封只有四段文字,题目为《应优先研究强大而有益的人工智能》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。

在过去的20年或更长时间里,人工智能一直专注于建设智能代理所产生的问题,即:在特定环境下可以感知并行动的各种系统。

智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种能做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学以及其它领域。

blob.png

共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。

例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。

随着这些领域的发展,从实验室研究到有经济价值的技术形成了良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能还在扩大。

潜在的好处是巨大的,甚至文明所产生的一切,都可能是人类智能的产物。但我们无法预测我们会取得什么成果,这种成果可能是被人工智能工具放大过的。

正如我说的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。

从短期和长期看人工智能

现在,关于人工智能的研究正在迅速发展,这一研究可以从短期和长期来分别讨论。

短期担忧:

1.无人驾驶。

从民用无人机到自主驾驶汽车。在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。

2.致命性智能自主武器。

它们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何被问责。

3.隐私的担忧。

由于人工智能逐渐开始解读大量监控数据,会造成隐私上的担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险。

随着不遵循人类意愿行事的超级智能的崛起,强大的系统可能会威胁到人类发展。这种错位是否会发生?如果会,那些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?

当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这系统失控的问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。

近来的里程碑,比如之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象,巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比必然相形见绌。

而且我们远不能预测我们能取得什么成就。当我们的头脑被人工智能放大以后,也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。

简而言之,人工智能的成功有可能是人类文明史上最大的事件。

但人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡。比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。

目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个国家都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。

blob.png

这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任。正是科学家发明了核武器,并发现它们的影响比最初预想的更加可怕。

我对人工智能的灾难探讨可能惊吓到了各位。很抱歉。但是作为今天的与会者,重要的是,在影响当前技术的未来研发中,你们要清楚自己所处的位置。

我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。

去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。

过去我们花费大量时间学习历史,虽然深入去看,可能大多数是关于愚蠢的历史。所以现在人们转而研究智能的未来,是令人欣喜的变化。

我们对潜在危险有所意识,我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。

我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存量风险中心”。后者更加广泛地审视人类潜在问题,而“利弗休姆中心”的重点研究范围则相对狭窄。

1  2  下一页>  
声明: 本文由入驻OFweek公众平台的作者撰写,除OFweek官方账号外,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: