人工智能使我们感到恐惧,同时又吸引着我们。几乎每周都出现使人恐慌的人工智能负面新闻,如 开发人员因为机器人太聪明而关闭机器人。这些新闻的出现大多数都是因为AI研究的结果被那些非专业的人误解造成的。
对人工智能最大的恐惧是人工智能奇点(也称为通用人工智能),即一个能够实现人类层面思考的系统。根据一些专家的说法,奇点也就意味着机器意识。不管它是否有意识,这样的机器是可以不断地自我改进的,并远远超出我们的能力。这里有快速的答案供您参考:
- 奇点会发生吗?根据大多数AI专家的说法,是的。
- 什么时候发生?本世纪末前
更细致的答案在下文。人们多次询问过AI科学家这样的发展何时会发生。
在2分钟内了解AI研究人员的主要研究结果

2009年,人们对参加AGI-09会议的21名AI专家进行了调查。专家们认为,AGI将在2050年左右发生,而且可能更早发生。你可以看到上图关于具体人工智能成就的估计:通过图灵测试,通过第三级,完成可获诺贝尔奖的科学突破和实现AI超越人的智能。
2017年5月,在2015年NIPS和ICML会议上发表论文的352名AI专家接受了调查。根据调查结果,专家估计AGI在2060年之前发生的可能性为50%。然而,来自不同地区专家的意见有显著的差异:亚洲受调查专家预计AGI在30年后,而北美专家预期在74年后。预计在2030年之前实现自动化的一些重要工作职能包括:呼叫中心代表、卡车驾驶、零售销售。
人工智能的企业家们也在预测我们何时会达到奇点,他们比研究人员更乐观一些:
- 路易斯·罗森博格,计算机科学家、企业家和作家: 2030
- 1972年至1997年间任麻省理工学院教授兼麻省理工学院人工智能实验室主任帕特里克·温斯顿: 2040
- Ray Kuzweil,计算机科学家,企业家和5本国内畅销书(其中包括《 The Singularity Is Near》 )的作者:2045
- 约尔根·施密德胡伯,AI公司NNAISENSE的联合创始人,瑞士AI实验室IDSIA主任:2050年左右
了解为什么在大多数专家看来达到 AGI 是不可避免的
这些可能看起来是不太可信的预测,但当你考虑这些事实时,它们似乎相当合理:
- 人类的智慧是固定的,除非我们以某种方式将我们的认知能力与机器融合在一起。埃隆·马斯克的神经织网初创公司的研究目标就是这个方面,但神经织网的研究还处于早期阶段。
- 机器智能取决于算法、处理能力和内存。处理能力和内存一直在以指数级的速度增长。至于算法,到目前为止,我们一直善于为机器提供必要的算法以有效地使用其处理能力和内存。
考虑到人类的智慧是固定的,而机器智能正在增长,除非机器的智能有一些硬性限制,否则机器超越我们只是时间问题。我们还没有遇到这样的限制。
这是理解指数增长的一个很好的类比。虽然机器现在看起来很笨,但很快就能变得相当聪明了。

理解为什么有些人不相信我们会达到AGI
有三个主要的观点反对AGI的价值或存在性。我们研究了这三个论点及其常见的反驳:
1- 智能是多维的
因此,AGI只会有所不同,而不是优于人类的智慧。这确实是这样,人类的智慧也不同于动物的智慧。有些动物有惊人的思维能力,比如松鼠能记住它们在哪里藏了几百个坚果,而且藏了好几个月。
然而,这些差异并没有阻止人类在多种衡量物种成功的特有指标上远远超过其他物种。例如,人类是哺乳动物中对地球生物量贡献最大的物种。

2- 智能不是解决所有问题的办法
例如,即使是分析现有数据的最好机器也可能无法找到治疗癌症的方法。它需要进行实验和分析结果来发现大多数领域的新知识。
这是事实,但有几点需要注意。更高的智能可以促使实验设计和管理得更好,使每个实验有更多的发现。研究生产率的历史应该能证明这一点,但数据有很多噪声,而且研究的回报在递减。当我们解决像牛顿运动这样的简单问题时,我们会遇到像量子物理这样的难题。
3- AGI不会达到,因为不可能给人脑建模
从理论上讲,可以使用一台相对简单的机器对包括人脑在内的任何计算机器进行建模,该机器可以执行基本计算并访问无限的内存和时间。这是1950年提出的邱奇-图灵假说。该假说是被普遍接受的。然而,如上所述,它需要某些苛刻的条件:无限的时间和记忆。
大多数计算机科学家认为,用更少的时间和内存来模拟人类大脑。然而,没有一个数学上可靠的方法来证明这个观点,因为我们没有足够的理解大脑,无法理解其计算能力。我们只需要制造这样一台机器!
希望这篇文章可以澄清有关AGI的一些要点。有关AI如何改变世界的更多信息,您可以查看 市场, 销售, 客户服务, IT, 数据 或 分析等应用领域的AI应用程序。如果您有待解决的业务问题,请查看:
资料来源: 文章中反对AGI的观点部分是基于Wired杂志对反对AGI争辩观点的总结以及维基百科中的相关部分。