当前位置: 首页> 资讯> 危言耸听?人工智能机器人...

危言耸听?人工智能机器人5年内毁灭人类

沐尘沐尘
来源:凤凰网
2016-05-03 16:31:39

据英国媒体报道,全球挑战基金会近日发布《2016年全球灾难风险报告》(又被称为末日报告),概述了人类面临的最紧迫全球风险。其中,人工智能、核战争、自然流行病以及气候变化被视为最危险因素,报告作者们认为终结者式的杀人机器人可能在5年内灭绝人类。


终结者式机器人5年内灭绝人类

末日报告称,人类正处于空前危险状态,距离被灭绝只差一线之隔。报告中列举了2016年人类面临的最大全球灾难性风险,包括与气候变化有关的天灾、自然传染病(比如禽流感)以及核战争等,它们很有可能在未来5年中发生。

其他风险还包括人造病毒、地球改造工程(比如向海洋中添加铁以吸收大气层中的碳)失败以及人工智能带来的灾难性威胁。从历史上看,全球性灾难已经罕有发生。但是一旦发生,意味着将有数百万人死亡。最极端的例子包括1918年发生的流感疫情,导致5000万人死亡,超过一战遇难总人数。20世纪60年代,人类曾无限接近末日。当时正是冷战高峰期,核战争一触即发。

与此同时,科幻电影中常见的末日元素,比如小行星撞地球或超级火山爆发,今年却都处于垫底儿位置。这份报告凸显了全球灾难性风险,它们可能抹杀10%人类,也就是7.4亿人。

为了具体化全球灾难性风险,报告中引用车祸进行对比。报告中指出,一个人死于灭绝事件的几率很小,每年仅为0.1%,但却比遭遇交通事故遇难高4倍。而随着二氧化碳排放增加、缺少相应措施和财政投资,这些与气候变化有关的灾难风险还会继续累积。

全球挑战基金会创始人拉兹洛·松鲍特弗尔维(Laszlo Szombatfalvy)解释说:我希望这份报告能加深人们对全球灾难性风险的了解,同时推动人们寻找应对这些风险的最好方式。

报告中指出,国际社会需要采取有力措施避免全球温度上升超过上限,那会对粮食安全和人类生命造成破坏性影响。对于世界各国领导人来说,合作是应对危及人类生存的风险的唯一方式。

21:0

评论 (0)

| 注册 参与评论

返回

顶部

硬蛋网
扫一扫 关注硬蛋公众号