今年,世界末日时钟自2012年以来首次向前移动。灾难的理论倒计时在67年前逐步设计 原子科学家的公报是由在曼哈顿项目工作的科学家创建的看门狗集团。它的当代护理人员根据气候变化的威胁和裁军放缓,三分钟距离午夜越来越多。

但全球变暖和核萎靡不振不是人类面临的唯一威胁。一个组织正在寻找新兴技术所带来的潜在威胁—危险甚至没有考虑过。剑桥大学的存在风险(CSER)研究中心在2012年制定了评估新的全球风险的科学方法—例如,如果一个机器人接管地球的情景代表科幻或真实的可能性。一些世界上最伟大的思想,包括斯蒂芬·霍金,济南塔林(Skype的创始工程师)和哲学家HUW价格,有助于努力。

科学周报坐下了一个中心的联合创始人,天体物理学家勋爵勋爵勋爵里斯,以思考我们所知道的尽可能结婚。编辑摘录遵循。

为什么开始一个删除新技术威胁的小组?
在整个历史中,我们的祖先面临风险:瘟疫,暴风雨,地震和人类诱导的灾害。但本世纪不同。这是第一个物种,我们可以确定地球的未来,威胁着我们的文明,危害未来几代人的存在。

你检查了什么类型的情景?
目前,关于概率和影响的专家之间存在广泛的分歧。气候科学家是否有可能导致灾难的划分点。人工智能专家之间存在巨大的观点:有些人认为人类的艾迪与自己的思想(和与人类正交的目标)可能会在MidCenture之前发展;其他人认为这一展望非常偏远,争辩说,我们应该关注愚蠢自治机器人的道德和安全(例如军事无人机)。在生物技术的边境方面已经有一种热闹的辩论。我希望CSER将有助于促进关于哪些风险最真实的,并有助于在议程上提高这些风险。

当你看到它们时,人类的主要风险是什么以及它们有多严重?
我个人悲观地对社区处理生物技术进步的能力。在20世纪70年代,分子生物学的先驱在亚利马尔会议上具有重组DNA的重组DNA的着名指导。此类问题今天甚至更加严峻。关于新技术的伦理和谨慎存在目前的辩论和焦虑:“gain of function”病毒实验与所谓的CRISPR基因编辑技术的使用。与20世纪70年代相比,社区现在更加全球,更具竞争力,更多的商业压力受到更多。我担心可以做的任何事情都会被某人做的。即使有正式商定的议定书和法规,他们也会尽可能难以作为毒品制定。 BioError和Bioterror在中期(10至20年)的个人风险登记册上排名最高。

有人担心他们不应该吗?
许多生活在发达国家的世界烦恼太多关于轻微风险(食物中的致癌物质,低辐射剂量,飞机崩溃等)。有些人担心太多的小行星影响,这是最好理解的自然风险,最容易量化。此外,很快就可以通过偏转为地球的小行星路径来减少这种风险。这就是为什么我支持B612 Sentinel项目。

什么应该担心我们更多的是新紧急的威胁。他们肯定会更加关注,他们是CSER旨在学习的。这是一个重要的格言,即不熟悉的不是不可能的。赌注很高,即使我们可以减少百万分之一的灾难可能性,我们也会赢得了我们的保留。