近期,英国《卫报》报道了一项引人深思的研究发现,麻省理工学院的AI安全领域专家马克斯·泰格马克提出了一项令人警醒的预测。他参考了美国物理学家阿瑟·康普顿在“三位一体”核试验前的概率计算方法,对高度发达的AI可能带来的生存威胁进行了评估。
据悉,康普顿在1945年推进历史性核试验前,曾确认原子弹引发大气层燃烧的可能性极低。泰格马克借鉴这一思路,与三位麻省理工学生共同发表了一篇论文,其中提出了一个类似的概念——“康普顿常数”,用以衡量强AI失控的概率。
泰格马克强调,AI企业不应仅凭直觉行事,而应通过严谨的计算来评估“人工超级智能”(ASI)失控的风险。他指出,就像康普顿在确认失控核聚变几率极低后才批准核试验一样,打造超级智能的公司也必须计算出具体的失控概率,即“康普顿常数”。他说:“光说‘我们有信心’是不够的,必须拿出具体数据。”
泰格马克进一步提出,如果多家公司能够联合起来计算这一常数并形成共识,将有助于在全球范围内推动AI安全机制的建立。他认为,这样的合作对于确保AI技术的安全发展至关重要。
作为麻省理工学院的物理学教授及AI研究者,泰格马克不仅是这一研究的推动者,还是致力于AI安全发展的非营利组织“未来生命研究所”的创办者之一。2023年,该机构发布了一封公开信,呼吁暂停开发更强大的AI系统。这封信迅速获得了超过3.3万人的签名支持,其中包括知名企业家埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克。
公开信中警告说,各大实验室目前正陷入一场“失控竞赛”,竞相开发越来越强大的AI系统。然而,这些系统却“人类无法理解、预测或可靠控制”,从而带来了巨大的潜在风险。泰格马克及其团队的研究和呼吁,无疑为这一领域的发展敲响了警钟。