根据两家公司周三的公告,OpenAI正在与洛斯阿拉莫斯国家实验室合作,研究如何使用人工智能来对抗非专家使用人工智能工具可能造成的生物威胁。洛斯阿拉莫斯实验室于二战期间首次在新墨西哥州成立,旨在开发原子弹,称这项工作是关于人工智能生物安全以及人工智能在实验室环境中使用方式的“首次”研究。
OpenAI和洛斯阿拉莫斯实验室周三发布的两份声明之间的差异非常惊人。OpenAI的声明试图将这种伙伴关系描绘成一项关于人工智能如何“被科学家在实验室环境中安全地使用以推进生物科学研究”的研究。然而,洛斯阿拉莫斯实验室更加强调这样一个事实,即之前的研究“发现 ChatGPT-4 在提供可能导致生物威胁产生的信息方面提供了温和的提升”。
围绕人工智能构成的威胁,大部分公众讨论都围绕着创造一个具有自我意识的实体,可以想象,这个实体可以发展出自己的思想,并在某种程度上伤害人类。一些人担心,实现AGI(高级通用智能,人工智能可以执行高级推理和逻辑,而不是充当花哨的自动完成单词生成器)可能会导致天网式的局面。虽然埃隆·马斯克(Elon Musk)和OpenAI首席执行官山姆·奥特曼(Sam Altman)等许多人工智能助推器都倾向于这种描述,但似乎更紧迫的威胁是确保人们不使用ChatGPT等工具来制造生物武器。
洛斯阿拉莫斯实验室在其网站上发表的一份声明中说:“人工智能支持的生物威胁可能构成重大风险,但现有工作尚未评估多模式前沿模型如何降低非专家制造生物威胁的门槛。
这两个组织对信息的不同定位可能归结为这样一个事实,即OpenAI可能不愿意承认强调其产品可能被恐怖分子使用对国家安全的影响。为了更清楚地说明这一点,洛斯阿拉莫斯的声明使用了五次“威胁”或“威胁”一词,而 OpenAI 声明只使用了一次。
“不断增长的人工智能能力的潜在优势是无穷无尽的,”洛斯阿拉莫斯的研究科学家埃里克·勒布伦(Erick LeBrun)周三在一份声明中表示。“然而,衡量和理解与生物威胁相关的任何潜在危险或滥用高级人工智能在很大程度上仍未得到探索。与OpenAI的合作是朝着建立评估当前和未来模型的框架迈出的重要一步,确保负责任地开发和部署人工智能技术。
洛斯阿拉莫斯向Gizmodo发送了一份声明,该声明对该技术的未来普遍持乐观态度,即使存在潜在风险:
人工智能技术令人兴奋,因为它已成为科学技术发现和进步的强大引擎。虽然这将在很大程度上为社会带来积极的好处,但可以想象的是,不良行为者手中的相同模型可能会使用它来合成信息,从而有可能为生物威胁提供“如何指导”。重要的是要考虑到人工智能本身并不是一种威胁,而是它如何被滥用才是威胁。
以前的评估主要集中在了解此类人工智能技术是否可以提供准确的“操作指南”上。然而,虽然不良行为者可能会获得准确的指南来做一些邪恶的事情,但这并不意味着他们能够做到。例如,您可能知道在培养细胞或使用质谱时需要保持无菌,但如果您之前没有这方面的经验,这可能很难完成。
缩小范围,我们更广泛地试图了解这些人工智能技术在何处以及如何为工作流程增加价值。信息访问(例如,生成准确的协议)是它可以做到的一个领域,但目前尚不清楚这些人工智能技术在多大程度上可以帮助您学习如何在实验室中成功执行协议(或其他现实世界的活动,例如踢足球或画画)。我们的第一次试点技术评估将着眼于了解人工智能如何使个人能够学习如何在现实世界中执行协议,这将使我们更好地了解它不仅有助于实现科学,而且它是否使不良行为者能够在实验室中执行邪恶活动。
洛斯阿拉莫斯实验室的工作由人工智能风险技术评估小组协调。
更正:这篇文章的早期版本最初引用了洛斯阿拉莫斯的一份声明,该声明来自OpenAI。Gizmodo对这个错误感到遗憾。
(机器翻译,轻度译后编辑,仅供参考。)
编辑:杨馨玥