人工智能是每个人都应该了解和思考的问题。即使在最近的OpenAI事件将这一问题推向风口浪尖之前,情况也是如此,人们猜测领导层的动荡可能是由于安全问题上的分歧有关AGI突破的安全问题存在分歧。无论这是否属实——我们可能永远不会知道——AGI仍然是个严肃的问题。所有这一切都引出了一个问题:AGI到底是什么,它对我们所有人意味着什么,普通人能为此做些什么?
什么是AGI?
对于这样一个复杂而又有影响力的话题,人们的定义也不尽相同:
- 我将AGI定义为不专门从事任何特定任务的智能,人工智能历来如此。 如今,大多数人工智能都专注于一个问题,而且它们非常擅长解决这个问题——往往比人类解决得更好。 例如,20多年前,一个人工智能在国际象棋上击败了人类专家。但该人工智能无法阅读书籍、计划自己的一天或做其他任何人类能做的事情。其他人工智能可以评估银行贷款、诊断疾病、预测自然灾害等。相比之下,人工通用智能可以做所有这些事情。
- ChatGPT将AGI定义为 “高度自主的系统,能够在几乎所有有经济价值的工作中胜过人类”。AGI通常与狭义或专门的人工智能形成对比,后者旨在执行特定任务或解决特定问题,但缺乏与人类智能相关的广泛认知能力。AGI 的主要特点是它能够在广泛的任务和领域中进行泛化和适应。
鉴于OpenAI最近的新闻,OpenAI的首席科学家伊利亚-苏茨克沃(Ilya Sutskever)几周前在TED AI大会上发表了他对AGI的看法,这显得尤为适时。您可以在这里找到他的完整演讲。也有一些启示:
- 他描述了AGI的一个关键原则,即在任何事情和任何方面都可能比人类更聪明,并有人类的所有知识作为支持。
- 他还描述说,AGI有能力自学,从而创造出新的、甚至可能更聪明的AGI。
我们可以看到AGI跨越了许多领域。执行通用任务的能力意味着,AGI对就业市场的影响将远远超过之前的人工智能。例如,能够阅读X光片并检测疾病的人工智能可以协助医生工作。然而,一个能够阅读X光片、了解病人个人病史、提出建议并以亲切的态度向病人解释该建议的人工智能,完全可以取代医生。这将给世界经济和就业带来巨大的潜在利益和风险。再加上AGIs学习和生产新AGIs的能力,风险就变成了生存风险。目前还不清楚人类将如何控制这样的AGI,也不清楚它将为自己做出什么决定。
AGI会在我们有生之年出现吗?
很难说。专家们对AGI是永远不可能实现,还是只需几年时间就能实现的看法不一。例如,图灵奖(计算机科学最高奖)得主杰夫-辛顿认为,AGI的出现只有不到20年。 认为AGI离我们只有不到20年的时间。 但它不会对人类的生存构成威胁。与此同时,同一位获奖者约书亚-本吉奥(Yoshua Bengio)指出 我们不知道需要多少个十年才能实现 AGI。正如上述例子所示,这种差异在很大程度上也与缺乏一个广泛认同的定义有关。
我们应该担心吗?
是的,我认为应该。如果不出意外的话,本周在OpenAI上发生的戏剧性事件表明,我们对关乎人类未来的技术发展知之甚少,也表明我们在这一话题上的全球对话是多么缺乏条理。一些根本性的问题依然存在,比如:
– 谁来决定 AGI 是否已经实现?
– 我们是否知道它已经发生或即将发生?
– 将采取哪些措施进行管理?
– 世界各国将如何合作或争夺?
– 等等。
这是天网吗?
对于那些不了解《终结者》系列电影的人来说, 天网是一个虚构的、由人类创造的机器网络 。它具有自我意识,并决定毁灭人类。我认为这并不值得大惊小怪。虽然AGI定义的某些部分(尤其是AGI创造未来AGI的观点)正朝着这个方向发展,虽然电影终结者显示了对未来的某种看法,历史已经告诉我们,技术造成的伤害通常是由于人类有意或无意滥用技术造成的。AGI最终可能会达到某种独立于人类的意识形态,但在此之前,由人类主导的人工智能武器、错误信息、工作岗位转移、环境破坏等似乎更有可能威胁到我们的福祉。
我能做些什么?
我相信,我们每个人唯一能做的就是了解情况。人工智能知识并行使我们的权利、意见和最佳判断力。这项技术具有变革性。目前尚不清楚的是由谁来决定如何变革。
按照这一思路,不到一个月前,美国总统乔-拜登发布了一项关于人工智能的行政命令。解决了从个人隐私到负责任的人工智能开发、工作岗位转移和必要的技能提升等广泛的近期人工智能问题。尽管这些命令和类似的立法并不直接针对AGI,但它们可以在短期内–在AGI出现之前——指导负责任的人工智能发展,并有望一直持续到AGI 出现。
同样值得注意的是,AGI不可能是一个二进制事件,前一天还没有,第二天就有了。在许多人看来,ChatGPT似乎是凭空出现的,但事实并非如此。在2019年和2020年,GPT 2和GPT 3相继推出。这两个版本都非常强大,但却更难使用,知名度也低得多。虽然ChatGPT(GPT3.5及以后版本)代表了重大进步,但趋势已经形成。
同样,我们也将看到AGI的到来。例如,一个 微软研究团队最近报告说,GPT-4 已经显示出 “人类推理 “的迹象,这是迈向 AGI 的一步。不出所料,这些报告经常遭到质疑,还有人声称,这些观察结果 比实际的 AGI 更能说明测试方法的不完善。
真正的问题是:在 AGI 出现之前,我们该如何应对?
这个决定应该由每个人做出。OpenAI大戏仍在继续,每天都有新的进展。然而,无论 OpenAI 的发展如何,AGI 的争论和问题都将继续存在,我们需要尽快解决这些问题。
(机器翻译,轻度译后编辑,仅供参考)
编辑:刘慧