长期以来,科幻小说中一直存在人工智能产生意识的想法,回想1968年的电影《2001:太空漫游》中从超级计算机变成恶棍的HAL 9000。随着人工智能的飞速发展,这种可能性正变得越来越不那么离奇,甚至得到了人工智能领军人物的认可。
去年,聊天机器人ChatGPT背后的公司OpenAI首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)发推文称,一些最先进的人工智能网络可能会 “略有意识”。
许多研究人员表示,人工智能系统尚未达到有意识的地步。但人工智能的进化速度让他们陷入了沉思:我们如何知道人工智能是否产生意识?
为了回答这个问题,一个由19位神经科学家、哲学家和计算机科学家组成的团队提出了一份标准清单,如果符合这些标准,就表明一个系统有很大可能是有意识的。他们于本周早些时候在arXiv预印版库中发布了临时指南,该指南尚未经过同行评审。
合著者之一、位于加利福尼亚州旧金山的AI安全中心的哲学家罗伯特·朗(Robert Long)表示,他们进行这项工作是因为“似乎确实缺乏对人工智能意识进行详细、以经验为基础、深思熟虑的讨论”。
该研究团队表示,无法识别人工智能系统是否有意识,这可能会产生重大的道德影响。该研究的神经科学家和合著者梅根·彼得斯(Megan Peters)表示,如果某个东西被贴上了 “有意识 ”的标签,“那一定会极大地改变我们作为人类对待它的方式。”
朗(Long) 补充说,据他所知,构建先进人工智能系统的公司并没有付出足够的努力来评估这些模型的意识,并制定相应的计划。他说:“尽管听取了一些领先实验室负责人的发言,他们确实表示人工智能意识或者人工智能知觉是值得思考的问题,只是我认为还不够。”
《自然》杂志联系了推动人工智能发展的主要两家科技公司——微软和谷歌。微软的一位发言人称,该公司开发人工智能的核心是以负责任的方式协助人类提高生产力,而不是复制人类智能。
该发言人表示,自从推出GPT-4(ChatGPT公开发布的最新版本)以来,可以明确的是,“我们在探索如何实现人工智能的全部潜力以造福整个社会,这需要新的方法来评估这些人工智能模型的能力”。谷歌则未回应。
01.
意识是什么?
在研究人工智能意识时,面临的一个挑战是定义什么是意识。彼得斯表示,为了报告的目的,研究人员将重点放在了“现象意识”上,也就是主观体验。即存在于人、动物或人工智能系统系统(如果其中之一被证明具有意识)的感觉。
有许多基于神经科学的理论描述了意识的生物学基础。但哪一种才是 “正确 ”的,目前还没有达成共识。因此,作者采用了一系列理论来创建他们的框架。他们的想法是,如果一个人工智能系统的功能与这些理论的多个方面相匹配,那么它具有意识的可能性就更大。
他们认为,这种评估意识的方法比简单地进行行为测试更好,例如询问ChatGPT是否有意识,或者对其进行挑战并观察其反应。因为人工智能系统在模仿人类方面已经取得了令人难以置信的进展。
英国苏塞克斯大学意识科学中心主任、神经科学家阿尼尔-塞思(Anil Seth)的认为,该团队所采用的理论严密的方法是一个不错的选择。然而,他表示,“我们还需要更精确、经过充分测试的意识理论。”
02.
一种理论密集型方法
为了制定他们的标准,作者假设意识与系统如何处理信息有关,而不管它们是由神经元、计算机芯片还是其他材料构成。这种方法被称为计算功能主义。他们还假设,以神经科学为基础的意识理论可以应用于人工智能,这些理论是通过对人类和动物的大脑扫描和其他技术研究而得出。
在这些假设的基础上,团队选择了其中的六种理论,并从中提取了一系列意识指标。
其中之一是全局工作空间理论,它声称人类和其他动物使用许多专门的系统(也称为模块)来执行诸如视觉和听觉等认知任务。这些模块独立但并行地工作,并整合成一个单一系统来共享信息。
朗(Long) 表示,"通过观察系统的架构以及信息在其中的流动方式",人们就能评估某个特定的人工智能系统是否显示了这一理论所衍生的指标。
塞思(Seth)对该团队的提案印象深刻。他表示:“它非常深思熟虑,没有夸夸其谈,并且清楚地表明其假设。”尽管我不同意其中一些假设,但这完全没关系,因为有可能是我错了。"
作者表示,该论文远未对如何评估具有意识的人工智能系统做出最终结论,他们希望其他研究人员能够帮助完善他们的方法论。但这些标准已经可以应用于现有的人工智能系统。
例如,报告对ChatGPT等大型语言模型进行了评估,发现这类系统可以说具有与全局工作空间理论相关的一些意识指标。不过,这项工作并未暗示任何现有的人工智能系统是意识的强有力候选者,至少目前还没有。