【作者简介】
杨延宁,新加坡国立大学语言学博士,曾任教于南洋理工大学。现任华东师范大学外语学院教授、博士生导师。研究主要集中于系统功能语言学、历史语言学和应用语言学领域。2011年起担任新加坡教育部课程委员会及国家考评局顾问。2018年起任教育部教指委英语分指委委员。2021年起任中国英汉语比较研究会功能语言学专业委员会会长。
杨延宁 教授
原文载于《外语教学理论与实践》2024年第3期,由 “语言治理” 微信公众号推出。
摘要:人工智能的发展历经三次浪潮,下一个十年是其成败的关键。前两次浪潮中,语言学深度参与甚至推动了人工智能的发展。但在当前的第三次浪潮中,语言学的重要性显著下降。本文梳理语言学和人工智能的关系,试图回答语言未能积极参与第三次浪潮的原因。本文认为,语言学正经历着类脑指向的理论革新阶段,为语言学和人工智能的下一轮融合奠定了基础。人工智能正走向算力的瓶颈,面对着新的挑战。语言学经历百年积累,能够有力促进人工智能从“大数据+弱规则”到“小数据+强规则”的转变。
经过近70年发展,人工智能进入了第三次浪潮。前两次浪潮中,语言学与人工智能深度合作,极大推动了后者的进步。本次浪潮中,语言学与人工智能似乎渐行渐远,最新人工智能研究较少参考语言学理论和方法。语言处理和图形识别是人工智能的核心要素。出于人机交互的迫切需求,人们对人工智能的语言表现格外关注,语言智能常常成为人工智能突破的先导。当代语言学历经百余年发展,积累了丰厚的研究成果,对语言本质形成了深刻理解。推动最新语言学发现和人工智能的融合,对两个领域的发展都有巨大助益。为打破目前语言学和人工智能的疏离状态,有必要冷静分析语言学和人工智能的关系,探索两者在新技术条件下再次深度合作的可能性。本文回顾人工智能的发展历程,指出下一个十年是第三次浪潮的关键期。通过对语言学和人工智能合作历程的梳理,本文阐明语言学与人工智能渐行渐远的原因。以此为基础,本文提出未来需要重点思考的两个问题并尝试解答,为两个领域的深度合作明确方向。
1955年,约翰·麦卡锡(John McCarthy, 1927-2011)提出“人工智能”概念,并在次年的“达特茅斯会议”上获得认同。该会议为人工智能奠基,为数不多的与会者中有四位获得图灵奖。会议明确了人工智能的方向,即让机器使用语言,形成抽象概念,解决人类才能解决的问题,并实现自我提升。以该会议为起点,到1974年美国政府停止人工智能项目拨款,是人工智能的第一次浪潮。在近20年时间里,人工智能吸引了大量研究者,取得了一定进步,但远低于预期。上世纪50年代,学者们预测,计算机将在十年内成为国际象棋世界冠军。但直到1997年,IBM的“深蓝”才实现该目标。第一次浪潮中,人工智能的三大学派,即联结主义(connectionism)、符号主义(symbolicism)和行为主义(actionism)均已成型,为未来发展奠定了坚实理论基础。上世纪70年代末,由于很多设想无法实现,经费锐减,同时受算力制约,人工智能进入首个低谷期。
上世纪80年代初到90年代末,人工智能迎来第二次浪潮,相关研究围绕专家系统展开。专家系统基于专门知识和逻辑规则,回答特定领域的问题,通常包括知识库、推理引擎和用户界面三个部分。在该阶段,涌现了大批知名专家系统,比如(1) MYCIN: 识别导致感染的细菌,推荐药物;(2) DENDRAL: 开展化学分析,预测分子结构;(3) PXDES: 预测肺癌程度和类型。专家系统证明了人工智能的实用性,吸引了新一轮政府资助,但其劣势也逐渐显现。专家知识获取难度大,系统维护成本高,使用场景受限严重。这些问题导致专家系统商业化前景暗淡,企业界不愿投资。在失去政府投资后,很多项目被迫终结,人工智能陷入第二个低谷期。上世纪90年代,学者们开始使用“计算语言学”、“深度学习”等术语,实际上是在规避“人工智能”一词。在这个低谷期,很多研究者反而能够潜心研究,取得了很多突破性的进展。比如, 被称为AI教父的Geoffrey Hinton提出了受限玻尔兹曼机(RBM,Restricted Boltzmann Machine),成为深度学习的重要先导,对当下的大语言模型影响巨大。可以说,低谷期的学术积累为人工智能的第三次浪潮奠定了基础。
本世纪初,互联网逐渐普及,人类进入大数据时代。数据处理驱动算力提升,芯片制造水平大踏步前进,算力密集型算法不断突破。近10年,算法、数据、算力三大要素齐备,人工智能开始迅猛发展。以深度学习和神经网络为突破点,人工智能日新月异,开始进入第三浪潮。期间起决定性作用的,正是上一个低谷期的研究理念突破。Hinton(1981)认为,实现人工智能的唯一方式,就是按人类大脑的方式进行计算。该观点影响了人工智能领域的主要学者,催生了多种神经网络模型,其中包括卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆网络(LSTM)等等。这些模型成为当下人工智能取得巨大进步的关键。纵观历史,人工智能经历了两次完整发展浪潮,近10年可以视作第三次浪潮的前半程。从前两次的经验看,人工智能的每次浪潮持续大约20年时间。也就是说,下一个十年对人工智能的发展至关重要。如能突破20年的限制,人工智能很可能出现质的飞跃,否则很可能进入下一次低谷期。这也解释了,为何本文以“下一个十年”为题。
语言学深度介入了人工智能的前两次浪潮。机器翻译是双方融合最早、持续最久的领域。事实上,人工智能肇始于机器翻译研究。二战后,美苏进入对抗。出于军事目的,美国开始投入资源,发展机器翻译,参与学者来自计算机和语言学两个领域。由于政府重视,机器翻译吸引了当时最优秀的语言学家。结构学派的Harris、形式学派的Chomsky和功能学派的Halliday都曾深度介入机器翻译。作为结构主义的集大成者,Harris(1951)在句法分析计算机化的过程中扮演重要角色。其语言描写方法高度形式化,充斥着数学符号和运算公式,和句法计算机化的最初需求高度吻合。相关研究者以此为基础,设计了多种适用于计算机的算法。Bar-Hillel(1960)认为,结构主义的思路可以有效解决语言学理论和算法相结合的问题,未来机器翻译只需要考虑速度、成本和效果之间的平衡。
上世纪60年代,以Chomsky为代表的形式主义逐渐成为语言学主流。很多学者迅速跟进,尝试将形式语法用于机器翻译。Chomsky(1956)坚定地认为,只有短语结构语法才能生成正确句子。由于他的巨大声望,Hays(1964),Lecerf(1960)和Lamb(1962)的语言模型都以短语结构语法为基础。面对该语法无法解决的问题,上述学者进行了大量创新。比如,为呈现内部成分的衔接关系,Hays(1964)提出依存语法,至今在计算语言学领域有一定影响。产业界也推出了基于形式语法的产品。著名的ALGOL60 就是第一个以形式语法为底层架构的计算机语言。但是,形式主义过分排斥语境和语义要素,为机器翻译埋下了隐患。研究人员很快意识到,基于形式语法的机器翻译无法产出实用文本。即便辅之以人工编译,译文质量依然令人失望。这种灾难性的后果导致ALPAC(Automatic Language Processing Advisory Committee)(1966)提交报告,建议终止机器翻译研究。该报告对形式语法表达了失望,认为语言学家需要反思自己的工作。
Halliday (1956, 1962)也参与了早期机器翻译研究,但研究思路明显有别于结构学派和形式学派。Halliday(1956)强调翻译中选择的重要性,认为同义词词库是重要的机器翻译资源。他更加关注机器翻译中的纵向聚合关系,明显有别于只讨论横向组合关系的做法。Halliday(1962)的思考再进一步,提出机器翻译的多要素模式,认为翻译对等应该在各级阶和范畴中实现。而且,Halliday(1962)重视翻译中语境和语义要素的作用,主张在语篇层面思考机器翻译的解决方案。近年来深度学习大行其道,本质上是通过多层级选择模拟人类认知,和Halliday的观点不谋而合。如果早期机器翻译能够更多参考Halliday的思路,也许能够避免1966年大规模停摆的命运。
上世纪80年代开始,机器翻译尝试从多个角度进行突破。从最初的词典匹配,到词典结合语言知识的规则翻译,再到基于语料库的统计思路,始终没有出现颠覆性成果。随着人工智能第三次浪潮的到来,机器翻译迎来了复兴。其中最大的变化在于借助神经网络理论,革新机器翻译的底层逻辑,改变了基于规则的思路。随着深度学习技术的不断进步,机器翻译的准确性和流畅性大幅提升。比如目前公认最好的自动翻译网站DeepL,其核心突破就在于利用神经网络技术来学习语法和语义规则,从而有效提高了翻译质量。
自然语言处理是语言学和人工智能的另一种合作形式。1966年机器翻译进入停滞期后,部分学者创立计算语言学。1980年以后,相关研究更多地被冠以自然语言处理。该领域的核心诉求在于,如何设计和编写程序,帮助计算机理解和生成自然语言。其中最有名的程序是Weizenbaum (1966)开发的ELIZA系统。该程序是完全基于规则的聊天机器人,能够模拟人类对话,生成流畅的回复,并且能够根据上下文调整内容,帮助人们解答各种问题。其核心技术包括文本切分、语言理解和知识图谱建构。文本切分对输入文本进行分词和标注,以便提取关键信息。语言理解对输入文本进行语义判断,理解其含义。知识图谱包含大量知识信息和上下文关系,用于生成符合逻辑的回复。
开发ELIZA的过程中,语言学成果得到了充分的运用。ELIZA 预设了很多对话模式,有各自对应的语句转换方法。对话进入预设模式时,ELIZA 会借助这些转换方法生成回复。比如下面的对话,就是典型的模式内转换思路(大写部分为机器回复)。
You are not very aggressive but I think you don’t want me to notice that.
WHAT MAKES YOU THINK I AM NOT AGGRESSIVE?
WHY DO YOU THINK I DON’T ARGUE WITH YOU?
DOES IT PLEASE YOU TO BELIEVE I’M AFRAID OF YOU?
很明显,ELIZA的回复是以关键词为基础的句式转化,实际上没有提供新的信息。这种关键词话轮是以语言学的会话分析为基础的。至于转换部分,明显受到了转换生成语法的影响。同时,形式语义学提供了知识图谱的建构思路。知识图谱本质上是语义系统,形式语义学很好地启发了这方面的工作。依存语法和combinatorial categorical grammar(CCG)也有类似贡献。ELIZA是聊天机器人的鼻祖,催生了后续数十种类似程序。即便是当下的ChatGPT,依然闪动着ELIZA的影子。同时,ELIZA对专家系统起到了推动作用。事实上,ELIZA的设计初衷就是帮助心理医生解决患者的精神问题。专家系统作为人工智能第二次浪潮中最重要的成果,很大程度上得益于语言学的前期积累。上世纪80、90年代,大量专家系统由语言学界和计算机界联合开发,是双方合作的典范。
人工智能迎来第三次浪潮后,基于大数据的统计思路逐渐成为主流,基于规则的专家系统不再是研究焦点。原本深度融合的语言学和人工智能开始渐行渐远。语言学坚持规则导向的研究思路,人工智能更加依赖大数据分析。以目前情况看,人工智能更多地以数据驱动的方式建构算法模型,对语言学规则的参考有限。2010年至今,包括GPT(Generative Pre-trained Transformer)和BERT(Bidirectional Encoder Representations from Transformers)在内的算法模型,取得了巨大的成功。这些成功经验改变了计算语言学的发展方向。近几年,世界主流的计算语言学课程中,都加入了大数据处理的内容。
必须承认,人工智能的最新一轮发展中,主流语言学研究的贡献有限。生成语法、音系学、形态学和语用学在人工智能研究中基本见不到身影。究其原因,主流语言学研究革新脚步缓慢,无法满足人工智能快速变化的复杂需求。反而是语言类型学研究,在人工智能研究中焕发出新意,对多语言处理有较大启发。同时,心理语言学建构了大量认知模型,对揭示人脑的思维方式也有较大贡献。计算语言学年会已经设置了专门论坛,讨论认知建模的话题。从整体上看,人工智能志在逼近甚至复现人类智能,神经科学、脑科学和认知科学为人工智能提供了理论基础,未来会更受大重视。但也要注意到,“大数据+弱规则”的人工智能发展思路遇到了瓶颈。以ChatGPT为例,其最新版本的训练数据量达到了10的25次方,很难继续膨胀。未来突破的关键在于,如何以小数据实现同样的训练效果。换言之,人工智能需要转换到“小数据+强规则”的思路。其中的“规则”主要指人类思维的规律化表现和类脑计算所需的算法规则。语言学以探索人类思维方式为己任,在类脑规则上有大量成功经验可供借鉴。特别是近30年,语言学理论革新,表现出明显的类脑研究趋向,为人工智能研究提供了新的支撑。
上世纪90年代,语言学界意识到自身理论局限,积极开展创新。各学派都提出了新理论,并且有明显的趋同性,即类脑指向。各学派不约而同地意识到,语言学理论必须充分反应人脑真实思维方式,不能纵容理论一味脱离语言事实。形式学派的创新集中于优选论,明显有别于经典生成语法。经典生成语法认为规则指向特定语言,仅适用于描写。对语言现象的解释依赖普遍原则,强调普遍原则不可违反。优选论提出普遍制约条件可以违反,语言在制约条件的博弈中产生。而且,制约条件跨语言存在,但制约条件的等级排列因语言而异。普遍制约条件本质上是冲突的,其中包括两个主要力量,即标记性和忠实性。冲突出现时,制约条件的等级排序最为关键。等级高的不可违反,等级低的则没有问题。所谓优选,就是对各类制约条件最低程度的违反。
优选论兼顾语言的普遍性和特殊性,比经典生成语法更具解释力。严格地说,优选论并不是简单的语言学理论,而是语言学底层理念的更迭。它的出现表明,即便是最执着于简化的形式学派也开始正视选择思维的重要性。而且,优选论是输出导向理论,不认为语言需要从抽象结构中派生出表面结构,避免了很多虚无缥缈的抽象结构讨论。优选论最早用于音系学研究,但很快扩散到其他领域,被越来越多的语言学家认同。原因在于,该理论为语言现象解读提供了更大灵活度,也更符合人们对大脑思维方式的最新理解。
值得注意的是,Prince & Smolensky(2004)建立的优选论源于和谐理论,后者以联结主义的认知科学为基础,和人工智能有相同理论源头。而且,优选论的初衷就是为神经网络提供理论基础,解决类脑计算中面对的问题。事实上,优选论在人工智能研究中被频繁引用,Prince & Smolensky(2004)是该领域的重要文献。以优选论为基础,不断有学者在语言分析中带入了选择思维,提出贴近人工智能的理论架构。比如,Goldwater & Johnson (2003)提出Maximum Entropy Grammar, 大量参考了机器学习的算法思路。Lau, Clark & Lappin (2017)在语法体系中带入概率成分,借以判断句子的可接受度。Jarosz(2013)、Boersma & Pater(2016)开展系列研究,以优选论为基础,尝试为语料分析进行概率赋值。这些研究表明,一旦在语言研究中引入选择思维,很多闭塞之处会变得豁然开朗。
功能学派在同时期进行了类似革新,提出语法隐喻理论,其突破方向同样聚焦类脑模式。作为系统功能语言学的创始人,Halliday(1956)是最早强调类脑研究重要性的语言学家。他明确提出,语言自动化必须以类脑方式进行,语言学研究要充分考虑大脑思维方式,特别是思维过程中选择的重要性。Halliday(1991)认为语言系统由大量选择构成,每个选择点都有特定的概率选择倾向。比如很多情况下,肯定与否定的比例稳定在9∶1,可以据此为语言自动处理进行选择点赋值。语法隐喻理论是选择思维的集大成,其理念和优选论有很多相通之处。该理论特别重视标记性特征,认为语言的最初形义组配均为非标记性。随着语言演变,大量标记性表达出现,成为语法层面的“隐喻式”表达,在词汇和句法上均有具体表现形式。
语法隐喻理论对选择思维的重视是一种自觉。就空间而言,语法隐喻会获得排序上的突出位置。就时间而言,语法隐喻在语篇中出现较早。而且,语法隐喻理论认为语义关系贯穿了所有语法层级,并就此提出“跨语法层语义范畴”概念,以反映人脑思维特征。人脑以小规模输入为基础,利用有限资源支撑大量信息处理,其重要机制在于相同语义模式贯穿多种场景。语法隐喻的底层逻辑与此不谋而合。同时,语法隐喻理论特别重视语言系统与实例之间的动态关系。在谈及人工智能时,Halliday(1995)认为人类语言本质上充满不确定性。语言学家的任务是以系统化方式呈现该不确定性,并建立制约条件,为人工智能基于系统的涌现现象指明路径。这些观点和当下的人工智能研究思路高度吻合。
上世纪80年代,Lakoff(1985)和Lancaker(1987)等学者意识到,当时的主流语言学理论无法呈现人类思维特征。这些学者创立认知学派,以正确刻画人类思维为己任。该学派不认为大脑存在独立语言模块,提出语言基于大脑的通用认知能力,并在此基础上探讨语言具体表现。这些观点颠覆语言天赋论,高度契合当下通用人工智能研究的研究思路。认知学派的最新理论是构式语法,其类脑趋向非常清晰。构式被定义为形式与意义的整合体,颠覆了形式学派忽略语义的做法,为语言习得提供了新的解释角度。构式语法认为语义仅和表层结构相关,回避了无法观察的底层结构,符合最新的脑科学研究发现,能更好说明人脑的认知机制。而且,构式语法强调不同构式间的网络化联系,认为网络化构式体系是人类认知的基础。该观点非常符合神经网络的建构思路。近15年,自然语言处理领域建设了各类语言资源库(比如WordNet)和语义库(比如FrameNet),大多参考了构式语法理论,为人工智能进步提供了巨大助力。
很少有人注意到,现代语言学和人工智能研究初始目标高度一致。作为现代语言学的重要奠基人,Chomsky(1957)就将语言学定位为认知科学。人工智能研究更是以认知科学为最终皈依,其终极目的就在于理解和模拟人类的认知方式。不可否认的是,语言学在上世纪后半叶走了一段弯路,偏离了最初的目标。过去30年语言学研究的类脑走向表明,语言学正在进行艰难的方向调整,积极在理论上进行革新,在实践中探索新的道路。这些努力为语言学再次深度介入人工智能做了充分准备。
未来十年是人工智能第三次浪潮的关键期。其成败的关键在于,能否开发出具备下述能力的智能主体:(1) 和人类同样复杂的语言能力;(2) 进行语言交流时不被识别;(3) 在交流过程中主动学习,能够不断成长。很明显,实现这些能力需要语言学的深度参与。但是,语言学界需要为此做两个方面的准备。
长期研究传统导致语言学划分为不同领域,学者们分属不同理论流派。虽然不断有反思的声音,提出整合思路,但语言学整体格局没有大的变化。现实挑战在于,语言的各方面特征不是孤立存在的,语言智能需要以整体方式推进,必然涉及对语言的全方位理解。语言学需要为人工智能提供整合性研究框架,而不是支离破碎的语言特征描述。未来的语言模型应该整合语言学所有分支,语音特征、词语模糊性、语法歧义、语义判读、语篇结构、情态表达、语用指向等方面都要囊括其中。语言学单个领域没有能力解决未来的语言智能问题。要深度介入人工智能,跨学派跨领域整合是语言学无法回避的大趋势。
跨学派研究的难度相对较小。纵观各学科的发展,都会经历几个大的阶段。从初期基于现象观察的规律总结阶段,到中期的多角度理论建构阶段,再到稍晚期的理论融合阶段。最终,经过进一步的抽象,学科内部会产生通用的理论生成机制。其中最为典型的,就是数学和物理学中的拉格朗日表述及其相关理论。其核心思路在于,如果同样的现象在不同的理论中出现类似解读,那么这些理论必然有高度的趋同性。某理论流派的新发现,可能意味着其他流派中的类似现象。这一点在语言学领域已经露出端倪。无论是生成、认知还是功能学派,近三十年的理论创新都逐渐趋向于相同的类脑主题。这一点第三节已经有所触及,作者会另文讨论。就目前情况看,如果能够围绕类脑主题,找到语言学理论融合的突破口,完全有可能建立类似拉格朗日表述这样的理论生成机制。
跨领域研究涉及多类研究对象,难度显然更大。作为传统语言学的主干方向,音系学、句法学、语义学和语用学的研究边界较为分明,基本不存在整合的可能。以目前情况看,构式语法理论最有可能为跨领域整合提供框架。该理论对句法和语义同等重视,近年研究中开始关注语用学和社会语言学要素。而且,该理论和Fillmore的框架语义学有深厚渊源,后者在各类标注语料库建设中都有巨大影响。基于构式理念开展跨领域整合研究,能够和现有自然语言处理成果形成更好衔接。如果未来能够在构式分析中融入语音研究成果,有望形成整合性的研究框架。本文认为,聚焦语言学理论的类脑走向,在构式架构进行跨领域尝试,是建构整合性语言学研究框架的快捷路径。
语言学百年积累,坐拥大量成果,但没有以数字化方式呈现。这是语言学深度介入人工智能的巨大障碍。以目前情况看,我们改变不了计算机的基本构型,只能改变语言学知识的呈现方式。从技术角度看,语言学知识必须以算法形式表达,才能在人工智能领域得到有效运用。为实现该目标,需要两方面的调整,即量化语言属性和强化选择思路。
语言学研究要满足“数字化”要求,既有成果的各个层面、各种单位、各种规则都必须以可量化形式来呈现。比如,语用学的合作原则呈现了对话的四种准则,即量的准则、质的准则、关系准则和方式准则。这些准则方便研究者分析对话内涵,预测对话走向。但是这些准则的判读主观性较强,缺乏量化指标,很难被数字化。如何在每个准则之下列出具体的量化指标,是合作原则融入人工智能的主要障碍。在量化追求方面,传统语言学理论的难度较低,功能和认知学派的难度较高。这就要求语言学学者重新审视自身理论,对既有概念体系进行更加细致的描写,对语言概念进行更加明确的区分。必须承认,这项工作的难度很大。很多语言学成果很难被有效量化。原因在于,人类思维方式和机器思维方式有巨大不同。前者以思辨、创造和突破规则为特征,后者以执行、规范和遵守规则为依托,其中有本质差异。人工智能研究者已经意识到这个问题,开始在神经网络和深度学习领域发力,试图改变机器思维模式。语言学领域也应该有积极尝试,开展类脑取向研究,找到和人工智能融合的平衡点。
另外一个突破点在于强化选择思维,不能一味强调普遍原则不可突破,要在语言研究成果中体现概率论。比如我们知道,机器翻译中,检测输入的语言种类会用到概率论。基本方法就是分解输入的词或句子,计算各语言模型的概率,概率最高的是最后确定的输出结果。混合高斯模型、隐马尔科夫模型等传统语音处理模型都是以概率和选择为基础的。有必要在翻译和语音研究之外,拓宽选择思维的应用范围。比如对话中的大量要素可以梳理为要素选择系统,在关键节点设置选择条件,最终推出最佳对话选择。该过程高度类似于视频游戏的渲染过程,以庞大选择矩阵来产生接近真实的游戏体验。在现有语言学理论体系中,系统功能语言学在这方面的表现最为出色。该理论体系将选择要素系统化,提供节点选择条件,同时发展出完备的词汇句法分析框架,且兼顾语义特征。以此为基础,可以有效转换现有语言学研究成果,使之更加适应人工智能的研究需求。目前最迫切的需求是在系统选择点上进行概率赋值。比如,情态系统中可能性表述的比例非常高,如果能够通过大语料分析确定其准确比例,完全可以在情态选择中赋予具体概率。因此,目前语料库研究的方向需要微调,需要更加重视选择点的概率值计算。
综上所述,语言学已经在某些领域做出了大量调整,比如语料库语言学和计算语言学领域,但还没有出现突破性进展。传统语言学界依然在固有的研究思路下推进。如果要深度介入人工智能,语言学界需要找到联结两者的通道。开展人工智能指向的语言学研究,能够为跨学派理论融合提供绝佳契机,从根本上改变语言学的研究格局。
在人工智能的蓬勃发展态势下,也要看到它面对的巨大挑战。人工智能需要具备和人类沟通的能力,更需要解释能力背后的运行模式。知其然,也要知其所以然。否则,人类社会很难把医疗和咨询这样的工作交给人工智能,更不要提由人工智能做出影响人类命运的重大经济、社会和政治决策。人工智能研究的巨大挑战在于,能否设计出类人的运行模式和思维模型,并在算法上积极加以配合。从现有的理论更迭和技术进步情况看,这个任务的完成情况并不理想。目前的主流做法是“大数据、弱规则”,把很多问题的解决寄托在算力的无限提升上。这条思路早晚有走不下去的时候,应该尽早为“小数据、强规则”做准备。在规则方面,语言学的长期积累可以提供大量参考,但需要语言学理论体系做出针对性调整。
进行此类调整时,要特别关注选择哪条道路的问题:机器完全模仿人,还是机器自成体系?如果是前者,尚可以称之为人工智能;如果是后者,恐怕只能称之为机器智能。很显然,我们最在意前者,但是我们看到的,更多的是后者。道路选择的问题,恐怕不只是人工智能的挑战,语言学也面对着相同的困境。语言学理论应该呈现人类真实的认知模式,而不是仅仅满足自身的完美理论追求。毕竟我们研究的是语言而不是语言学理论。但从语言学百年发展的历程看,对理论本身的关注在一段时间内误导了学科方向。语言学理论的整体创新需要回到人类本身,深度挖掘我们的认知特征,而不是一味追求理论创新。