程实:AI的影响及其边界

程实:AI的影响及其边界

工银国际首席经济学家、中国首席经济学家论坛理事 程实

工银国际资深经济学家张弘顼

未来并未真正到来,却又似乎正加速到来。ChatGPT的热潮最重要的现实意义可能恰在于,它激发了整个人类对AI(人工智能)的深度思考和高度警觉。我们认为,AI技术发展将从微观、宏观和历史三个层面,对人类经济社会产生深远影响:微观层面,大语言类模型的通用性和泛化能力将刺激未来5-10年AI系统不断与移动设备、音频、图像、视频等行业领域加速融合,更大规模的数据、更好的算法、更快的训练将为经济活动创造更有价值的商业工具。宏观层面,AI技术对现实经济活动的影响仍存在一定滞后性(“生产力悖论”),这使得现有的经济增长增长模型很难全面反映AI或者数据要素创新对经济潜在增长的复杂影响,而随着AI的泛化能力和对目标理解的不确定性不断强化,AI技术创新对商业价值的释放将变得更加不可预测,这将导致经济增长的不连续变化成为常态。历史层面,对大语言类模型引领未来AI发展不宜过于乐观,毕竟大语言类模型结合强化学习并非真正的智能,真正的人工智能需要具备判断常识和自我推理能力。正如OpenAI 自己所讲:“ChatGPT 不是真正的智能,但它让人们体验到了真正智能实现后,每个人都能通过智能实现他们目标的滋味。”

微观层面,AI技术的不断演绎与迭代或将带来新一轮应用创新。近20年来,人工智能技术的发展基本分为三个阶段。第一个阶段是2015年以前,人们对AI模型的设计和应用强调“解构化”,即通过不同的小型模型理解人类语言并分析不同情景中的工作任务。通常这类模型基于“监督式学习”并用于工业制造业、交通货运、欺诈分类等特殊场景中。然而,这类小型模型距离大规模通用性仍有很遥远的距离。2015年之后,Google Research 的里程碑式论文“Attention is All You Need(注意力就是你所需要的一切)”介绍了一种新的用于自然语言理解的神经网络模型(Transformers)。这类模型通过“无监督式模型”可以以更少的训练时间生成更高质量的语言模型。Google 进一步把这些模型开始具有目标性地应用于不同的特定领域中。2015年-2021年以来,随着这些模型训练数据的量级不断增加,模型生成的精准度不断上升。结合AI科学家将强化学习模型纳入到神经网络模型中加强了机器人的记忆力,这使得AI对文字、音乐、绘画、语音、图像、视频等领域的理解逐渐超过了人类平均水平。ChatGPT正是在这样的背景下实现了从量变到质变的跨越。我们认为,ChatGPT等人工智能技术可以帮助人类实现更多的数据要素创新,从而改变和丰富消费者行为。具体来说,ChatGPT相比过去的机器人最大的不同在于记忆能力。通过在人类环境中不断的进行强化训练,ChatGPT可以灵活记忆与人沟通的对话信息,并实现连续对话。相比过去的Siri或者传统搜索引擎 ,ChatGPT能够从人类反馈中不断的实现强化学习,这直接改变了经济社会中人类直接获取信息和输出内容的方式。一旦获取信息的中间成本被大大降低,数字经济中数据要素的使用效率将显著提高,劳动生产力也将得到进一步的释放。此外,随着ChatGPT的不断迭代 ,AI自动生成内容将变得更加丰富。不论是在文字、音乐、绘画、语音、图像、视频、游戏等领域,AI参与生成的可能性将大大提高。我们预料, 围绕ChatGPT等大语言模型, 2022年后的未来10年大量的程序开发将不断涌现(表1),这或将加速大语言系统与当前互联网移动设备、智能相机、语音识别系统进行深度融合,从而深度改变当前全社会的消费模式和消费行为。

宏观层面,人工智能技术对现实经济增长影响仍存在滞后,未来AI技术将加剧经济增长的不规则性。根据诺贝尔经济学得主保罗·罗默(Paul Romer)的观点,当前全球经济增长低迷、劳动生产率长期停滞的主要原因是我们还没有深刻了解如何充分实现和转化数字经济利益在经济进步中的贡献。从问题的根源说起,当前经济学家对于经济长期停滞有多种解释,包括低效的商业投资、人口老龄化、技术创新普遍下滑等。但罗默指出,技术创新普遍下滑的说法可能是不严谨的。进入信息时代,围绕数据要素的技术创新迭代相比传统技术创新迭代的路径与方向正在发生变化。以人工智能、大数据、区块链为代表的新一代信息技术与传统全要素产生率和经济增长之间存在影响滞后性。斯坦福大学经济学家保罗·大卫(Paul David)进一步将这种滞后描述为“生产力悖论” ,他发现现代计算机革命对生产力水平的显著提高可能比20世纪电力对生产力的推动需要更多的时间。基于现有的文献,AI技术与生产率之间存在显著的“扩散滞后”。这是因为人工智能的发展依托于对数据的训练,而当前AI技术对数据的收集、处理和训练都需要较长的时间。以ChatGPT为例,相比Web1.0和Web2.0单向内容输出,尽管ChatGPT具备了双向输出和互动的能力,然而ChatGPT从获取数据到训练数据仍需要较长的周期。当前ChatGPT的数据更新为2021年,这意味着ChatGPT并不知道2022年以后发生的事情。实时数据无法被动态更新使得ChatGPT等基于神经网络模型的AI技术很难满足商业价值创造所需的即时性。此外,AI技术几乎每一次迭代都需要外部基础设施作出相应升级改造,但外部相关基建和硬件设施往往难以在短期内有效支持AI相关技术较高的配套诉求。比如基于区块链技术的智能合约可以帮助企业间实现更加快速、安全、便捷的合作协议,但区块链技术的全面落地实际需要基于Web3.0网络搭建,而Web3.0的建设则需要实现去信任的交互协议平台、分布式存储和隐私计算三大底层基础设施支持,这也是为什么人们在现实活动中很难深切感觉到AI相关技术对传统的生活方式产生了直接性的冲击。然而,随着人工智能通用性和对目标理解的不确定性不断强化,AI技术创新对商业价值的释放将变得更加更加广泛和不可预测,这意味着未来技术创新对经济增长造成的不连续变化将逐步成为常态。

历史层面,ChatGPT仅仅是AI发展过程中的一条分支,不宜过分乐观。ChatGPT在人工智能领域中主要构建于大语言归纳模型。大语言模型主要是利用自然语言和神经网络模型对人类生产的语言类数据进行训练,并结合强化学习不断强化AI对人类语言的理解能力。从反馈机制来看,ChatGPT 的智能回应是基于庞大数据量上的梯度下降得到的。但值得强调的是,纯粹的梯度下降并不等同于智能化。所谓AI的智能性,不仅仅是对知识的归纳处理,最重要的意义是AI学会进行知识推理并具备认知常识的能力。过去5年,ChatGPT的通用性和泛化能力确实得到显著提升,但在模型中我们实际并不知道该模型泛化能力是如何通过模型训练具体形成的,我们也很难明确通用性和泛化性的边界在哪里。因此,如果仅仅将ChatGPT视为一种帮助人们实现目标的工具,它确实能够产生更多的商业价值。但如果将ChaGPT等大语言类AI技术视为改变人类文明必由的途径则有些言过其实。因为只有当AI真正实现知识推理,才能说AI具备了真正的智能化。另外需要注意,随着AI技术的发展,人类的确存在对AI失去控制的风险。无论是从运筹学的最优奖励机制,统计学的最小损失函数,还是经济学的效用最大化,在现今所有标准模型下对机器人的指令几乎都会导致AI失控。这是因为标准模型下AI在实现目标的过程中很可能会不惜一切代价实现目标,甚至包括脱离控制本身。因此在未来5-10年内,无论是大语言模型还是其他AI模型都会不断纳入新的技术以寻求AI对人类偏好的进一步认知,这也反映了人机互动将是不可避免的发展趋势。也只有这样,才能保证在AI在拥有自我判断能力和常识前人类可以足够降低对AI失控的风险。回顾AI的发展史,当前人们对人工智能的探索仍处于类似工业文明爆发前期的“启蒙时代”。确切来说,我们对于智能的实现是基于长期实验和观察累计的经验归纳总结,人类要想实现真正的人工智能并构建真正智能系统,根本上是解决如何用数学或其他语言去描述宇宙中包含的各种不规则性。如果我们忽略了数理逻辑以及知识推理对人工智能发展的真实意义,人类很可能会再次陷入一场“自欺欺人”的骗局之中。

参考文献

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, ?. and Polosukhin, I., 2017. Attention is all you need. Advances in neural information processing systems, 30.

Jones, C.I., 2019. Paul Romer: Ideas, nonrivalry, and endogenous growth. The Scandinavian Journal of Economics, 121(3), pp.859-883.

Sukumar, A., Jafari-Sadeghi, V., Garcia-Perez, A. and Dutta, D.K., 2020. The potential link between corporate innovations and corporate competitiveness: evidence from IT firms in the UK. Journal of Knowledge Management, 24(5), pp.965-983.

Thorp, H.H., 2023. ChatGPT is fun, but not an author. Science, 379(6630), pp.313-313.

Zhou, C., Li, Q., Li, C., Yu, J., Liu, Y., Wang, G., Zhang, K., Ji, C., Yan, Q., He, L. and Peng, H., 2023. A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT. arXiv preprint arXiv:2302.09419.返回搜狐,查看更多

责任编辑:

发布于:四川遂宁安居区