登录注册后,您的订单将在个人中心里生成,请前往查看。同时,您将收到展会最新的动态。
上半年,ChatGPT的横空出世让人们对人工智能的潜能刮目相看,同时也引发了一场关于职业生存危机的广泛探讨。这款强大的工具不仅能够通过律师和工程师资格考试,写出足以通过大学考试的论文,甚至还能“理解”笑话。它擅长回答各种问题,组织生动的语言,模仿多样化的语言风格。而当大语言模型与图像生成AI技术相结合时,即便是毫无艺术训练背景的人,也能通过简单的指令“创造”出令人惊叹的艺术图像。
对于知识的“加工”和“消费”者来说,大语言模型结合生成式人工智能的能力无疑是巨大的福音。海量语素数据、深度神经网络和强大的计算能力,将互联网上的知识“压平”后再通过人机互动进行“整装”,使得知识加工变得更加便捷迅速,消费也变得更加简明清晰。
技术乐观主义者认为,随着机器生成内容的能力不断提升,未来许多原本需要人类动脑实现的工作或许都将被机器取代,就像搜索引擎取代了图书馆的馆藏卡片、计算器取代了珠算一样。确实,对于大量重复的文字工作或机械的列举、整理工作,即使AI不介入最终决策,也能提供显著的生产力,辅助人类进行知识的加工和消费。
然而,这也引发了一个新的问题:在人工智能如此强大的背景下,读书还有用吗?高校和研究机构的人员是否会被取代?大语言模型和生成式人工智能为未来的知识“生产者”带来了一个绕不开的课题:何为知识?如何生产多样、公正、真实的知识?
人工智能的“学习能力”确实令人惊叹。现有的大语言模型和人工智能应用都以机器学习为基础,通过大量的数据训练预测模型,并在预测的准确度和普适性上找到平衡。这种预测基于现有知识的语言模型,也基于现有语言之间的联系。因此,人工智能能够发现数据之间的潜在联系,甚至“学到”一些现实中不存在但很可能发生的联系。
然而,这也带来了一个问题:如果现有知识的基础是不足的或是有偏见的,那么在此基础上建立的新知识也会产生偏差。自机器学习的AI投入大规模应用以来,学者们就不断揭示这些模型内在的偏见,如性别歧视、种族歧视、有违伦理的输出等。开发者虽然用各种方式去弥补这些偏见,但大部分问题都潜藏于数据生产和训练过程中,而AI的偏见实际上是对社会偏见的反映和放大。
因此,知识生产者在与机器紧密合作的过程中必须保持警惕。AI提供的便捷和可延展性可能会让人们更容易忽视没有被数据化、电子化的、非主流的、经验性的知识,从而错过形成新观点、新视角的可能。新的知识往往产生于对新材料的挖掘、不同观点之间的碰撞以及对现有知识的重新解构。大语言模型虽然为知识的展现提供了许多可能,但其内在的逻辑和架构可能与这种生产方式相悖。
在使用ChatGPT等工具时,笔者发现它们有时会“一本正经地胡说八道”,比如列举一本不存在的书或一篇没发表过的论文。领域越是狭窄、专业,“胡说”的可能性就越大。因此,对于知识生产者而言,如何活用人工智能去挖掘现有知识库的模式和联系,但又对机器的“幻视”保持警惕,是非常重要的技能。与AI“对话”也将成为一个新的技能,需要知识生产者和技术从业人员合作,从技术的底层或中层入手,更有效地与机器对话,理解和对抗“幻视”。
此外,对于新知识、新视角、新材料的研究,各个领域独有的结构和诠释在当下依然是十分关键的。大语言模型和生成式AI的预测模式依然倾向于单一和重复,训练材料少的领域能力就越有限。因此,想要实现机器和人的能力的结合,就必须从数据的生产根源上着手,用准确、多样、公正、新颖的数据训练AI模型,建立良性的人机互动模式。
大语言模型和生成式AI的问世给研究人员带来的挑战只是一个开始。与其担忧“取代”,不如在更加审慎的目光下寻求磨合与发展的可能。未来,知识生产者需要不断提升自己的技能,与人工智能共同进步,以应对这个不断变化的世界。