登录注册后,您的订单将在个人中心里生成,请前往查看。同时,您将收到展会最新的动态。
当前,ChatGPT正引领人类迈入无缝人机交互的新纪元。然而,随着大规模语言模型(大模型)的迅猛发展,其在实际应用中逐渐暴露出事实性错误、知识盲区和常识偏差等问题,同时面临着训练数据来源合规性、数据使用偏见性、生成内容安全性等多重风险。为了应对这些挑战,绿盟科技于9月1日正式发布了绿盟风云卫大模型(NSFGPT),并同期推出了《安全行业大模型SecLLM技术白皮书》,旨在分享安全行业大模型研发的最佳实践与经验教训,为行业提供定制化的解决方案。
一、AI大模型的训练数据来源
AI大模型的实现离不开海量数据和强大算力的支持。随着数据量的增加,模型能够学习到更多的特征和模式,从而提高泛化能力。AI大模型的数据来源主要分为网络开放数据、服务商数据和自有数据三种类型。
二、大模型安全总览
与传统端到端模型不同,大模型采用预训练-微调的训练范式。尽管大模型具备海量参数和微调所需敏感数据更少的特点,一定程度上缓解了对抗样本和数据隐私泄露的风险,但仍面临多重安全威胁。
对内而言,大模型参数量剧增带来的涌现能力引发了新的偏见和不确定风险;多模态学习增加了对齐风险;大模型内部存在可解释性不足的风险。对外而言,大模型面临着来自恶意攻击者的对抗攻击、后门攻击、成员推断攻击、模型窃取等威胁。
三、大模型安全防护策略
为了提升大模型的安全性,本节从鲁棒性、可靠性、隐私性、公平性和可解释性五个角度提出防护策略。
四、应对大模型时代的AI安全风险
为了应对大模型时代的AI安全风险,北京瑞莱智慧科技有限公司合伙人、高级副总裁朱萌提出了稳固三角形的概念,构建“智能测评、攻击应对以及AI安全防御”的三角模型。从发现风险、处置风险和防范风险三个视角出发,系统提升金融领域在新技术条件下的安全水平。
随着攻击成本的降低和门槛的降低,未来还将出现大量涉及人工智能安全的问题。因此,必须将这种安全风险前置,以确保大模型时代的稳健发展。