中国工业报记者 曹雅丽
在人工智能技术迅猛发展的今天,安全问题已成为制约其健康发展的关键瓶颈。从大模型自身的安全漏洞到利用AI进行的网络攻击,再到AI系统被攻击引发的连锁反应,人工智能面临的安全挑战日益严峻。如何构建高可靠的人工智能安全体系,既用AI驱动安全又保障AI自身安全,成为业界关注的焦点。
2025年全国两会期间,全国政协委员、奇安信科技集团股份有限公司(以下简称“奇安信”)董事长齐向东围绕“目前人工智能发展面临哪些严峻安全问题?通过哪些维度或体系提升人工智能的安全能力?地方政府在构建人工智能产业生态方面如何取得显著成效?如何在人工智能创新发展的竞争中展现强大的实力和独特优势?”等问题进行详细介绍。
“我总结,人工智能发展面临的安全问题大致可以分三类。”齐向东表示,第一类是人工智能大模型自身的安全问题。开发风险、数据风险、应用风险和基础环境风险这四大安全风险比较突出。
开发方面,开源大模型要重点防范代码缺陷和预留后门等问题;应用方面要防“内鬼”对训练数据投毒,进行模型篡改、配置篡改;数据方面,要小心内部配置错误和弱口令等造成的数据库暴露;基础环境方面要重点关注云、API、传统设备漏洞等等。
“目前,已有团队发现DeepSeek存在严重漏洞,并可借此获取后端隐私数据、API密钥、操作元数据,尽管漏洞很快被修补,但是根据我们的经验,新漏洞会不断被挖掘出来。”齐向东说。
第二类是利用人工智能开展网络攻击的问题。人工智能促进了网络攻击手段的更新迭代,“饱和式”攻击成为可能,攻击者可以瞬时发动海量攻击打垮已有的网络安全体系。人工智能还提升了“以假乱真”的能力,深度伪造、认知战、钓鱼等威胁加剧。攻击者可利用人工智能“换脸变声”输出虚假信息,开展网络诈骗,或输出背离主流价值观的内容危害认知安全。
第三类是通过攻击人工智能引发的“网络攻击大爆炸”。“未来人工智能会成为社会的基础设施,当大模型嵌入智慧城市、工控系统、智慧政务等关键领域时,会放大漏洞等传统安全威胁,一旦人工智能大模型遭到攻击可能会牵一发而动全身,引发社会服务中断、生产停滞、隐私数据泄露等安全事件。”齐向东表示。
针对这些安全问题,齐向东建议,要从技术保障、制度保障、成果应用三方面入手,系统提升安全能力,确保人工智能安全发展。
第一,建立适配大模型的纵深防御体系,筑牢人工智能的安全根基。齐向东介绍,最近,奇安信发布了业界首个大模型安全整体解决方案大模型安全盾,率先提出“大模型安全红域”概念。通过构筑覆盖终端、应用、数据、模型、红域的多维度核心防护能力,打造适用于人工智能的立体纵深防御体系,并给予威胁情报、大网数据监测等情报赋能,实现“对外防攻击、对内防内鬼”,为人工智能大模型安全稳定运行保驾护航。
第二,制定大模型安全强制合规要求,夯实人工智能安全发展的制度保障。要明确大模型安全的组织架构,界定安全主体责任,对基础安全、数据安全、应用系统开发安全、运行安全等方面提出清晰的技术保障要求。同时,做好大模型运行安全监测和内容风控,定期开展安全评估测试,完善应急响应机制,一旦发现异常行为或潜在的安全事件,第一时间进行处置,将安全威胁消除在萌芽状态。
第三,推广“AI+安全”创新成果落地,走好提升安全能力的必经之路。这两年,奇安信安全产品全面AI化进展显著,“AI+SOC”“AI+天眼”“AI+天擎”“AI+椒图”等在实际应用中受到来自金融、能源、医疗等领域客户的广泛好评;奇安信安全智能体也已经深度接入DeepSeek大模型,在为政企客户提供威胁研判等多个场景里表现都很卓越。随着人工智能应用的进一步铺开,要鼓励更多产业用上、用好“AI+安全”创新成果,提高千行百业的网络安全防护效能。
“人工智能产业是高精尖的科创型产业,这种产业的发展壮大往往并不是由权威主导,而是由广大创业者主导。地方政府应该广泛发动民间创新创业力量,全面支持科创企业的必要需求,不断培育、巩固、发展人工智能竞争新优势。”齐向东建议。
比如,在技术攻坚期敢投入,做好“风险共担者”。用政策和资本为人工智能产业护航,不仅可以出台针对性扶持政策,还可以提供多样化的资金支持,运用种金融工具激励创新。在产业成长期精准匹配要素资源,做好“服务者”。用好数智化工具,破除行政壁垒、简化相应的审批流程,打造AI产业专属的敏捷治理体系,让科创企业心无旁骛搞发展。在全球化竞争中搭建协同合作网络,做好“连接者”。促进产学研用深度融合,推动科研成果从实验室走向市场,并以更加主动的姿态嵌入区域化、全球化的产业链条,占据关键节点位置,推动人工智能产业迈向更高发展层次。
请输入验证码