中国工业报 吴辰光 王珊珊
技术本无善恶之分,关键看使用者的目的和行为。
2026年央视3·15晚会曝光的AI“投毒”行业乱象,将GEO(生成式引擎优化)这一新兴服务推向风口浪尖,也揭开了AI营销领域的灰色产业链。广告主仅需支付相应费用,就能让自己的产品在各大主流AI大模型回答中榜上有名,甚至能将虚假信息包装成“标准答案”。
“本质上,GEO是生成式AI时代衍生的全新营销模式,核心是通过定向优化营销内容,适配生成式AI引擎的检索与推荐规则,提升品牌及相关内容在AI输出结果中的曝光权重。但在利益驱动下,部分主体批量生产低质、虚假内容,污染大模型训练语料与检索结果,人为拔高特定品牌或产品的出现频次与排序位次,这类AI‘投毒’行为,不仅侵害消费者合法权益,更为行业健康发展埋下重大安全隐患。”苏商银行特约研究院高政扬对中国工业报如是说道。
当前,AI“投毒”的危害究竟有多大?产业链条各方责任该如何界定?行业乱象又该如何标本兼治?这些问题已成为产业界、法律界与监管层共同关注的核心议题。
门槛低危害大
截至目前,在各大电商平台仍可看到各种GEO优化系统、代运营教程等售卖信息,系统售价从8.8元至100余元不等,发布软文价格另算,分单篇结算和按月结算,单篇价格在0.1-0.5元不等,月结价格99元可发几百篇至上千篇不等。低准入门槛让AI“投毒”乱象快速蔓延。
“GEO技术本身是中性的,关键在于内容发布者的目的。”艾媒咨询CEO张毅对中国工业报表示,“‘投毒’现象泛滥的核心,在于利益诱惑。由于操作成本低、收益大、行为隐蔽,再加上AI大模型高度依赖外部数据,检验能力尚存不足,给黑色产业链留下了可乘之机。”
常信科技CEO葛林波向中国工业报介绍,AI“投毒”实际操作非常简单,可分为四步:一是买工具,在电商平台直接购买GEO优化系统,价格低,不用懂技术也能操作;二是造假内容,往系统里输入虚假的产品信息,勾选创作指令,系统自动生成软文,假参数、伪造的专家测评/用户反馈/行业排名等;三是自动发稿,系统绑定提前准备的自媒体账号一键发布;四是持续投喂,AI算法每周都有更新,因此需要批量、多角度发稿,让AI交叉验证时能迅速扒到这些内容。
葛林波进一步透露,单篇内容发布后仅两小时便会被AI大模型抓取。如果连续三天以上、发送10篇以上不同类型的内容,就很容易被多个AI大模型抓取并推荐在前排位置。
对于AI“投毒”的低成本与高回报,天娱数科首席数据官吴邦毅对中国工业报剖析了低成本高回报的核心逻辑:形成RAG(检索增强生成)+GEO黑产闭环。GEO系统一键生成虚假内容起步价不到10元;批量投喂自媒体账号、伪站矩阵,单篇成本0.3–0.5元,形成水军互动+RLHF(基于人类反馈的强化学习)强化的“虚假权威”。如此下来,黑产能以100元–3万元/月的成本,碾压正规企业多达上亿级的营销投入。这已不是简单的营销违规,而是对数字经济信任根基、产业安全与公平竞争的系统性冲击。
“AI‘投毒’的危害性已超越传统虚假信息,呈现出系统性、基础性风险。不仅误导消费决策,还能污染客观的信息数据资料池,影响公共讨论、操纵金融市场、干扰司法调查、甚至危及国家安全。当AI系统这个日益重要的社会‘信息中介’和‘决策辅助’被大规模污染,将直接侵蚀社会信任与知识体系,其破坏力是全局性的。”上海财经大学数字经济研究院副院长崔丽丽对中国工业报说道。
链条长责任重
一般而言,GEO服务产业链涉及广告主、GEO服务商、大模型平台等多方主体,一旦发生AI“投毒”行为,各方责任该如何划分?法律层面又该如何追责?
【解决】AI法律助手创始人、道可特律师事务所高级合伙人刘玥对中国工业报表示,从广告主的角度,若明知自己产品有问题,却想靠虚假信息赚钱,主动找GEO服务商帮助造假,广告主就是主要责任方。从GEO服务商角度,若GEO服务商不知道广告主提供的信息真假,只是收钱办事,GEO服务商要和广告主一起承担相应责任;若GEO服务商明知广告主要“投毒”,却主动配合甚至教广告主如何规避大模型平台的审核,GEO服务商就是“帮凶”,是共犯,属于共同侵权。
刘玥指出,通过GEO服务发布虚假信息,侵害消费者的知情权和选择权,侵害程度比普通的虚假宣传更隐蔽、影响范围更广。而通过GEO操控AI推荐、排挤竞品,也属于不正当竞争。监管部门首先会责令相关主体立即停止这种不正当竞争行为;其次会根据违法情节轻重对相关主体处以罚款,罚款金额一般在10万元到500万元之间;此外,如果情节特别严重,比如多次违规、屡教不改,监管部门还会吊销相关主体营业执照,禁止从事相关经营活动,同时还可移交司法机关,追究刑事责任。
崔丽丽认为,从整个链条看,广告主作为虚假信息的发布指令方和直接受益者,应是首要追责对象。GEO服务商应承担合规审查的“看门人”责任,若明知或应知客户“投毒”仍提供帮助,需承担连带责任。平台应承担安全保障的核心责任,需具备合理的安全设计、数据清洗和实施监测能力,否则要对明显的“投毒”输出担责。
守底线靠共建
面对对愈演愈烈的AI“投毒”乱象,该如何做好管控工作?
刘玥指出,需监管部门、平台、行业、消费者四方联动,形成完整的管控体系。首先,监管部门要明确具体管控规则,不能只靠原则性要求。如是否可以设立机制,要求GEO服务商必须备案,提交自己的技术方案、服务对象,禁止提供“批量生成虚假数据”“规避AI审核”等违规服务;同时要加大排查力度,建立专门的排查团队,利用技术手段,对AI平台的训练数据进行常态化监测,对违规的GEO服务商、广告主不仅要罚款,还要纳入信用黑名单,限制其后续的经营活动,形成震慑。其次,大模型平台是管控的关键环节,要升级自己的技术,建立更严格的训练数据审核机制;同时还要建立反馈机制,一旦消费者举报虚假推荐,就及时核查,确认是GEO投毒导致的,就立即清理相关虚假数据,停止相关推荐,并向监管部门报备。然后是否可以加强行业自律,正规的GEO服务商、AI平台是否可以主动成立行业协会,制定行业规范,明确哪些行为是合规的,哪些是违规的,对违规的行业内企业,进行通报批评、联合抵制,让行业内形成“不敢投毒、不能投毒”的氛围。最后,消费者也要提高警惕,如查看产品的资质、真实用户评价,要是发现推荐的内容和实际情况不符,及时向平台或者监管部门举报,形成多方合力,破解数据投喂难管控的问题。
中国商业联合会专家委员会委员、北京商业经济学会常务副会长赖阳对中国工业报表示,人工智能数据污染本质是注意力经济转移下的平台信息寻租。云消费时代高度依赖集约化分发,底层语料一旦被利益方规模化干预,将呈指数级拉升消费者甄别成本,彻底解构商业信任机制与流通效率。
赖阳指出,界定常规引擎优化与恶意干预的标尺,在于是否强行扭曲客观物理现实与算法概率分布,造成实质性商业误导,这要求监管建立跨越数据表象的语义溯源与事实对比基线,但商业生态链条冗长客观加剧了溯源难度。平台凭借垄断分发权获取极大溢价,这决定了其必须将防范数据污染的成本内部化。
“破局关键在于建立事前合规架构,强制标识AI生成内容,辅以对技术方与广告主的连带追偿机制以压制寻租空间。算法工具化绝不能透支用户信任资产,平台型商业模式的长效运转,要求企业将社会责任硬性嵌入运营考核。只有当破坏性逐利的违规成本远超短期变现收益时,技术演进才能真正回归优化流通效率的本源。”赖阳说道。
实际上,AI“投毒”所引发的思考远不止于此,从整个人工智能的发展看,各方在寻求商业化的同时,如何能守住底线,真正做到AI向善、算法向善?
在崔丽丽看来,守住底线不能仅靠企业自律,需构建一个“免疫系统”式治理生态:第一,在技术维度内嵌“向善”的默认设计,在技术研发的初始阶段,就将公平、安全、透明、可问责等伦理要求作为核心参数纳入系统设计,而非事后补丁。第二,在规制方面,建立“硬性”法律与标准护栏,通过立法明确不可逾越的红线(如利用AI进行欺诈、歧视、制造社会对立),并制定可执行的强制性技术安全标准,让“向善”有法可依、有标可对。第三,在制度方面,实施“精准”激励与问责,对主动投入安全研究、通过合规认证的企业给予市场准入、税收或采购政策倾斜。第四,在用户意识方面,培育“批判性”的社会素养,通过公众教育提升全社会对AI的认知与批判能力,使公众成为监督“向善”的广泛社会力量。最终,让“向善”不仅是道德呼吁,更是商业上可持续、法律上必遵守、技术上可实现的必然选择。
客户端
媒体矩阵
企业邮箱