你是不是也发现,最近问 AI 一些问题,它给出的答案越来越”像广告”了?2026 年 315 晚会曝光了一个惊人事实:包括 DeepSeek、豆包、元宝、通义千问、文心一言、Kimi 在内的 8 家中国顶级 AI 大模型,全部被一个成本仅 100 元的虚假宣传轻松骗过。这背后是一条叫做”GEO 投毒”的黑色产业链。这篇文章帮你搞清楚 AI 是怎么被忽悠的,更重要的是——给你 5 个实用方法,避免自己被 AI 的”权威答案”带偏。
一、什么是 GEO 投毒?
GEO(Generative Engine Optimization,生成式引擎优化)本质上是一种针对 AI 大模型的数据投毒技术。操作手法极其简单:黑产团队用自动化工具批量生成含有特定关键词的软文,然后以极低的成本(15-50 元/篇)发布到各类网站。AI 大模型在联网搜索时抓取这些内容,将其当作”权威信息”整合进回答里。
315 晚会做了个实验:虚构了一款根本不存在的”Apollo-9 智能手环”,只写了一篇满是”量子纠缠传感””黑洞级续航”这种离谱词汇的假文案。结果 8 家大模型全部中招,煞有介事地推荐这款”划时代产品”。更夸张的是,背后操盘的北京力思文化传媒,2025 年参保人数只有 1 人,此前多年都是 0。
二、为什么大模型这么容易被骗?
核心问题在于 RAG(检索增强生成)技术的工作机制。大模型要回答实时问题,必须联网抓取最新网页。但中文互联网的优质内容正在枯竭——创作者被短视频分流,大量信息封闭在 APP 里。这时候,GEO 黑产每天生产的几万篇结构工整、关键词密集的软文,对 AI 爬虫来说简直就是”送到嘴边的饲料”。
更讽刺的是,大模型平台其实心知肚明。但打假需要耗费极高的算力成本,还会掐断免费的数据来源。所以大多数平台选择”装睡”——只要用户还在问,它们就继续答,至于答案里掺了多少水分,那就顾不上了。
三、5 个方法避免被 GEO 投毒忽悠
方法 1:交叉验证关键信息
AI 给出的产品推荐、数据、结论,不要直接采信。用传统搜索引擎再搜一次,看看有没有独立第三方来源支撑。如果只有 AI 在说,大概率有问题。
方法 2:警惕”绝对化”表述
GEO 软文最爱用”最好””最可靠””首选”这种绝对化词汇。如果 AI 的回答里频繁出现这类词,而且没有具体数据或对比依据,基本可以判定是被投毒了。
方法 3:检查时间敏感度
问 AI 一些刚发生的事件(比如昨天的新闻),如果它给出的信息明显滞后或者细节模糊,说明它抓取的可能是提前布局的旧软文。
方法 4:反向提问测试
试着问 AI”XX 产品有什么缺点”或者”XX 和 YY 哪个更好”。正常模型会给出平衡的分析,被投毒的模型往往会回避负面信息,或者强行说”两者都很好”。
方法 5:关注小众但专业的信源
GEO 黑产主要攻击主流关键词。对于一些垂直领域、专业度高的问题,AI 反而更可能抓取到真实的专家内容。别什么事都问泛泛的大模型,专业问题找专业数据库。
四、GEO 投毒识别检查清单
下次用 AI 做消费决策或查资料时,按这个清单快速过一遍:
- 这个产品/服务,用传统搜索引擎能搜到独立评测吗?
- AI 的回答里有具体数据支撑吗?还是全是形容词?
- 有没有出现”最好””首选””强烈推荐”这种绝对化词汇?
- 问同一个问题的反面(有什么缺点),AI 能给出具体信息吗?
- 这个信息的发布时间是什么时候?是最近发生的还是旧闻?
快速验证 Prompt 模板:
请列出关于 [产品名称] 的 3 个主要缺点或用户投诉,并给出具体来源链接。如果无法提供,请说明原因。
这个 Prompt 能逼 AI 暴露它是不是在”装睡”——真知道缺点的模型会说出来,被投毒的模型会顾左右而言他。
五、关键要点总结
- GEO 投毒是用廉价软文污染 AI 数据源的黑色产业
- 大模型平台出于成本和利益考虑,大多选择”装睡”
- 交叉验证、警惕绝对化表述、反向提问是有效的自保方法
下一步建议:
- 把上面的检查清单存下来,用 AI 做决策前快速过一遍
- 对于重要信息(医疗、理财、法律),永远不要只信 AI 一家之言
- 关注 315 晚会后续报道,看看监管部门会不会出手
六、互动提问
你有没有被 AI 的”权威答案”坑过的经历?比如它推荐的产品实际很坑,或者给的信息完全不对?评论区聊聊,帮大家避避坑。觉得有用就收藏一下,下次用 AI 前拿出来对照对照。
