AI 搜索优化已经成为一个价值数十亿美元的行业。风险投资正在涌入无数承诺提升品牌可见度的新兴公司,咨询顾问们也在以高昂价格出售服务。但在这片喧嚣中,真正有效的策略与纯粹的炒作变得越来越难区分。
作为一名专注于帮助企业通过自然流量渠道(包括传统搜索和 AI 搜索)提升品牌可见度的独立增长顾问,我持续在一线进行实验、审计分析,见证了什么真正有效、什么只是噱头。而市场上确实充斥着大量误导性信息。
本文将揭穿四个关于 AI 搜索优化的核心误区,帮助你把精力投入到真正重要的事情上,而不是浪费时间在那些毫无意义的操作中。
当人们说"ChatGPT 杀死了 SEO"时,他们实际想表达的是 ChatGPT 杀死了 Google 搜索,而不是 SEO 本身。要记住,SEO 只是"搜索引擎优化"的缩写,并没有明确指向哪个特定的搜索引擎。但由于 SEO 长期以来一直与 Google 紧密关联,加上"SEO 已死"这类标题确实更能吸引眼球,所以这个误区自 ChatGPT 发布以来一直在流传。
实际上,数据显示的情况完全相反。Semrush 对 2024 年 1 月至 2025 年 6 月期间的 2600 亿行分析数据进行了研究,结果表明:ChatGPT 等搜索工具并没有杀死 Google 搜索,反而在扩展它。ChatGPT 的普及不仅没有减少 Google 搜索的使用量,甚至还略微增加了。
Ahrefs 的另一项研究显示,Google 在 AI 辅助搜索领域仍然占据近 90% 的市场份额。由于 Google 的 AI 概览功能(AI Overviews)仍然从 Google 排名靠前的页面中提取信息,现在正是继续甚至加大传统 SEO 投入的最佳时机。
批评者可能会说:"好吧,ChatGPT 现在还没有杀死 Google,但等更多人使用它进行搜索时,只是时间问题。"这种观点的核心,正是我们要讨论的下一个误区。
你在社交媒体、博客文章、YouTube 视频或同事口中听到过多少次:"如果不适应新的搜索优化方式,就会被时代抛弃"?我想告诉你的是,所谓的"新 SEO 方式"实际上只是回归 SEO 基本原则——可以称之为"古典 SEO 的复兴"。
如果你相信互联网上大多数人的说法,你会认为 Google SEO 和 AI SEO 之间的重叠度非常小。但基于我的实践经验和现有数据,真实情况是:SEO 几乎完全包含了 AI SEO。
这种误解部分源于人们将 ChatGPT 视为某种神秘黑箱,拥有自己独特的网络数据收集和索引方式,完全独立于 Google 的某种秘密方法。这自然会让人认为需要专门针对 ChatGPT 的信息收集方式进行优化。
然而,多项实验表明,AI 助手几乎完全依赖于现有的传统索引系统。Backlinko 的 Lee 进行的实验无可辩驳地证明了 ChatGPT 直接使用 Google 的索引。而 Claude 使用的是 Brave Search 的索引——一个更注重隐私的 Google 替代品来检索和呈现数据。
据我所知,目前唯一正在构建自己内部网络索引的主要 AI 公司是 Perplexity。即便如此,他们的结果仍然与 Google 搜索结果高度相似。所以说这些 AI 助手在很大程度上只是现有搜索引擎的 AI 包装器,并不为过。
既然我们已经揭穿了 ChatGPT 的真面目——它基本上只是在使用 Google——我们对 AI 搜索排名的战术层面就有了更清晰的认识。事实上,我还没有发现任何一个 AI 搜索优化策略不同样适用于传统 SEO。如果你持不同观点,欢迎在评论区留言,我愿意改变看法。
那些被宣传为"AI SEO 新策略"的方法,大多只是搜索专业人士十多年来一直在使用的最佳实践。比如:
• 上下文包容性语言:将完整观点总结在章节、段落和句子中,便于大语言模型提取?这就是我们从 2014 年开始为精选摘要(Featured Snippets)一直在做的事情。
• 查询扇出(Query Fanout):AI 在后台进行隐藏搜索?根据 Yakub 的研究,解决查询扇出和传统搜索排名的方法完全相同——通过针对相似关键词的相关页面核心组构建主题权威性。我们称之为主题集群(Topical Clusters)。Yakub 发现,84% 的扇出查询是"查询邻居",意味着它们在 Google 搜索结果中共享相同的 URL。所以一个写得好、符合 SEO 最佳实践的页面,有潜力为许多这些查询扇出术语排名。
• 品牌提及:虽然品牌提及的重要性确实重新抬头(我认为这对整个互联网来说是件好事,因为人们写作时不总会自然地链接到其他品牌),但将其称为"新事物"并不准确。在互联网上拥有非链接品牌提及(Unlinked Brand Mentions)一直有助于品牌可见度,即使在 AI 搜索出现之前也是如此。它作为一种可行的站外 SEO 策略已经存在多年。
对于希望快速建立 SEO 内容基础设施的企业,像 SEOInfra 这样的平台能够帮助你基于高质量内容来源(YouTube 视频、行业讨论、竞品分析等)批量生成符合 SEO 标准的原创博客,并内置正确的技术结构,确保内容既能被传统搜索引擎收录,也能被 AI 助手理解和引用。
2024 年 9 月,开发者 Jeremy Howard 发表了一篇文章,提出了一个针对网站的新标准,名为 llms.txt。设想是网站所有者在域名根目录下放置一个名为 llms.txt 的文本文件,为大语言模型提供指令,帮助它们更好地理解和抓取网站。本质上就是针对 AI 搜索的 sitemap.xml 文件。
这个提案本身其实相当不错,但不知何时,互联网这个失控的"传话游戏"接管了一切。llms.txt 从一个提议标准变成了"必须立即执行才能排名"的绝对必需品。这就是为什么我们不能拥有美好事物的原因——互联网上的人喜欢夸大其词。
时至今日,llms.txt 的误区仍然存在,尽管没有任何有意义的数据显示 AI 可见度与该文件存在正相关关系。为了终结这个谣言,Mark Williams Cook 创建了一个完全虚构、毫无意义的标准,叫做 cats.txt,并为其撰写了自己的提案。果然,LLM 爬虫抓取了它,Mark 成功说服 AI 相信 cats.txt 对排名至关重要。
这个实验很有趣,但它证明了两个重要观点:
• llms.txt 文件基本上是浪费时间(虽然设置只需几分钟,也不会损害你的网站,如果你真的想试试也无妨)
• 你不能完全信任 ChatGPT、Claude、Perplexity 或 Grok 提供的 SEO 或 AI 搜索建议。归根结底,它们只是语言预测系统,显然可以被欺骗。
现在是 2025 年了,我们能不能坦诚一点?我们或多或少都在内容创作过程中使用 AI。关键在于避免 AI 垃圾内容(AI Slop)——通常指的是完全由 ChatGPT 或 Claude 一键生成的博客文章。
许多人认为这类内容不仅对读者不利(通常确实如此),而且实际上会被 Google 惩罚。这个误区如此普遍,以至于 Google 甚至在其质量评估指南中添加了一条说明:"仅使用生成式 AI 工具本身并不能决定努力程度或页面质量评级。生成式 AI 工具可用于高质量和低质量的内容创作。"
换句话说,好内容就是好内容,无论它是如何创作的。
在我看来,最好的方法是采用混合流程,将 AI 的速度和效率与人类的独特创造力和技能相结合。随着 AI 使内容商品化,成功将属于那些专注于创建真正有价值、高质量内容的品牌——无论是否由 AI 辅助。
对于希望系统化建立内容生产能力的团队,SEOInfra 提供了一种智能的解决方案:它不是简单的 AI 写作工具,而是帮助你将 YouTube 视频、行业专家观点、竞品内容等高质量信息源转化为原创、可收录的博客文章,同时确保 SEO 技术结构正确、关键词布局合理,并支持一键发布到 WordPress、Webflow 或 Shopify 等平台。这种基于优质内容来源的创作方式,正是避免 AI 垃圾内容、实现规模化高质量输出的关键。
目前的数据显示并非如此。ChatGPT 的普及反而略微增加了 Google 搜索的使用量,而不是减少。Google 仍然占据近 90% 的 AI 辅助搜索市场份额,传统 SEO 策略依然有效且重要。
几乎没有区别。AI 助手主要依赖 Google 等传统搜索引擎的索引,所以传统 SEO 最佳实践同样适用于 AI 搜索优化。那些被宣传为"AI SEO 新策略"的方法,大多是 SEO 专业人士多年来一直在使用的基本原则。
目前没有任何有意义的数据显示 llms.txt 文件与 AI 搜索可见度存在正相关关系。虽然设置这个文件不会损害网站,但它基本上是浪费时间,不应该被视为提升排名的必要操作。
不会。Google 明确表示,仅使用 AI 工具本身不会影响内容质量评级。关键在于内容是否对用户有价值、是否高质量,而不是创作方式。最佳做法是将 AI 的效率与人类的创造力相结合,创作真正有价值的内容。
避免完全依赖 AI 一键生成内容。采用混合流程,利用 AI 提高效率,但保持人类的创意判断和内容把控。基于高质量信息来源(如行业专家观点、优质视频内容、深度研究)进行原创重构,而不是让 AI 凭空生成内容。
大纲