Оптимизация под поисковые системы с помощью ИИ — индустрия объемом в миллиарды долларов. Венчурный капитал вливается в стартапы, обещающие повысить узнаваемость бренда, а консультанты продают свои услуги по высоким ценам. Но среди всего этого шума становится все труднее отличить действительно эффективные стратегии от чистого хайпа.
Как независимый консультант по росту, специализирующийся на повышении узнаваемости бренда через органические каналы трафика (включая традиционный и ИИ-поиск), я постоянно экспериментирую, провожу аудиты и вижу, что на самом деле работает, а что является пустышкой. Рынок действительно переполнен дезинформацией.
В этой статье мы развенчаем четыре распространенных заблуждения об оптимизации под поисковые системы с помощью ИИ, чтобы вы могли сосредоточить свои усилия на том, что действительно важно, а не тратить время на бесполезные действия.
Когда люди говорят: «ChatGPT убил SEO», на самом деле они имеют в виду, что ChatGPT убил поиск Google, а не само SEO. Важно помнить, что SEO — это просто аббревиатура от «Search Engine Optimization» (оптимизация для поисковых систем), и она не привязана к какому-либо конкретному поисковику. Но поскольку SEO долгое время ассоциировалось с Google, а заголовки вроде «SEO мертво» более привлекательны, это заблуждение распространилось с момента выпуска ChatGPT.
На самом деле, статистика говорит об обратном. Исследование Semrush, охватывающее 260 миллиардов строк данных за период с января 2024 г. по июнь 2025 г., показало: инструменты поиска, такие как ChatGPT, не убили поиск Google, а, наоборот, расширили его. Популярность ChatGPT не только не уменьшила использование поиска Google, но и немного увеличила его.
Другое исследование Ahrefs показало, что Google по-прежнему занимает почти 90% рынка в области поиска с поддержкой ИИ. Поскольку функция AI Overviews от Google AI Overviews по-прежнему извлекает информацию со страниц с высоким рейтингом в Google, сейчас самое подходящее время для продолжения или даже увеличения инвестиций в традиционное SEO.
Критики могут возразить: «Хорошо, ChatGPT еще не убил Google, но это лишь вопрос времени, когда им начнет пользоваться больше людей». Основная идея этого аргумента — следующий миф, который мы рассмотрим.
Сколько раз вы слышали в социальных сетях, в статьях, на YouTube или от коллег: «Если вы не адаптируетесь к новому способу оптимизации поисковых систем, вас съест время»? Я хочу сказать вам, что так называемый «новый способ SEO» на самом деле является просто возвращением к основополагающим принципам SEO — можно назвать это «ренессансом классического SEO».
Если верить большинству людей в Интернете, вы подумаете, что пересечение между SEO для Google и SEO для ИИ очень мало. Но, основываясь на моем практическом опыте и доступных данных, реальность такова: SEO почти полностью включает в себя SEO для ИИ.
Это недопонимание частично вызвано тем, что люди воспринимают ChatGPT как некий таинственный черный ящик с собственным уникальным способом сбора и индексации веб-данных, полностью независимым от какой-то секретной методологии Google. Это, естественно, заставляет думать, что нужно специально оптимизироваться под способ сбора информации ChatGPT.
Однако многочисленные эксперименты показали, что ИИ-ассистенты почти полностью полагаются на существующие традиционные системы индексации. Ли из Backlinko провел неопровержимые эксперименты, показавшие, что ChatGPT напрямую использует индексы Google. А Claude использует индексы Brave Search — более ориентированного на конфиденциальность аналога Google — для поиска и представления данных.
Насколько мне известно, единственной ИИ-компанией, которая в настоящее время создает свой собственный внутренний веб-индекс, является Perplexity. Даже в этом случае их результаты остаются очень похожими на результаты поиска Google. Поэтому неудивительно, что эти ИИ-ассистенты в значительной степени являются просто обертками для существующих поисковых систем.
Теперь, когда мы раскрыли истинную природу ChatGPT — по сути, он просто использует Google — у нас появляется более четкое представление о тактических аспектах ранжирования в ИИ-поиске. На самом деле, я еще не обнаружил ни одной стратегии оптимизации под ИИ-поиск, которая не работала бы так же и для традиционного SEO. Если вы придерживаетесь другого мнения, добро пожаловать в комментарии, я готов изменить свою точку зрения.
Методы, которые рекламируются как «новые стратегии AI SEO», — это, по сути, лучшие практики, которые специалисты по поиску используют уже более десяти лет. Например:
• Контекстно-зависимый язык: Суммирование полных идей в разделах, абзацах и предложениях для удобства извлечения большими языковыми моделями? Это то, что мы делаем с 2014 года для получения избранных фрагментов (Featured Snippets).
• Разветвление запросов (Query Fanout): ИИ выполняет скрытые поиски в фоновом режиме? Согласно исследованиям Якуба, решение проблемы разветвления запросов и ранжирования в традиционном поиске абсолютно одинаково — путем создания тематического авторитета для кластера релевантных страниц вокруг похожих ключевых слов. Мы называем это тематическими кластерами (Topical Clusters). Якуб обнаружил, что 84% разветвленных запросов являются «соседними запросами», что означает, что они разделяют одни и те же URL-адреса в результатах поиска Google. Таким образом, хорошо написанная страница, соответствующая лучшим практикам SEO, имеет потенциал для ранжирования по многим из этих терминов с разветвленными запросами.
• Упоминания бренда: Хотя важность упоминаний бренда действительно возросла (что, по моему мнению, хорошо для всего Интернета, поскольку люди не всегда естественно ссылаются на другие бренды при написании), называть это «новым» некорректно. Нессылочные упоминания бренда (Unlinked Brand Mentions) в Интернете всегда способствовали узнаваемости бренда, даже до появления ИИ-поиска. Это уже много лет является жизнеспособной внестраничной SEO-стратегией.
Для компаний, стремящихся быстро создать инфраструктуру для SEO-контента, такие платформы, как SEOInfra, могут помочь вам массово генерировать оригинальные блоги, соответствующие стандартам SEO, на основе высококачественных источников контента (видео YouTube, отраслевые обсуждения, анализ конкурентов и т. д.), встроенной правильной технической структурой, гарантирующей, что контент будет как проиндексирован традиционными поисковыми системами, так и понят и процитирован ИИ-ассистентами.
В сентябре 2024 года разработчик Джереми Ховард опубликовал статью, в которой предложил новый стандарт для веб-сайтов под названием llms.txt. Идея заключается в том, что владельцы веб-сайтов размещают текстовый файл под названием llms.txt в корневом каталоге своего домена, чтобы предоставить инструкции большим языковым моделям, помогая им лучше понимать и сканировать веб-сайт. По сути, это файл sitemap.xml для ИИ-поиска.
Само предложение было довольно хорошим, но в какой-то момент неуправляемая «игра в испорченный телефон» в Интернете взяла свое. llms.txt превратился из предлагаемого стандарта в абсолютную необходимость, «которую нужно выполнить немедленно, чтобы ранжироваться». Вот почему мы не можем иметь ничего хорошего — люди в Интернете любят преувеличивать.
На сегодняшний день заблуждение о llms.txt все еще существует, несмотря на отсутствие значимых данных, демонстрирующих положительную корреляцию между видимостью в ИИ и этим файлом. Чтобы положить конец этому слуху, Марк Уильямс Кук создал совершенно вымышленный, бессмысленный стандарт под названием cats.txt и написал для него собственное предложение. Как и ожидалось, парсеры LLM просканировали его, и Марк успешно убедил ИИ, что cats.txt имеет решающее значение для ранжирования.
Этот эксперимент интересен, но он демонстрирует два важных момента:
• Файл llms.txt — это, по сути, пустая трата времени (хотя его настройка занимает всего несколько минут и не повредит вашему сайту. Если вы действительно хотите попробовать, нет проблем).
• Нельзя полностью доверять SEO- или ИИ-поисковым советам, предоставляемым ChatGPT, Claude, Perplexity или Grok. В конце концов, это просто системы прогнозирования языка, которые, очевидно, могут быть обмануты.
Сейчас 2025 год, можем ли мы быть честными? Почти все мы в той или иной степени используем ИИ в создании контента. Главное — избегать «мусорного ИИ-контента» (AI Slop) — который обычно означает статьи, сгенерированные в один клик в ChatGPT или Claude.
Многие считают, что такой контент не только вреден для читателей (что часто бывает правдой), но и фактически наказывается Google. Это заблуждение настолько распространено, что Google даже добавил примечание в свое руководство по оценке качества: «Простое использование инструментов генерации ИИ само по себе не определяет степень усилий или рейтинг качества страницы. Инструменты генерации ИИ могут использоваться для создания как качественного, так и некачественного контента».
Иными словами, хороший контент — это хороший контент, независимо от того, как он был создан.
На мой взгляд, лучший подход — использовать гибридный процесс, сочетающий скорость и эффективность ИИ с уникальной креативностью и навыками человека. Поскольку ИИ делает контент товаром, успех будет сопутствовать брендам, которые сосредоточены на создании действительно ценного, высококачественного контента — независимо от того, был ли он создан с помощью ИИ.
Для команд, стремящихся систематизировать свои производственные мощности по созданию контента, SEOInfra предлагает интеллектуальное решение: это не просто инструмент для написания статей с помощью ИИ, а помощник, который поможет вам превратить высококачественные источники информации, такие как видео YouTube, точки зрения отраслевых экспертов, контент конкурентов и т. д., в оригинальные, индексируемые статьи, обеспечивая при этом правильную техническую SEO-структуру, разумное размещение ключевых слов и возможность публикации в один клик на платформах, таких как WordPress, Webflow или Shopify. Этот метод создания контента на основе высококачественных источников является ключом к избежанию «мусорного ИИ-контента» и достижению масштабируемого высококачественного вывода.
Текущие данные показывают, что это не так. Популярность ChatGPT фактически немного увеличила использование поиска Google, а не уменьшила его. Google по-прежнему занимает почти 90% рынка поиска с поддержкой ИИ, а традиционные SEO-стратегии остаются эффективными и важными.
Разницы практически нет. ИИ-ассистенты в основном полагаются на индексы традиционных поисковых систем, таких как Google, поэтому лучшие практики традиционного SEO одинаково применимы и к оптимизации под ИИ-поиск. Те методы, которые рекламируются как «новые стратегии AI SEO», — это, по сути, основополагающие принципы, которые специалисты по поиску используют уже много лет.
В настоящее время нет никаких значимых данных, демонстрирующих положительную корреляцию между файлом llms.txt и видимостью в ИИ-поиске. Хотя настройка этого файла не повредит вашему сайту, это, по сути, пустая трата времени, и его не следует рассматривать как необходимый шаг для повышения рейтинга.
Нет. Google четко указал, что простое использование инструментов ИИ само по себе не повлияет на рейтинг качества контента. Главное — имеет ли контент ценность для пользователя и является ли он высококачественным, а не способ его создания. Лучшая практика — сочетать эффективность ИИ с человеческим творчеством для создания действительно ценного контента.
Избегайте полного полагания на ИИ для генерации контента в один клик. Используйте гибридный подход, используя ИИ для повышения эффективности, но сохраняя человеческое творческое суждение и контроль над контентом. Создавайте оригинальный, переработанный контент на основе высококачественных источников (таких как мнения отраслевых экспертов, качественный видеоконтент, глубокие исследования), а не позволяйте ИИ генерировать контент из воздуха.
大纲