Видимость сайта в ChatGPT и AI-поиске: что показало исследование 68,9 млн визитов AI-краулеров

04.04.20266 мин чтения
Карина
SEO-оптимизаторКарина

Если коротко, исследование BotRank отвечает на простой вопрос: почему одни сайты AI-краулеры обходят часто, а до других почти не доходят.

Авторы исследования BotRank по 68,9 млн визитов AI-краулеров посмотрели на 858 457 сайтов на платформе Duda. Это не исследование ранжирования и не список секретных факторов для ChatGPT. Это большой срез того, куда AI-боты вообще доходят, как часто возвращаются и какие сигналы чаще встречаются у сайтов с высокой crawl-активностью.

Для SEO-команды это полезнее, чем кажется. Если бот до сайта не доходит, плохо видит структуру или не может быстро понять, что за компания перед ним, ждать хорошей видимости в AI-ответах тоже сложно.

Что показало исследование

Главная цифра исследования такая: в феврале 2026 года 59% сайтов из выборки получили хотя бы один визит AI-краулера, а общий объем составил 68,9 млн визитов. При этом 81% активности пришёлся на ботов OpenAI, 16,6% - на Anthropic, а доля Perplexity и Google была заметно ниже.

Но важнее не сама цифра, а то, с чем она совпадает. Авторы увидели несколько сильных корреляций:

  • сайты с 50 и более публикациями в блоге в среднем получали 1 373,7 визита AI-краулеров, а сайты без блога - 41,6;
  • сайты с синхронизацией Google Business Profile имели 92,8% crawl rate против 58,9% без такого сигнала;
  • страницы с local schema показывали 72,3% crawl rate против 55,2% без неё;
  • интеграции с отзывами тоже заметно совпадали с более частыми визитами.

Здесь важно не сделать неправильный вывод. Исследование не доказывает, что достаточно добавить schema и ботов сразу станет больше. Оно показывает другое: AI-системам проще работать с сайтами, где уже есть понятная структура, оформленные данные о бизнесе и нормальный слой контента.

Что это значит на практике

Для AI-поиска уже недостаточно просто "быть в индексе". Сайт должен быть удобным источником: с ясной структурой, нормальными страницами услуг, читаемыми контактами, понятной географией и данными, которые можно быстро сверить.

Это особенно заметно в локальном SEO, B2B и сервисных нишах. Когда AI-система пытается понять, кого показать в ответе, она проверяет не только текст на странице. Ей нужно быстро собрать картину: кто вы, где работаете, чем занимаетесь, есть ли у вас подтверждённый профиль бизнеса, совпадают ли контакты, есть ли отзывы и внешние упоминания.

Есть и ещё один важный момент. В справке OpenAI о ChatGPT search прямо сказано, что система может переписывать исходный запрос пользователя в более точные поисковые запросы. Это значит, что странице мало просто повторять один ключ. Она должна нормально отвечать на смежные вопросы: кто вы, что предлагаете, для какого города или сегмента работаете, чем отличаетесь и какие факты это подтверждают.

Какие сигналы действительно стоит усиливать

1. Доступность сайта для нужных ботов

Если у сайта закрыт доступ для нужных краулеров, дальше обсуждать видимость в AI-поиске почти бессмысленно. В справке OpenAI по ChatGPT search сказано, что для включения сайта важно разрешить обход OAI-SearchBot и не блокировать трафик с опубликованных IP-адресов. В документации по OpenAI crawlers отдельно поясняется, что GPTBot и OAI-SearchBot - это разные боты и разные сценарии. Один отвечает за обучение, другой - за поиск и показ источников.

Поэтому первый практический шаг здесь очень приземлённый: проверить robots.txt, CDN/WAF, серверные логи и убедиться, что нужных ботов вы не режете случайно.

2. Правильное понимание Google-Extended

Вокруг Google-Extended до сих пор много путаницы. В Google Search Central прямо сказано, что это robots token для управления использованием контента в Gemini Apps и Vertex AI grounding. Он не влияет на присутствие сайта в классическом Google Search и не является ranking signal.

Это полезно помнить, чтобы не тратить время на ложную задачу. Открыть или закрыть Google-Extended - это решение про использование контента в AI-продуктах Google, а не про рост обычных SEO-позиций.

3. Оформленные business signals

Исследование BotRank хорошо подсветило то, что SEO-команды и так видят на проектах руками: AI-системам проще доверять сайтам, у которых нет бардака в бизнес-данных.

Google рекомендует сначала оформить business details: подтвердить сайт в Search Console, заявить официальный сайт, следить за knowledge panel и заполнить Business Profile. Для локальных и сервисных компаний важна и разметка LocalBusiness, которая помогает явнее показать адрес, телефон, часы работы и другие данные о точке.

Если у вас несколько филиалов или несколько услуг, именно здесь обычно и начинаются проблемы: разные телефоны на сайте, устаревшие адреса, пустые карточки, неполные страницы услуг. Для обычного SEO это тоже плохо, но в AI-поиске такие противоречия особенно быстро ломают доверие к источнику.

4. Контент, который отвечает на реальные вопросы

Не сама цифра "50+ статей" дала рост визитов ботам. Скорее это сигнал, что у сайта есть покрытие по темам и интентам. Иначе говоря, AI-боту есть куда идти, когда он уточняет вопрос.

Хорошо работают не абстрактные тексты "обо всём", а страницы, которые закрывают понятные сценарии:

  • что это за услуга или продукт;
  • для кого он подходит;
  • сколько стоит или от чего зависит цена;
  • чем отличаются варианты;
  • как работает услуга в конкретном городе, нише или сегменте;
  • какие есть кейсы, ограничения и подтверждающие факты.

Если компании нужно навести порядок именно в таком контуре, это уже ближе к SEO-продвижению и техническому аудиту, чем к разовой правке robots.txt.

5. Измерение не только обхода, но и реальной видимости

Частые визиты бота ещё не значат, что бренд начнут цитировать в ChatGPT, Gemini или Perplexity. Бот мог прийти, прочитать страницу и не использовать её в ответе. Поэтому после базовой технической проверки команде нужен второй слой аналитики: какие страницы реально упоминаются, по каким вопросам бренд всплывает и где его стабильно обгоняют конкуренты.

Что делать SEO-команде без иллюзий

Если собрать всё в один рабочий план, получится довольно земная последовательность:

  1. Проверить, открыт ли доступ для OAI-SearchBot и других нужных краулеров.
  2. Убедиться, что CDN, firewall и хостинг не режут AI-ботов по сети.
  3. Привести в порядок Business Profile, контакты, адреса и страницы филиалов.
  4. Проверить Organization, LocalBusiness, Breadcrumb и другую базовую разметку там, где она уместна.
  5. Пересобрать ключевые сервисные и информационные страницы под реальные вопросы пользователя, а не под один ключ.
  6. Сравнивать не только crawl-логи, но и фактические цитирования бренда в AI-ответах.

Эта тема хорошо стыкуется и с BI и SEO-аналитикой, потому что без отдельного слоя измерений команда очень быстро начинает смотреть не туда. Вместо "нас реально показывают" остаётся только "бот заходил, значит всё хорошо", а это не одно и то же.

Вывод

Исследование про 68,9 млн визитов AI-краулеров полезно не из-за громкой цифры. Оно полезно потому, что возвращает разговор к понятным вещам. Сайты чаще обходят не за магический тег и не за модное слово в llms.txt. Их чаще обходят тогда, когда у сайта открытый доступ, чистая структура, внятные данные о бизнесе и контент, который можно разобрать без догадок.

Для SEO-команды это хорошая новость. Чтобы стать заметнее в AI-поиске, не нужно изобретать отдельную религию. Сначала надо убрать хаос на сайте, в данных о компании и в структуре контента. И только потом смотреть, как это влияет на реальное появление бренда в AI-ответах.

Источники для проверки

Оставьте свои контакты — мы перезвоним, разберёмся в задаче и предложим оптимальный путь. За плечами более 350 проектов, каждый из которых мы запускали с индивидуального подхода. Гарантируем экспертную консультацию в рабочее время.