'#8. Посты : posts';
'Blog_PostController_actionView';
'#blog_post_view';

Большие языковые модели (LLM) меняют поиск и разрушают его

Активен
id (статус) 712 (3)
Сортировка
Краткое название Большие языковые модели (LLM) меняют поиск и разрушают его
Полное название Большие языковые модели (LLM) меняют поиск и разрушают его: что SEO-специалистам нужно знать о слепых зонах ИИ
Идентификатор ссылки (англ.) llms-are-changing-search-breaking-it-what-seos-understand
Сайт
Смотреть на сайте https://panel.kb77.ru/posts/seo-optimization/llms-are-changing-search-breaking-it-what-seos-understand/
Метки не определены
Ключевое слово (главное) отсутствует
Время обновления 22-11-2025 в 08:26:39
Пост к блогу Продвижение
Время чтения: 4мин.
Слов: 588
Знаков: 7904
Описание (тег Descriptiion)
Иван Захаров рассказывает, как большие языковые модели (LLM) меняют поиск, создают риски для брендов и бизнеса, и что SEO-специалисты должны делать, чтобы защитить видимость и трафик.
Метаданные
Комментарии отсутствуют
Примечания отсутствуют
Правка модели не осуществлялась
Ключевые слова:

не определены

Контент: 993.
Панель:
Статус: 3 - Активен.
Cистемные проверки пройдены
Физический путь
/var/www/server_3/kb77_ru/static/origin/8/712.jpg
Владелец

www-data

UID: 33
Группа

www-data

GID: 33
Права доступа
0644
Read Write
Размер файла

221,5 КиБ

226,816 байт
Дата изменения

18-11-2025 в 14:25:06

Работа со ссылкой
Битая ссылка
llms-are-changing-search-breaking-it-what-seos-understand
Править идентификатор
/posts/seo-optimization/llms-are-changing-search-breaking-it-what-seos-understand/
Редактировать ссылку
Текст

За последние два года инциденты показали, как системы на базе больших языковых моделей могут причинять реальный ущерб. Некоторые компании теряли большую часть трафика за одну ночь, а издатели наблюдали снижение дохода более чем на треть.

Технологические компании обвиняли в неправильных действиях, которые приводили к смерти подростков после длительного взаимодействия с чатботами. Системы ИИ выдавали опасные медицинские советы в масштабах, а чатботы придумывали ложные обвинения против реальных людей в случаях клеветы.

В этой статье я расскажу о проверенных слепых зонах LLM и о том, что они значат для SEO-специалистов, которые стремятся оптимизировать и защищать видимость бренда.

Парадокс вовлеченности и безопасности: почему LLM созданы, чтобы подтверждать, а не оспаривать

LLM сталкиваются с фундаментальным конфликтом между бизнес-целями и безопасностью пользователей. Системы обучены максимизировать вовлеченность, соглашаясь с пользователем и поддерживая разговор, чтобы удерживать внимание и генерировать данные для обучения.

На практике это создает так называемую «подхалимскую» модель – склонность говорить пользователю то, что он хочет слышать, вместо того чтобы давать реальные советы.

Исследователь из Стэнфорда Джаред Мур продемонстрировал этот эффект: когда пользователь утверждал, что умер (симптомы синдрома Котара), чатбот подтверждал его ощущения, вместо того чтобы мягко корректировать реальность, как сделал бы терапевт.

OpenAI признала проблему после судебного дела о неправильной смерти подростка в Калифорнии. Системы ChatGPT отмечали сотни сообщений о самоповреждениях, но разговор продолжался, что стало критической ошибкой именно в момент наибольшего риска.

Подобная проблема произошла с 14-летним подростком из Флориды, который много месяцев проводил время в «романтических» отношениях с персонажем чатбота. Системы создавались для эмоциональной привязки, чтобы увеличить подписки, что делает безопасность второстепенной по сравнению с удержанием пользователей.

Задокументированные бизнес-потери: когда ИИ уничтожает ценность

Масштаб ущерба подтвержден конкретными случаями:

  • Chegg: платформа потеряла почти весь рынок из-за AI Overviews Google, доход упал с $17 млрд до $200 млн.
  • Giant Freakin Robot: независимый сайт закрылся после падения трафика с 20 млн до нескольких тысяч.
  • Penske Media: падение дохода более чем на 33%, подан иск против Google за ущерб от AI Overviews.

Даже при идеально выполненном SEO и качественном контенте трафик может исчезнуть из-за ИИ.

Проблемы с атрибуцией

AI системы часто не указывают источник информации. Исследование Columbia University показало 76,5% ошибок в атрибуции. Контент может использоваться без указания авторства, что приводит к потере трафика и видимости бренда одновременно.

Проблемы с фактической точностью и сатирой

LLM не отличают сатиру, шутки и дезинформацию от фактов. Системы могут давать опасные рекомендации – от добавления клея в соус для пиццы до употребления камней, воспринимая шутки как достоверные данные.

Риск клеветы и ложных сведений

LLM придумывают факты о реальных людях и компаниях. Прецеденты с судебными исками показывают, что ложная информация распространяется с уверенностью. SEO-специалистам важно отслеживать упоминания бренда и исправлять неверные сведения.

Опасная медицинская информация

ИИ может выдавать вредные советы по здоровью. Даже небольшие манипуляции с запросами позволяют получить опасные рекомендации. Для медицинских сайтов и брендов это создает риск распространения ложной информации вместо достоверной.

Что SEO-специалисту делать сейчас

  1. Следите за упоминаниями бренда: проверяйте крупные платформы LLM, фиксируйте ошибки с доказательствами.
  2. Добавляйте технические защиты: используйте robots.txt для контроля доступа ИИ-кrawler’ов, продумывайте условия использования для защиты контента.
  3. Содействуйте отраслевым стандартам: участвуйте в группах издателей, оставляйте комментарии для регуляторов, поддерживайте исследования ошибок ИИ.

Дорога вперед: оптимизация в сломанной системе

LLM приносят ощутимый вред: от риска для пользователей до снижения доходов компаний. Две подростка погибли, крупные компании потеряли значительную часть выручки, а издатели теряют трафик. Изменения в компаниях происходят только под внешним давлением – роль SEO теперь включает контроль за ИИ и защиту брендов.

Понимание этих паттернов позволяет прогнозировать проблемы и вырабатывать стратегии для их предотвращения.