По его данным, десять лет назад на две проиндексированные Google страницы приходился один посетитель, а сейчас Google сканирует 18 страниц, чтобы привести одного читателя. OpenAI делает это соотношение ещё хуже — один переход на 1 500 страниц, у Anthropic — один на 60 000. То есть ИИ-платформы массово используют чужой контент, но, хотя чат-боты ссылаются на источники, люди «не идут по ссылкам» и не читают первоисточник, что лишает издателей рекламных доходов и подрывает экономику СМИ.
Cloudflare создала технологии, например AI Labyrinth, которые создают «ловушки» для ИИ-ботов, игнорирующих запрет на копирование, чтобы помешать им забирать реальную информацию. Компания рассчитывает объединить крупнейших издателей и внедрить решение против массового автоматического сбора данных для ИИ.
Принс подчёркивает, что проблема затрагивает не только чат-боты, но и генеративные функции в почтовых сервисах и браузерах, где люди читают лишь пересказ без посещения оригинала, что угрожает устойчивости интернет-рынка контента.