Авторы исследования, проведенного Европейским вещательным союзом (EBU) при содействии вещательной корпорацией Би-би-си выявили, что ИИ-помощники дают искаженные ответы на запросы пользователей почти в половине случаев.
Согласно заявлению союза, профессиональные журналисты из 22 организаций общественных СМИ 18 стран, работающие на 14 языках, оценили более 3 тыс. ответов чат-ботов ChatGPT, Copilot, Gemini и Perplexity на точность, выбор источника информации, способность отделять мнение от фактов и предоставление контекста. Эксперты пришли к выводу о том, что "ИИ-помощники, которые уже являются ежедневным информационным порталом для миллионов людей, регулярно искажают новостной контент независимо от языка, региона или платформы ИИ, на которой проводится тестирование".
В 45% всех ответов ИИ, по их данным, содержится "как минимум одна значимая ошибка". В 31% ответов выявлены "серьезные проблемы с поиском источника: отсутствующие, вводящие в заблуждение или неверные атрибуции". Пятая часть всех ответов имеет серьезные проблемы с точностью, включая неверные детали и устаревшую информацию.
«Ошибки ИИ-инструментов — не технологическая случайность, а результат отсутствия прозрачных стандартов данных и системной валидации. Для снижения риска требуется доверенная инфраструктура, национальные модели и аудит качества — именно вокруг этого строится стратегический фокус развития ИИ в «Группе Астра», — говорит Станислав Ежов, директор по ИИ «Группы Астра».